trustgraph
3
总安装量
2
周安装量
#59054
全站排名
安装命令
npx skills add https://github.com/zurybr/trustgraph --skill trustgraph
Agent 安装分布
mcpjam
2
claude-code
2
replit
2
junie
2
windsurf
2
zencoder
2
Skill 文档
TrustGraph Skill
GuÃa completa para operar TrustGraph – tu “segundo cerebro” digital para el workspace.
¿Qué es TrustGraph?
Sistema de memoria basado en grafos de conocimiento que:
- Conecta documentación mediante relaciones semánticas
- Permite consultas inteligentes usando GraphRAG (no solo búsqueda por palabras clave)
- Almacena datos en Cassandra (grafo) y Qdrant (vectores)
- Expone API REST y UI web en localhost:8888
Requisitos Previos
- Docker y Docker Compose instalados
- Python 3.x con
httpx(pip install httpx) - API key de LLM (OpenAI, Anthropic, Z.AI, Kimi, MiniMax, o Ollama local)
Flujos de Trabajo
1. Setup Inicial (Primera vez)
Opción A – Wizard Interactivo (Recomendado):
# Setup completo con menús navegables
./setup.sh makeenv
# ââ para navegar, ENTER para seleccionar
# O usando make:
make makeenv
Opción B – Setup Manual:
# 1. Configurar variables de entorno manualmente
cp .env.example .env
nano .env # Editar con tus API keys
# 2. Crear directorios de datos
make setup
2. Iniciar TrustGraph
# Iniciar todos los servicios
make up
# Verificar estado
make status
make health
# Ver logs en tiempo real
make logs
Servicios disponibles después de iniciar:
- Workbench UI: http://localhost:8888
- API Gateway: http://localhost:8080
- Grafana: http://localhost:3000 (admin/admin)
3. Cargar Documentación
# Cargar documentación del workspace
make load
# O con opciones avanzadas:
python scripts/load_docs.py --dry-run # Simular sin enviar
python scripts/load_docs.py --category trustgraph # Filtrar por categorÃa
python scripts/load_docs.py /ruta/a/docs # Directorio especÃfico
Nota: La primera carga puede tardar varios minutos dependiendo del volumen.
4. Consultar Memoria (GraphRAG)
# Modo interactivo (recomendado)
make query
# Búsqueda directa
make search QUERY="¿Qué es TrustGraph?"
# Comandos avanzados:
python scripts/query_graphrag.py "tu pregunta aquÃ"
python scripts/query_graphrag.py --search "término"
python scripts/query_graphrag.py --graph --depth 3
python scripts/query_graphrag.py --cores
5. Detener y Limpiar
# Detener servicios (conserva datos)
make down
# Limpieza completa (â ï¸ elimina todos los datos)
make clean
# Resetear y recargar
make reset
Comandos Makefile Rápidos
| Comando | Descripción |
|---|---|
make help |
Ver todos los comandos |
make makeenv |
Wizard interactivo de configuración |
make setup |
Configuración inicial |
make up |
Iniciar servicios |
make down |
Detener servicios |
make status |
Estado de servicios |
make health |
Health check |
make logs |
Ver logs |
make load |
Cargar documentación |
make query |
Modo interactivo |
make provider |
Cambiar de proveedor LLM |
make search QUERY="..." |
Búsqueda rápida |
make clean |
Limpieza total |
make backup |
Crear backup |
make restore |
Restaurar backup |
Configuración (.env)
Variables esenciales:
# Proveedor de LLM: openai, anthropic, zai, kimi, minimax, ollama
LLM_PROVIDER=openai
OPENAI_API_KEY=sk-your-key
# O usar Z.AI (æºè°±AI/GLM)
LLM_PROVIDER=zai
ZAI_API_KEY=your-zai-key
ZAI_MODEL=glm-5
# O usar Kimi (Moonshot AI)
LLM_PROVIDER=kimi
KIMI_API_KEY=sk-kimi-your-key
KIMI_MODEL=kimi-k2
# O usar MiniMax
LLM_PROVIDER=minimax
MINIMAX_API_KEY=your-minimax-key
MINIMAX_MODEL=MiniMax-M2.5
# Ollama local
LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
# Configuración del proyecto
CONTEXT_CORE_ID=documentation
COLLECTION_NAME=docs
Cambio Rápido de Proveedor
Wizard Interactivo (recomendado para configuración inicial):
# Configuración completa con menús navegables
make makeenv
# ââ para navegar entre proveedores, ENTER para seleccionar
Cambio rápido de proveedor:
# Ver estado actual y menú interactivo
make provider
# Cambiar directamente a cualquier proveedor
make provider USE=zai # Z.AI (GLM-5)
make provider USE=kimi # Kimi (K2)
make provider USE=minimax # MiniMax (M2.5)
make provider USE=openai # OpenAI (GPT-4o)
make provider USE=ollama # Modelos locales
# Reiniciar para aplicar cambios
docker compose restart
API REST
Endpoints principales:
# Health check
curl http://localhost:8080/api/v1/health
# GraphRAG query
curl -X POST http://localhost:8080/api/v1/graphrag/query \
-H "Content-Type: application/json" \
-d '{
"query": "¿Qué es TrustGraph?",
"context_core": "documentation",
"include_sources": true
}'
# Vector search
curl -X POST http://localhost:8080/api/v1/search/vector \
-H "Content-Type: application/json" \
-d '{
"query": "arquitectura del sistema",
"collection": "docs",
"limit": 5
}'
Troubleshooting
TrustGraph no responde
# Verificar servicios
docker compose ps
# Ver logs
docker compose logs -f workbench
docker compose logs -f graphrag
# Reiniciar
docker compose restart
Error de API Key
# Verificar variable
echo $OPENAI_API_KEY
# Recargar .env
source .env
# Reiniciar servicios
docker compose restart
Puerto ocupado
# Encontrar proceso
lsof -i :8888
# Matar o cambiar puerto en docker-compose.yaml
Problemas de ingesta
# Verificar que Pulsar esté listo
docker compose logs pulsar
# Reintentar carga
python scripts/load_docs.py --retries 3
Recursos del Sistema
| Recurso | MÃnimo | Recomendado |
|---|---|---|
| CPU | 4 cores | 8+ cores |
| RAM | 8 GB | 16+ GB |
| Disco | 50 GB SSD | 100+ GB SSD |
Arquitectura Resumida
Usuario â Workbench/UI â API Gateway â GraphRAG/Knowledge Builder
â
Cassandra (Grafo) â Pulsar â Qdrant (Vectores)
Pipeline de Datos
- Ingesta: Documentos â Knowledge Builder
- Procesamiento: Extracción de entidades y relaciones
- Almacenamiento: Triples â Cassandra, Embeddings â Qdrant
- Consulta: Query â Vector Search â Graph Traversal â Respuesta