TRILHA 1

🧠 Fundamentos do INTELECTO

Entenda a filosofia "sem frameworks inchados", a arquitetura dos 5 componentes e configure seu ambiente do zero até enviar a primeira mensagem.

3
Módulos
18
Tópicos
~3h
Duração
Básico
Nível
Conteúdo Detalhado
1.1 ~60 min

🧠 O que é o INTELECTO

Filosofia "sem frameworks inchados", o conceito de mercearia de features e por que construir do zero faz sentido.

O que é:

Frameworks como LangChain e CrewAI abstraem tudo, mas adicionam camadas de complexidade desnecessária que tornam depuração e customização um pesadelo.

Por que aprender:

Entender os trade-offs permite escolher conscientemente quando usar um framework e quando construir do zero — uma habilidade rara no mercado.

Conceitos-chave:

Abstraction tax, vendor lock-in, zero-dependency philosophy, controle total do código.

O que é:

O INTELECTO é organizado como uma mercearia: você vai em cada corredor (corredor de segurança, memória, canais...) e pega apenas o que precisa para o seu assistente.

Por que aprender:

Esse modelo mental evita over-engineering. Você não instala o que não vai usar, mantendo o sistema leve, auditável e fácil de manter.

Conceitos-chave:

8 corredores funcionais, composição modular, feature flags, ingredientes de framework.

O que é:

Uma análise objetiva das diferenças: LangChain tem 200+ dependências, CrewAI força um modelo de agentes rígido. INTELECTO tem zero dependências obrigatórias além do Python.

Por que aprender:

Saber defender tecnicamente sua escolha é essencial para times e clientes. Você precisa dos números e argumentos.

Conceitos-chave:

Tamanho do pacote, tempo de startup, latência de debug, custo de manutenção, curva de aprendizado.

O que é:

Jarvis conhece seu criador, lembra de conversas anteriores, age proativamente e executa tarefas no mundo real. Um chatbot genérico apenas responde perguntas.

Por que aprender:

Define o nível de ambição correto. Você está construindo algo que vai crescer com você, não uma demo descartável.

Conceitos-chave:

Identidade persistente, memória de longo prazo, ação no mundo real, personalização profunda.

O que é:

Cada arquivo tem uma responsabilidade clara: context.py monta o system prompt, loop.py gerencia o ciclo de raciocínio, secrets.py protege credenciais.

Por que aprender:

Conhecer o mapa antes de mergulhar no código economiza horas de orientação perdida. Cada modificação acontece no lugar certo.

Conceitos-chave:

context.py, loop.py, secrets.py, safety.py, store.py, providers/base.py, channels/base.py, tools/base.py.

O que é:

Com APIs de LLM maduras e estáveis, o custo de abstração dos frameworks supera os benefícios para projetos sérios. Python puro + contratos claros é suficiente.

Por que aprender:

O mercado está saturado de desenvolvedores que só sabem usar wrappers. Quem entende os fundamentos tem vantagem competitiva real.

Conceitos-chave:

Maturidade de API, custo de abstração, vantagem competitiva, contratos de interface, manutenção a longo prazo.

Ver Completo
1.2 ~60 min

🏗 Arquitetura Geral

Como os 5 componentes se conectam e o fluxo completo de uma mensagem do Telegram até a resposta.

O que é:

O INTELECTO tem exatamente 5 responsabilidades: o agente central que pensa, os provedores que acessam LLMs, os canais que recebem mensagens, a memória que persiste contexto e as ferramentas que agem no mundo.

Por que aprender:

Cada componente tem fronteira clara. Saber onde um termina e outro começa é o que permite adicionar features sem quebrar o sistema.

Conceitos-chave:

Separation of concerns, contratos de interface, injeção de dependência, composição modular.

O que é:

Usuário → Telegram → Channel.receive() → Agent.loop() → Memory.search() → Provider.chat() → Tool.execute() → Memory.store() → Channel.send() → Usuário. Cada seta é uma chamada de função com contrato definido.

Por que aprender:

Visualizar o fluxo completo permite identificar onde debugar quando algo falha e onde otimizar quando está lento.

Conceitos-chave:

Pipeline de processamento, async/await, tratamento de erros em cascata, observabilidade.

O que é:

O loop.py implementa um ciclo de raciocínio: recebe mensagem → pensa → decide usar tool ou responder → se usou tool, repensa com o resultado → até 5 iterações por segurança.

Por que aprender:

O limite de 5 rounds previne loops infinitos e custos descontrolados. Entender o ciclo permite ajustar a profundidade de raciocínio para cada caso de uso.

Conceitos-chave:

ReAct pattern, tool calling, max iterations, custo por round, circuit breaker para loops.

O que é:

O diretório workspace/ contém arquivos Markdown que definem a personalidade (SOUL.md), as regras de comportamento (AGENTS.md) e os fatos de bootstrap (MEMORY.md) injetados em todo system prompt.

Por que aprender:

Toda customização da IA começa aqui. Mudar o Jarvis não requer alterar código — apenas os arquivos de workspace.

Conceitos-chave:

Configuration as code, system prompt construction, context injection, SOUL.md como identidade.

O que é:

Cada categoria de extensão tem uma classe base abstrata com métodos obrigatórios. BaseProvider exige async chat(). BaseChannel exige start(), send(), stop(). BaseTool exige name, description, execute().

Por que aprender:

Os contratos garantem que qualquer implementação funciona com o resto do sistema automaticamente. É como um plug padronizado — qualquer dispositivo que respeita o padrão funciona na tomada.

Conceitos-chave:

Abstract base class, duck typing, protocol pattern, plug-and-play architecture.

O que é:

Três arquivos críticos em ~/.intelecto/: memory.db (banco SQLite com histórico e fatos), .secrets (chaves criptografadas com Fernet + UUID do hardware) e audit.log (registro de todas as ações).

Por que aprender:

Entender onde os dados vivem é essencial para backup, migração e diagnóstico. Você nunca deve perder a memória do seu Jarvis por acidente.

Conceitos-chave:

Home directory pattern, SQLite portabilidade, encrypted secrets, audit trail, backup strategy.

Ver Completo
1.3 ~60 min

⚙ Setup do Ambiente

Do zero ao Jarvis funcionando: Python, Docker, OpenRouter, .env e primeira mensagem no Telegram.

O que é:

Python 3.11+ é obrigatório. As dependências são mínimas: httpx para HTTP async, python-telegram-bot para o canal, cryptography para Fernet. Nenhum LangChain, nenhum CrewAI.

Por que aprender:

Conhecer as dependências reais permite auditar o que está instalado e entender por que cada pacote existe no projeto.

Conceitos-chave:

venv, requirements.txt minimalista, Python 3.11 features, async nativo.

O que é:

OpenRouter é um proxy de LLMs que dá acesso a GPT-4, Claude, Mistral, Llama e outros 100+ modelos com uma única chave de API e billing unificado.

Por que aprender:

Evita vendor lock-in com um provedor específico. Se a Anthropic subir o preço, você muda para Mistral em 10 segundos mudando uma variável de ambiente.

Conceitos-chave:

API key management, model routing, cost tracking, fallback strategy, modelo por tarefa.

O que é:

O arquivo .env define OPENROUTER_API_KEY, TELEGRAM_BOT_TOKEN, MODEL_NAME e outros parâmetros sem hard-code no código. O .env NUNCA vai para o git.

Por que aprender:

Separar configuração de código é uma prática de segurança fundamental. Chaves no código são a causa número 1 de vazamentos em repositórios públicos.

Conceitos-chave:

12-factor app, .gitignore, python-dotenv, environment variables, secrets management.

O que é:

O script setup.py faz perguntas interativas: qual canal usar? Docker ou nativo? Qual modelo padrão? E configura tudo automaticamente criando os arquivos necessários.

Por que aprender:

O wizard elimina erros de configuração manual e garante que nada obrigatório seja esquecido. É a porta de entrada para novos usuários.

Conceitos-chave:

Interactive CLI, configuration generation, guided onboarding, validation de inputs.

O que é:

Docker oferece isolamento e deploy reproduzível. Nativo oferece menor overhead e debug mais direto. Para desenvolvimento use nativo; para produção, Docker Compose.

Por que aprender:

A escolha afeta como você debugga, como faz backup e como atualiza o sistema. Entender os trade-offs evita surpresas em produção.

Conceitos-chave:

Container isolation, volume mounts, docker-compose.yml, desenvolvimento vs produção.

O que é:

O momento de validação: rodar python main.py, abrir o Telegram, enviar "Olá" e receber a primeira resposta do seu Jarvis. Se funcionar, toda a stack está correta.

Por que aprender:

O smoke test inicial valida cada componente de ponta a ponta: canal, agente, provedor, memória. É o marco que separa "configurado" de "funcionando".

Conceitos-chave:

Smoke test, end-to-end validation, BotFather token, webhook vs polling, debug de primeira execução.

Ver Completo
← Início Próxima Trilha →