CoreCode Docs
Referência completa para a CLI CoreCode. Aprenda desde a instalação até o uso avançado de agentes.
Primeiros Passos
Instalação
Instale o CoreCode globalmente via npm ou curl. Node.js 20 ou superior é necessário.
Via npm (recomendado)
npm install -g @estevamsl/corecodeVia curl
curl -fsSL https://raw.githubusercontent.com/estevam5s/CoreCode/main/install.sh | shVerificar instalação
corecode --version
# CoreCode v0.1.9Configuração
O CoreCode lê as chaves de API de variáveis de ambiente ou de um arquivo .env no seu diretório de trabalho. Crie o arquivo com as chaves dos provedores que deseja usar:
# .env file
GROQ_API_KEY=gsk_...
OPENAI_API_KEY=sk-proj-...
ANTHROPIC_API_KEY=sk-ant-...
GEMINI_API_KEY=AIza...
# Optional: default provider and model
CORECODE_DEFAULT_PROVIDER=groq
CORECODE_MODEL=llama-3.3-70b-versatileChave gratuita em console.groq.com — sem cartão de crédito.
Primeiro Uso
Execute corecode no terminal para iniciar o REPL interativo:
$ corecode
+ Any model. Every tool. Zero limits. +
┌────────────────────────────────────────────────┐
│ Provider Groq │
│ Model llama-3.3-70b-versatile │
│ Endpoint https://api.groq.com/openai/v1 │
└────────────────────────────────────────────────┘
● cloud Ready — type /help
> Referência Rápida
/helpExibe o menu de ajuda com todos os comandos./model <name>Mostra ou troca o modelo ativo. Use --all para buscar a lista completa da API./provider <name>Mostra ou troca o provedor. Disponíveis: groq, openai, gemini, anthropic, ollama, openai-compatible, mock./statusExibe o provedor, modelo, contagem de histórico e system prompt atual./clearLimpa o histórico da conversa. A IA começa do zero./exitSai do CoreCode.!<cmd>Executa um comando shell (com confirmação)/search <query>Busca na web via DuckDuckGo e injeta resultados no contexto.@<file>Lê um arquivo e adiciona ao contextoProvedores
O CoreCode suporta múltiplos provedores de IA. Alterne entre eles a qualquer momento com /provider <name>. O histórico da conversa é preservado durante as trocas.
Groq (Recomendado — Gratuito)
Inferência ultra-rápida em modelos open-source. Até 800 tokens/seg no llama-3.3-70b. Tier gratuito generoso. Sem cartão.
GROQ_API_KEY=gsk_your_key_here
# Start with Groq
corecode --provider groq --model llama-3.3-70b-versatileModelos disponíveis: llama-3.3-70b-versatile, llama-3.1-8b-instant, mixtral-8x7b-32768, gemma2-9b-it, deepseek-r1-distill-llama-70b
OpenAI
OPENAI_API_KEY=sk-proj-your_key_here
# Optional: custom base URL for OpenAI-compatible APIs
OPENAI_BASE_URL=https://api.openai.com/v1Modelos disponíveis: gpt-4o, gpt-4o-mini, o1, o3-mini, gpt-4-turbo
Gemini (Tier Gratuito)
Gemini 2.0 Flash e Pro. Tier gratuito via AI Studio. Ótimo para tarefas de contexto longo.
GEMINI_API_KEY=AIza_your_key_here
corecode --provider gemini --model gemini-2.0-flashAnthropic
Claude Sonnet, Opus e Haiku. Melhor raciocínio e seguimento de instruções. Ideal para tarefas agênticas complexas.
ANTHROPIC_API_KEY=sk-ant-your_key_here
corecode --provider anthropic --model claude-sonnet-4-6Ollama (100% Local)
Execute modelos completamente local. 100% privado. Sem internet após o download.
# Install Ollama and pull a model
ollama pull llama3.2
ollama pull qwen2.5-coder:7b
# No API key needed — CoreCode connects to localhost:11434
corecode --provider ollama --model llama3.2OpenAI-Compatible
LM Studio, vLLM, Together AI, OpenRouter, Mistral — qualquer endpoint compatível com OpenAI funciona.
OPENAI_BASE_URL=https://openrouter.ai/api/v1
OPENAI_API_KEY=your_openrouter_key
corecode --provider openai-compatible --model meta-llama/llama-3-70bReferência de Comandos
Todos os slash commands disponíveis no REPL do CoreCode:
/model/model | /model <name> | /model list | /model list --allMostra ou troca o modelo ativo. Use --all para buscar a lista completa da API.
/provider/provider | /provider <name> | /provider listMostra ou troca o provedor. Disponíveis: groq, openai, gemini, anthropic, ollama, openai-compatible, mock.
/add/add <provider> <model>Registra um modelo customizado para um provedor. Útil para modelos fine-tuned.
/system/system <prompt> | /system showDefine um system prompt customizado que se aplica a todas as mensagens da sessão.
/history/history | /history fullMostra o histórico da conversa (últimas 40 mensagens).
/clear/clearLimpa o histórico da conversa. A IA começa do zero.
/reset/resetLimpa o histórico E restaura o system prompt padrão.
/compact/compactComprime o histórico em um único resumo para liberar contexto.
/retry/retryReenvia sua última mensagem (remove o par user/assistant anterior).
/copy/copyCopia a última resposta da IA para o clipboard.
/status/statusExibe o provedor, modelo, contagem de histórico e system prompt atual.
/env/envMostra o status das chaves de API por provedor.
/version/version | -vExibe a versão instalada do CoreCode.
/tools/toolsLista as ferramentas disponíveis e seus status.
/save/save [filename]Salva a conversa atual como arquivo Markdown.
/export/export [filename]Alias para /save.
/key/key <provider> <api-key>Define uma chave de API para esta sessão (sem editar .env).
/help/helpExibe o menu de ajuda com todos os comandos.
/exit/exit | /quitSai do CoreCode.
/search/search <query>Busca na web via DuckDuckGo e injeta resultados no contexto.
Agente de Código
O agente de código do CoreCode lê os arquivos do projeto, entende o contexto, propõe mudanças como diffs e as aplica com sua aprovação.
Lendo Arquivos
Prefixe um arquivo com @ para lê-lo no contexto, ou mencione um arquivo naturalmente:
> @src/index.ts explain what this file does
> analyze the package.json and suggest improvements
> @src/**/*.ts find all TODO commentsAplicando Diffs
Quando a IA propõe mudanças, ela as marca com // FILE: path/to/file. O CoreCode exibe um diff colorido e pede confirmação antes de escrever:
> refactor the auth function in src/auth.ts to use async/await
● Here's the refactored version:
// FILE: src/auth.ts
- async function login(user, pass) {
- return new Promise((resolve) => { ... });
- }
+ async function login(user: string, pass: string): Promise<User> {
+ const result = await authService.verify(user, pass);
+ return result;
+ }
Apply this diff? [y/N] y
● Written: src/auth.tsFerramenta Bash
Prefixe um comando com ! para executá-lo no terminal. O CoreCode sempre pede confirmação antes de rodar:
> !npm test
● Execute: npm test ? [y/N] y
● Running...
PASS src/auth.test.ts
PASS src/utils.test.ts
Tests: 42 passed, 0 failedFerramentas
Ferramenta de Arquivo
Leia arquivos e injete-os no contexto da IA. Suporta padrões glob e limita o tamanho do arquivo a 100KB.
> @src/components/Button.tsx
> @src/**/*.test.ts # reads all test files
> Read the contents of src/config.ts and explain the optionsBusca na Web
Use /search para buscar na web. Os resultados são resumidos e injetados na conversa:
> /search TypeScript 5.5 new features
● Searching: "TypeScript 5.5 new features"...
● Found 3 results:
1. TypeScript 5.5 Release Notes — microsoft.github.io
Inferred type predicates, control flow narrowing improvements...
2. What's new in TypeScript 5.5 — dev.to
...Uso Avançado
Dicas e padrões avançados para tirar o máximo do CoreCode.
Gestão de Sessão
Gerencie conversas, salve histórico e compacte contextos longos:
# Save the current conversation
/save my-session.md
# Compact long history into a summary
/compact
# Retry the last message
/retry
# Copy last AI response to clipboard
/copyExport / Import
Exporte conversas como Markdown:
/export session-2026-04-06.md
# Saved to: session-2026-04-06.mdModelos Customizados
Adicione modelos fine-tuned ou endpoints customizados:
# Register a custom fine-tuned model
/add openai ft:gpt-4o-2024-08-06:my-org:my-model:abc123
# Now use it
/model ft:gpt-4o-2024-08-06:my-org:my-model:abc123Chaves de API em Runtime
Defina chaves sem editar o .env:
# Set a key without editing .env
/key groq gsk_your_new_key
# Switch provider using the new key
/provider groqConfiguração (.env Referência)
GROQ_API_KEYChave da API Groq em console.groq.comOPENAI_API_KEYChave da API OpenAI em platform.openai.comOPENAI_BASE_URLURL base customizada para APIs compatíveis com OpenAIANTHROPIC_API_KEYChave da API Anthropic em console.anthropic.comGEMINI_API_KEYChave da API Google Gemini em aistudio.google.comOLLAMA_BASE_URLURL base do Ollama (padrão: http://localhost:11434)CORECODE_DEFAULT_PROVIDERProvedor padrão (groq, openai, gemini, anthropic, ollama, mock)CORECODE_MODELModelo padrão para o provedor selecionadoCORECODE_SYSTEMSystem prompt padrão (opcional)