Documentação

CoreCode Docs

Referência completa para a CLI CoreCode. Aprenda desde a instalação até o uso avançado de agentes.

Primeiros Passos

Instalação

Instale o CoreCode globalmente via npm ou curl. Node.js 20 ou superior é necessário.

Via npm (recomendado)

bash
npm install -g @estevamsl/corecode

Via curl

bash
curl -fsSL https://raw.githubusercontent.com/estevam5s/CoreCode/main/install.sh | sh

Verificar instalação

bash
corecode --version
# CoreCode v0.1.9

Configuração

O CoreCode lê as chaves de API de variáveis de ambiente ou de um arquivo .env no seu diretório de trabalho. Crie o arquivo com as chaves dos provedores que deseja usar:

.env
# .env file
GROQ_API_KEY=gsk_...
OPENAI_API_KEY=sk-proj-...
ANTHROPIC_API_KEY=sk-ant-...
GEMINI_API_KEY=AIza...

# Optional: default provider and model
CORECODE_DEFAULT_PROVIDER=groq
CORECODE_MODEL=llama-3.3-70b-versatile

Chave gratuita em console.groq.com sem cartão de crédito.

Primeiro Uso

Execute corecode no terminal para iniciar o REPL interativo:

shell
$ corecode

 + Any model. Every tool. Zero limits. +

┌────────────────────────────────────────────────┐
│  Provider    Groq                              │
│  Model       llama-3.3-70b-versatile          │
│  Endpoint    https://api.groq.com/openai/v1   │
└────────────────────────────────────────────────┘

 ● cloud   Ready — type /help

> 

Referência Rápida

/helpExibe o menu de ajuda com todos os comandos.
/model <name>Mostra ou troca o modelo ativo. Use --all para buscar a lista completa da API.
/provider <name>Mostra ou troca o provedor. Disponíveis: groq, openai, gemini, anthropic, ollama, openai-compatible, mock.
/statusExibe o provedor, modelo, contagem de histórico e system prompt atual.
/clearLimpa o histórico da conversa. A IA começa do zero.
/exitSai do CoreCode.
!<cmd>Executa um comando shell (com confirmação)
/search <query>Busca na web via DuckDuckGo e injeta resultados no contexto.
@<file>Lê um arquivo e adiciona ao contexto

Provedores

O CoreCode suporta múltiplos provedores de IA. Alterne entre eles a qualquer momento com /provider <name>. O histórico da conversa é preservado durante as trocas.

Groq (Recomendado — Gratuito)

Inferência ultra-rápida em modelos open-source. Até 800 tokens/seg no llama-3.3-70b. Tier gratuito generoso. Sem cartão.

bash
GROQ_API_KEY=gsk_your_key_here

# Start with Groq
corecode --provider groq --model llama-3.3-70b-versatile

Modelos disponíveis: llama-3.3-70b-versatile, llama-3.1-8b-instant, mixtral-8x7b-32768, gemma2-9b-it, deepseek-r1-distill-llama-70b

OpenAI

bash
OPENAI_API_KEY=sk-proj-your_key_here

# Optional: custom base URL for OpenAI-compatible APIs
OPENAI_BASE_URL=https://api.openai.com/v1

Modelos disponíveis: gpt-4o, gpt-4o-mini, o1, o3-mini, gpt-4-turbo

Gemini (Tier Gratuito)

Gemini 2.0 Flash e Pro. Tier gratuito via AI Studio. Ótimo para tarefas de contexto longo.

bash
GEMINI_API_KEY=AIza_your_key_here

corecode --provider gemini --model gemini-2.0-flash

Anthropic

Claude Sonnet, Opus e Haiku. Melhor raciocínio e seguimento de instruções. Ideal para tarefas agênticas complexas.

bash
ANTHROPIC_API_KEY=sk-ant-your_key_here

corecode --provider anthropic --model claude-sonnet-4-6

Ollama (100% Local)

Execute modelos completamente local. 100% privado. Sem internet após o download.

bash
# Install Ollama and pull a model
ollama pull llama3.2
ollama pull qwen2.5-coder:7b

# No API key needed — CoreCode connects to localhost:11434
corecode --provider ollama --model llama3.2

OpenAI-Compatible

LM Studio, vLLM, Together AI, OpenRouter, Mistral — qualquer endpoint compatível com OpenAI funciona.

bash
OPENAI_BASE_URL=https://openrouter.ai/api/v1
OPENAI_API_KEY=your_openrouter_key

corecode --provider openai-compatible --model meta-llama/llama-3-70b

Referência de Comandos

Todos os slash commands disponíveis no REPL do CoreCode:

/model
/model | /model <name> | /model list | /model list --all

Mostra ou troca o modelo ativo. Use --all para buscar a lista completa da API.

/provider
/provider | /provider <name> | /provider list

Mostra ou troca o provedor. Disponíveis: groq, openai, gemini, anthropic, ollama, openai-compatible, mock.

/add
/add <provider> <model>

Registra um modelo customizado para um provedor. Útil para modelos fine-tuned.

/system
/system <prompt> | /system show

Define um system prompt customizado que se aplica a todas as mensagens da sessão.

/history
/history | /history full

Mostra o histórico da conversa (últimas 40 mensagens).

/clear
/clear

Limpa o histórico da conversa. A IA começa do zero.

/reset
/reset

Limpa o histórico E restaura o system prompt padrão.

/compact
/compact

Comprime o histórico em um único resumo para liberar contexto.

/retry
/retry

Reenvia sua última mensagem (remove o par user/assistant anterior).

/copy
/copy

Copia a última resposta da IA para o clipboard.

/status
/status

Exibe o provedor, modelo, contagem de histórico e system prompt atual.

/env
/env

Mostra o status das chaves de API por provedor.

/version
/version | -v

Exibe a versão instalada do CoreCode.

/tools
/tools

Lista as ferramentas disponíveis e seus status.

/save
/save [filename]

Salva a conversa atual como arquivo Markdown.

/export
/export [filename]

Alias para /save.

/key
/key <provider> <api-key>

Define uma chave de API para esta sessão (sem editar .env).

/help
/help

Exibe o menu de ajuda com todos os comandos.

/exit
/exit | /quit

Sai do CoreCode.

/search
/search <query>

Busca na web via DuckDuckGo e injeta resultados no contexto.

Agente de Código

O agente de código do CoreCode lê os arquivos do projeto, entende o contexto, propõe mudanças como diffs e as aplica com sua aprovação.

Lendo Arquivos

Prefixe um arquivo com @ para lê-lo no contexto, ou mencione um arquivo naturalmente:

shell
> @src/index.ts explain what this file does

> analyze the package.json and suggest improvements

> @src/**/*.ts find all TODO comments

Aplicando Diffs

Quando a IA propõe mudanças, ela as marca com // FILE: path/to/file. O CoreCode exibe um diff colorido e pede confirmação antes de escrever:

bash
> refactor the auth function in src/auth.ts to use async/await

 ● Here's the refactored version:

// FILE: src/auth.ts
- async function login(user, pass) {
-   return new Promise((resolve) => { ... });
- }
+ async function login(user: string, pass: string): Promise<User> {
+   const result = await authService.verify(user, pass);
+   return result;
+ }

Apply this diff? [y/N] y
 ● Written: src/auth.ts

Ferramenta Bash

Prefixe um comando com ! para executá-lo no terminal. O CoreCode sempre pede confirmação antes de rodar:

bash
> !npm test
 ● Execute: npm test ? [y/N] y
 ● Running...

  PASS src/auth.test.ts
  PASS src/utils.test.ts
  Tests: 42 passed, 0 failed

Ferramentas

Ferramenta de Arquivo

Leia arquivos e injete-os no contexto da IA. Suporta padrões glob e limita o tamanho do arquivo a 100KB.

bash
> @src/components/Button.tsx

> @src/**/*.test.ts  # reads all test files

> Read the contents of src/config.ts and explain the options

Uso Avançado

Dicas e padrões avançados para tirar o máximo do CoreCode.

Gestão de Sessão

Gerencie conversas, salve histórico e compacte contextos longos:

bash
# Save the current conversation
/save my-session.md

# Compact long history into a summary
/compact

# Retry the last message
/retry

# Copy last AI response to clipboard
/copy

Export / Import

Exporte conversas como Markdown:

bash
/export session-2026-04-06.md
# Saved to: session-2026-04-06.md

Modelos Customizados

Adicione modelos fine-tuned ou endpoints customizados:

bash
# Register a custom fine-tuned model
/add openai ft:gpt-4o-2024-08-06:my-org:my-model:abc123

# Now use it
/model ft:gpt-4o-2024-08-06:my-org:my-model:abc123

Chaves de API em Runtime

Defina chaves sem editar o .env:

bash
# Set a key without editing .env
/key groq gsk_your_new_key

# Switch provider using the new key
/provider groq

Configuração (.env Referência)

GROQ_API_KEYChave da API Groq em console.groq.com
OPENAI_API_KEYChave da API OpenAI em platform.openai.com
OPENAI_BASE_URLURL base customizada para APIs compatíveis com OpenAI
ANTHROPIC_API_KEYChave da API Anthropic em console.anthropic.com
GEMINI_API_KEYChave da API Google Gemini em aistudio.google.com
OLLAMA_BASE_URLURL base do Ollama (padrão: http://localhost:11434)
CORECODE_DEFAULT_PROVIDERProvedor padrão (groq, openai, gemini, anthropic, ollama, mock)
CORECODE_MODELModelo padrão para o provedor selecionado
CORECODE_SYSTEMSystem prompt padrão (opcional)