Todos os provedores de IA suportados
Alterne entre provedores com /provider <name>. O histórico da conversa é preservado. Sem necessidade de reiniciar.
Groq
FREE TIERInferência mais rápida do planeta
O Groq usa hardware LPU (Language Processing Unit) personalizado para atingir velocidades de inferência de 800+ tokens por segundo — 10–50x mais rápido que provedores baseados em GPU. Perfeito para sessões de codificação interativas onde latência importa.
Configuração
- 1.Acesse console.groq.com e crie uma conta gratuita
- 2.Navegue até API Keys e crie uma nova chave
- 3.Adicione GROQ_API_KEY=gsk_... ao seu arquivo .env
- 4.Execute: corecode --provider groq
GROQ_API_KEY=your_key_hereModelos disponíveis
llama-3.3-70b-versatile — Melhor qualidade, rápido. Padrão recomendado.llama-3.1-8b-instant — Mais rápido. Ótimo para tarefas simples.mixtral-8x7b-32768 — Janela de contexto 32k. Bom para arquivos longos.gemma2-9b-it — Gemma 2 do Google, ajustado para instruções.deepseek-r1-distill-llama-70b — Raciocínio avançado destilado do DeepSeek-R1.Exemplo
# Switch to Groq in the REPL > /provider groq ● groq · llama-3.3-70b-versatile > /model list ○ llama-3.3-70b-versatile ○ llama-3.1-8b-instant ○ mixtral-8x7b-32768
OpenAI
O padrão ouro para código
O GPT-4o e os modelos de raciocínio o3 da OpenAI se destacam em tarefas de código complexas, decisões de arquitetura e resolução de problemas em múltiplas etapas. O provedor mais utilizado para workflows de IA em produção.
Configuração
- 1.Acesse platform.openai.com e crie uma conta
- 2.Adicione um método de pagamento (necessário para acesso à API)
- 3.Crie uma chave de API na seção de API keys
- 4.Adicione OPENAI_API_KEY=sk-proj-... ao seu arquivo .env
OPENAI_API_KEY=your_key_hereModelos disponíveis
gpt-4o — Melhor modelo GPT. Excelente para código.gpt-4o-mini — Mais rápido e mais barato. Ótimo para tarefas rápidas.o3-mini — Modelo de raciocínio. Ótimo para problemas complexos.gpt-4-turbo — Contexto 128k. Para grandes bases de código.Exemplo
> /provider openai ● openai · gpt-4o > explain the trade-offs between REST and GraphQL ● REST and GraphQL both solve API design...
Gemini
FREE TIERA potência multimodal do Google
O Google Gemini 2.0 Flash é um dos modelos mais rápidos e econômicos disponíveis. Excelente janela de contexto (até 1M tokens) o torna ideal para analisar grandes bases de código.
Configuração
- 1.Acesse aistudio.google.com e entre com sua conta Google
- 2.Clique em 'Get API key' e crie uma nova chave
- 3.Adicione GEMINI_API_KEY=AIza... ao seu arquivo .env
- 4.Execute: corecode --provider gemini
GEMINI_API_KEY=your_key_hereModelos disponíveis
gemini-2.0-flash — Gemini mais rápido. Melhor para uso diário.gemini-1.5-pro — Contexto 2M tokens. Analise repositórios inteiros.gemini-1.5-flash — Velocidade e qualidade balanceadas.Exemplo
> /provider gemini ● gemini · gemini-2.0-flash > @src/**/*.ts analyze this entire codebase ● I can see 47 TypeScript files. Here's my analysis...
Anthropic
Melhor para raciocínio e revisão de código
O Claude Sonnet da Anthropic se posiciona consistentemente no topo dos benchmarks de codificação. Excepcional para entender bases de código complexas, escrever código bem documentado e raciocínio em múltiplas etapas.
Configuração
- 1.Acesse console.anthropic.com e crie uma conta
- 2.Navegue até API Keys e gere uma chave
- 3.Adicione ANTHROPIC_API_KEY=sk-ant-... ao seu arquivo .env
- 4.Execute: corecode --provider anthropic
ANTHROPIC_API_KEY=your_key_hereModelos disponíveis
claude-sonnet-4-6 — Melhor modelo Anthropic. Alto desempenho em código.claude-opus-4-6 — Mais poderoso para raciocínio complexo.claude-haiku-4-5-20251001 — Claude rápido e acessível.Exemplo
> /provider anthropic ● anthropic · claude-sonnet-4-6 > review this auth function for security issues ● I found 3 potential security concerns...
Ollama
FREE100% local, custo zero, privacidade total
O Ollama permite executar modelos open-source completamente na sua máquina. Sem chave de API, sem internet necessária, sem dados saindo do seu computador. Perfeito para bases de código sensíveis ou desenvolvimento offline.
Configuração
- 1.Baixe o Ollama em ollama.ai para o seu sistema operacional
- 2.Execute: ollama pull llama3.2 (ou qualquer modelo desejado)
- 3.O Ollama roda em localhost:11434 automaticamente
- 4.Sem chave de API — apenas execute corecode --provider ollama
Modelos disponíveis
llama3.2 — Último 3B da Meta. Rápido no Apple Silicon.qwen2.5-coder:7b — Melhor modelo local para código.codellama:13b — LLaMA especializado em código.deepseek-coder-v2 — Excelente qualidade de código.phi4 — Modelo de 14B da Microsoft. Supera seu tamanho.Exemplo
# Pull a model first $ ollama pull qwen2.5-coder:7b > /provider ollama ● ollama · llama3.2 > /model qwen2.5-coder:7b ● qwen2.5-coder:7b
Mock
FREEProvedor de testes sem dependências
O provedor Mock gera respostas determinísticas sem nenhuma chamada de API. Ideal para testar integrações do CoreCode, pipelines CI/CD, ou quando você quer demonstrar a UI sem usar chaves de API reais.
Configuração
- 1.Sem configuração necessária — Mock é embutido
- 2.Execute: corecode --provider mock
- 3.Ou troque no REPL: /provider mock
Modelos disponíveis
mock-instant — Respostas instantâneas. Sem delay.mock-smart — Simula delay de digitação realista.Exemplo
> /provider mock ● mock · mock-instant > hello world ● [Mock] This is a mock response to: "hello world" Provider: mock | Model: mock-instant
APIs Compatíveis com OpenAI
O CoreCode suporta qualquer API que siga o formato de chat completions da OpenAI. Isso inclui Azure OpenAI Service, Perplexity AI, Together AI, Fireworks AI, Anyscale, vLLM auto-hospedado, e muito mais.