Provedores

Todos os provedores de IA suportados

Alterne entre provedores com /provider <name>. O histórico da conversa é preservado. Sem necessidade de reiniciar.

G

Groq

FREE TIER

Inferência mais rápida do planeta

Obter chave de API

O Groq usa hardware LPU (Language Processing Unit) personalizado para atingir velocidades de inferência de 800+ tokens por segundo — 10–50x mais rápido que provedores baseados em GPU. Perfeito para sessões de codificação interativas onde latência importa.

Configuração

  1. 1.Acesse console.groq.com e crie uma conta gratuita
  2. 2.Navegue até API Keys e crie uma nova chave
  3. 3.Adicione GROQ_API_KEY=gsk_... ao seu arquivo .env
  4. 4.Execute: corecode --provider groq
GROQ_API_KEY=your_key_here

Modelos disponíveis

llama-3.3-70b-versatileMelhor qualidade, rápido. Padrão recomendado.
llama-3.1-8b-instantMais rápido. Ótimo para tarefas simples.
mixtral-8x7b-32768Janela de contexto 32k. Bom para arquivos longos.
gemma2-9b-itGemma 2 do Google, ajustado para instruções.
deepseek-r1-distill-llama-70bRaciocínio avançado destilado do DeepSeek-R1.

Exemplo

# Switch to Groq in the REPL
> /provider groq
 ● groq · llama-3.3-70b-versatile

> /model list
 ○ llama-3.3-70b-versatile
 ○ llama-3.1-8b-instant
 ○ mixtral-8x7b-32768
O

OpenAI

O padrão ouro para código

Obter chave de API

O GPT-4o e os modelos de raciocínio o3 da OpenAI se destacam em tarefas de código complexas, decisões de arquitetura e resolução de problemas em múltiplas etapas. O provedor mais utilizado para workflows de IA em produção.

Configuração

  1. 1.Acesse platform.openai.com e crie uma conta
  2. 2.Adicione um método de pagamento (necessário para acesso à API)
  3. 3.Crie uma chave de API na seção de API keys
  4. 4.Adicione OPENAI_API_KEY=sk-proj-... ao seu arquivo .env
OPENAI_API_KEY=your_key_here

Modelos disponíveis

gpt-4oMelhor modelo GPT. Excelente para código.
gpt-4o-miniMais rápido e mais barato. Ótimo para tarefas rápidas.
o3-miniModelo de raciocínio. Ótimo para problemas complexos.
gpt-4-turboContexto 128k. Para grandes bases de código.

Exemplo

> /provider openai
 ● openai · gpt-4o

> explain the trade-offs between REST and GraphQL

 ● REST and GraphQL both solve API design...
G

Gemini

FREE TIER

A potência multimodal do Google

Obter chave de API

O Google Gemini 2.0 Flash é um dos modelos mais rápidos e econômicos disponíveis. Excelente janela de contexto (até 1M tokens) o torna ideal para analisar grandes bases de código.

Configuração

  1. 1.Acesse aistudio.google.com e entre com sua conta Google
  2. 2.Clique em 'Get API key' e crie uma nova chave
  3. 3.Adicione GEMINI_API_KEY=AIza... ao seu arquivo .env
  4. 4.Execute: corecode --provider gemini
GEMINI_API_KEY=your_key_here

Modelos disponíveis

gemini-2.0-flashGemini mais rápido. Melhor para uso diário.
gemini-1.5-proContexto 2M tokens. Analise repositórios inteiros.
gemini-1.5-flashVelocidade e qualidade balanceadas.

Exemplo

> /provider gemini
 ● gemini · gemini-2.0-flash

> @src/**/*.ts analyze this entire codebase

 ● I can see 47 TypeScript files. Here's my analysis...
A

Anthropic

Melhor para raciocínio e revisão de código

Obter chave de API

O Claude Sonnet da Anthropic se posiciona consistentemente no topo dos benchmarks de codificação. Excepcional para entender bases de código complexas, escrever código bem documentado e raciocínio em múltiplas etapas.

Configuração

  1. 1.Acesse console.anthropic.com e crie uma conta
  2. 2.Navegue até API Keys e gere uma chave
  3. 3.Adicione ANTHROPIC_API_KEY=sk-ant-... ao seu arquivo .env
  4. 4.Execute: corecode --provider anthropic
ANTHROPIC_API_KEY=your_key_here

Modelos disponíveis

claude-sonnet-4-6Melhor modelo Anthropic. Alto desempenho em código.
claude-opus-4-6Mais poderoso para raciocínio complexo.
claude-haiku-4-5-20251001Claude rápido e acessível.

Exemplo

> /provider anthropic
 ● anthropic · claude-sonnet-4-6

> review this auth function for security issues

 ● I found 3 potential security concerns...
O

Ollama

FREE

100% local, custo zero, privacidade total

Obter chave de API

O Ollama permite executar modelos open-source completamente na sua máquina. Sem chave de API, sem internet necessária, sem dados saindo do seu computador. Perfeito para bases de código sensíveis ou desenvolvimento offline.

Configuração

  1. 1.Baixe o Ollama em ollama.ai para o seu sistema operacional
  2. 2.Execute: ollama pull llama3.2 (ou qualquer modelo desejado)
  3. 3.O Ollama roda em localhost:11434 automaticamente
  4. 4.Sem chave de API — apenas execute corecode --provider ollama

Modelos disponíveis

llama3.2Último 3B da Meta. Rápido no Apple Silicon.
qwen2.5-coder:7bMelhor modelo local para código.
codellama:13bLLaMA especializado em código.
deepseek-coder-v2Excelente qualidade de código.
phi4Modelo de 14B da Microsoft. Supera seu tamanho.

Exemplo

# Pull a model first
$ ollama pull qwen2.5-coder:7b

> /provider ollama
 ● ollama · llama3.2

> /model qwen2.5-coder:7b
 ● qwen2.5-coder:7b
M

Mock

FREE

Provedor de testes sem dependências

O provedor Mock gera respostas determinísticas sem nenhuma chamada de API. Ideal para testar integrações do CoreCode, pipelines CI/CD, ou quando você quer demonstrar a UI sem usar chaves de API reais.

Configuração

  1. 1.Sem configuração necessária — Mock é embutido
  2. 2.Execute: corecode --provider mock
  3. 3.Ou troque no REPL: /provider mock

Modelos disponíveis

mock-instantRespostas instantâneas. Sem delay.
mock-smartSimula delay de digitação realista.

Exemplo

> /provider mock
 ● mock · mock-instant

> hello world

 ● [Mock] This is a mock response to: "hello world"
   Provider: mock | Model: mock-instant

APIs Compatíveis com OpenAI

O CoreCode suporta qualquer API que siga o formato de chat completions da OpenAI. Isso inclui Azure OpenAI Service, Perplexity AI, Together AI, Fireworks AI, Anyscale, vLLM auto-hospedado, e muito mais.

# .env configuration for OpenAI-compatible APIs OPENAI_BASE_URL=https://your-provider.com/v1 OPENAI_API_KEY=your_key_here # In REPL: > /provider openai-compatible > /model your-model-name