Por que GitHub Models?
Sem custo extra
Use modelos com seu token GitHub existente. Tier gratuito inclui GPT-4o, Llama 3.1 405B/8B.
Variedade de modelos
Acesso a modelos de OpenAI, Meta, Mistral, DeepSeek, Microsoft, Cohere e outros.
Zero configuração
Se você já tem
GITHUB_TOKEN no ambiente (ex: GitHub CLI), funciona automaticamente.API compativel
Usa API OpenAI-compatible em
models.inference.ai.azure.com.Configuração
Opção 1: Variável de Ambiente (Recomendado)
Se você já usa GitHub CLI (gh) ou tem GITHUB_TOKEN configurado, o provedor e detectado automaticamente:
Opção 2: Login Interativo
Gere um Personal Access Token (PAT)
Acesse github.com/settings/tokens e crie um token. Nenhum scope especial e necessário para inferencia de modelos.
Logout
Modelos Disponiveis
A disponibilidade depende do seu plano GitHub:Tier Gratuito
| Modelo | Publisher | Context Window |
|---|---|---|
gpt-4o | Azure OpenAI | 128K |
gpt-4o-mini | Azure OpenAI | 128K |
Meta-Llama-3.1-405B-Instruct | Meta | 128K |
Meta-Llama-3.1-8B-Instruct | Meta | 128K |
Com GitHub Copilot Pro (modelos adicionais)
| Modelo | Publisher | Context Window |
|---|---|---|
DeepSeek-R1 | DeepSeek | 64K |
Mistral-large-2411 | Mistral | 128K |
Phi-4 | Microsoft | 16K |
AI21-Jamba-1.5-Large | AI21 | 256K |
Cohere-command-r-plus-08-2024 | Cohere | 128K |
A lista completa de modelos está em github.com/marketplace/models. Use
/switch --model para ver os modelos disponíveis para seu token.Listagem de Modelos
O ChatCLI combina duas fontes ao listar modelos:- API — modelos retornados pelo endpoint
/models(disponibilidade real do token) - Catalogo — modelos conhecidos do marketplace (podem precisar de plano superior)
[api] foram confirmados como disponíveis para seu token.
Variaveis de Ambiente
| Variável | Descrição | Default |
|---|---|---|
GITHUB_TOKEN | GitHub Personal Access Token (prioridade 1) | - |
GH_TOKEN | Alias para GitHub Token (prioridade 2) | - |
GITHUB_MODELS_TOKEN | Token dedicado para GitHub Models (prioridade 3) | - |
GITHUB_MODELS_API_URL | Override da URL da API | https://models.inference.ai.azure.com/chat/completions |
GITHUB_MODELS_MAX_TOKENS | Max tokens de saída | 4096 |
GITHUB_MODELS_MODEL | Modelo padrão | gpt-4o |
Arquitetura
O providerGITHUB_MODELS usa a API OpenAI-compatible em models.inference.ai.azure.com. A autenticação e via Authorization: Bearer <token> com o GitHub PAT.
Diferenca entre GitHub Models, Copilot e OpenAI
| Aspecto | GitHub Models | GitHub Copilot | OpenAI (API Key) |
|---|---|---|---|
| Auth | GitHub PAT (ghp_...) | Device Flow OAuth | API Key (sk-...) |
| Endpoint | models.inference.ai.azure.com | api.githubcopilot.com | api.openai.com |
| Modelos | GPT-4o, Llama, Mistral, DeepSeek… | GPT-4o, Claude, Gemini | Todos os modelos OpenAI |
| Custo | Gratuito (com rate limits) | Assinatura Copilot | Pay-per-use (billing) |
| Comando | /auth login github-models | /auth login github-copilot | OPENAI_API_KEY=sk-... |
| Provider | GITHUB_MODELS | COPILOT | OPENAI |
Próximos Passos
OAuth Authentication
Outros métodos de autenticação (Anthropic, OpenAI Codex, Copilot)
Provider Fallback
Configure failover automático entre provedores
Modelos Suportados
Lista completa de modelos por provedor
Modo Coder
Use GitHub Models no modo de engenharia