Pular para o conteúdo principal
O ChatCLI suporta o GitHub Models como provedor nativo, permitindo acesso a modelos como GPT-4o, Llama 3.1, DeepSeek R1, Mistral, Phi-4 e outros diretamente do GitHub Models marketplace.

Por que GitHub Models?

Sem custo extra

Use modelos com seu token GitHub existente. Tier gratuito inclui GPT-4o, Llama 3.1 405B/8B.

Variedade de modelos

Acesso a modelos de OpenAI, Meta, Mistral, DeepSeek, Microsoft, Cohere e outros.

Zero configuração

Se você já tem GITHUB_TOKEN no ambiente (ex: GitHub CLI), funciona automaticamente.

API compativel

Usa API OpenAI-compatible em models.inference.ai.azure.com.

Configuração

Opção 1: Variável de Ambiente (Recomendado)

Se você já usa GitHub CLI (gh) ou tem GITHUB_TOKEN configurado, o provedor e detectado automaticamente:
export GITHUB_TOKEN=ghp_seu_token_aqui
# ou
export GH_TOKEN=ghp_seu_token_aqui
# ou
export GITHUB_MODELS_TOKEN=ghp_seu_token_aqui
Depois basta selecionar o provedor:
chatcli --provider github_models --model gpt-4o
Ou dentro do ChatCLI:
/switch --provider github_models --model gpt-4o

Opção 2: Login Interativo

/auth login github-models
1

Gere um Personal Access Token (PAT)

Acesse github.com/settings/tokens e crie um token. Nenhum scope especial e necessário para inferencia de modelos.
2

Cole o token no terminal

O ChatCLI vai pedir o token. Cole e pressione Enter.
3

Provedor disponível imediatamente

O provedor GITHUB_MODELS aparece no /switch sem reiniciar.

Logout

/auth logout github-models

Modelos Disponiveis

A disponibilidade depende do seu plano GitHub:

Tier Gratuito

ModeloPublisherContext Window
gpt-4oAzure OpenAI128K
gpt-4o-miniAzure OpenAI128K
Meta-Llama-3.1-405B-InstructMeta128K
Meta-Llama-3.1-8B-InstructMeta128K

Com GitHub Copilot Pro (modelos adicionais)

ModeloPublisherContext Window
DeepSeek-R1DeepSeek64K
Mistral-large-2411Mistral128K
Phi-4Microsoft16K
AI21-Jamba-1.5-LargeAI21256K
Cohere-command-r-plus-08-2024Cohere128K
A lista completa de modelos está em github.com/marketplace/models. Use /switch --model para ver os modelos disponíveis para seu token.
Modelos que não estão disponíveis para seu plano retornam erro unavailable_model ao tentar enviar um prompt. O /switch --model lista tanto modelos da API quanto do catalogo — os do catalogo podem não estar disponíveis para seu token.

Listagem de Modelos

O ChatCLI combina duas fontes ao listar modelos:
  1. API — modelos retornados pelo endpoint /models (disponibilidade real do token)
  2. Catalogo — modelos conhecidos do marketplace (podem precisar de plano superior)
/switch --model
Exemplo de saida:
Available models for GITHUB_MODELS (API: 4 + catalog: 5):
  1. gpt-4o (GPT-4o (GitHub Models)) [api]
  2. gpt-4o-mini (GPT-4o mini (GitHub Models)) [api]
  3. Meta-Llama-3.1-405B-Instruct (Llama 3.1 405B (GitHub Models)) [api]
  4. Meta-Llama-3.1-8B-Instruct (Llama 3.1 8B (GitHub Models)) [api]
  5. DeepSeek-R1 (DeepSeek R1 (GitHub Models))
  6. Mistral-large-2411 (Mistral Large (GitHub Models))
  7. Phi-4 (Phi-4 (GitHub Models))
  8. AI21-Jamba-1.5-Large (Jamba 1.5 Large (GitHub Models))
  9. Cohere-command-r-plus-08-2024 (Cohere Command R+ (GitHub Models))
Modelos com [api] foram confirmados como disponíveis para seu token.

Variaveis de Ambiente

VariávelDescriçãoDefault
GITHUB_TOKENGitHub Personal Access Token (prioridade 1)-
GH_TOKENAlias para GitHub Token (prioridade 2)-
GITHUB_MODELS_TOKENToken dedicado para GitHub Models (prioridade 3)-
GITHUB_MODELS_API_URLOverride da URL da APIhttps://models.inference.ai.azure.com/chat/completions
GITHUB_MODELS_MAX_TOKENSMax tokens de saída4096
GITHUB_MODELS_MODELModelo padrãogpt-4o

Arquitetura

O provider GITHUB_MODELS usa a API OpenAI-compatible em models.inference.ai.azure.com. A autenticação e via Authorization: Bearer <token> com o GitHub PAT.

Diferenca entre GitHub Models, Copilot e OpenAI

AspectoGitHub ModelsGitHub CopilotOpenAI (API Key)
AuthGitHub PAT (ghp_...)Device Flow OAuthAPI Key (sk-...)
Endpointmodels.inference.ai.azure.comapi.githubcopilot.comapi.openai.com
ModelosGPT-4o, Llama, Mistral, DeepSeek…GPT-4o, Claude, GeminiTodos os modelos OpenAI
CustoGratuito (com rate limits)Assinatura CopilotPay-per-use (billing)
Comando/auth login github-models/auth login github-copilotOPENAI_API_KEY=sk-...
ProviderGITHUB_MODELSCOPILOTOPENAI
Se você tem um token GitHub mas não tem assinatura OpenAI paga, o GITHUB_MODELS e a melhor opção para acessar GPT-4o gratuitamente.

Próximos Passos

OAuth Authentication

Outros métodos de autenticação (Anthropic, OpenAI Codex, Copilot)

Provider Fallback

Configure failover automático entre provedores

Modelos Suportados

Lista completa de modelos por provedor

Modo Coder

Use GitHub Models no modo de engenharia