Esta página lista todas as variáveis de ambiente que o ChatCLI reconhece. Configure-as no seu arquivo .env ou via export no shell.
Geral
| Variável | Descrição | Padrão |
|---|
LLM_PROVIDER | Provedor ativo: OPENAI, CLAUDEAI, GOOGLEAI, XAI, COPILOT, STACKSPOT, OLLAMA | Auto-detectado |
CHATCLI_DOTENV | Caminho customizado para o arquivo .env | .env |
CHATCLI_LANG | Forçar idioma da interface (pt-BR, en) | Auto-detectado |
CHATCLI_IGNORE | Caminho para arquivo de regras .chatignore | Auto-detectado |
LOG_LEVEL | Nível de log: debug, info, warn, error | info |
LOG_FILE | Caminho do arquivo de log | ~/.chatcli/app.log |
LOG_MAX_SIZE | Tamanho máximo do log antes da rotação | 100MB |
ENV | Modo de exibição: dev (terminal + arquivo), prod (só arquivo) | dev |
MAX_RETRIES | Tentativas máximas para chamadas de API | 5 |
INITIAL_BACKOFF | Tempo inicial entre tentativas (segundos) | 3 |
HISTORY_FILE | Caminho para o arquivo de histórico (suporta ~) | .chatcli_history |
HISTORY_MAX_SIZE | Tamanho máximo do histórico antes da rotação | 100MB |
Provedores LLM
OpenAI
| Variável | Descrição | Padrão |
|---|
OPENAI_API_KEY | Chave de API | — |
OPENAI_MODEL | Modelo a usar | gpt-4o-mini |
OPENAI_ASSISTANT_MODEL | Modelo para assistente (modo agente) | gpt-4o-mini |
OPENAI_MAX_TOKENS | Limite de tokens na resposta | 60000 |
OPENAI_USE_RESPONSES | Usar Responses API (ex: para gpt-5) | false |
Anthropic (Claude)
| Variável | Descrição | Padrão |
|---|
ANTHROPIC_API_KEY | Chave de API | — |
ANTHROPIC_MODEL | Modelo a usar | claude-sonnet-4-5 |
ANTHROPIC_MAX_TOKENS | Limite de tokens na resposta | 20000 |
ANTHROPIC_API_VERSION | Versão da API | 2023-06-01 |
Google AI (Gemini)
| Variável | Descrição | Padrão |
|---|
GOOGLEAI_API_KEY | Chave de API | — |
GOOGLEAI_MODEL | Modelo a usar | gemini-2.5-flash |
GOOGLEAI_MAX_TOKENS | Limite de tokens na resposta | 50000 |
xAI (Grok)
| Variável | Descrição | Padrão |
|---|
XAI_API_KEY | Chave de API | — |
XAI_MODEL | Modelo a usar | grok-4-latest |
XAI_MAX_TOKENS | Limite de tokens na resposta | 50000 |
Ollama (Modelos Locais)
| Variável | Descrição | Padrão |
|---|
OLLAMA_ENABLED | Habilitar API do Ollama (obrigatório) | false |
OLLAMA_BASE_URL | URL do servidor Ollama | http://localhost:11434 |
OLLAMA_MODEL | Modelo a usar | — |
OLLAMA_MAX_TOKENS | Limite de tokens na resposta | 5000 |
OLLAMA_FILTER_THINKING | Filtra raciocínio intermediário de modelos como Qwen3 | true |
Para o modo Agente funcionar bem com alguns modelos Ollama que “pensam em voz alta” (Qwen3, Llama3…), mantenha OLLAMA_FILTER_THINKING=true.
GitHub Copilot
| Variável | Descrição | Padrão |
|---|
GITHUB_COPILOT_TOKEN | Token de autenticação | — |
COPILOT_MODEL | Modelo a usar | — |
COPILOT_MAX_TOKENS | Limite de tokens na resposta | — |
COPILOT_API_BASE_URL | URL base da API | — |
CHATCLI_COPILOT_CLIENT_ID | Client ID customizado | — |
StackSpot
| Variável | Descrição | Padrão |
|---|
CLIENT_ID | Client ID | — |
CLIENT_KEY | Client Key | — |
STACKSPOT_REALM | Realm/Tenant | — |
STACKSPOT_AGENT_ID | Agent ID | — |
Modo Agente
| Variável | Descrição | Padrão |
|---|
CHATCLI_AGENT_CMD_TIMEOUT | Timeout por comando executado (duração Go: 30s, 2m, 10m) | 10m |
CHATCLI_AGENT_DENYLIST | Regex extras para bloquear comandos (separados por ;) | — |
CHATCLI_AGENT_ALLOW_SUDO | Permitir sudo sem bloqueio automático | false |
CHATCLI_AGENT_PLUGIN_MAX_TURNS | Máximo de turnos do agente | 50 |
CHATCLI_AGENT_PLUGIN_TIMEOUT | Timeout total do plugin do agente | 15m |
Multi-Agent (Orquestração Paralela)
| Variável | Descrição | Padrão |
|---|
CHATCLI_AGENT_PARALLEL_MODE | Ativar orquestração paralela multi-agent | true |
CHATCLI_AGENT_MAX_WORKERS | Máximo de workers (goroutines) simultâneos | 4 |
CHATCLI_AGENT_WORKER_MAX_TURNS | Máximo de turnos por worker | 10 |
CHATCLI_AGENT_WORKER_TIMEOUT | Timeout por worker individual | 5m |
Modo Coder
| Variável | Descrição | Padrão |
|---|
CHATCLI_CODER_UI | Estilo da UI: full ou minimal | full |
CHATCLI_CODER_BANNER | Mostrar cheat sheet de comandos | true |
Fallback de Provedores
| Variável | Descrição | Padrão |
|---|
CHATCLI_FALLBACK_PROVIDERS | Lista de provedores separados por vírgula | — |
CHATCLI_FALLBACK_MODEL_<PROVIDER> | Modelo específico por provedor na cadeia | — |
CHATCLI_FALLBACK_MAX_RETRIES | Tentativas por provedor antes de avançar | 2 |
CHATCLI_FALLBACK_COOLDOWN_BASE | Cooldown base após falha | 30s |
CHATCLI_FALLBACK_COOLDOWN_MAX | Cooldown máximo (backoff exponencial) | 5m |
MCP (Model Context Protocol)
| Variável | Descrição | Padrão |
|---|
CHATCLI_MCP_ENABLED | Ativar o gerenciador MCP | false |
CHATCLI_MCP_CONFIG | Caminho para o JSON de configuração MCP | ~/.chatcli/mcp_servers.json |
Bootstrap e Memória
| Variável | Descrição | Padrão |
|---|
CHATCLI_BOOTSTRAP_ENABLED | Ativar carregamento de arquivos bootstrap | false |
CHATCLI_BOOTSTRAP_DIR | Diretório dos arquivos bootstrap | — |
CHATCLI_MEMORY_ENABLED | Ativar sistema de memória persistente | false |
Métricas e Observabilidade
| Variável | Descrição | Padrão |
|---|
CHATCLI_METRICS_PORT | Porta HTTP para exportar métricas Prometheus (0 = desabilitado) | 9090 |
Segurança
| Variável | Descrição | Padrão |
|---|
CHATCLI_SAFETY_ENABLED | Ativar regras de segurança configuráveis | false |
CHATCLI_GRPC_REFLECTION | Habilitar gRPC reflection no servidor (usar apenas em dev) | false |
CHATCLI_DISABLE_VERSION_CHECK | Desabilitar verificação automática de versão | false |
CHATCLI_LATEST_VERSION_URL | URL customizada para verificação de versão | GitHub API |
OAuth
| Variável | Descrição | Padrão |
|---|
CHATCLI_OPENAI_CLIENT_ID | Sobrescrever client ID do OAuth da OpenAI | — |
Servidor Remoto
| Variável | Descrição | Padrão |
|---|
CHATCLI_SERVER_PORT | Porta do servidor gRPC | 50051 |
CHATCLI_SERVER_TOKEN | Token de autenticação | — |
CHATCLI_SERVER_TLS_CERT | Caminho do certificado TLS | — |
CHATCLI_SERVER_TLS_KEY | Caminho da chave TLS | — |
Cliente Remoto
| Variável | Descrição | Padrão |
|---|
CHATCLI_REMOTE_ADDR | Endereço do servidor remoto | — |
CHATCLI_REMOTE_TOKEN | Token de autenticação | — |
CHATCLI_CLIENT_API_KEY | Sua API key (enviada ao servidor) | — |
K8s Watcher
| Variável | Descrição | Padrão |
|---|
CHATCLI_WATCH_DEPLOYMENT | Deployment único (legado) | — |
CHATCLI_WATCH_NAMESPACE | Namespace do deployment | default |
CHATCLI_WATCH_INTERVAL | Intervalo de coleta | 30s |
CHATCLI_WATCH_WINDOW | Janela de observação | 2h |
CHATCLI_WATCH_MAX_LOG_LINES | Máximo de linhas de log por pod | 100 |
CHATCLI_WATCH_CONFIG | Caminho para config YAML multi-target | — |
CHATCLI_KUBECONFIG | Caminho do kubeconfig | Auto-detectado |
Exemplo completo de .env
# Geral
LOG_LEVEL=info
CHATCLI_LANG=pt-BR
ENV=prod
LLM_PROVIDER=CLAUDEAI
# Provedor principal
ANTHROPIC_API_KEY=sk-ant-xxxxxxxxxxxxxxxxxxxxxxxx
ANTHROPIC_MODEL=claude-sonnet-4-5
ANTHROPIC_MAX_TOKENS=20000
# Fallback
CHATCLI_FALLBACK_PROVIDERS=CLAUDEAI,OPENAI,GOOGLEAI
OPENAI_API_KEY=sk-xxxxxxxxxxxxxxxxxxxxxxxx
GOOGLEAI_API_KEY=AIzaxxxxxxxxxxxxxxxxxxxxxxxx
# Agente
CHATCLI_AGENT_CMD_TIMEOUT=2m
CHATCLI_AGENT_ALLOW_SUDO=false
# Multi-Agent
CHATCLI_AGENT_PARALLEL_MODE=true
CHATCLI_AGENT_MAX_WORKERS=4
# Bootstrap e Memória
CHATCLI_BOOTSTRAP_ENABLED=true
CHATCLI_MEMORY_ENABLED=true