Problemas Comuns
Comando chatcli não encontrado
Comando chatcli não encontrado
Sintomas:
bash: chatcli: command not found ou zsh: command not found: chatcli.Causa: O diretório de binários do Go não está no PATH do seu sistema.Solução:- Abra seu arquivo de configuração de shell (
~/.bashrc,~/.zshrc, etc.) - Adicione ao final do arquivo:
- Reinicie seu terminal ou execute
source ~/.zshrc
Erro "Nenhum provedor LLM está configurado"
Erro "Nenhum provedor LLM está configurado"
Sintomas: O ChatCLI encerra imediatamente após iniciar.Causa: Nenhuma chave de API foi configurada no
.env.Solução:- Crie ou abra o arquivo
.envno diretório onde você executa ochatcli(ou noHOME) - Adicione as credenciais para pelo menos um provedor:
- Salve e execute
chatclinovamente
Alterações no .env não têm efeito
Alterações no .env não têm efeito
Sintomas: Você alterou o
LLM_PROVIDER ou outro valor, mas o ChatCLI usa a configuração antiga.Causa: O ChatCLI carrega as configurações na inicialização.Solução: Use o comando /reload dentro do modo interativo para recarregar as variáveis instantaneamente.@file não encontra um arquivo/diretório
@file não encontra um arquivo/diretório
Sintomas: Erro “o arquivo não existe” ou “caminho não encontrado”.Solução:
- Caminhos Relativos — são relativos ao diretório onde você executou o
chatcli. Ex:@file ./project/src/main.go - Home (
~) — funciona como atalho:@file ~/documentos/notas.txt - Permissões — verifique com
ls -lse você tem permissão de leitura no arquivo
Modo Agente não executa nada
Modo Agente não executa nada
Sintomas: A IA apresenta um plano de ação, mas apenas aguarda sem executar.Causa: Isso é o comportamento esperado! O Modo Agente exige aprovação explícita.Solução:
- Digite o número do comando (ex:
1) para executá-lo individualmente - Digite
apara executar todos os comandos em sequência - Use
--agent-auto-execno modo one-shot para execução automática de comandos seguros
Provedor Ollama não é detectado
Provedor Ollama não é detectado
Sintomas: Mesmo com
OLLAMA_ENABLED=true, o provedor não aparece disponível.Solução:- Servidor Ollama — confirme que está rodando:
ollama serve - Modelo baixado — verifique com
ollama list. Se vazio, baixe um:ollama pull llama3 - URL Base — se não está no endereço padrão, defina no
.env:
Respostas cortadas ou incompletas
Respostas cortadas ou incompletas
Sintomas: A resposta da IA para no meio de uma frase.Causa: O limite de tokens da resposta foi atingido.Solução: Aumente o
MAX_TOKENS do seu provedor no .env:Timeout em chamadas de API
Timeout em chamadas de API
Sintomas: Erro de timeout ou a aplicação trava aguardando resposta.Solução:
- Use
--timeoutpara definir um limite:chatcli -p "pergunta" --timeout 60s - Configure
MAX_RETRIESeINITIAL_BACKOFFno.envpara retentativas automáticas - Considere configurar Fallback de Provedores para redundância
Ainda com problemas?
Logs de Debug
Execute com
LOG_LEVEL=debug e verifique ~/.chatcli/app.log para detalhes completos do erro.Abrir Issue
Inclua: versão (
chatcli --version), SO, Go version, passos para reproduzir e logs relevantes.