Executando LLMs direto do terminal no Linux com Opencode + LM Studio
Com o avanço das ferramentas de IA, uma ferramenta que pode ajudar a ganhar mais desempenho durante o desenvolvimento é o uso de LLMs através do terminal. Isso permite foco total no ambiente de desenvolvimento, sem precisar sair do terminal ou depender de interfaces gráficas.
Uma dessas ferramentas é o Opencode-ai. Ele oferece uma experiência de chat com LLMs de forma simples, sendo uma ferramenta com proposito similar Claude-Code da Anthropic.
O diferencial do Opencode é que ele permite configurar suas próprias chaves de API e integrar com diversos provedores: OpenAI, AWS, Google, entre outros. Além disso, também funciona com modelos locais, desde que sigam o padrão de resposta da API da OpenAI.
Problema + Solução
Durante a instalação no meu ambiente, tive dificuldade para integrar o Opencode com o LM Studio — o Opencode simplesmente não conseguia se comunicar com o modelo local.
Pra resolver isso, criei um middleware que faz a ponte entre o Opencode e o LM Studio, permitindo usar os modelos locais de forma simples e transparente.
Repositório do middleware:
🔗 https://github.com/WalterSilva5/opencode-lmstudio-middleware
Requisitos
-
Ambiente Linux (pode ser WSL no Windows)
Passo a passo
-
Instale a linguagem Go (caso ainda não tenha)
sudo apt install golang-go -y
-
Instale o Opencode
go install github.com/opencode-ai/opencode@latest
Adicione o opencode ao path do linux echo 'export PATH="$PATH:$HOME/go/bin"' >> ~/.bashrc && source ~/.bashrc ou caso esteja usando zsh echo 'export PATH="$PATH:$HOME/go/bin"' >> ~/.zshrc && source ~/.zshrc
-
Clone o repositório do middleware
git clone https://github.com/WalterSilva5/opencode-lmstudio-middleware cd opencode-lmstudio-middleware
Siga as instruções do
README
para configurar o middleware corretamente. -
Copie o arquivo
.opencode.json
Copie o
.opencode.json
(que está dentro do diretório do middleware) para o diretório raiz do seu usuário:cp .opencode.json ~/
-
Instale e configure o LM Studio
-
Baixe e instale o LM Studio.
-
Faça o download do modelo
llama-3.2-3b-instruct
. -
Ative o servidor HTTP da API no LM Studio.
-
-
Exporte a variável de ambiente para o Opencode usar o middleware
export LOCAL_ENDPOINT=http://localhost:8090/v1
-
Execute o Opencode
Se o Go estiver no seu PATH:
opencode
Ou diretamente pelo caminho do binário:
~/go/bin/opencode
Com isso, você consegue rodar modelos locais via LM Studio no terminal com o Opencode, mantendo a leveza e produtividade do ambiente CLI.
Ficou com alguma dúvida ou encontrou outro problema? Só abrir uma issue no repositório do middleware
https://github.com/WalterSilva5/opencode-lmstudio-middleware/issues
0 Comentários