Code

tiforadacaixa

Chat com IA no seu terminal linux grátis. Como configurar o Opencode-ai + Lm Studio

Executando LLMs direto do terminal no Linux com Opencode + LM Studio

Com o avanço das ferramentas de IA, uma ferramenta que pode ajudar a ganhar mais desempenho durante o desenvolvimento é o uso de LLMs através do terminal. Isso permite foco total no ambiente de desenvolvimento, sem precisar sair do terminal ou depender de interfaces gráficas.

Uma dessas ferramentas é o Opencode-ai. Ele oferece uma experiência de chat com LLMs de forma simples, sendo uma ferramenta com proposito similar Claude-Code da Anthropic.

O diferencial do Opencode é que ele permite configurar suas próprias chaves de API e integrar com diversos provedores: OpenAI, AWS, Google, entre outros. Além disso, também funciona com modelos locais, desde que sigam o padrão de resposta da API da OpenAI.


Problema + Solução

Durante a instalação no meu ambiente, tive dificuldade para integrar o Opencode com o LM Studio — o Opencode simplesmente não conseguia se comunicar com o modelo local.

Pra resolver isso, criei um middleware que faz a ponte entre o Opencode e o LM Studio, permitindo usar os modelos locais de forma simples e transparente.

Repositório do middleware:
🔗 https://github.com/WalterSilva5/opencode-lmstudio-middleware


 

Requisitos


Passo a passo

  1. Instale a linguagem Go (caso ainda não tenha)

    sudo apt install golang-go -y
    
  2. Instale o Opencode

    go install github.com/opencode-ai/opencode@latest
    
  3. Adicione o opencode ao path do linux
    
    echo 'export PATH="$PATH:$HOME/go/bin"' >> ~/.bashrc && source ~/.bashrc
    
    ou caso esteja usando zsh
    echo 'export PATH="$PATH:$HOME/go/bin"' >> ~/.zshrc && source ~/.zshrc
    
  4. Clone o repositório do middleware

    git clone https://github.com/WalterSilva5/opencode-lmstudio-middleware
    cd opencode-lmstudio-middleware
    

    Siga as instruções do README para configurar o middleware corretamente.

  5. Copie o arquivo .opencode.json

    Copie o .opencode.json (que está dentro do diretório do middleware) para o diretório raiz do seu usuário:

    cp .opencode.json ~/
    
  6. Instale e configure o LM Studio

    • Baixe e instale o LM Studio.

    • Faça o download do modelo llama-3.2-3b-instruct.

    • Ative o servidor HTTP da API no LM Studio.

  7. Exporte a variável de ambiente para o Opencode usar o middleware

    export LOCAL_ENDPOINT=http://localhost:8090/v1
    
  8. Execute o Opencode

    Se o Go estiver no seu PATH:

    opencode
    

    Ou diretamente pelo caminho do binário:

    ~/go/bin/opencode


Com isso, você consegue rodar modelos locais via LM Studio no terminal com o Opencode, mantendo a leveza e produtividade do ambiente CLI.

Ficou com alguma dúvida ou encontrou outro problema? Só abrir uma issue no repositório do middleware 
https://github.com/WalterSilva5/opencode-lmstudio-middleware/issues


Postar um comentário

0 Comentários