Utilizar ollama local con opencode

Tiempo de lectura: < 1 minuto

Hoy vamos a aprender cómo podemos utilizar opencode con nuestro ollama directamente en local.

Asegúrate de que Ollama está corriendo

Por defecto ya expone API en:

http://localhost:11434

Compruébalo:

curl http://localhost:11434/api/tags

Si no lo tienes debes instalar Ollama

Para Windows:

irm https://ollama.com/install.ps1 | iex

Para Linux:

curl -fsSL https://ollama.com/install.sh | sh

Y descargamos un modelo, en mi caso me gusta el qwen2.5-coder:7b

ollama pull qwen2.5-coder:7b

Configurar OpenCode para usar Ollama

OpenCode normalmente usa providers tipo OpenAI…
pero aquí lo vamos a apuntar a local.

Busca tu config (ejemplo):

En Windows:

C:\Users\TU_USUARIO\.opencode\config.json

En Linux:

~/.opencode/config.json

Si no existe, lo creas.

Y añade esto:

{
  "provider": "openai",
  "openai": {
    "base_url": "http://localhost:11434/v1",
    "api_key": "ollama"
  },
  "model": "qwen2.5-coder:7b"
}

Otra forma de hacerlo

Si quieres lanzarlo sin tener que editar achivos puedes poner:

ollama

Y luego seleccionas abrir opencode

 Launch OpenCode (qwen2.5-coder:7b)
    Anomaly's open-source coding agent

Importante

Ollama usa formato compatible con OpenAI API (modo /v1),
pero:

Algunos tools necesitan esto:

export OPENAI_BASE_URL=http://localhost:11434/v1
export OPENAI_API_KEY=ollama

Deja un comentario