Hoy vamos a aprender cómo podemos utilizar opencode con nuestro ollama directamente en local.

Asegúrate de que Ollama está corriendo
Por defecto ya expone API en:
http://localhost:11434
Compruébalo:
curl http://localhost:11434/api/tags
Si no lo tienes debes instalar Ollama
Para Windows:
irm https://ollama.com/install.ps1 | iex
Para Linux:
curl -fsSL https://ollama.com/install.sh | sh
Y descargamos un modelo, en mi caso me gusta el qwen2.5-coder:7b
ollama pull qwen2.5-coder:7b
Configurar OpenCode para usar Ollama
OpenCode normalmente usa providers tipo OpenAI…
pero aquí lo vamos a apuntar a local.
Busca tu config (ejemplo):
En Windows:
C:\Users\TU_USUARIO\.opencode\config.json
En Linux:
~/.opencode/config.json
Si no existe, lo creas.
Y añade esto:
{
"provider": "openai",
"openai": {
"base_url": "http://localhost:11434/v1",
"api_key": "ollama"
},
"model": "qwen2.5-coder:7b"
}
Otra forma de hacerlo
Si quieres lanzarlo sin tener que editar achivos puedes poner:
ollama
Y luego seleccionas abrir opencode
Launch OpenCode (qwen2.5-coder:7b)
Anomaly's open-source coding agent
Importante
Ollama usa formato compatible con OpenAI API (modo /v1),
pero:
Algunos tools necesitan esto:
export OPENAI_BASE_URL=http://localhost:11434/v1 export OPENAI_API_KEY=ollama

Ingeniero en Informática, Investigador, me encanta crear cosas o arreglarlas y darles una nueva vida. Escritor y poeta. Más de 20 APPs publicadas y un libro en Amazon.