Conectar Claude Code a ollama para utilizar el editor agente IA de forma gratis y local

Tiempo de lectura: 2 minutos

Vamos a utilizar ollama para aprovechar la ventaja de usar nuestro propio llm gratis y sin necesidad de pagar tokens.

Lo primero que haremos es comprobar si tenemos instalado ollama o instalarlo.

Una vez lo tenemos instalado haremos lo siguiente:

En PowerShell, define las variables de entorno para que Claude Code apunte al Ollama remoto:

setx ANTHROPIC_AUTH_TOKEN "ollama"
setx ANTHROPIC_BASE_URL "http://IP_DEL_SERVIDOR:11434"

O en linux:

export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_API_KEY=""
export ANTHROPIC_BASE_URL=http://localhost:11434

O directamente ejecuta con las variables incluidas:

ANTHROPIC_AUTH_TOKEN=ollama ANTHROPIC_BASE_URL=http://localhost:11434 ANTHROPIC_API_KEY="" claude --model glm-5:cloud

O en windows:

$env:ANTHROPIC_AUTH_TOKEN="ollama"
$env:ANTHROPIC_BASE_URL="http://localhost:11434"
$env:ANTHROPIC_API_KEY=""
claude --model llama3.1:8b

Sustituye IP_DEL_SERVIDOR por la IP de tu máquina servidor.

Cierra y vuelve a abrir PowerShell para que los cambios se apliquen.

Probar la conexión

Ahora puedes probar que Claude Code está conectado al Ollama remoto:

claude --model llama3-13b "Crea una función en Python que sume dos números"
  • Si devuelve el código, la conexión funciona perfectamente.
  • Ahora cualquier comando de Claude Code usará el modelo que corre en tu servidor Ollama.

Opcional: usar túnel SSH para seguridad (recomendado si es remoto)

Si tu servidor está fuera de tu red local:

  1. Abre un túnel SSH desde tu Windows:
ssh -L 11434:localhost:11434 usuario@IP_DEL_SERVIDOR
  1. Luego en PowerShell local:
setx ANTHROPIC_BASE_URL "http://localhost:11434"
  • Así toda la comunicación va cifrada y no expones el puerto a Internet.

Modelos adecuados para usar con ollama:

kimi-k2.5:cloud
glm-5:cloud
minimax-m2.5:cloud
qwen3.5:cloud
glm-4.7-flash
qwen3.5

Puedes instalar cualquiera de ellos en tu servidor ollama y utilizarlo para lanzar al agente Claude.

Recomiendo el glm-4.7-flash https://ollama.com/library/glm-4.7-flash

Deja un comentario