Hoy os voy a enseñar cómo podemos desplegar DeepSeek R1 el nuevo modelo Chino en un Docker compose usando Ollama.

Es un proceso muy sencillo.
Primero vamos a crear el docker compose con la imagen de Ollama:
services: ollama: image: ollama/ollama container_name: ollama restart: unless-stopped ports: - 11434:11434 volumes: - ./models:/root/.ollama # Montar carpeta local en el contenedor
Levantamos el contenedor:
docker compose up -d
Y ahora vamos a descargar el modelo correspondiente a deepseek r1 7b
docker exec -it ollama ollama run deepseek-r1:7b
Y aparecerá un chat para poder utilizarlo:

Documentación de la API: https://github.com/ollama/ollama/blob/main/docs/api.md
Si quieres añadir autenticación aquí te explico cómo: https://devcodelight.com/anadir-autenticacion-en-nginx-proxy-manager-para-tus-dominios
Si necesitas acceso a la GPU mediante Docker: https://devcodelight.com/anadir-gpu-en-docker-para-ollama-u-otros-servicios/
Y si quieres mostrar el chat mediante una interfaz web: https://devcodelight.com/mostrar-una-interfaz-web-de-chat-usando-open-webui-para-llama-3-2-o-cualquier-modelo-compatible-con-ollama-usando-docker-compose/

Ingeniero en Informática, Investigador, me encanta crear cosas o arreglarlas y darles una nueva vida. Escritor y poeta. Más de 20 APPs publicadas y un libro en Amazon.