DeepSeek R1 con Ollama en Docker Compose

Tiempo de lectura: < 1 minuto

Hoy os voy a enseñar cómo podemos desplegar DeepSeek R1 el nuevo modelo Chino en un Docker compose usando Ollama.

Deepseek logo

Es un proceso muy sencillo.

Primero vamos a crear el docker compose con la imagen de Ollama:

services:
  ollama:
    image: ollama/ollama
    container_name: ollama
    restart: unless-stopped
    ports:
      - 11434:11434
    volumes:
      - ./models:/root/.ollama  # Montar carpeta local en el contenedor

Levantamos el contenedor:

docker compose up -d

Y ahora vamos a descargar el modelo correspondiente a deepseek r1 7b

docker exec -it ollama ollama run deepseek-r1:7b

Y aparecerá un chat para poder utilizarlo:

Conversación chat Deep Seek

Documentación de la API: https://github.com/ollama/ollama/blob/main/docs/api.md

Si quieres añadir autenticación aquí te explico cómo: https://devcodelight.com/anadir-autenticacion-en-nginx-proxy-manager-para-tus-dominios

Si necesitas acceso a la GPU mediante Docker: https://devcodelight.com/anadir-gpu-en-docker-para-ollama-u-otros-servicios/

Y si quieres mostrar el chat mediante una interfaz web: https://devcodelight.com/mostrar-una-interfaz-web-de-chat-usando-open-webui-para-llama-3-2-o-cualquier-modelo-compatible-con-ollama-usando-docker-compose/

Deja un comentario