Ollama con Llama 3.2 en Docker

Tiempo de lectura: 2 minutos Hoy vamos a ejecutar el nuevo modelo de llama 3.2 en Docker utilizando Ollama. Lo primero que haremos es crear este docker-compose.yml Vamos a utilizar el puerto por defecto 11434. Ahora tendremos que lanzar el comando: Y tendremos desplegado ollama en el contenedor Docker. Ahora para descargar y ejecutar el modelo llama 3.2 usaremos el … Leer más