Añadir GPU en Docker para Ollama u otros servicios

Añadir GPU en Docker para Ollama u otros servicios

Tiempo de lectura: 2 minutosHoy vamos a ver cómo podemos añadir acceso a GPU desde Docker para poderlo utilizar con Ollama u otros servicios. Para darle acceso a la GPU a tu contenedor Ollama, necesitas asegurarte de que tu host tenga soporte para GPU y que el contenedor pueda usarla. Esto se logra configurando correctamente el entorno Docker y … Leer más

DeepSeek R1 con Ollama en Docker Compose

DeepSeek R1 con Ollama en Docker Compose

Tiempo de lectura: < 1 minutoHoy os voy a enseñar cómo podemos desplegar DeepSeek R1 el nuevo modelo Chino en un Docker compose usando Ollama. Es un proceso muy sencillo. Primero vamos a crear el docker compose con la imagen de Ollama: Levantamos el contenedor: Y ahora vamos a descargar el modelo correspondiente a deepseek r1 7b Y aparecerá un … Leer más

Cómo Crear Tu Propia App con ChatGPT Integrado en Menos de 1 Hora

Cómo Crear Tu Propia App con ChatGPT Integrado en Menos de 1 Hora

Tiempo de lectura: 2 minutosEn este tutorial, aprenderás a crear una aplicación desde cero que aprovecha el poder de la IA generativa de ChatGPT (OpenAI) para interactuar con los usuarios en tiempo real. Perfecto para principiantes y profesionales que quieran llevar su desarrollo al siguiente nivel y generar un producto atractivo. Usaremos React Native para la app móvil y … Leer más

Implementar un método para obtener text/event-stream de un LLm usando React Native

Implementar un método para obtener text/event-stream de un LLm usando React Native

Tiempo de lectura: 2 minutosHoy vamos a aprender cómo podemos obtener un stream de datos de un LLm usando React Native. Por defecto React Native no permite obtener un text/event-stream usando librerías como Axios o Fetch. Para obtenerlo vamos a usar la librería react-native-sse que maneja event source. Una vez instalada vamos a implementar nuestro código. Tenemos que tener … Leer más

Parámetros para optimizar llamadas a Ollama

Parámetros para optimizar llamadas a Ollama

Tiempo de lectura: 2 minutosCon estos parámetros podemos mejorar la llamada a Ollama desde una petición. Principales parámetros para mejorar la eficiencia: Ejemplo de Configuración Optimizada: Prueba estas configuraciones y verifica si la generación es más rápida y eficiente en tu hardware. isMa Ingeniero en Informática, Investigador, me encanta crear cosas o arreglarlas y darles una nueva vida. Escritor … Leer más

Aplicar Fine-tunning a Llama 3.2 para crear un custom dataset sobre un tema en concreto con Google Colab

Aplicar Fine-tunning a Llama 3.2 para crear un custom dataset sobre un tema en concreto con Google Colab

Tiempo de lectura: 6 minutosHoy vamos a crear una versión custom de Llama 3.2 mediante la técnica de Fine-tunning usando Google Colab cómo máquina de entrenamiento. Primero tenemos que ir a Google Colab y crear un nuevo cuaderno. https://colab.research.google.com/ Una vez creado vamos a ir a Entorno de ejecución o Runtime y pulsamos en cambiar tipo de entorno de … Leer más

Mostrar una interfaz web de chat usando open-webui para llama 3.2 o cualquier modelo compatible con ollama usando docker compose

Mostrar una interfaz web de chat usando open-webui para llama 3.2 o cualquier modelo compatible con ollama usando docker compose

Tiempo de lectura: 2 minutosHoy vamos a montar un docker compose qué es capaz de generar una web con interfaz de chat para cualquier modelo compatible con ollama. Lo primero que tenemos que hacer es crear este docker-compose.yml basado en open-webui En mi caso lo voy a acoplar en el mismo docker-compose.yml de ollama: Ahora será tan sencillo como … Leer más

Ollama con Llama 3.2 en Docker

Ollama con Llama 3.2 en Docker

Tiempo de lectura: 2 minutosHoy vamos a ejecutar el nuevo modelo de llama 3.2 en Docker utilizando Ollama. Lo primero que haremos es crear este docker-compose.yml Vamos a utilizar el puerto por defecto 11434. Ahora tendremos que lanzar el comando: Y tendremos desplegado ollama en el contenedor Docker. Ahora para descargar y ejecutar el modelo llama 3.2 usaremos el … Leer más

Crea una App de Adivinanzas con React y ChatGPT API

Crea una App de Adivinanzas con React y ChatGPT API

Tiempo de lectura: 2 minutosEn este tutorial, vamos a construir una aplicación divertida de adivinanzas donde los usuarios pueden intentar adivinar objetos, animales o cualquier cosa que quieran. La gracia es que la app usará la API de ChatGPT para dar pistas creativas y a veces desafiantes. Paso 1: Configura tu Proyecto de React Paso 2: Diseña el Componente … Leer más

La Revolución de la Inteligencia Artificial: ¿Estás Listo para el Futuro?

La Revolución de la Inteligencia Artificial: ¿Estás Listo para el Futuro?

Tiempo de lectura: 2 minutosEn un mundo que cambia a la velocidad de la luz, la inteligencia artificial (IA) está redefiniendo el futuro de la humanidad. Desde asistentes virtuales que responden a nuestras preguntas hasta coches autónomos que se conducen solos, la IA está en todas partes. Pero, ¿estamos realmente preparados para lo que viene? La IA en Nuestras … Leer más