Usar LangChain con Ollama para crear un Agente IA Tools

Usar LangChain con Ollama para crear un Agente IA Tools

Tiempo de lectura: 2 minutosHoy vamos a aprender mediante un pequeño ejemplo cómo conectar LangChain a nuestro servidor Ollama desplegado para hacer por ejemplo un IA Tools. Primero debemos tener Ollama desplegado: aquí te explico cómo. Una vez despelgado Ollama, obtenemos el endpoint y vamos a usar LangChain con Python para conectarnos a él remotamente. Obtener la Dirección del … Leer más

Cómo Crear un Chatbot Multimodal con IA Generativa

Cómo Crear un Chatbot Multimodal con IA Generativa

Tiempo de lectura: 2 minutosEn 2025, LLaMA (Large Language Model Meta AI) se ha consolidado como una de las opciones más versátiles para chatbots locales o en la nube, capaces de procesar texto, imágenes y audio. En este tutorial aprenderás a crear un chatbot multimodal usando solo LLaMA. Por qué usar LLaMA LLaMA 3 tiene versiones de 7B, 13B … Leer más

Cómo Crear una App Móvil con IA Local Usando Mistral y Transformers.js con React Native

Cómo Crear una App Móvil con IA Local Usando Mistral y Transformers.js con React Native

Tiempo de lectura: 2 minutos¿Te imaginas una app móvil que funcione con inteligencia artificial sin conexión a internet? Hoy te muestro cómo usar Transformers.js y un modelo como Mistral 7B cuantizado en el navegador o en tu móvil, sin enviar datos a servidores externos. Con esto lograrás privacidad total, usando el propio dispositivo, no tiene costes de uso, funciona … Leer más

Cómo Crear tu Propio Agente de IA Autónomo con AutoGen Studio

Cómo Crear tu Propio Agente de IA Autónomo con AutoGen Studio

Tiempo de lectura: 2 minutosEn este tutorial aprenderás a crear un agente inteligente autónomo, que puede planear, razonar y ejecutar tareas por sí mismo. No necesitas ser un experto en IA, solo seguir estos pasos. Los agentes autónomos están revolucionando la productividad personal y profesional. Gracias a plataformas como AutoGen Studio, ahora es posible construir asistentes que: Requisitos Cuenta … Leer más

Crear un pequeño agente IA con n8n y ollama (llama 3.2)

Crear un pequeño agente IA con n8n y ollama (llama 3.2)

Tiempo de lectura: 3 minutosHoy vamos a aprender cómo podemos crear un pequeño agente IA usando el automatizador n8n y ollama con el modelo llama 3.2. Si no tienes ollama instalado, aquí te enseño cómo puedes instalarlo con docker. Lo primero que haremos es instalar n8n si no lo tenemos. Ahora vamos a crear un panel de ejemplo, creamos … Leer más

Añadir GPU en Docker para Ollama u otros servicios

Añadir GPU en Docker para Ollama u otros servicios

Tiempo de lectura: 2 minutosHoy vamos a ver cómo podemos añadir acceso a GPU desde Docker para poderlo utilizar con Ollama u otros servicios. Para darle acceso a la GPU a tu contenedor Ollama, necesitas asegurarte de que tu host tenga soporte para GPU y que el contenedor pueda usarla. Esto se logra configurando correctamente el entorno Docker y … Leer más

DeepSeek R1 con Ollama en Docker Compose

DeepSeek R1 con Ollama en Docker Compose

Tiempo de lectura: < 1 minutoHoy os voy a enseñar cómo podemos desplegar DeepSeek R1 el nuevo modelo Chino en un Docker compose usando Ollama. Es un proceso muy sencillo. Primero vamos a crear el docker compose con la imagen de Ollama: Levantamos el contenedor: Y ahora vamos a descargar el modelo correspondiente a deepseek r1 7b Y aparecerá un … Leer más

Implementar un método para obtener text/event-stream de un LLm usando React Native

Implementar un método para obtener text/event-stream de un LLm usando React Native

Tiempo de lectura: 2 minutosHoy vamos a aprender cómo podemos obtener un stream de datos de un LLm usando React Native. Por defecto React Native no permite obtener un text/event-stream usando librerías como Axios o Fetch. Para obtenerlo vamos a usar la librería react-native-sse que maneja event source. Una vez instalada vamos a implementar nuestro código. Tenemos que tener … Leer más

Parámetros para optimizar llamadas a Ollama

Parámetros para optimizar llamadas a Ollama

Tiempo de lectura: 2 minutosCon estos parámetros podemos mejorar la llamada a Ollama desde una petición. Principales parámetros para mejorar la eficiencia: Ejemplo de Configuración Optimizada: Prueba estas configuraciones y verifica si la generación es más rápida y eficiente en tu hardware. isMa Ingeniero en Informática, Investigador, me encanta crear cosas o arreglarlas y darles una nueva vida. Escritor … Leer más

Aplicar Fine-tunning a Llama 3.2 para crear un custom dataset sobre un tema en concreto con Google Colab

Aplicar Fine-tunning a Llama 3.2 para crear un custom dataset sobre un tema en concreto con Google Colab

Tiempo de lectura: 6 minutosHoy vamos a crear una versión custom de Llama 3.2 mediante la técnica de Fine-tunning usando Google Colab cómo máquina de entrenamiento. Primero tenemos que ir a Google Colab y crear un nuevo cuaderno. https://colab.research.google.com/ Una vez creado vamos a ir a Entorno de ejecución o Runtime y pulsamos en cambiar tipo de entorno de … Leer más