Cómo utilizar los prompts System y User en modelos LLM: guía práctica de Ingeniería de Promts

Cómo utilizar los prompts System y User en modelos LLM: guía práctica de Ingeniería de Promts

Tiempo de lectura: 4 minutosLos modelos de lenguaje como Llama, GPT o Mistral funcionan gracias a un concepto fundamental: la estructura del prompt. Cuando interactúas con un LLM, lo que envías no es un simple texto, sino un mensaje con un rol concreto. Estos roles influyen profundamente en cómo el modelo interpreta la conversación y genera sus respuestas. En … Leer más

Modelos de lenguaje: ¿Generales o de instrucciones? Una comparación clave

Modelos de lenguaje: ¿Generales o de instrucciones? Una comparación clave

Tiempo de lectura: 2 minutosCuando hablamos de inteligencia artificial y modelos de lenguaje, es importante entender que no todos los modelos son iguales. Podemos distinguir principalmente entre modelos generales y modelos de instrucciones. Modelos generales Ejemplo:Pregunta: “Explícame cómo funciona una red neuronal”Respuesta de un modelo general: puede dar una explicación amplia, incluir conceptos innecesarios o saltar de tema. Modelos … Leer más

Mejores modelos IA 2025 de uso libre y recomendaciones de uso

Mejores modelos IA 2025 de uso libre y recomendaciones de uso

Tiempo de lectura: 2 minutosEn 2025 hay multiples modelos IA y no todos ellos son de uso libre para uso comercial. En este post te explico cómo puedes elegir el mejor para cada uso que quieras darle y una comparación de todos ellos. Modelos destacados de uso libre Llama 3 (Meta)Disponible en versiones 7B, 13B y 70B. Mistral 7B … Leer más

Cómo activar GPU para poder acceder desde un contenedor Docker por ejemplo para un modelo LLM

Cómo activar GPU para poder acceder desde un contenedor Docker por ejemplo para un modelo LLM

Tiempo de lectura: 2 minutosActivar el acceso a la GPU es imprescindible si necesitamos arrancar un modelo LLM y utilizar GPU con VRAM. Requisitos previos Asegúrate de tener una GPU NVIDIA en tu máquina con los drivers instalados y actualizados.Verifica con: Deberías ver tu GPU y versión de driver.También necesitas Docker instalado. Instalar NVIDIA Container Toolkit Esto permite que … Leer más

Utilizar vLLM con Docker para desplegar nuestros modelos llm en producción

Utilizar vLLM con Docker para desplegar nuestros modelos llm en producción

Tiempo de lectura: 2 minutosEs un servidor inferencial optimizado (usa paged attention) que soporta modelos como Llama 3, Mistral, Gemma, Phi, Qwen, etc. Ofrece una API OpenAI-compatible, perfecta para integrarse fácilmente. Vamos a crear el docker compose que nos permitirá desplegarlo: Archivo: docker-compose.yml Cómo usarlo Probar que funciona Deberías recibir una respuesta tipo JSON del modelo. Si queremos acceder … Leer más

Inteligencia artificial aplicada al desarrollo: cómo aprovecharla sin complicarte

Inteligencia artificial aplicada al desarrollo: cómo aprovecharla sin complicarte

Tiempo de lectura: 3 minutosLa inteligencia artificial (IA) ha dejado de ser un tema de ciencia ficción para convertirse en una herramienta cotidiana en el desarrollo de software. Desde la automatización de tareas repetitivas hasta la generación de código inteligente, la IA ofrece oportunidades únicas para aumentar la productividad, mejorar la calidad del software y acelerar los tiempos de … Leer más

Tipos de Agentes IA disponibles con LangChain

Tipos de Agentes IA disponibles con LangChain

Tiempo de lectura: 2 minutosHoy vamos a ver qué tipos de agentes IA están disponibles con LangChain. 1. ZERO_SHOT_REACT_DESCRIPTION Es el más usado. Qué hace:El LLM decide qué herramienta usar en cada paso basándose solo en la descripción textual de las herramientas.No necesita ejemplos ni ejemplos previos. Ideal para: Ejemplo de uso típico: 2. REACT_DOCSTORE Qué hace:El agente puede … Leer más

Añadir búsquedas por internet DuckDuckGo en llama 3.2 8b usando Ollama y LangChain para Agentes IA

Añadir búsquedas por internet DuckDuckGo en llama 3.2 8b usando Ollama y LangChain para Agentes IA

Tiempo de lectura: < 1 minutoHoy vamos a hacer que nuestro agente IA pueda tener una Tool con la que sea capaz de realizar búsquedas en internet. Primero vamos a instalar las librerias necesarias: Ahora se inicializa la conexión con el servidor Ollama (aquí te explico cómo desplegar un servidor Ollama con modelo Llama 3) Y ahora vamos a crear … Leer más

Usar Tools en LongChain 1.0 para crear Agentes IA

Usar Tools en LongChain 1.0 para crear Agentes IA

Tiempo de lectura: 3 minutosHoy vamos a aprender cómo usar Tools en LongChain para crear Agentes IA. Para ejecutar bien este tutorial, recomiendo visitar el de cómo instalar LangChain. Primero: ¿Qué son las Tools en LangChain? En el contexto de un Agente de LangChain, una Tool es cualquier función o recurso externo que el Modelo de Lenguaje Grande (LLM) … Leer más

Qué es un Chain en LangChain

Qué es un Chain en LangChain

Tiempo de lectura: 2 minutos¿Qué es un «Chain» (Cadena) en LangChain? Es una instrucción concreta: Es un ejemplo perfecto y moderno de lo que significa un Chain en la arquitectura de LangChain (específicamente usando el LangChain Expression Language o LCEL). Definición de Chain Un Chain (Cadena) en LangChain es la secuencia estructurada de pasos o componentes que toma una … Leer más