Utilizar ollama local con opencode

Utilizar ollama local con opencode

Tiempo de lectura: < 1 minutoHoy vamos a aprender cómo podemos utilizar opencode con nuestro ollama directamente en local. Asegúrate de que Ollama está corriendo Por defecto ya expone API en: Compruébalo: Si no lo tienes debes instalar Ollama Para Windows: Para Linux: Y descargamos un modelo, en mi caso me gusta el qwen2.5-coder:7b Configurar OpenCode para usar Ollama OpenCode … Leer más

Agente de frases motivacionales con Claude Code y cron

Agente de frases motivacionales con Claude Code y cron

Tiempo de lectura: 2 minutosVamos a generar un primer agente con Claude Code y se ejecutará de forma automática cada hora con un cron y subirá a github el contenido generado. 1️ Estructura de carpetas Crea la carpeta de tu agente: La estructura final quedará así: 2️ Crear claude.md (contexto) Este archivo le da a Claude la personalidad y … Leer más

Conectar Claude Code a ollama para utilizar el editor agente IA de forma gratis y local

Conectar Claude Code a ollama para utilizar el editor agente IA de forma gratis y local

Tiempo de lectura: 2 minutosVamos a utilizar ollama para aprovechar la ventaja de usar nuestro propio llm gratis y sin necesidad de pagar tokens. Lo primero que haremos es comprobar si tenemos instalado ollama o instalarlo. Una vez lo tenemos instalado haremos lo siguiente: En PowerShell, define las variables de entorno para que Claude Code apunte al Ollama remoto: … Leer más

Instalar Claude Code en Windows

Instalar Claude Code en Windows

Tiempo de lectura: 2 minutosHoy vamos a aprender cómo podemos instalar Claude Code en Windows. Claude Code es una herramienta desarrollada por Anthropic que actúa como un agente inteligente para programadores. No es un modelo de IA por sí mismo, sino un interfaz/CLI que se comunica con modelos de lenguaje avanzados, como los de la familia Claude, para ayudarte … Leer más

Construir un agente con LangGraph sin conexión LLM tutorial básico

Construir un agente con LangGraph sin conexión LLM tutorial básico

Tiempo de lectura: 3 minutosHoy vamos a construir un agente con LangGraph y Python sin usar LLM cómo ejemplo de un tutorial básico. Nuestro agente hará lo siguiente: Recibe una pregunta del usuario Decide si necesita buscar info (simulado) Responde con o sin búsqueda Guarda estado entre nodos Lo primero que haremos es instalar la librería: Concepto clave de … Leer más

Cómo utilizar los prompts System y User en modelos LLM: guía práctica de Ingeniería de Promts

Cómo utilizar los prompts System y User en modelos LLM: guía práctica de Ingeniería de Promts

Tiempo de lectura: 4 minutosLos modelos de lenguaje como Llama, GPT o Mistral funcionan gracias a un concepto fundamental: la estructura del prompt. Cuando interactúas con un LLM, lo que envías no es un simple texto, sino un mensaje con un rol concreto. Estos roles influyen profundamente en cómo el modelo interpreta la conversación y genera sus respuestas. En … Leer más

Modelos de lenguaje: ¿Generales o de instrucciones? Una comparación clave

Modelos de lenguaje: ¿Generales o de instrucciones? Una comparación clave

Tiempo de lectura: 2 minutosCuando hablamos de inteligencia artificial y modelos de lenguaje, es importante entender que no todos los modelos son iguales. Podemos distinguir principalmente entre modelos generales y modelos de instrucciones. Modelos generales Ejemplo:Pregunta: “Explícame cómo funciona una red neuronal”Respuesta de un modelo general: puede dar una explicación amplia, incluir conceptos innecesarios o saltar de tema. Modelos … Leer más

Mejores modelos IA 2025 de uso libre y recomendaciones de uso

Mejores modelos IA 2025 de uso libre y recomendaciones de uso

Tiempo de lectura: 2 minutosEn 2025 hay multiples modelos IA y no todos ellos son de uso libre para uso comercial. En este post te explico cómo puedes elegir el mejor para cada uso que quieras darle y una comparación de todos ellos. Modelos destacados de uso libre Llama 3 (Meta)Disponible en versiones 7B, 13B y 70B. Mistral 7B … Leer más

Cómo activar GPU para poder acceder desde un contenedor Docker por ejemplo para un modelo LLM

Cómo activar GPU para poder acceder desde un contenedor Docker por ejemplo para un modelo LLM

Tiempo de lectura: 2 minutosActivar el acceso a la GPU es imprescindible si necesitamos arrancar un modelo LLM y utilizar GPU con VRAM. Requisitos previos Asegúrate de tener una GPU NVIDIA en tu máquina con los drivers instalados y actualizados.Verifica con: Deberías ver tu GPU y versión de driver.También necesitas Docker instalado. Instalar NVIDIA Container Toolkit Esto permite que … Leer más

Utilizar vLLM con Docker para desplegar nuestros modelos llm en producción

Utilizar vLLM con Docker para desplegar nuestros modelos llm en producción

Tiempo de lectura: 2 minutosEs un servidor inferencial optimizado (usa paged attention) que soporta modelos como Llama 3, Mistral, Gemma, Phi, Qwen, etc. Ofrece una API OpenAI-compatible, perfecta para integrarse fácilmente. Vamos a crear el docker compose que nos permitirá desplegarlo: Archivo: docker-compose.yml Cómo usarlo Probar que funciona Deberías recibir una respuesta tipo JSON del modelo. Si queremos acceder … Leer más