En este tutorial aprenderás a crear un agente inteligente autónomo, que puede planear, razonar y ejecutar tareas por sí mismo. No necesitas ser un experto en IA, solo seguir estos pasos.

Los agentes autónomos están revolucionando la productividad personal y profesional. Gracias a plataformas como AutoGen Studio, ahora es posible construir asistentes que:
- Organizan tu día.
- Responden correos como tú.
- Publican contenido en redes automáticamente.
- Hacen investigaciones y comparativas de productos.
- ¡Y mucho más!
Requisitos
Cuenta en AutoGen Studio
Python 3.10+ instalado
OpenAI API Key (u otra LLM como Claude, Gemini o modelos open-source)
Visual Studio Code https://code.visualstudio.com/
Instalamos Auto-gen
pip install pyautogen
AutoGen es una librería de Microsoft para crear agentes conversacionales inteligentes. Puedes integrarla fácilmente con LLMs como GPT-4 o LLaMA.
Crea tu primer agente en Python
Guarda este archivo como agente.py
:
from autogen import AssistantAgent, UserProxyAgent # Definir el LLM (por defecto OpenAI GPT-4) config = { "llm_config": { "model": "gpt-4", "api_key": "TU_OPENAI_API_KEY" } } # Crear un agente asistente asistente = AssistantAgent(name="Asistente", **config) # Crear el proxy del usuario usuario = UserProxyAgent(name="Usuario", code_execution_config={"work_dir": "agente-trabajo"}) # Comenzar la conversación usuario.initiate_chat(asistente, message="Quiero que me organices mi semana y me hagas un plan de contenidos.")
Añade herramientas externas (plugins)
Puedes conectar tu agente a:
- Calendario de Google
- API de Gmail
- Buscadores (Bing, Brave Search)
- Scripts personalizados
Ejemplo para ejecutar Python dinámicamente:
code_execution_config={"use_docker": False}
Esto permite que el agente escriba y ejecute código para ti, como si fuera un asistente virtual programador.
Ejemplos de uso:
Escenario: Eres creador de contenido. Le dices al agente: “Hazme un calendario de publicaciones sobre inteligencia artificial para este mes, enfocado a LinkedIn y TikTok.” El agente puede: Generar ideas de posts. Crear titulares virales. Programarlos usando tu API de Buffer o Zapier.
Extra: Configura AutoGen para usar Ollama
AutoGen necesita una clase que defina cómo conectarse con el modelo. Usa el modelo de Ollama como LLM personalizado.
Crea un archivo ollama_llm.py
con esta clase:
import requests class OllamaLLM: def __init__(self, model="llama3", base_url="http://localhost:11434"): self.model = model self.base_url = base_url def __call__(self, prompt, **kwargs): response = requests.post( f"{self.base_url}/api/generate", json={"model": self.model, "prompt": prompt} ) return response.json()["response"]
Usa tu LLM personalizado en AutoGen
from autogen import AssistantAgent, UserProxyAgent from ollama_llm import OllamaLLM llm = OllamaLLM(model="llama3") asistente = AssistantAgent( name="Asistente", llm_config={ "completion_fn": llm } ) usuario = UserProxyAgent(name="Usuario") usuario.initiate_chat(asistente, message="Explícame qué es AutoGen en lenguaje sencillo.")
Ahora el agente responde usando Ollama localmente, sin necesidad de API keys ni internet. Puedes cambiar el modelo fácilmente (mistral
, phi3
, codellama
, etc).

Ingeniero en Informática, Investigador, me encanta crear cosas o arreglarlas y darles una nueva vida. Escritor y poeta. Más de 20 APPs publicadas y un libro en Amazon.