En este tutorial aprenderás a crear un agente inteligente autónomo, que puede planear, razonar y ejecutar tareas por sí mismo. No necesitas ser un experto en IA, solo seguir estos pasos.

Los agentes autónomos están revolucionando la productividad personal y profesional. Gracias a plataformas como AutoGen Studio, ahora es posible construir asistentes que:
- Organizan tu día.
- Responden correos como tú.
- Publican contenido en redes automáticamente.
- Hacen investigaciones y comparativas de productos.
- ¡Y mucho más!
Requisitos
Cuenta en AutoGen Studio
Python 3.10+ instalado
OpenAI API Key (u otra LLM como Claude, Gemini o modelos open-source)
Visual Studio Code https://code.visualstudio.com/
Instalamos Auto-gen
pip install pyautogen
AutoGen es una librería de Microsoft para crear agentes conversacionales inteligentes. Puedes integrarla fácilmente con LLMs como GPT-4 o LLaMA.
Crea tu primer agente en Python
Guarda este archivo como agente.py:
from autogen import AssistantAgent, UserProxyAgent
# Definir el LLM (por defecto OpenAI GPT-4)
config = {
"llm_config": {
"model": "gpt-4",
"api_key": "TU_OPENAI_API_KEY"
}
}
# Crear un agente asistente
asistente = AssistantAgent(name="Asistente", **config)
# Crear el proxy del usuario
usuario = UserProxyAgent(name="Usuario", code_execution_config={"work_dir": "agente-trabajo"})
# Comenzar la conversación
usuario.initiate_chat(asistente, message="Quiero que me organices mi semana y me hagas un plan de contenidos.")
Añade herramientas externas (plugins)
Puedes conectar tu agente a:
- Calendario de Google
- API de Gmail
- Buscadores (Bing, Brave Search)
- Scripts personalizados
Ejemplo para ejecutar Python dinámicamente:
code_execution_config={"use_docker": False}
Esto permite que el agente escriba y ejecute código para ti, como si fuera un asistente virtual programador.
Ejemplos de uso:
Escenario: Eres creador de contenido. Le dices al agente:
“Hazme un calendario de publicaciones sobre inteligencia artificial para este mes, enfocado a LinkedIn y TikTok.”
El agente puede:
Generar ideas de posts.
Crear titulares virales.
Programarlos usando tu API de Buffer o Zapier.
Extra: Configura AutoGen para usar Ollama
AutoGen necesita una clase que defina cómo conectarse con el modelo. Usa el modelo de Ollama como LLM personalizado.
Crea un archivo ollama_llm.py con esta clase:
import requests
class OllamaLLM:
def __init__(self, model="llama3", base_url="http://localhost:11434"):
self.model = model
self.base_url = base_url
def __call__(self, prompt, **kwargs):
response = requests.post(
f"{self.base_url}/api/generate",
json={"model": self.model, "prompt": prompt}
)
return response.json()["response"]
Usa tu LLM personalizado en AutoGen
from autogen import AssistantAgent, UserProxyAgent
from ollama_llm import OllamaLLM
llm = OllamaLLM(model="llama3")
asistente = AssistantAgent(
name="Asistente",
llm_config={
"completion_fn": llm
}
)
usuario = UserProxyAgent(name="Usuario")
usuario.initiate_chat(asistente, message="Explícame qué es AutoGen en lenguaje sencillo.")
Ahora el agente responde usando Ollama localmente, sin necesidad de API keys ni internet. Puedes cambiar el modelo fácilmente (mistral, phi3, codellama, etc).

Ingeniero en Informática, Investigador, me encanta crear cosas o arreglarlas y darles una nueva vida. Escritor y poeta. Más de 20 APPs publicadas y un libro en Amazon.