Cómo Crear tu Propio Agente de IA Autónomo con AutoGen Studio

Tiempo de lectura: 2 minutos

En este tutorial aprenderás a crear un agente inteligente autónomo, que puede planear, razonar y ejecutar tareas por sí mismo. No necesitas ser un experto en IA, solo seguir estos pasos.

Montañas - pexels

Los agentes autónomos están revolucionando la productividad personal y profesional. Gracias a plataformas como AutoGen Studio, ahora es posible construir asistentes que:

  • Organizan tu día.
  • Responden correos como tú.
  • Publican contenido en redes automáticamente.
  • Hacen investigaciones y comparativas de productos.
  • ¡Y mucho más!

Requisitos

Cuenta en AutoGen Studio

Python 3.10+ instalado

OpenAI API Key (u otra LLM como Claude, Gemini o modelos open-source)

Visual Studio Code https://code.visualstudio.com/

Instalamos Auto-gen

pip install pyautogen

AutoGen es una librería de Microsoft para crear agentes conversacionales inteligentes. Puedes integrarla fácilmente con LLMs como GPT-4 o LLaMA.

Crea tu primer agente en Python

Guarda este archivo como agente.py:

from autogen import AssistantAgent, UserProxyAgent

# Definir el LLM (por defecto OpenAI GPT-4)
config = {
    "llm_config": {
        "model": "gpt-4",
        "api_key": "TU_OPENAI_API_KEY"
    }
}

# Crear un agente asistente
asistente = AssistantAgent(name="Asistente", **config)

# Crear el proxy del usuario
usuario = UserProxyAgent(name="Usuario", code_execution_config={"work_dir": "agente-trabajo"})

# Comenzar la conversación
usuario.initiate_chat(asistente, message="Quiero que me organices mi semana y me hagas un plan de contenidos.")

Añade herramientas externas (plugins)

Puedes conectar tu agente a:

  • Calendario de Google
  • API de Gmail
  • Buscadores (Bing, Brave Search)
  • Scripts personalizados

Ejemplo para ejecutar Python dinámicamente:

code_execution_config={"use_docker": False}

Esto permite que el agente escriba y ejecute código para ti, como si fuera un asistente virtual programador.

Ejemplos de uso:

Escenario: Eres creador de contenido. Le dices al agente:

    “Hazme un calendario de publicaciones sobre inteligencia artificial para este mes, enfocado a LinkedIn y TikTok.”

El agente puede:

    Generar ideas de posts.

    Crear titulares virales.

    Programarlos usando tu API de Buffer o Zapier.

Extra: Configura AutoGen para usar Ollama

AutoGen necesita una clase que defina cómo conectarse con el modelo. Usa el modelo de Ollama como LLM personalizado.

Crea un archivo ollama_llm.py con esta clase:

import requests

class OllamaLLM:
    def __init__(self, model="llama3", base_url="http://localhost:11434"):
        self.model = model
        self.base_url = base_url

    def __call__(self, prompt, **kwargs):
        response = requests.post(
            f"{self.base_url}/api/generate",
            json={"model": self.model, "prompt": prompt}
        )
        return response.json()["response"]

Usa tu LLM personalizado en AutoGen

from autogen import AssistantAgent, UserProxyAgent
from ollama_llm import OllamaLLM

llm = OllamaLLM(model="llama3")

asistente = AssistantAgent(
    name="Asistente",
    llm_config={
        "completion_fn": llm
    }
)

usuario = UserProxyAgent(name="Usuario")

usuario.initiate_chat(asistente, message="Explícame qué es AutoGen en lenguaje sencillo.")

Ahora el agente responde usando Ollama localmente, sin necesidad de API keys ni internet. Puedes cambiar el modelo fácilmente (mistral, phi3, codellama, etc).

Deja un comentario