Añadir búsquedas por internet DuckDuckGo en llama 3.2 8b usando Ollama y LangChain para Agentes IA

Tiempo de lectura: < 1 minuto

Hoy vamos a hacer que nuestro agente IA pueda tener una Tool con la que sea capaz de realizar búsquedas en internet.

Duck - pexels

Primero vamos a instalar las librerias necesarias:

pip install langchain langchain_community
pip install ddgs

Ahora se inicializa la conexión con el servidor Ollama (aquí te explico cómo desplegar un servidor Ollama con modelo Llama 3)

from langchain_community.chat_models import ChatOllama
from langchain_core.prompts import ChatPromptTemplate
# ... otras importaciones ...

# ⚠️ TU CONFIGURACIÓN REMOTA
OLLAMA_SERVER_URL = "URL_OLLAMA"
MODEL_NAME = "llama3.2:3b"

# 3. Inicializar el LLM (el resto del código es igual)
try:
    llm = ChatOllama(
        model=MODEL_NAME,
        base_url=OLLAMA_SERVER_URL,
        temperature=0.7
    )
    print(f"✅ Conectado a ChatOllama en: {OLLAMA_SERVER_URL}")

    # ... continuar con bind_tools(mis_tools) y la creación del agente.

except Exception as e:
    print(f"❌ Error al inicializar o vincular: {e}")

Y ahora vamos a crear la tool necesaria para la búsqueda en Google.

from langchain.agents import Tool
from langchain.tools import DuckDuckGoSearchResults

search = DuckDuckGoSearchResults()

duck_tool = Tool(
    name="DuckDuckGo",
    func=lambda q: search.run(q),  # run devuelve un string resumido
    description="Busca en la web y devuelve un resumen en texto."
)

mis_tools = [duck_tool]

Y ahora se añade al modelo:

agent = initialize_agent(
    tools=mis_tools,
    llm=llm,
    agent_type=AgentType.ZERO_SHOT_REACT_DESCRIPTION,
    verbose=True
)

Y se utiliza:

pregunta = "¿Quién ganó el último mundial de fútbol?"
resultado = agent.invoke(pregunta)
print("💬 Respuesta del agente:", resultado)

Deja un comentario