Los modelos de lenguaje como Llama, GPT o Mistral funcionan gracias a un concepto fundamental: la estructura del prompt. Cuando interactúas con un LLM, lo que envías no es un simple texto, sino un mensaje con un rol concreto. Estos roles influyen profundamente en cómo el modelo interpreta la conversación y genera sus respuestas.

En este artículo veremos qué son los prompts system, user y assistant; por qué son esenciales para controlar el comportamiento de modelos como Llama; ejemplos reales; técnicas de optimización; y configuraciones recomendadas para desarrolladores.
Qué es un System Prompt
El system prompt es el mensaje que define las reglas generales del modelo. Funcionaría como la “personalidad”, la política interna o la guía que condiciona su comportamiento durante toda la sesión.
Es lo primero que procesa el modelo y es el mensaje con más peso a la hora de determinar cómo responderá posteriormente.
El system prompt se utiliza para:
- Establecer el tono y estilo del asistente.
- Limitar o ampliar las capacidades.
- Indicar lo que el modelo puede y no puede hacer.
- Crear agentes especializados (desarrollador senior, abogado, profesor, analista, asistente de soporte, etc.).
- Controlar el formato de salida.
- Mantener consistencia en conversaciones largas.
Ejemplo de system prompt para Llama:
Eres un asistente experto en programación. Respondes de forma clara y precisa. Cuando el usuario pida ejemplos, los proporcionas. Si no estás seguro de un dato técnico, lo indicas explícitamente. Siempre utilizas buenas prácticas al generar código.
Qué es un User Prompt
El user prompt es simplemente la solicitud del usuario. El sistema lo interpreta como la entrada principal y genera la mejor respuesta posible siguiendo las reglas determinadas en el system prompt.
Ejemplo:
¿Puedes explicarme qué es una promesa en JavaScript?
La respuesta respetará lo que se haya indicado en el system prompt.
Qué es un Assistant Prompt
Es la respuesta del modelo. En la mayoría de plataformas se genera automáticamente, pero en entornos de API puede definirse manualmente para aportar contexto adicional. Sirve como memoria para las siguientes interacciones.
Cómo interactúan estos roles en Llama
La estructura típica de una conversación en un LLM moderno es la siguiente:
- System: reglas globales.
- User: la petición del usuario.
- Assistant: la respuesta generada por el modelo.
Esta secuencia se repite y se va acumulando, creando un contexto que el modelo utiliza para predecir la siguiente salida.
Ejemplo real utilizando Llama con formato JSON
Cuando trabajas con una API o llamas al modelo desde tu servidor, una conversación puede verse así:
[
{
"role": "system",
"content": "Eres un asistente experto en JavaScript. Respondes de forma directa y aportas ejemplos sencillos."
},
{
"role": "user",
"content": "Explícame qué es una promesa."
}
]
Ejemplo de mejora del comportamiento del modelo usando System Prompt
Sin system prompt:
User: ¿Qué es un array en Python?
La respuesta será correcta, pero su tono, extensión y estilo pueden variar mucho entre consultas.
Con un system prompt especializado:
System: Eres un profesor de Python para principiantes. Explicas siempre con analogías claras y lenguaje sencillo. User: ¿Qué es un array en Python?
Ahora la respuesta será más didáctica y accesible.
Con un system prompt técnico:
System: Eres un ingeniero de software senior. Utilizas terminología precisa y un enfoque formal. User: ¿Qué es un array en Python?
El resultado será completamente diferente, aunque la pregunta sea la misma.
Cómo optimizar prompts para modelos Llama
A continuación se describen varias técnicas que permiten mejorar la calidad, consistencia y utilidad de las respuestas al trabajar con Llama.
1. Definir claramente la identidad del asistente
Los modelos funcionan mejor cuando saben qué rol deben adoptar. Por ejemplo:
Eres LlamaDev, un asistente especializado en generar código limpio, con comentarios y tests unitarios.
Establecer límites explícitos
Solo responderás a preguntas relacionadas con desarrollo de software. Si el usuario plantea un tema diferente, se lo indicarás.
3. Indicar formatos de salida
Esto es imprescindible en automatización, APIs y aplicaciones reales.
Tus respuestas deben estar siempre en JSON válido.
4. Utilizar instrucciones fuertes: “siempre”, “nunca”, “debes”
Los modelos Llama responden muy bien a instrucciones claras y absolutas.
Siempre explica tu razonamiento paso a paso. Nunca inventes funciones que no existan. Debes validar cada ejemplo antes de mostrarlo.
5. Usar ejemplos previos (few-shot prompting)
Proporcionar ejemplos concretos mejora la coherencia.
Ejemplo:
User: Genera una función que sume dos números.
Assistant:
def suma(a, b):
return a + b
El modelo replicará este estilo en sus próximas respuestas.
Prompts prácticos para proyectos reales con Llama
Chatbot de soporte técnico
System: Eres un agente de soporte técnico para una aplicación móvil. Siempre respondes primero diagnosticando el problema y luego propones una solución. Cuando falte información, haces preguntas adicionales.
Redactor de contenido SEO
System: Eres un redactor SEO profesional. Usas un estilo claro. Estructuras el contenido con encabezados H2 y H3 y mantienes un enfoque orientado a posicionamiento.
Tutor de programación
System: Actúas como profesor de Python para principiantes. Siempre ofreces ejemplos sencillos y evitas términos avanzados a menos que el usuario los pida.
Analista de datos
System: Eres un analista de datos. Describes patrones de forma clara e incluyes conclusiones prácticas.
Experto en finanzas
System: Eres un asesor financiero. Ofreces información objetiva y acompañas tus respuestas con advertencias sobre riesgos.
Errores comunes al usar prompts en modelos Llama
- No utilizar system prompt, lo que hace que el comportamiento del modelo sea inestable.
- Incluir instrucciones contradictorias como “sé conciso” y “explícalo con mucho detalle”.
- No pedir formatos específicos cuando se generan datos estructurados.
- Incluir demasiadas tareas distintas en un solo mensaje.

Ingeniero en Informática, Investigador, me encanta crear cosas o arreglarlas y darles una nueva vida. Escritor y poeta. Más de 20 APPs publicadas y un libro en Amazon.