Mucha gente lo usa como chatbot de terapia. Esto es otra cosa. 10 preguntas para saber dónde estás de verdad.
10 preguntas ~4 minutos Resultado inmediato
Pregunta 1 de 100 pts
Pregunta 01 / 10 — Conceptos base
¿Qué es un "prompt" en el contexto de los modelos de lenguaje?
AUna respuesta que genera la IA automáticamente
BUn tipo de algoritmo de entrenamiento del modelo
CLa instrucción o entrada de texto que le das al modelo para guiar su respuesta
DEl nombre del archivo de configuración del modelo
✓ Correcto. El prompt es toda la información que el modelo recibe como entrada: instrucciones, contexto, ejemplos y la pregunta real. De ahí viene "prompt engineering": diseñar esa entrada con precisión.
✗ No exactamente. El prompt es la instrucción o entrada de texto que le das al modelo. Es el punto de control más importante que tienes: todo lo que el modelo produce parte de él.
Pregunta 02 / 10 — Técnicas
¿Qué diferencia al prompting "zero-shot" del "few-shot"?
AZero-shot es más rápido porque usa modelos pequeños
BZero-shot no incluye ejemplos; few-shot incluye ejemplos del resultado esperado
CFew-shot requiere entrenar el modelo; zero-shot no
DSon exactamente lo mismo, solo diferente nomenclatura
✓ Correcto. En zero-shot solo describes la tarea. En few-shot incluyes 1–5 ejemplos de input/output para mostrarle el patrón exacto que quieres. Los ejemplos actúan como contexto implícito de entrenamiento.
✗ Incorrecto. La diferencia es sobre ejemplos en el prompt, no sobre velocidad ni entrenamiento. Zero-shot = sin ejemplos. Few-shot = con ejemplos de referencia. Ambos usan el mismo modelo.
Pregunta 03 / 10 — Parámetros
¿Qué controla el parámetro "temperatura" (temperature) en un LLM?
ALa velocidad de procesamiento del modelo
BEl número máximo de palabras que puede generar
CEl idioma en que responde el modelo
DQué tan predecibles o aleatorias son las respuestas — afecta creatividad vs. precisión
✓ Correcto. Temperatura 0 = respuestas deterministas y predecibles (ideal para código o hechos). Temperatura 1+ = respuestas más creativas y variadas. Para producción suelen usarse valores entre 0 y 0.3.
✗ Incorrecto. La temperatura controla la aleatoriedad de la distribución de tokens. Baja = más conservador y predecible. Alta = más variado y "creativo". Saber ajustarla es básico para aplicaciones reales.
Pregunta 04 / 10 — Arquitectura
¿Qué es un "system prompt" y por qué es diferente al mensaje del usuario?
AEs el primer mensaje que escribe el usuario al iniciar la conversación
BEs una alerta de error cuando el modelo no entiende la instrucción
CEs una instrucción inicial, invisible al usuario, que define el comportamiento, rol y restricciones del modelo durante toda la sesión
DEs el historial de conversaciones previas que se guarda automáticamente
✓ Correcto. El system prompt es la capa de control permanente. Define quién "es" el modelo, qué puede y qué no puede hacer. En producción, es donde vive la personalidad y las reglas del sistema.
✗ Incorrecto. El system prompt es una instrucción base que establece el contexto global del modelo antes de que empiece la conversación. Es la herramienta más potente para construir aplicaciones sobre LLMs.
Pregunta 05 / 10 — Razonamiento
¿Qué es "Chain-of-Thought" (CoT) prompting?
Contexto: Quieres que un modelo resuelva: "Si hay 23 ovejas y 5 caen, ¿cuántas quedan?" y razone paso a paso.
APedirle al modelo que responda en una sola palabra
BInstruir al modelo para que muestre su razonamiento intermedio antes de dar la respuesta final, mejorando su precisión en tareas complejas
CEncadenar múltiples modelos diferentes para que se pasen el resultado entre sí
DHacer la misma pregunta varias veces para obtener diferentes versiones
✓ Correcto. CoT mejora dramáticamente el rendimiento en razonamiento matemático, lógico y multi-paso. Basta agregar "Piensa paso a paso" o incluir ejemplos con razonamiento explícito. Es una de las técnicas con mayor impacto medible.
✗ Incorrecto. Chain-of-Thought consiste en pedirle al modelo que "piense en voz alta" — que muestre los pasos intermedios antes de concluir. Esto reduce errores en tareas que requieren razonamiento secuencial.
Pregunta 06 / 10 — Limitaciones
¿Qué es una "alucinación" en el contexto de los LLMs?
ACuando el modelo responde en un idioma diferente al que le preguntaste
BCuando el modelo tarda demasiado en responder
CCuando el modelo genera información plausible pero factualmente incorrecta o inventada, con total confianza
DCuando el modelo repite la misma frase varias veces en una respuesta
✓ Correcto. Las alucinaciones son el riesgo más peligroso en producción. Un buen prompt engineer diseña prompts que reducen este riesgo: pidiendo fuentes, usando temperatura baja, o implementando pasos de verificación.
✗ Incorrecto. Una alucinación es cuando el modelo "inventa" datos, citas, leyes o hechos que suenan correctos pero son falsos. El modelo no sabe que está mintiendo. Es uno de los problemas más críticos a manejar en producción.
Pregunta 07 / 10 — Diseño avanzado
¿Cuál de estos prompts producirá un resultado más preciso y útil?
A"Explícame machine learning"
B"Eres un experto en IA. Explícame ML"
C"Eres un profesor universitario. Explica machine learning supervisado a un estudiante de ingeniería de 2° año que sabe álgebra lineal pero no ha visto probabilidad. Usa una analogía concreta y un ejemplo de código en Python. Máximo 300 palabras."
D"Por favor, si pudieras, cuando tengas tiempo, ¿me podrías explicar un poco sobre machine learning?"
✓ Correcto. El prompt C especifica rol, audiencia, conocimiento previo, formato, analogía, ejemplo y longitud. Cada restricción elimina ambigüedad. Prompt engineering no es cortesía — es precisión quirúrgica.
✗ Incorrecto. La opción C es la más efectiva porque especifica: rol del modelo, audiencia, conocimiento previo, formato deseado, y límite de longitud. Sin estos parámetros, el modelo adivina y suele equivocarse en lo que necesitas.
Pregunta 08 / 10 — Tokens
¿Qué son los "tokens" y por qué importan al diseñar prompts?
ACredenciales de autenticación para acceder a la API
BLas unidades mínimas en que el modelo divide el texto (aprox. ¾ de una palabra). Determinan el costo, el límite de contexto y la capacidad del modelo para "recordar" información
CSon los puntos de puntuación que el modelo usa para separar ideas
DEl número de respuestas que puedes pedir por hora
✓ Correcto. Saber sobre tokens es crucial para producción: define cuánto contexto puede "ver" el modelo, cuánto cuesta cada llamada, y por qué prompts muy largos pueden degradar la calidad de respuesta al saturar la ventana de contexto.
✗ Incorrecto. Los tokens son fragmentos de texto que el modelo procesa internamente — aproximadamente ¾ de una palabra en inglés (menos en español). Impactan directamente el costo de la API, el límite de contexto y cómo el modelo "recuerda" el historial.
Pregunta 09 / 10 — Sistemas
¿Qué es un "prompt chain" (cadena de prompts)?
AEscribir el mismo prompt con pequeñas variaciones y elegir la mejor respuesta
BTraducir un prompt a varios idiomas para mejorar resultados
CDividir una tarea compleja en pasos secuenciales donde la salida de un prompt se convierte en la entrada del siguiente, formando un pipeline
DCopiar y pegar respuestas anteriores dentro del nuevo prompt
✓ Correcto. Las cadenas de prompts son la base de sistemas de IA complejos: analizar → planificar → ejecutar → validar → formatear. Cada paso tiene una responsabilidad acotada, lo que mejora el control y la calidad del resultado final.
✗ Incorrecto. Un prompt chain es un pipeline donde encadenas múltiples llamadas al modelo, pasando el output de una como input de la siguiente. Esto permite construir flujos de trabajo complejos que ningún prompt único podría manejar bien.
Pregunta 10 / 10 — Aplicación real
Quieres que un modelo extraiga datos estructurados de texto libre (nombre, fecha, monto) y siempre devuelva JSON válido. ¿Cuál es la mejor estrategia?
APedirle "sé preciso y devuelve JSON" sin más instrucciones
BUsar temperatura alta para que el modelo sea más creativo con el formato
CEspecificar el schema JSON exacto en el prompt, incluir un ejemplo de input/output, usar temperatura 0, y agregar instrucción explícita: "responde SOLO con JSON válido, sin texto adicional"
DPedirle que primero explique lo que encontró, y luego formatee
✓ Correcto. Para salidas estructuradas en producción: schema explícito + ejemplo + temperatura 0 + restricción de formato es el estándar. Algunos modelos modernos tienen "JSON mode" nativo, pero igual necesitas el schema en el prompt.
✗ Incorrecto. Para extraer datos estructurados de forma confiable necesitas: definir el schema exacto, dar un ejemplo, bajar la temperatura a 0, y prohibir explícitamente texto fuera del JSON. Sin esto, el modelo improvisa el formato y el parsing falla.