Aprender IA como PM no es convertirse en ML engineer. Es aprender a tomar mejores decisiones: casos de uso, riesgos, métricas y calidad.
Aquí tienes un plan práctico de 4 semanas.
Qué debe aprender un PM
- patrones de prompts para salida consistente
- RAG (usar documentación como fuente)
- evaluación (calidad medible, no “sensación”)
- riesgos: privacidad, alucinaciones, sesgos
- coste/latencia
Plan de 4 semanas
Semana 1 — Fundamentos de producto
- define 3 casos de uso
- JTBD + riesgos + métricas
Artefacto: brief de 1 página.
Semana 2 — Prompts y UX
- biblioteca de templates (inputs, restricciones, formato)
- estados de error e incertidumbre
Artefacto: spec de prompts + notas de UX.
Semana 3 — RAG para producción
- fuentes de verdad
- alcance permitido/prohibido
- actualización de contenidos
Artefacto: mapa de contenido (owners + cadencia).
Semana 4 — Evaluación y lanzamiento
- set de pruebas (20 ejemplos)
- checklist de lanzamiento y monitoreo
Artefacto: hoja de evaluación + checklist.
Aprende más rápido con tus materiales reales
Usa PRDs, research, tickets y docs como material de estudio. Con Lernix AI puedes convertirlos en cuestionarios y tarjetas para reforzar términos, métricas y tradeoffs.
Cierre
Con prompts, RAG y evaluación claros, lideras mejores conversaciones y envías mejores features de IA.
Scorecard rápido para features de IA (para PMs)
Cuando un stakeholder pida “metamos IA”, usa este scorecard:
- Valor: qué trabajo del usuario se hace mejor o más rápido
- Riesgo: privacidad, seguridad, compliance, alucinaciones, abuso
- Fuentes de verdad: de dónde sale la información (docs, base de datos, políticas)
- Definición de calidad: ejemplos de “bueno” y “malo”
- Coste/latencia: límites aceptables a escala
- Fallback: qué pasa si el modelo no sabe o se equivoca
Si no puedes responder esto, la idea aún no está lista.
Métricas que sí importan (sin complicarte)
Define calidad con señales medibles:
- Helpfulness: cumple la intención y es accionable
- Correctness: es correcto en hechos y pasos
- Groundedness: está soportado por fuentes permitidas
- Consistency: comportamiento estable ante prompts similares
- Time to value: tiempo hasta un resultado útil
- Escalación a humano: % de casos que requieren soporte
- Coste por tarea: tokens/API + retrieval + infra
Plantilla mínima de evaluación (copy/paste)
Crea una tabla:
- Prompt
- Contexto/fuente (si hay RAG)
- Expectativas (características, no texto exacto)
- Fallos a vigilar (alucinación, omisiones, policy)
- Puntuación 1–5 + notas
Con 20 ejemplos ya puedes comparar versiones y evitar lanzamientos “por sensación”.
Aprende usando tus propios documentos
Los PMs ya tienen material real: PRDs, research, tickets, docs internos.
Flujo recomendado:
- Resume un documento con estructura (títulos y bullets).
- Genera 15 preguntas tipo quiz para comprobar comprensión.
- Crea flashcards con términos, métricas y tradeoffs.
- Prueba un “modo RAG”: ¿puede responder solo con fuentes aprobadas?
Esto convierte el aprendizaje de IA para product managers en algo directo y útil.
FAQ
¿Necesito entender cómo se entrenan los modelos?
No para lanzar features buenas. Prioriza grounding, UX y evaluación.
¿El mayor error de un PM con IA?
No evaluar. Si no mides calidad, no puedes mejorarla.