Per un PM, imparare l’AI significa definire casi d’uso, rischi e metriche, e misurare la qualità.
Piano 4 settimane: fondamenta prodotto → prompt & UX → RAG → valutazione & readiness.
Usa PRD, note di ricerca e ticket come materiali: con Lernix AI li trasformi in quiz e flashcard.
Scorecard per feature AI (versione PM)
Quando arriva una proposta “mettiamo l’AI”, chiedi:
- Valore utente: quale job-to-be-done migliora?
- Rischi: privacy, safety, compliance, allucinazioni, abuso
- Fonti di verità: da dove arrivano i fatti (docs, DB, policy)?
- Definizione di qualità: esempi di output “buono” e “cattivo”
- Costo/latenza: limiti accettabili a scala
- Fallback: cosa succede quando il modello è incerto?
Metriche essenziali
- Helpfulness: risolve l’intento ed è azionabile
- Correctness: correttezza fattuale
- Groundedness: supportato da fonti consentite
- Consistency: stabilità del comportamento
- Time to value: tempo per ottenere un risultato utile
- Escalation rate: quanto spesso serve un umano
- Cost per task: costo totale per richiesta
Template minimo di valutazione (foglio di calcolo)
Colonne consigliate:
- Prompt
- Contesto/fonte (se RAG)
- Aspettative (caratteristiche, non testo esatto)
- Failure modes da osservare
- Score 1–5 + note
Con 20 esempi puoi confrontare versioni e ridurre discussioni “a sensazione”.
Impara usando documenti reali
Prendi un PRD o una policy:
- genera un riassunto strutturato
- crea 15 domande quiz per testare comprensione
- crea flashcard per termini, metriche e tradeoff
- prova una modalità “solo fonti”: risposte senza inventare
FAQ
Un PM deve sapere come si addestrano i modelli?
Non per spedire feature solide. Priorità: grounding, UX, valutazione.
Errore più comune?
Saltare l’evaluation. Se non misuri qualità, non puoi migliorarla.