PMに必要なのは“実装力”よりも、ユースケース設計・リスク管理・品質評価の考え方です。
4週間プラン:基礎 → プロンプト&UX → RAG → 評価(テストセット/閾値/監視)。
PRDや調査ノートを学習素材にして、Lernix AI で クイズ と フラッシュカード を作ると、用語や指標が定着します。
PM向けAI機能スコアカード(会議で使える)
「AIを入れたい」と言われたら、まずこれを埋めます。
- **ユーザー価値:**何が速く/簡単に/可能になる?
- **リスク:**プライバシー、安全、規約、誤用、幻覚、偏り
- **根拠の源:**事実はどこから来る?(ドキュメント/DB/ポリシー)
- **品質定義:**良い/悪い例は?(文章ではなく例)
- **コスト/遅延:**許容範囲は?
- **フォールバック:**不確実なときの挙動は?(聞き返す/知らないと言う)
指標チートシート(PMが押さえるべき)
- **有用性:**意図に合い、次の行動ができるか
- **正確性:**事実/手順が正しいか
- **根拠性:**許可されたソースに基づくか
- **一貫性:**似た入力で挙動がブレないか
- **価値到達時間:**役立つ結果までの時間
- **エスカレーション率:**人に回す割合
- **タスク単価:**1リクエストあたりの総コスト
最小評価テンプレ(スプレッドシート推奨)
- Prompt
- Context/Source(RAGの場合)
- 期待する特徴(厳密な文言ではなく“含むべき要素”)
- 失敗パターン(幻覚/漏れ/規約)
- スコア1〜5+メモ
20例でも比較と改善が可能になります。
実務ドキュメントで最短学習
PMは既に教材を持っています(PRD、リサーチ、チケット、社内Docs)。
- 構造化要約を作る
- 理解確認クイズを15問作る
- 用語/指標/制約をフラッシュカード化
- “ソースのみ”で回答できるか(RAG前提)をチェック
FAQ
Q:モデル学習の仕組みまで必要?
最初は不要。grounding、UX、評価ができれば十分に強いです。
Q:PMがやりがちな失敗は?
評価を飛ばすこと。測れないと改善できず、議論が感覚論になります。