「これだけは AI に任せちゃダメ」と業界でよく言われる5つの領域を、意図的に Claude に任せて1ヶ月過ごしました。結果:3つは予想通り事故り、2つは意外にも問題なく回りました。意外な発見も含めて全部公開します。
実験対象の5領域
- 法務的な判断(契約書チェック等)
- 感情的な意思決定(人事評価等)
- 固有名詞の正確性が要る情報
- 最新ニュース・時事情報
- 複雑な数値計算
各領域で、本来は人間がやるべき作業をあえて Claude に任せて、結果を観察しました。
1. 法務的な判断 → 大事故
実験
取引先からのSaaS契約書(10ページ)を Claude に「リスクのある条項を全部抜き出して、各条項に対する修正案を提示して」と依頼。
結果
- 9割の条項は的確に分析(責任範囲・解約条件・データ取扱等)
- 残り1割で致命的見落とし:「自動更新条項」を「問題なし」と判断したが、後で弁護士に見せたら「実際は連続して支払いが発生する型なので注意」と指摘
学び
9割正確だからこそ、残り1割が見落とされやすい。法務は「99%正しい」程度では危険。
結論
絶対 AI 単独で判断させてはいけない。Claude を「下調べ・論点整理」までに留め、最終確認は弁護士か社内法務へ。
2. 感情的な意思決定 → 意外と使えた
実験
退職を申し出た部下の引き留めをするべきか、辞めさせるべきか、Claude と相談。背景を全部話して「あなたなら、引き留めますか?」と聞いた。
結果
- 感情に流されず、客観的な観点を整理してくれた
- 「引き留めるべき理由」「辞めさせるべき理由」をフラットに提示
- 「最終的には本人の意思を尊重」という当たり前だが見失いがちな結論
意外な発見
感情的になっている時に、AI の冷静な整理がむしろ救いになる。人間に相談すると共感されすぎて判断が偏ることがあるが、AIは適度な距離感を保ってくれる。
結論
使い方次第で有効。最終決定は人間がするが、論点整理の壁打ちには AI が向いている。
3. 固有名詞の正確性 → 何度も事故った
実験
顧客企業(10社)への送付メール案文を Claude に書かせ、社名・代表者名・所在地を含めるよう指示。
結果
- 10社中3社で社名のスペルミス(漢字違い、英数字違い)
- 2社で代表者名間違い(過去の代表者名を使った疑い)
- 1社で業界が違う(IT企業を製造業と認識)
事故寸前の事例
取引先A社の代表名が「田中健介」のところ、Claude が「田中賢介」と書いてきて、私が見逃して送信ボタン直前まで行きました(社内承認で発見)。
結論
固有名詞は絶対に AI を信用してはいけない。一次情報(公式サイト・名刺・契約書)と必ず照合。
4. 最新ニュース → 学習データの古さで事故
実験
「先週リリースされたiPhone新モデルの特徴を3点でまとめて」と質問。
結果
- Claude は「2024年の iPhone 16」の情報を、堂々と「最新」として提示
- 当然、それは間違い(実際の最新は別モデル)
- Web 検索を持たない単独 Claude では、知識のタイムスタンプを超えた情報は提供できない
使うなら
Web 検索ツールと組み合わせる(Tool Use や、Perplexity 経由)。単独 Claude では時事的な情報を出さない。
結論
単独 Claude には「直近の出来事」を聞かない。リアルタイム情報は別ツールで。
5. 複雑な数値計算 → 意外と落とし穴
実験
四半期の売上データ(CSVで200行)を渡して「カテゴリ別の合計と、前年同期比を算出して」と依頼。
結果
- 合計値が0.3%ズレた(細かい桁の処理ミス)
- 前年同期比の計算で1カテゴリだけパーセンテージが間違っていた
- 表として綺麗にまとめてはくれたが、数値そのものが信頼できない
原因
大規模言語モデルは「次に来そうな文字列」を予測しているだけで、厳密な計算が苦手。中規模数字でもズレる。
使うなら
Excel/Python で確定数値を出してから、その解釈を Claude に依頼する形。「これとこれの差は何が原因と考えられるか?」のような問い。
結論
厳密な計算は別ツール、Claude には「数値の意味づけ」を任せる。
1ヶ月の総括
致命的に NG だった3領域
- 法務的な判断 → 9割正解の罠
- 固有名詞の正確性 → ハルシネーション頻発
- 複雑な数値計算 → 微妙にズレる
意外と OK だった2領域
- 感情的な意思決定 → 客観性で救われる
- 最新ニュース → Web検索ツールと組み合わせれば可
禁止領域でも「使い方次第」
「絶対ダメ」とされていた領域でも、役割を限定すれば使える場面は意外と多い:
- 法務 → 下調べ・論点整理(最終判断は弁護士)
- 感情的判断 → 客観整理(最終決定は人間)
- 固有名詞 → 文章の構造提案(固有名詞は人間が埋める)
- 最新情報 → ツール連携で取得
- 計算 → 数字は別ツール、解釈は Claude
1ヶ月の最大の学び
「AIに任せちゃダメ」という言説は半分正しく、半分間違い。正確には「任せ方を間違うとダメ」が正解。
下書きや論点整理は AI、最終判断は人間。
事実確認は別ツール、解釈や提案は AI。
この使い分けができれば、「禁止領域」もある程度活用できます。
これから AI を本格活用する人へ
禁止領域を恐れず、役割を限定して試すのが上達への近道。「AI が苦手な部分」が明確に見えてくると、自分の人間としての価値も自然に明確になっていきます。
1ヶ月実験すると、世間で言われている「AIの限界」と「自分が体感する限界」が結構違うことに気付きます。盲目的に信じず、自分の業務で実験してみるのがいちばんです。
よくある質問
この記事に関連する質問と答えをまとめました。
