BLOG

「AIに頼ってはいけない」と言われる作業を全部Claudeに任せてみたらこうなった

「これだけは AI に任せちゃダメ」と業界でよく言われる5つの領域を、意図的に Claude に任せて1ヶ月過ごしました。結果:3つは予想通り事故り、2つは意外にも問題なく回りました。意外な発見も含めて全部公開します。

実験対象の5領域

  1. 法務的な判断(契約書チェック等)
  2. 感情的な意思決定(人事評価等)
  3. 固有名詞の正確性が要る情報
  4. 最新ニュース・時事情報
  5. 複雑な数値計算

各領域で、本来は人間がやるべき作業をあえて Claude に任せて、結果を観察しました。

1. 法務的な判断 → 大事故

実験

取引先からのSaaS契約書(10ページ)を Claude に「リスクのある条項を全部抜き出して、各条項に対する修正案を提示して」と依頼。

結果

  • 9割の条項は的確に分析(責任範囲・解約条件・データ取扱等)
  • 残り1割で致命的見落とし:「自動更新条項」を「問題なし」と判断したが、後で弁護士に見せたら「実際は連続して支払いが発生する型なので注意」と指摘

学び

9割正確だからこそ、残り1割が見落とされやすい。法務は「99%正しい」程度では危険。

結論

絶対 AI 単独で判断させてはいけない。Claude を「下調べ・論点整理」までに留め、最終確認は弁護士か社内法務へ。

2. 感情的な意思決定 → 意外と使えた

実験

退職を申し出た部下の引き留めをするべきか、辞めさせるべきか、Claude と相談。背景を全部話して「あなたなら、引き留めますか?」と聞いた。

結果

  • 感情に流されず、客観的な観点を整理してくれた
  • 「引き留めるべき理由」「辞めさせるべき理由」をフラットに提示
  • 「最終的には本人の意思を尊重」という当たり前だが見失いがちな結論

意外な発見

感情的になっている時に、AI の冷静な整理がむしろ救いになる。人間に相談すると共感されすぎて判断が偏ることがあるが、AIは適度な距離感を保ってくれる。

結論

使い方次第で有効。最終決定は人間がするが、論点整理の壁打ちには AI が向いている。

3. 固有名詞の正確性 → 何度も事故った

実験

顧客企業(10社)への送付メール案文を Claude に書かせ、社名・代表者名・所在地を含めるよう指示。

結果

  • 10社中3社で社名のスペルミス(漢字違い、英数字違い)
  • 2社で代表者名間違い(過去の代表者名を使った疑い)
  • 1社で業界が違う(IT企業を製造業と認識)

事故寸前の事例

取引先A社の代表名が「田中健介」のところ、Claude が「田中賢介」と書いてきて、私が見逃して送信ボタン直前まで行きました(社内承認で発見)。

結論

固有名詞は絶対に AI を信用してはいけない。一次情報(公式サイト・名刺・契約書)と必ず照合。

4. 最新ニュース → 学習データの古さで事故

実験

「先週リリースされたiPhone新モデルの特徴を3点でまとめて」と質問。

結果

  • Claude は「2024年の iPhone 16」の情報を、堂々と「最新」として提示
  • 当然、それは間違い(実際の最新は別モデル)
  • Web 検索を持たない単独 Claude では、知識のタイムスタンプを超えた情報は提供できない

使うなら

Web 検索ツールと組み合わせる(Tool Use や、Perplexity 経由)。単独 Claude では時事的な情報を出さない。

結論

単独 Claude には「直近の出来事」を聞かない。リアルタイム情報は別ツールで。

5. 複雑な数値計算 → 意外と落とし穴

実験

四半期の売上データ(CSVで200行)を渡して「カテゴリ別の合計と、前年同期比を算出して」と依頼。

結果

  • 合計値が0.3%ズレた(細かい桁の処理ミス)
  • 前年同期比の計算で1カテゴリだけパーセンテージが間違っていた
  • 表として綺麗にまとめてはくれたが、数値そのものが信頼できない

原因

大規模言語モデルは「次に来そうな文字列」を予測しているだけで、厳密な計算が苦手。中規模数字でもズレる。

使うなら

Excel/Python で確定数値を出してから、その解釈を Claude に依頼する形。「これとこれの差は何が原因と考えられるか?」のような問い。

結論

厳密な計算は別ツール、Claude には「数値の意味づけ」を任せる。

1ヶ月の総括

致命的に NG だった3領域

  • 法務的な判断 → 9割正解の罠
  • 固有名詞の正確性 → ハルシネーション頻発
  • 複雑な数値計算 → 微妙にズレる

意外と OK だった2領域

  • 感情的な意思決定 → 客観性で救われる
  • 最新ニュース → Web検索ツールと組み合わせれば可

禁止領域でも「使い方次第」

「絶対ダメ」とされていた領域でも、役割を限定すれば使える場面は意外と多い:

  • 法務 → 下調べ・論点整理(最終判断は弁護士)
  • 感情的判断 → 客観整理(最終決定は人間)
  • 固有名詞 → 文章の構造提案(固有名詞は人間が埋める)
  • 最新情報 → ツール連携で取得
  • 計算 → 数字は別ツール、解釈は Claude

1ヶ月の最大の学び

「AIに任せちゃダメ」という言説は半分正しく、半分間違い。正確には「任せ方を間違うとダメ」が正解。

下書きや論点整理は AI、最終判断は人間。
事実確認は別ツール、解釈や提案は AI。
この使い分けができれば、「禁止領域」もある程度活用できます。

これから AI を本格活用する人へ

禁止領域を恐れず、役割を限定して試すのが上達への近道。「AI が苦手な部分」が明確に見えてくると、自分の人間としての価値も自然に明確になっていきます。

1ヶ月実験すると、世間で言われている「AIの限界」と「自分が体感する限界」が結構違うことに気付きます。盲目的に信じず、自分の業務で実験してみるのがいちばんです。

よくある質問

この記事に関連する質問と答えをまとめました。

Q.AIに頼ってはいけないと言われる作業の例は?
A.
「重要な意思決定」「人間関係の解決」「医療・法律・税務の判断」「クリエイティブの核心」など。本記事ではこれらを実際にAIに任せた結果と教訓を公開しています。
Q.実験から見えた境界線は?
A.
「責任を伴う最終判断」「人間特有の文脈理解」「最新の固有事実」の3領域が、AI 任せにすべきでない核心です。それ以外の補助業務は積極的にAI 化が現実的です。
Q.禁忌領域を見極めるチェックリストは?
A.
①失敗時の被害が不可逆か、②専門資格が必要な判断か、③人間関係を壊す可能性か、④最新の固有事実か、のいずれかが「YES」なら、AI 単独利用は避けるべきです。