AIが人間のように柔軟に判断できない理由として、古くから議論され続けてきたのがフレーム問題です。聞き慣れない言葉ですが、内容はAIの根本に関わる重要テーマで、G検定でも頻出します。また、実はChatGPTのような生成AIにも姿を変えて残り、“想定外の誤答”の多くがこの問題に起因します。
この記事を読めば、古典AI〜生成AIの現在まで一貫して「AIがつまずきやすい本質」が理解できます。
📖この記事のポイント
- フレーム問題とは、AIが行動時に「どの情報を考慮し何を無視してよいか」を自動で判断できない根本課題を指す!
- 1969年のマッカーシー&ヘイズやデネットの爆弾ロボットは、情報を無視しすぎても考えすぎても破綻するというジレンマを象徴的に示している!
- 自動運転・家事ロボット・医療AIなど現代の実システムでも、想定外の状況や例外処理の難しさとしてフレーム問題が再現されている!
- 機械学習やLLMでも、特徴量の選択・コンテキスト上限・Attentionの制約などを通じて「重要な情報だけを選べない」という構造は残り続けている!
- 実務では、プロンプト設計やガードレール、例外管理、Human-in-the-loopを通じてAIのフレームを人間が設計し、リスクをコントロールすることが重要になる!
- たった2時間の無料セミナーで会社に依存しない働き方&AIスキルを身につけられる!
- 今すぐ申し込めば、すぐに月収10万円UPを目指すための超有料級の12大特典も無料でもらえる!
\ 累計受講者10万人突破 /
無料特典を今すぐ受け取るフレーム問題とは?AIが“考える範囲”を決められない問題
フレーム問題とは、AIが行動するときに「どの情報を考慮し、何を無視してよいか」を自動で判断できないため、推論が破綻する問題です。
直感的な例
ロボットがコップを取るだけでも、本来は無数の要因があります。
- 腕が花瓶に当たりそう
- 水がこぼれるかもしれない
- 人にぶつかる可能性
- 床が揺れたらどうする?
これらすべてを真面目に推論すると、ロボットは動き出せません。逆に、無視しすぎても事故が起きます。「どこまでを世界として扱うか」=フレームの設定がAIには難しいのです。
歴史と代表例
1969年 マッカーシー&ヘイズ:変化しないことを書き切れない
フレーム問題は McCarthy & Hayes(1969) によって定義されました。「行動後に何が変化し、何が変化しないか」を論理で表そうとすると、“変化しない部分”まで全部書く必要があり、ルールが無限に増えるという問題が指摘されました。
デネットの爆弾ロボット
● 安全くん1号 情報を無視しすぎ、爆弾を運んでしまって爆発。
● 安全くん2号 すべての可能性(壁が揺れる→棚が揺れる→瓶が落ちる→…)を列挙し始め、計算が終わらず何もできない。
この寓話が示すのは、
- 無視しすぎても危険
- 考えすぎても動けない
という、AIが直面する本質的なジレンマです。
現代AIでも起きるフレーム問題:自動運転・家事ロボット・医療
フレーム問題は古典AIだけでなく、現代の実システムでも姿を変えて再出現します。ここでは検索ニーズの高い自動運転・ロボティクス・医療AIを中心に整理します。
自動運転:学習していない状況への弱さ
- 落書きされた標識を誤認識
- 影を障害物と誤検知
- ベビーカー・車椅子・動物など“想定外カテゴリ”の処理不能
- 臨時の工事標識を理解できない
高速道路と住宅街では“見ておくべき要因”が違います。環境ごとにフレームが変わるのに、AIがそれを自動で切り替えられないところが課題です。
家事ロボット:例外処理の地獄
- 落ちているものが“ゴミ”なのか“おもちゃ”なのか判断不能
- 棚の位置が少し変わるだけで作業が失敗
- 人間の突発的な動きに柔軟対応できない
家庭は例外の宝庫であり、例外=フレーム外の現象が無限に湧き続けます。
医療AI:必要な情報の取捨選択が苦手
- 撮影条件(明るさ・角度)で精度が大きく変わる
- 既往歴や年齢など“本来重要な要素”を無視してしまう
- 未知の病気・例外症例に弱い
医師は経験による常識で「これは無視できる」「これは無視してはいけない」を瞬時に判断しますが、AIはこの境界を定めるのが極めて苦手です。
なぜAIは「重要な情報だけ」を選べないのか(技術的な本質)
古典AI〜機械学習〜深層学習〜LLMにかけて、アプローチは変わっても本質は同じです。AIは情報の取捨選択を自動化できない構造的制約を持っています。
① 世界の状態はほぼ無限:モデル化には限界がある
世界には物体の位置・天候・温度・光・人間の行動など無数の変数があり、全部をモデル化すると計算が破綻する。しかし少なすぎると事故が起きます。この“モデル化のレベル設定”がフレーム問題の中心です。
② 古典AIではフレーム公理が爆発
- 「変化しないこと」まで毎回記述しないと推論できない
- 常識推論が苦手
- 新情報で推論が覆る“非単調推論”が難しい
③ 機械学習・深層学習:特徴量・Attentionが新たなフレーム
- 特徴量の選び方次第で性能が激変
- 学習していない例外に弱い
- Attentionは「どこを見るか」の学習だが万能ではない
- コンテキスト上限により情報が圧縮・消失
つまり形式は変わっても、「何を無視し、何を残すか」をAIが自動で決め切れないという構造は変わっていません。
ChatGPTにも残る“現代版フレーム問題”
ChatGPTなどのLLMが起こす誤答の多くは、フレーム設定のズレです。
LLMは内部で“考える範囲”を勝手に設定している
- トークン上限(扱える情報量)が決まっている
- Attentionの重みが誤ることがある
- 長い会話は途中で圧縮・忘却される
ChatGPTの“勘違い回答”の典型例
- 前提の誤解(質問文の一部だけ拾う)
- 話題が飛ぶ(過去の情報が圧縮され忘れられる)
- 条件の漏れ(重要な制約が途中で消える)
- 曖昧な前提を勝手に補完してしまう
プロンプト設計=AIのフレームを明示する作業
- 「この会話は○○についてです」→ テーマの固定
- 「以下の情報だけで回答」→ 参照範囲の制限
- 「〜は無視してよい」→ 不要情報の排除
- 「前提条件を箇条書きしてから回答」→ フレームの明確化
プロンプトエンジニアリングは、本質的にはAIのフレーム(考える範囲)を人間が意図的に設定する技術です。
実務での対策:フレーム問題は“設計で扱う”
例外管理(もっとも効果が高い)
- よくある例外を棚卸ししてルール化
- 異常検知・Fallbackで人間にエスカレーション
- AIの“できること/できないこと”を利用者に明示
ガードレール設計
- system promptで役割・目的を固定
- 構造化出力で脱線を防ぐ
- RAGで“参照してよい情報源”を制御
Human-in-the-loop(HITL)
- 重要判断には必ず人間が介在
- 誤判断時にロールバックできる設計
- ログと責任範囲の明確化
フレーム問題は解決した?議論の現在地
古典AIの意味では“ほぼ解決”という立場
- 確率モデル(ベイズネット)が普及
- プランニング手法の最適化
- 環境センサーで観測しながら推論できるようになった
しかし本質的には“今も未解決”という立場
- AIは「重要/不要」を完全には判断できない
- 未知の例外に弱い構造は変わっていない
- LLMでも前提の取り違え・条件の漏れは頻発
よくある質問(FAQ)
Q. フレーム問題とバイアスの違いは?
フレーム問題=見る範囲を決められない問題 バイアス=データが偏っている問題
Q. 人間にもフレーム問題はあるの?
ある。ただし人間は経験と常識で直感的に“無視してよい情報”を選べる。
Q. 機械学習で解決できる?
完全には無理。未知の例外・分布外データには依然として弱い。
Q. ChatGPTは克服している?
いいえ。コンテキスト上限・Attentionの限界により、現代版フレーム問題が残る。
まとめ
- フレーム問題=AIが「何を考え、何を無視すべきか」を決められない根本課題。
- 古典AIではフレーム公理の爆発、現代AIでは例外処理・文脈取り違えとして現れる。
- 自動運転・家事ロボット・医療などの実務でも顕著。
- プロンプト設計・ガードレール・RAG・HITLなどで実務的には十分制御可能。
romptn ai厳選のおすすめ無料AIセミナーでは、AIの勉強法に不安を感じている方に向けた内容でオンラインセミナーを開催しています。
AIを使った副業の始め方や、収入を得るまでのロードマップについて解説しているほか、受講者の方には、ここでしか手に入らないおすすめのプロンプト集などの特典もプレゼント中です。
AIについて効率的に学ぶ方法や、業務での活用に関心がある方は、ぜひご参加ください。
\累計受講者10万人突破/




