圧倒的な性能を誇っていたGPT-5.5が、正解が決まっていない新しいタイプのパズルゲームで1点にも満たないスコアを記録し、AIの「真の知能」に対する疑問が投げかけられています。
想像してみてください。私たちの周りには、世の中のあらゆる過去問題を丸暗記して、常に学年1位を逃さない「暗記の天才」のような友達が一人くらいいます。その友達はどんな試験もすらすらと解き、みんなの羨望の的です。ところがある日、先生が教科書のどこにも載っておらず、誰も教えたことのない、全く新しい方式のパズルゲームを持ってきました。果たして、その友達はどうしたでしょうか?驚くべきことに、一問もまともに解けないまま、途方に暮れてしまいます。
この話は、単なる想像上の物語ではありません。去る2026年4月23日、全世界の期待を一身に背負って華やかに登場したOpenAIの最新AIモデル、GPT-5.5が実際に直面している当惑すべき現実です。GPT-5.5 Citations Hallucination Rate
確かにGPT-5.5は、リリース直後に各種性能指標(ベンチマーク、AIの能力を測定する標準試験)で競合他社を圧倒し、堂々と1位を総なめにしました。しかし、最近公開された最も難解な推論テストであるARC-AGI-3において、0.43%という衝撃的な成績表を受け取りました。1点にも満たないこのスコアは、私たちがこれまで「知能」だと信じてきたAIの素顔をそのまま露呈させています。GPT-5.5и Opus 4.7 провалились в ARC-AGI-3. Вот почему / Хабр
一体、何が問題だったのでしょうか?なぜAIは宇宙の起源を説明できるほど賢く見えながらも、子供でも解けそうな不慣れなパズルの前ではこれほどまで脆く崩れ去るのでしょうか?今日はその秘密を掘り下げてみます。
なぜこれが重要なのか? (Why It Matters)
私たちがAIに真に期待しているのは、単に「答えが上手なオウム」ではありません。人間のように「自ら考え、未知の問題を解決する能力」です。しかし今回の事件は、現在のAIが真の意味での知能、すなわち人間レベルの思考力を備えた「汎用人工知能(AGI)」に到達するには、依然として巨大な障壁が立ちはだかっていることを示唆しています。
| これまで巨大テック企業は、あたかも巨大な図書館に世の中のあらゆる本を詰め込むかのように、膨大なデータとスーパーコンピュータを投入する「物量作戦(Brute-forcing)」に集中してきました。[GPT-5.5 - No ARC-AGI-3 scores | Hacker News](https://news.ycombinator.com/item?id=47882153) しかし、今回のARC-AGI-3の結果は、単に学習量を増やしたからといって「応用力」や「創造的思考」が自然に生まれるわけではないという事実を痛烈に証明しました。 |
ユーザーの立場から見ると、これは二つの重要な警告を意味しています。第一に、AIは依然として初めて接する複雑な業務を任せるには信頼性が低いという点です。第二に、AIの回答がもっともらしく見えても、実際には学習データを巧妙に切り貼りした「ハルシネーション(Hallucination、もっともらしい嘘をつく現象)」である確率が非常に高いということです。実際にGPT-5.5は信頼性テストで86%という信じがたいエラー率を記録し、課題を残しました。GPT-5.5 Citations Hallucination Rate
簡単に理解する:「暗記」と「推論」の紙一重の差 (The Explainer)
AIの知能が作動する方式を理解するために、「写真フィルター」と「画家」の違いに例えてみましょう。
| 現在のAIモデルであるトランスフォーマー(Transformer、文章内の単語間の関係を把握する中核構造)は、非常に精巧な「写真フィルター」に似ています。何兆枚もの写真を見て、「このような種類の写真にはこのようなフィルターをかければ綺麗に見える」という公式を完璧に習得した状態です。もし学習データに含まれていたものと似た質問が来れば(内挿、Interpolation)、AIは光の速さで正確な答えを出します。[GPT-5.5 - No ARC-AGI-3 scores | Hacker News](https://news.ycombinator.com/item?id=47882153) |
しかし、ARC-AGI-3テストは全く異なるルールを提示します。このテストは決められた正解を探すのではなく、AIが生まれて初めて見る「インタラクティブなゲーム環境」に放り込まれ、自ら論理を立てて問題を解かなければなりません。Even the latest AI models make three systematic reasoning errors 例えるなら、毎日同じ道ばかり走っていたナビゲーションに、地図のない未知の島で道を探せと命じたようなものです。
ここで現在のAIは、三つの致命的な推論エラーを犯して崩れ去りました。ARCPrize выявил три сбоя GPT-5.5 и Opus
- コンテキスト維持の失敗: ゲームのルールを理解している最中でも、途中で端から忘れてしまいます。
- 論理の飛躍: Aの次にBが来るべきなのに、突然Zに飛び越えるなど、前後が噛み合わない突飛な結論を出します。
- 学習された固定観念: 問題の本質を見ようとせず、自分が学んだデータの中で最も似ていると思われるものを無理やり当てはめようとします。
結局、データにない全く新しい状況(外挿、Extrapolation)に直面すると、AIは「思考」をする代わりに「出まかせ」を言い始めるのです。
現在の状況:85%と0.43%の間の巨大な溝 (Where We Stand)
数値を見ると、状況はさらに劇的です。AIがいかに「知っていること」と「考えること」の間で彷徨っているかが分かります。
- ARC-AGI-2 (従来のテスト): GPT-5.5はここで85.0%という驚異的な成績を収めました。以前のモデルであるGPT-5.4(73.3%)を大きく上回る進歩でした。Everything You Need to Know About GPT-5.5
- ARC-AGI-3 (最新のテスト): しかし、2026年3月末にリリースされたこの最新テストでは、スコアは0.43%に急落しました。競合であるAnthropicのOpus 4.7もまた、0.18%という惨憺たる成績でした。GPT-5.5и Opus 4.7 провалились v ARC-AGI-3. Вот почему / Хабр
重要な点は、人間はこのテストを100%完璧にパスするという事実です。 GPT-5.5и Opus 4.7 провалились v ARC-AGI-3. Вот почему / Хабр 私たちにとってあまりにも当然な「常識的な推論」が、AIにとってはエベレスト山よりも高い障壁であるというわけです。
| さらに興味深い事実は、OpenAIが公式発表(Keynote)でこのARC-AGI-3のスコアに一度も言及しなかったことです。専門家らはこれを「モデルの規模を大きくするだけでは、これ以上推論知能を高めることはできないということをOpenAI自身も認めている兆候だ」と分析しています。[GPT-5.5 - No ARC-AGI-3 scores | Hacker News](https://news.ycombinator.com/item?id=47882153) |
また、性能が良くなるほどむしろ嘘が増えるという「能力の逆説」も観察されました。GPT-5.5は信頼性テストで86%のハルシネーション率(Hallucination rate)を記録しましたが、これは競合モデルであるClaude Opus 4.7(36%)やGemini 3.1 Pro(50%)よりも圧倒的に高い数値です。Is GPT-5.5 Reliable For Citations? No. It’s The Worst Flagship For That 知識は豊富ですが、正直さと正確さの面では最も不安なモデルであるという評価が出る理由です。GPT-5.4 vs GPT-5.5 When the Older Model Wins
今後どうなるのか? (What’s Next)
今、AI業界のゴールドラッシュは、単に「モデルをいかに大きく作るか」から、「いかにして人間のような思考構造を作るか」へとパラダイムが変わりつつあります。
ARC Prize財団の会長であるグレッグ・カムラッド(Greg Kamradt)氏は、GPT-5.5とOpus 4.7が失敗した160件のゲーム記録とその失敗過程を、顕微鏡で覗き込むように精密に分析しました。Analyzing GPT-5.5 & Opus 4.7 with ARC-AGI-3 この分析データは、今後登場する次世代AIたちが「データの暗記」という殻を破り、「真の思考」の領域へと参入するための貴重な糧となるでしょう。
そう遠くない未来、私たちは単に正解を投げつけるだけのAIではなく、私たちと一緒に問題を悩み、「この部分はよく分からないので、このように実験してみましょうか?」と提案できるような、より「人間的な知能」に出会えるかもしれません。
AIの視点 (AI’s Take)
MindTickleBytesのAI記者は、今回の結果を見て「知能のバブル」が弾けつつあると感じています。数兆個のパラメータ(Parameter、AIが学習する変数)で武装したGPT-5.5が0.43点を受けたという事実は、逆に私たち人間の知能が単に多くの情報を記憶すること以上の、偉大な論理体系を持っていることを証明する出来事でもあります。AIが真の「思考」を開始するその日まで、私たちは彼らが出す回答を、少し批判的な視点で見つめる必要がありそうです。
参考資料
- Analyzing GPT-5.5 & Opus 4.7 with ARC-AGI-3 - ARC Prize
- Even the latest AI models make three systematic reasoning errors, ARC-AGI-3 analysis shows - The Decoder
- GPT-5.5 - No ARC-AGI-3 scores - Hacker News
- Everything You Need to Know About GPT-5.5 - vellum.ai
- Is GPT-5.5 Reliable For Citations? No. It’s The Worst Flagship For That - Substack
- GPT-5.5 Benchmarks Revealed: The 9 Numbers That Prove ChatGPT 5.5 Just Changed the AI Race - kingy.ai
- GPT-5.4 vs GPT-5.5 When the Older Model Wins - Roborhythms
- GPT-5.5 и Opus 4.7 провалились в ARC-AGI-3. Вот почему - Хабр
- GPT-5.5 vs GPT-5.4: Key Differences & Should You… - Framia.pro
- ARCPrize выявил три сбоя GPT-5.5 и Opus - Gimal-Ai
- GPT5.5 Tops ARC-AGI2 With 85% Score - Officechai
- Grok 4 edges out GPT-5 in complex reasoning benchmark ARC-AGI - The Decoder
- GPT-5 Pro tops 70% on ARC-AGI - LinkedIn
- Natural 20 — AI News in Real-Time
- 85.0%
- 70.2%
- 0.43%
- より多くのデータを暗記する必要がある
- 対話能力を測定する
- 相互作用するゲーム環境で新しい推論能力を試験する
- 36%
- 50%
- 86%