2026年大学入学共通テスト、ChatGPTが「数学1A」「数学2BC」「化学」「情報I」など9科目で満点を獲得。合計点でもGeminiやClaudeに勝利。国語の小説で感情の機微が理解できないなど弱点も明らかに
以下は、記事の抜粋です。
1月20日、AIベンチャーの株式会社LifePromptは、2026年の大学入学共通テストを最新の生成AIに解答させた検証結果を公表した。

今年で4回目となる本実験には「ChatGPT」「Gemini」「Claude」という3つのLLMが投入され、その中でもChatGPTの最新モデル「GPT-5.2 Thinking」が、9科目において満点を獲得している。
今回の検証は、専用システムを通じて問題PDFを画像化し、API経由で各AIに入力するという環境下で実施された。
結果としてChatGPTは「数学1A」「数学2BC」「公共、政治・経済」「化学」「物理基礎」「化学基礎」「地学基礎」「生物基礎」「情報1」の合計9科目で満点を記録。実際の受験生の選択科目に合わせた総合結果においても、文系970点、理系968点(いずれも1000点満点)を獲得した。GeminiとClaudeは900点前半で競り合う結果となっている。
昨年からの顕著な進化として、図形問題への対応力が低く苦戦した数学IAにおいて、今年のChatGPTは図形を「絵」ではなく「座標データ」として脳内で再構築して処理することで満点を獲得した。
また、日本史においても、単なる単語の暗記にとどまらず歴史の因果関係や文脈を深く理解できるようになったことで、資料読解問題を含めて正解を導き出せるようになったという。
個別の設問における、各AIの挙動の違いも明らかにされている。地理総合の問3、南米の雨温図と地図を照らし合わせる問題で、他のAIが位置情報とグラフの結合に失敗する中、Geminiのみがアンデス山脈が位置する地図上の地形と気候グラフの特徴を、視覚的に正しくリンクさせることに成功した。
一方で、英語リスニングのバス乗降口のイラスト選択や、国語の小説における複雑な心情理解では全モデルが誤答しており、視覚情報の論理的解釈や人間特有の感情の機微については、依然としてAI共通の課題であることが浮き彫りとなった。
なお同社は、今回の共通テスト検証に続き、東京大学の二次試験にAIを挑戦させる企画も既に始動させている。昨年の検証では「理三合格ライン突破」という結果を残しているが、2026年も同様に合格判定を得られるか注目が集まりそうだ。
私の友人の一人が、「AIが満点をとれないような試験は、問題が悪い。」と言っていました。私もそう思います。今後は、問題の良い悪いをAIが判断するようになるかもしれません。というか、AIに作らせた方が良い問題ができるかもしれません。


コメント