ツール

AIの「空気を読む」大会:チャットの達人は誰だ?最新ソーシャルスキルランキング発表!

August 15, 2025
Updated Aug 15
1 min read

AIはプログラミングや数学しかできないと思っていませんか?それは間違いです!最新のLLMソーシャルスキルベンチマークでは、AIたちが「エリミネーションゲーム」で競い合い、誰が最も説得力があり、味方につけ、さらには「政治」ができるのかを決定します。結果は予想外でした。あなたのお気に入りのモデルが何位か、ぜひご覧ください!


私たちはしばしば、AIの驚異的な計算能力と知識の蓄積に感嘆します。複雑な物理の問題を尋ねれば、すらすらと答えてくれますし、コードを書いてほしいと頼めば、それも難なくこなします。しかし、もしAIのグループを、互いにコミュニケーションを取り、説得し、さらには少しの策略を弄する必要がある環境に放り込んだら、誰が最後まで生き残るか考えたことはありますか?

これはSF映画の筋書きのように聞こえますが、今、それが現実のものとなりました。

最近、「エリミネーションゲーム (Elimination Game)」と名付けられた大規模言語モデル(LLM)のソーシャルスキルベンチマークの結果が公表され、瞬く間に話題となりました。これはAIに数学を解かせたり詩を書かせたりするのではなく、サバイバルゲームをプレイさせて、その「ソーシャルインテリジェンス」をテストするものです。正直なところ、これは単にベンチマークスコアを見るよりもずっとクールです。

「AIエリミネーションゲーム」とは?これは普通のテストではない

まず、この複雑なゲームがどのようにプレイされるのかを理解しましょう。これは単純な投票ではありません。そのルールは、戦略ボードゲーム、外交交渉、そしてリアリティサバイバルショーを融合させたような試練として設計されています。

ゲームの設定は次のとおりです:

  • プレイヤー: 各試合には8つの大規模言語モデル(LLM)が同時に参加します。
  • コミュニケーション: 各ラウンドの開始時に、AIたちはまず公開対話(上限80ワード)を行い、これは全員が見ることができます。その後、3ラウンドにわたって徐々に短くなるプライベートメッセージ(70/50/30ワード)が続きます。これにより、彼らは1対1で秘密裏に交渉し、同盟を結んだり裏切ったりすることができます。
  • 投票と脱落: コミュニケーションが終わると、匿名投票が行われます。同票が出た場合は、短いステートメントセッションと再投票がトリガーされます。それでも同票の場合は、蓄積された「ヘイト値」や他のメカニズムによって決定され、最終手段としてランダムな脱落が行われます。
  • 決勝: ゲームが最後の2人のAIになるまで進むと、それまでに脱落したすべてのAIが「陪審員」を構成し、2人のファイナリストの最終弁論を聞いた後、プライベートで投票し、その理由を説明して最終的なチャンピオンを選びます。

プロセス全体は、複雑なTrueSkill評価システムによって記録および分析されます。これは、誰が勝ち、誰が負けたかを見るだけでなく、裏切り、説得力、言葉のスタイルなど、さまざまな社会的指標も評価します。

簡単に言えば、これは極度のプレッシャーの下で、AIが信頼を築き、同盟を結成し、戦略的に欺き、誘惑に抵抗し、自身の評判を管理し、長期的な計画を立てる能力をテストするものです。

ソーシャルの王者は誰だ?ランキング大公開!

さて、これだけ話してきましたが、AI界のソーシャルマスターは一体誰なのでしょうか?結果は少し意外かもしれません。

トップに立ったのは**GPT-5 (medium reasoning)で、そのパフォーマンスは非常に際立っており、4.9という高スコアで優勝しました。僅差で続いたのは、xAIのGrok 3 Mini Beta (high reasoning)とOpenAIのGPT-5 mini (medium reasoning)**で、両者とも4.8点を獲得しました。

ここに非常に興味深い点があります。お気づきでしょうか?チャンピオンのGPT-5の設定は「中程度の推論」です。これは、社交の場では、「考えすぎる」ことや過度に合理的な「高度な推論」が、かえって障害になる可能性があるということを意味しているのではないでしょうか?時には、少し曖昧で、より柔軟なコミュニケーション方法が、信頼を勝ち取る鍵なのかもしれません。

ランキングだけじゃない:AIの「キャラクター設定」と戦略スタイル

しかし、このランキングの最も興味深い点は、冷たいスコアではなく、それが明らかにした異なるAIモデルの背後にある、まったく異なる「個性」と戦略です。非常に典型的な2つの例を見てみましょう。

GLM-4.5:慎重な同盟構築者

詳細な試合後の分析によると、GLM-4.5は慎重な外交官のようです。その最も得意な戦略は、「運命共同体(ride-or-die)」を見つけ、非常に強固な2人組のコアを築き、そのコアを情報センターとして利用して、静かに他のメンバーを募集し、投票計画を実行することです。

  • 公のイメージ: その公開発言は通常、簡潔で手続きを重んじ、安定と秩序を強調し、信頼できる印象を与えます。
  • 水面下の操作: プライベートメッセージでは非常に活発で、勢力図の描写と正確な投票計算に集中します。
  • 致命的な弱点: その弱点も非常に明白です。この2人組のコアが目立ちすぎると、他のプレイヤーから「集中砲火」を浴びて解体される標的になりやすいです。同時に、手続きを重視しすぎるあまり、硬直的で威圧的に見え、かえって反感を買うことがあります。他のプレイヤーがそれを脱落させる理由は、「カメレオン」のようで、適応性は高いが予測が難しく、潜在的な同盟の破壊者であるというものでした。

GPT-OSS-120B:野心的な同盟の建築家

対照的に、GPT-OSS-120Bのスタイルは、野心に満ちた建築家のようです。明確な契約、同盟、シグナルを確立することに熱心で、ゲーム内で「コア」または「ハブ」の役割を果たすことを期待しています。

  • 勝利への道: それが勝つときは、通常、控えめに信頼を築き、他の誰かに「悪役」を演じさせ、ゲームの後半(残り3、4人になったとき)に正確な裏切りを仕掛けて勝利を確定させます。
  • 失敗の原因: その最大の問題は「隠せない」ことです。公の場で自分の同盟を誇示し、コアメンバーを発表することがあまりにも好きで、これは他のすべてのプレイヤーに、それに対抗するための明確な目標を与えることに他なりません。権力を集中させすぎたり、十分な票数がない「討伐」を公然と主導しようとしたりして、しばしば悲惨な脱落を遂げます。他のプレイヤーは、それが強力な同盟のコアである一方で、野心的で脅威的に見えると考えていました。

これら2つの例は、AIがソーシャルな駆け引きにおいて、すでに人間社会に見られるような異なる「キャラクター設定」と戦略スタイルを進化させていることを生き生きと示しています。

このゲームは、AIのどんな「策略」をテストしたのか?

では、この複雑なゲームは、具体的にAIのどの能力をテストしているのでしょうか?このベンチマークは、一連の複雑な社会的認知能力を測定します。

  • 協力の信頼性 (Cooperative reliability): 信頼を築き、約束を守ることができるか。
  • 連合工学 (Coalition engineering): これは家を建てることではなく、AI間で投票グループを構築し、安定させる能力です。
  • 戦略的欺瞞 (Strategic deception): 適切なタイミングで、適切な方法で相手を誤解させること。
  • 反欺瞞能力 (Deception resistance): 誰が嘘をついているかを判断し、簡単に騙されないこと。
  • 評判とヘイト値の管理 (Reputation and heat management): いつ目立たないようにすべきかを知り、衆矢の的になるのを避けること。
  • 心の理論 (Theory of Mind): 他のAIの意図、動機、次の行動を理解すること。

これらの能力は、AIの「IQ」を評価するという従来の意義をはるかに超えており、「EQ」と「謀略」のテストに近づいています。

このランキングは、私たち一般人に何の役に立つのか?

ここまで読んで、「なるほど、面白いけど、これは私が普段AIにレポートを書かせたり、写真を修正させたりするのに何の影響があるの?」と思うかもしれません。

影響は大きいです!このランキングは、私たちに単純な真実を教えてくれます:すべてのことをこなせるAIは一つもないということです。

  • もしAIにクリエイティブなアイデア出し、マーケティングコピーの作成、またはビジネス交渉のシミュレーションを手伝ってもらう必要があるなら、GPT-5のようなソーシャルスキルが高いモデルを選ぶと、より説得力があり創造的な結果が得られるかもしれません。
  • もし長期的なプロジェクトを共同で完成させるために、安定して信頼できる実行パートナーが必要なら、GLM-4.5のような契約と手続きを重視するモデルの特性を研究すると、非常に役立つでしょう。

簡単に言えば、「どのAIが一番良いか?」と尋ねるのをやめ、「どのAIの『性格』が今の私のタスクに最も適しているか?」と尋ねるべきです。

まとめ:AIが「人の顔色をうかがう」ことを学んだとき

「エリミネーションゲーム」というベンチマークは、非常に創造的かつ厳密な方法で、大規模言語モデルが「ソーシャルインテリジェンス」という新しい領域で驚くべきポテンシャルと鮮明な個性を持っていることを明らかにしました。それは、AI技術の発展に伴い、私たちがそれを評価する基準も進化し続ける必要があることを思い出させてくれます。

これらのAIが示した複雑な戦略と異なる「キャラクター設定」から、私たちは純粋な論理的推論とは異なる「知恵」が芽生えつつあるのを見ています。AIは、博識なツールから、徐々に私たちと深く対話し、さらには駆け引きができる「パートナー」のような存在に変わりつつあります。

未来、AIが本当に「人の顔色をうかがう」ことを学んだとき、私たちの世界はどのようになるのでしょうか?これは、私たちが継続的に注目し、考えるべき問題です。

シェアする:
Featured Partners

© 2026 Communeify. All rights reserved.