お知らせ

Mさん(University of Cambridge, Computer Science / Kingswood School出身)

大学に入ってから1タームが経過しました。3ヶ月ほど経ち、新鮮さと、どこか懐かしさを感じるようなタームでした。

ケンブリッジ大学は学問における障害を取り除くシステムが非常に整っていると感じます。講義、スーバービジョン、テスト、すべてが研究者育成のために効率化されており、またそれが心地よく感じます。そのため、始めこそは起業やAIソサエティも回っていましたが、今は純粋に学問を楽しみたいというところで落ち着いております。コースの外では大学の卓球クラブで活動している他、オンラインでのLLM開発と世界モデルの研究、ケーキ作りなどをして過ごしています。このような素晴らしい環境で学問・スポーツ・料理に没頭できているのはTazaki財団の皆様のおかげで、心より感謝しております。

さて2025年も人工知能のブームがとどまらず、それについて少し書かせていただきます。 多くの人が予想したように、コーディングを始めとした生産性を高めるAIツールが普及しました。現在では主流のプラットフォームであるCursorの正式リリースに続きGoogleもAntigravityを発表し、Agentic AIとコーディングの融合が普及しました。vibe coding (AIばかりを使ったコーディング) が一層普及すると同時に、その限界やコードを理解せずに使う問題点も明らかになってきています。
また、基盤言語モデルについては、2022から2024年にかけて急速に計算資源・データ量の方面でスケールされていったため、学習データ量が足りなくなりこれ以上の進展は難しいのではないかという懸念がありました。しかし、2025年初頭のDeepSeek-R1の登場から普及した、コーディングや数学を用いた検証可能な報酬(RLVR)や、ステップごとの思考をするChain-of-Thoughtなどの方面で研究開発が行われました。最近登場したGemini 3はその集大成ともいえ、多くのベンチマークにおいて平均的な人間だけでなく、最も優秀な人間をも超えています。
言語モデルだけでなく、動画生成のSoraや、リアルタイムでインタラクティブなゲームを高画質で生成できるGenieなど、視覚系のモダリティでの発展も見られました。これらは物理世界の理解に必要とされる「世界モデル」を獲得しているかもしれないなどといわれ、ロボットへの応用も期待されています。
基礎研究の方面では、長期記憶を改善するかもしれないNested Learningや、強化学習をLLMに似た方法でスケールさせる手法の発見(1)などといった進展があり、数カ月から数年後先のモデル性能向上につながると見込まれています。
人工知能の安全性や解釈可能性については、LLMによる偽のアラインメントの発見(2)などといった進展がありました。また、超知能や自動兵器の危険性などがメディアを通じ議論されることが増えたことで、その倫理的使命を感じる研究者、開発者が増えたようにも感じます。一方で、個人間での倫理的責任感の普及とは裏腹に、政府や企業間では一層開発競争が激化しているように見られます。

上記でリストアップしたような様々な進展に伴い、AIに関連する社会的問題もたくさん提示されています。一つ一つ取り上げているときりがありませんが、技術的な課題以外で、分野分け隔てなく関係があり、多くの問題の根幹にあると私が考えている2つの課題があります。
1: どの価値を大切にしたいのか。
アラインメント問題は、AIが人間の価値観に従って動かないという問題 ((3)のpaperclip problemがユーモラスでわかりやすいです) です。しかし、技術的な限界を差し置いても、そもそも人間が社会としてどの価値を大切にしたいのかというコンセンサスが取れていない、定義できていないことが、問題の根底にあるとも言われています。
これに関して、「環境保護活動やジェンダー多様性などのように、環境や文化・知識が変わるにつれ未来でも価値が変わっていくから、今議論しても無駄である」という考えもあります。しかし、過去数千年を見ても共通して善いと議論されてきたより抽象的な価値感(正義感や愛情)はあり、それについて知見を深めることが必要だと感じます。現状の自然・計算機科学または企業利益駆動の人工知能の発展の仕方では、「知能」(論理・戦略など)というスケール以外、特に「目的」や「価値」といった概念での発展は見込めません。この先は、哲学や文学の知見を組み合わせる必要があると考えています(4)。
2: 競争の不可避性とどう向き合うか。
政府や企業は、他者に勝たないと生存できません。ゼロサムゲームではないのは分かっていても、例えば両立しえない信念の違い(この土地は我々のものであるという主張など)がすでに存在している現状、競争は不可避とも言えます。
これは、国家間・企業間の技術競争を必然とし、すでに半導体の規制やGPUの買い占めなども起こっています。AI Safetyの支持者は「いったん立ち止まってAIへの理解を深めた方がリスクが少ない」と訴えており、それは一つの解決方法ではあると思います。一方現実的にこの競争の沼から抜け出せない今、他の解決方法の模索が必要だと考えています。

まだまだ自分の解像度が低いのは承知の上、思考を整理するため、この場をお借りしてAIについて書かせていただきました。また、レポートを読んでくださった皆様に、それぞれの視座から、AIについて少し考えていただけたら幸いです。

今回のレポートは以上にさせていただきます。これからも引き続き精進いたします。

(1) https://wang-kevin3290.github.io/scaling-crl/
(2) https://www.anthropic.com/news/alignment-faking
(3) https://bobiverse.fandom.com/wiki/Paperclip_Problem
(4) この分野の発展のために、人工知能に使われる技術を用いて人間の目的や価値にあるパターンを分析し、その上で新しい価値の創造や、議論ができる土台を設計できると面白いのではないかと思っており、挑戦してみたいものの一つです。思想も物理学もどちらも同じ脳という世界から派生したものなので、共通点を見出すことができると思いますし、そのためには分野間の相互連携がより必要になると感じます。