AIの暴走を防げ:Googleが打ち出す新戦略

AIの暴走を防げ:Googleが打ち出す新戦略

Google DeepMindは、AIの安全性に特化した新たな組織「AI Safety and Alignment」の設立を発表しました。これは、AIによる虚偽の情報の拡散や、誤った情報提供の問題に対処するためのものです。特にGoogleの最先端AIモデルであるGeminiが、誤解を招く内容を生成する可能性があることが懸念されています。これに対し、政策立案者たちは、AIツールが容易にディスインフォメーションの手段として利用される現状に警鐘を鳴らしています。

この新組織は、AIの安全性に取り組む既存のチームを基盤としながら、人工汎用知能(AGI)の安全性に焦点を当てた新チームを含むよう拡大されます。AGIは、人間ができるあらゆるタスクを実行できる仮想的なシステムです。DeepMindのロンドンにある既存のAI安全研究チーム「Scalable Alignment」と協力し、まだ実現していない超知能AIの制御に関する技術的な課題への解決策を探ります。

AI Safety and Alignmentのその他のチームは、GoogleのGeminiモデル(現在および開発中のもの)に具体的な安全対策を組み込むことを担当します。短期的な焦点としては、誤った医療アドバイスの防止、子供の安全確保、偏見やその他の不公正の増幅防止などが挙げられます。

Anca Dragan氏がこのチームを率いることになります。Dragan氏は、モデルが人間の好みや価値観をより良く、より堅牢に理解し、自分たちが知らないことを認識し、人々のニーズを理解し、適切な監督を求め、敵対的な攻撃に対してより堅牢であり、人間の価値観や視点の多様性と動的な性質を考慮することを目指しています。

この取り組みは、AIの安全性に関する問題に対するGoogleの積極的な姿勢を示しており、GenAIツールに対する懐疑論が高まる中、特にディープフェイクや誤情報に関連して、より安全で有用なモデルの実現を目指しています。Dragan氏は、完璧なモデルの提供を約束することはありませんが、DeepMindが今後この分野にさらに多くのリソースを投資し、GenAIモデルの安全リスクを評価するためのフレームワークを「間もなく」確立することを目指しています。

出典:Google DeepMind forms a new org focused on AI safety | TechCrunch