人智を超えたAIをどう制御するか、その鍵となるのは。
オープンAIのスーパーアライメントチームは、人類を超える知能を持つAIをどう制御するかという大きな課題に取り組んでいます。このチームは、AIが設計どおりに機能するよう保証するための革新的な研究に専念しています。
このプロジェクトの中心は、人間よりも賢いAIモデルをどう管理するかという問題です。現在のAIはせいぜい人間レベルの能力しかないですが、より高度なAIの制御はさらに複雑です。このチームは、AIの安全性への深い関心を持つオープンAI共同創設者のイリヤ・スツケバー氏によって率いられています。
彼らのアプローチは、比較的シンプルなAIモデル(例えばGPT-2)を用いて、進化したモデル(GPT-4)を望ましい方向に導くというものです。この方法は、AIの幻覚問題を解決する可能性も秘めています。
加えて、オープンAIはこの分野の研究をサポートするために1000万ドルの助成金プログラムを立ち上げています。2025年にはスーパーアライメントに関する学術会議を開催する予定で、最先端の研究成果が世界に披露されることになります。この取り組みは、AIの安全性を強化し、人類全体の利益に貢献することが期待されています。
出典:https://techcrunch.com/2023/12/14/openai-thinks-superhuman-ai-is-coming-and-wants-to-build-tools-to-control-it/