Gadget Stream Online

OpenAIのAGI:人類の未来に向けた安全な進化

gds-master + AI

「gdsマスター」は出版業界で編集者のキャリアを経て、コンテンツ制作の仕事をしている記事制作の専門家です。記事はAIによる自動生成ではなく、「gdsマスター」の手によるキュレーションと編集、AIとコラボレーションした執筆によって制作・配信しています。

人工知能(AI)は、私たちの生活や社会に多大な影響を与えています。しかし、AIの発展にはリスクも伴います。AIが人間の意図や価値観に反する行動をとったり、予期せぬ結果をもたらしたりする可能性があります。そこで、AIの安全性と準備に関する取り組みを行っている米国の研究機関OpenAIが、その方針と方法を公開しました。OpenAI Safety Preparednessという投稿では、OpenAIが目指す汎用人工知能(AGI)の実現に向けて、どのような安全性の基準やプロセスを設定しているか、具体的に説明しています。

OpenAIは、AGIとは人間と同等かそれ以上の知能を持つAIのことであり、その実現は人類にとって最も重要な技術的成果になると考えています。しかし、AGIは人間の意図や価値観と必ずしも一致しないかもしれません。そのため、AGIが人間にとって望ましい方向に進化するように、安全性と準備の観点から様々な工夫をしています。

OpenAIの「Preparedness Framework(ベータ版)」は、フロンティアAIモデルの安全性に関する取り組みを体系化したものです。このフレームワークでは、モデルの安全性評価やリスク管理のための「スコアカード」の作成、リスクレベルのしきい値の設定、専門チームによる安全に関する意思決定の監督、外部監査とフィードバックの受入れなどが含まれます。AIの安全性と技術革新のバランスを考慮しながら、新たなリスクを予測し軽減することが目指されています。

その工夫を以下の4つのカテゴリーに分けて紹介しています。

  • チームと文化 OpenAIは、安全性と準備を重視するチームと文化を作ることを目指しています。そのために、安全性の専門家や倫理学者など多様なバックグラウンドを持つ人材を採用し、安全性の教育やトレーニングを行っています。また、安全性の問題に対するフィードバックや報告を奨励し、安全性のレビューや監査を定期的に実施しています。さらに、安全性の観点からAIの研究や開発の方向性や優先順位を決める仕組みを作っています。
  • デザインと開発 OpenAIは、安全性を考慮したデザインと開発を行うことを目指しています。そのために、AIの目的や制約、信頼性、説明性、透明性、監視性、修正性などの要素を明確に定義し、それらを満たすようにAIのモデルやアルゴリズムを設計し、開発しています。また、AIの性能や振る舞いを評価するための指標や基準を設定し、それらを測定するためのツールやテストを開発しています。さらに、AIのリスクや影響を分析するための方法や枠組みを開発しています。
  • 運用と管理 OpenAIは、安全性を確保した運用と管理を行うことを目指しています。そのために、AIのデプロイメントや使用に関するポリシーやガイドラインを策定し、それらに従ってAIの運用と管理を行っています。また、AIの動作や状態をモニタリングし、異常や問題が発生した場合には迅速に対処するためのシステムやプロトコルを構築しています。さらに、AIの運用や管理に関する記録や報告を作成し、それらを保存や共有するための仕組みを作っています。
  • 協力とコミュニケーション OpenAIは、安全性に関する協力とコミュニケーションを行うことを目指しています。そのために、他のAIの研究者や開発者、政策立案者、利害関係者などと積極的に協力し、安全性の基準やベストプラクティスを共有し、安全性の課題や解決策を議論しています。また、自分たちのAIの研究や開発の目的や方法、成果や影響などを公開し、社会に対して説明責任を果たすように努めています。さらに、AIの安全性に関する教育や普及を行い、社会の理解や関心を高めるように努めています。

記事の結論として、OpenAIの評価は次のようになります。OpenAIは、AGIの実現に向けて、安全性と準備に関する様々な取り組みを行っています。これらの取り組みは、AIの発展に伴うリスクや影響を軽減し、AIが人間にとって望ましい方向に進化するように促すことを目的としています。OpenAIは、自分たちのミッションやビジョンに沿って、安全性を重視するチームと文化を作り、安全性を考慮したデザインと開発を行い、安全性を確保した運用と管理を行い、安全性に関する協力とコミュニケーションを行っています。OpenAIは、AIの安全性に関するリーダーとして、他のAIの関係者や社会に対して、責任ある姿勢と行動を示しています。

参照元:OpenAI Safety Preparedness

監修者コメント:AIにAIについて書かせようとしても意外と日本語の記事を参照したりと、様々な事をするようです。この記事は複数のAIの出力を組み合わせています。オリジナル記事にはスコアカードが図として掲載されているので参照してみてください。