ニュース

OpenAI、未来の“スーパーAI”は原子力並みの規制が必要と訴え

ChatGPTなどを提供する米OpenAIは、今後予測されるAIの進歩を睨み、“スーパーAI”(superintelligence、超知能)には国際的な規制や統治が必要という考えを明らかにした。

AIの世界では、今後達成できると見込むAIとして、現在の人間と同じ感性や思考回路をもち、知的作業の理解や学習、実行ができる人工知能を「汎用人工知能」(Artificial general intelligence、AGI)と呼んでいる。そして、実現可能かどうかは不明で仮説上の存在ながら、AGIを超える「人工超知能」(Artificial super intelligence、ASI)または「超知能」(superintelligence)の登場が予測されている。

OpenAI CEOのサム・アルトマン氏が訴えるのは、AGIを超えるASI(超知能)のガバナンスについて。超知能は人間にはできないアイデアを生み出せるとされ、環境問題や社会問題といった切迫する問題の解決策を提示するといったことが期待される一方、悪用による重大なリスクも指摘されている。

サム・アルトマンCEOは5月17日、米連邦議会の公聴会にて証言する中で、AIの倫理的な問題点に言及し、免許制にしたり第三者機関の監査を受けたりするといった規制を提案している。

また、21日に閉幕したG7広島サミットでもAIは議題に上り、国際的なガバナンスについて議論を進めることが確認されている。

OpenAIは22日の発表で「AIは今後10年で、ほとんどの領域で専門家レベルを超える」と指摘し、リスク管理の重要性を強調。その影響力やリスクの大きさも踏まえ、AIの技術を原子力技術になぞらえながら、リアクションするだけでなく国際的な協調とリスク管理の実行が必要と訴えている。

具体的には、超知能は開発段階で安全性にも配慮した開発が必要で、世界の主要な政府がプロジェクトを立ち上げ、協調することが必要としている。また一定以上の性能に対してはセキュリティレベルの制限を実行する国際的な機関が必要ともした。個々の企業も「極めて高い責任」を持ち開発することが必要になるとする。その上で、安全性を実現する技術はオープンな研究課題として開発者が注力していくという。

一方、現在市販化されているAIの技術は、大きな能力を持つものの、規制が必要なほどではないという。上記のような懸念はあくまで今後実現される、まだ生み出されていないものであるとし、現在の技術開発やその発展に水を差すべきではないとも指摘している。