ニュース

OpenAI、安全性で声明「やるべきことはたくさんある」

ChatGPTなどのAIサービスを手掛けるOpenAIは、安全性に関する声明を発表し、各国の規制当局と協力していく姿勢を明らかにした。

同社は最新の「GPT-4」について、モデルの完成後、公開前に自社で6カ月以上をかけて評価したという。厳格な安全性評価の対象とするには規制が必要とし、どのような形で行なわれるのがよいのか、各国政府と協力していく方針を示している。

一方、どのように使われるかについて、開発時に予測できる内容には限界があるとし、AIシステムがより安全になるためには、実際の使用から学ぶことも重要と指摘。同社は継続的に改良を加えているほか、自社サービスやAPIを通じて提供することで、不正使用の監視や対策が可能になっているとしている。

子供に対する安全性

OpenAIのAIツールの利用は18歳以上、または保護者から許可を得た13歳以上。また、認証するオプションも検討している。

OpenAIのツールにおいて、憎悪や嫌がらせ、暴力、アダルトコンテンツなどの生成は許可されていないとし、最新の「GPT-4」はそれまでの「GPT-3.5」と比較して、これら許可されていないコンテンツのリクエストに応える可能性が82%低く、不正使用を監視するシステムも確立しているという。例えばユーザーが画像ツールに児童性的虐待素材をアップロードしようとした場合、システムがブロックし、児童保護団体に報告されるようになっている。

安全性が向上している「GPT-4」は現在一部のユーザーに提供されているが、より広範に提供していく予定。

プライバシー・個人情報

ChatGPTの大規模言語モデルは、一般に公開されているコンテンツや許可されたコンテンツなど幅広いテキストコンテンツでトレーニングされている。

これら学習データの中には、インターネット上で公開されている個人情報が含まれるが、「個人ではなく世界のことを学んでほしい」ともしており、トレーニングデータからは可能な限り個人情報を削除、個人情報に対する要求を拒否するよう調整も行なわれている。

事実と正確性

大規模言語モデルによる回答は、入力されたテキストを含めて、過去のパターンに基づき予測されるため、次に出てくくる可能性が高いとして回答した単語が、事実に照らし合わせると不正確な回答になる場合がある。

OpenAIはユーザーのフィードバックを主な情報源として活用し事実精度を向上、「GPT-4」は「GPT-3.5」と比較して、事実に基づいたコンテンツを生成する可能性は40%向上したという。

一方で、事実であるかのように回答してしまう“幻覚”(hallucinations)の可能性をさらに減らすことや、AIツールの限界について一般ユーザーに理解してもらうためには、やるべきことはたくさんあるともしている。

現実的なアプローチ

現在世界で起こっている安全性への懸念を払拭する現実的なアプローチは、技術と研究に投資し、現実の悪用に対抗していくことだとする。

安全性と能力向上は両立させるべきとし、高性能モデルを慎重に開発する一方、安全対策も強化していく。「GPT-4」は6カ月以上の準備を経て公開されたが、安全性を高めるために、今後はさらに時間をかける必要性があるかもしれないという。

またAIの導入や効果的な管理は、技術と制度の両方で進展が必要で、困難な課題ではあるものの、OpenAIはそれに貢献していくという方針を示している。安全性の議論についても同様で、AIシステムが動作する範囲といった議論を含め、広範な議論、実験、関与が必要で、関係者間のオープンな対話を促進していく方針を示している。