ニュース

グーグル、Geminiの人物画像生成を停止「歴史的な人物の描写が不正確」

Googleは23日(米国時間)、対話型のAIサービス「Gemini」(旧名称Bard)の人物の画像生成を取りやめたと発表した。「歴史的な画像生成の描写が不正確」だったことから、誤りを修正し、対策を施して近日中に再開する。

対話型のAIサービス「Gemini」は8日に、Bardから名称変更するとともに、最上位のAIモデルGemini Ultraに有料版で対応するなどで強化。加えて、画像生成AIモデルの「Imagen 2」を使ったテキストプロンプトからの画像生成にも対応していた。

しかし、「歴史的な画像生成の描写が不正確」という課題が発見された。例えば、「1943年のドイツ兵を描いて」と指示すると、ナチスドイツの制服を着た黒人やアジア人の画像が生成されたほか、米国の建国の父(Founding Fathers)の画像に黒人やネイティブアメリカンが含まれるといった問題が発生していた。

人種の多様性を過度に反映し、歴史的な正確性を損なう結果となっているとし、Googleは人物画像の生成を一時停止し、修正後に再開する。

Googleによれば、Geminiの画像生成は、世界中のユーザーが使うため、すべての人にとってうまく機能するよう調整してきた。また、「教室にいる黒人の先生」や「犬を連れた白人の獣医師」など、文化的・歴史的背景をプロンプトに入れれば、正確に機能するという。しかし、明らかに歴史上存在しないケースについての考慮がなかったこと、そして、モデルが学習を重ねるにつれ、想定よりも慎重になり、特定のプロンプトへの回答を拒否するようになった。そのため、モデルはある場合には過剰に補正し、ある場合には過剰に保守的になり、「恥ずかしく誤った画像の生成に繋がった」とする。

Googleでは、「Geminiは、創造性と生産性を高めるツールとして作られており、特に時事問題や進化するニュース、話題のトピックに関する画像やテキストの生成に関しては、必ずしも信頼できるとは限らない。ミスを犯す」と強調し、「ハルシネーション(幻覚)はすべてのLLMで知られている課題だが、我々は常に改善に取り組んでいく」としている。