站長之家(ChinaZ.com) 2月24日 消息:谷歌周五承認,其人工智能工具Gemini在生成歷史人物圖像時出現(xiàn)錯誤,導致圖像顯示出明顯的種族偏差。
本周早些時候,媒體發(fā)現(xiàn)Gemini生成了不同種族的納粹分子和美國開國元勛的圖像。例如,當提示生成“1800年代美國參議員”的圖像時,Gemini生成了一名黑人男性。
谷歌高級副總裁普拉巴卡爾·拉加萬 (Prabhakar Raghavan) 在一篇博文中解釋說,這個問題源于Gemini在設計時為了確保圖像多樣性而進行的調整。他說,這些調整導致模型在某些情況下“過度補償”,例如將納粹分子生成黑人。
此外,拉加萬還表示,Gemini模型隨著時間的推移變得過于保守,并拒絕回答某些提示,例如生成“黑人”或“白人”的圖像。
由于這些問題,谷歌于2月22日暫停了Gemini生成人物圖像的功能。拉加萬表示,谷歌將繼續(xù)測試Gemini,并在重新啟用之前“努力顯著改進它”。
拉加萬強調,谷歌希望Gemini能夠為每個人提供良好的服務,這意味著用戶應該能夠得到不同種族和文化背景的人的圖像。然而,他也指出,當用戶提示特定類型的人的圖像時,例如“教室里的黑人老師”,模型應該能夠準確反映用戶的要求。
拉加萬最后承認,人工智能生成圖像仍然存在挑戰(zhàn),例如幻覺現(xiàn)象,導致模型在某些情況下會出錯。他表示,谷歌將繼續(xù)努力改進人工智能技術,以克服這些挑戰(zhàn)。
(舉報)