登录

会员权益

获取需求

查看名片

专属客服

尊贵标识

VIP低至1.5U/天

生成歷史圖片卻太過政治正確!Google 暫停 Gemini 生成人物的功能

分享

2024-02-23

人們擔心 AI 可能加深社會刻板印象,但如今卻出現「矯枉過正」的問題。

在生成不準確的歷史圖片後,Google 暫停了 Gemini 生成人物圖片的功能,並表示很快就會發布改進的版本。

所謂不準確的歷史圖片,指的是一些 Gemini 使用者在請該 AI 模型描繪歷史群體或人物(如開國元勳)的圖片時,發現 Gemini 似乎有意識地避開生成白人的圖片,包括如果要求 Gemini 生成「1800 年代美國參議員」,得到的結果會包括黑人和美國原住民女性,不過歷史上第一位女性美國參議員卻是在 1922 年才有,且還是白人。此外,在生成「二戰德軍」的圖片時,居然出現了由黑人、亞裔女性穿著德軍軍裝的照片,與歷史嚴重不符,Gemini 更被認為是「在消除種族與性別歧視的歷史」。

AI 新創公司 Hugging Face 首席道德科學家 Margaret Mitchell 表示,Gemini 之所以產生不符歷史事實的例子,可能是由以下幾種類型干預造成的。她表示,Google 可能「在幕後」為使用者的 prompt 添加了種族多樣性的術語。在這種情況下,像「廚師的肖像」的 prompt,就可能會變成「原住民廚師的肖像」。在這種情況下,Google 可能隨機選擇附加的術語,並且也可能添加多個多樣性術語。

Mitchell 說,Google 也可能更優先顯示深色膚色生成的圖片。例如,如果 Gemini 為每個prompt 產生 10 張圖片,Google 會讓系統分析圖片中描繪的人物的膚色,並將膚色較深的人的圖片推到隊列中的優先位置。因此,如果 Gemini 只顯示前 4 張圖片,那麼最有可能看到膚色較深的圖片。

這則新聞已經在美國社群媒體上引起熱烈討論,尤其是右翼人士對此猛烈批評,過去他們經常批評如今的社群媒體環境以及 AI 工具都太偏向自由主義,不過 Google 以及其他科技公司卻對於 AI 可能加深種族偏見感到擔憂,因此相當強調少數族裔以及有色人種的代表性,但如今卻出現了過度糾正的問題。

現在生成人物圖片的能力已經被 Google 暫時撤下,若使用者要求,會看到 Gemini 回應:「我們正在提升 Gemini 生成人物影像的能力,預計此功能很快就會回歸,並會在發布更新時通知您。」

Gemini 生成圖片的能力是 Google 在本月稍早時開放的,以和 OpenAI 以及微軟 Copilot 等對手競爭。

快加入 INSIDE Google News 按下追蹤,給你最新、最 IN 的科技新聞!



     

     

     

     

    免责声明:
    详情

    Please Play Responsibly:

    Casino Games Disclosure: Select casinos are licensed by the Malta Gaming Authority. 18+