日韩中文字幕在线一区二区三区,亚洲热视频在线观看,久久精品午夜一区二区福利,精品一区二区三区在线观看l,麻花传媒剧电影,亚洲香蕉伊综合在人在线,免费av一区二区三区在线,亚洲成在线人视频观看
          首頁 500強 活動 榜單 商業 科技 領導力 視頻 專題 品牌中心
          雜志訂閱

          AI模型“生成不了白人”,谷歌高級副總裁道歉

          2024-02-26 21:00
          文本設置
          小號
          默認
          大號
          Plus(0條)
          據環球網援引美聯社26日報道,對于用戶反饋谷歌公司推出的人工智能(AI)模型Gemini在生成人物圖像時出現疑似“反白人”的問題,谷歌高級副總裁普拉巴卡爾·拉加萬日前進行了道歉。 | 相關閱讀(極目新聞)
          44
          蘇牧野

          蘇牧野

          資深媒體人

          在美國國父一例中,Gemini違反了歷史常識,而這令人發笑的低級錯誤可能是最容易“糾正”的一類。有技術專家分析Gemini出錯原因時猜測,谷歌很可能是在“幕后”向用戶的提示語中添加了更能體現種族多樣性的關鍵詞,比如用戶輸入的“一個廚師的肖像”這樣的提示語,會被調整為“一位土著廚師的肖像”。

          事實上,人工智能最近幾年的發展一而再、再而三地說明,人類專家越少的干預反而越能產生好的模型效果。

          換句話說,“美國國父”是真實存在過的人物,對他們的描繪大致可以被判定為準確或不準確的。相比較起來,那些沒有正確答案的問題,對AI來說要棘手得多。

          52
          福榮

          福榮

          心靈教練

          谷歌Gemini的圖片生成功能因為過于“政治正確”,生成了很多嚴重偏離事實的圖片,遭到網友吐槽,稱其為“人工智能種族主義”,谷歌致歉,連夜下架Gemini文生圖功能,現在谷歌高級副總裁也來道歉了,可見事態嚴重。

          大家肯定會好奇為什么會出現這個問題呢?我在網上看到一位谷歌AI的前高管說法:谷歌可能在背后在用戶提示詞基礎上添加了種族多樣性術語。在這種情況下,像“士兵的肖像”這樣的提示詞可能會變成“土著士兵的肖像”。在這種情況下,可以隨機選擇附加術語,那么谷歌算法上的某種“政治正確”就很可能會更加優先地顯示基于深色膚色生成的圖像。比如說,如果 Gemini 為每個提示生成 10 張圖像,谷歌會讓系統分析圖像中描繪的人的膚色,并將膚色較深的人的圖像推到隊列中的較高位置。因此,如果 Gemini 只顯示前 4 張圖,那么最有可能看到膚色較深的。這也就解釋了為什么人們看到這些本應是白人形象的歷史人物變成深膚色了。

          我感覺這會是一個轉折點事件。大家都知道互聯網平臺發布內容都是要進行內容審核。很顯然這次Gemini沒有進行審核,也很難審核,這是否意味著未來加強AIGC的監管會先從內容審核切入?讓我們拭目以待吧。

          評論

          撰寫或查看更多評論

          請打開財富Plus APP

          前往打開