日韩中文字幕在线一区二区三区,亚洲热视频在线观看,久久精品午夜一区二区福利,精品一区二区三区在线观看l,麻花传媒剧电影,亚洲香蕉伊综合在人在线,免费av一区二区三区在线,亚洲成在线人视频观看
          首頁 500強 活動 榜單 商業(yè) 科技 商潮 專題 品牌中心
          雜志訂閱

          面對人工智能生成的不實信息,我們如何做好準備?

          “我們必須小心,不要被科幻問題分散注意力,而要專注于最迫切的具體風險。”

          文本設置
          小號
          默認
          大號
          Plus(0條)

          人工智能系統的爆炸式增長為用戶提供了一系列驚人的任務解決方案。由于大型語言模型(LLM)生成式人工智能工具的蓬勃發(fā)展,例如ChatGPT-4和Bard等等,如今創(chuàng)建文本、圖像和視頻變得更加容易,與人類創(chuàng)作的作品往往無法區(qū)分。

          因為這些模型校準用于創(chuàng)建原創(chuàng)內容,因此生成不正確的產品無可避免,甚至是預期會發(fā)生的,這種情況已經被充分記載。因此,這些工具也使得在網上捏造與散播不實信息變得容易很多。

          這些技術的進展速度讓一些有識之士感到相當緊張。在近期的一封公開信里,包括埃隆·馬斯克和史蒂夫·沃茲尼亞克在內的技術專家們紛紛出面呼吁暫停研發(fā)人工智能六個月,他們問:“我們是否應該任由機器使用宣傳和謊言淹沒我們的信息渠道?”

          無論這些人工智能系統的進展速度如何,我們都將必須習慣于數量龐大的不實信息,研究網上社交互動的凱洛格學院管理與組織學教授威廉·布雷迪表示。

          “我們必須要小心,不要被科幻問題分散注意力,而要專注于最迫切的具體風險。”布雷迪說道。

          在下文中,布雷迪破解了關于人工智能生成的不實信息的常見恐懼,并且澄清我們如何能夠學習與其共存。

          不實信息比虛假信息問題更大

          布雷迪很快對不實信息和虛假信息進行區(qū)分。不實信息是誤導或不是事實的內容,虛假信息則是用來欺騙受眾的策略性創(chuàng)建和采用的信息。

          知道兩者的不同之處是評估風險的第一步,布雷迪表示。他指出,大部分時候,當人們擔心生成式人工智能的潛在傷害時,他們害怕它會導致虛假信息暴增。

          “大型語言模型的一種明顯用途是它比以往任何時候都更容易創(chuàng)造虛假信息和深度偽造等事物。”布雷迪說,“這個問題也許會隨著大型語言模型的進展變得更嚴重,但它事實上僅僅是一個更普遍性問題中的一部分。”

          雖然深度偽造因為意圖誤導而會有問題,但它們在所有網絡內容中的整體滲透率很低。

          “毫無疑問,生成式人工智能將成為虛假政治信息的主要來源之一。”他表示。“它是否真的具有巨大影響力則有待觀察。”

          布雷迪稱,持續(xù)存在不實信息,比容易制造不實信息更可能出現問題。大型語言模型通過掃描數十億份文件進行模式識別訓練,因此它們可以展現權威,但在偏離基準時,卻缺乏辨識能力。當人們受人工智能制造的小錯誤導卻又把它們當作來自專家的信息那樣信任時,就會出現問題。

          “大型語言模型學習如何表現出信心十足,但不一定準確。”布雷迪說道。

          這是否意味著我們對生成式人工智能用得越多,不實信息將呈指數級增長?布雷迪表示,我們無法確定。他指出,根據這項研究,社交媒體平臺上的不實信息數量很少,有些人估計僅僅占整體信息生態(tài)系統的1%至2%。

          他說:“ChatGPT因為增加不實信息供應量而突然使不實信息問題變大,這種想法沒有實證。心理因素導致不實信息的傳播,這個問題比供應量的問題更大。”

          我們也是不實信息背后的問題

          布雷迪認為,或許不實信息帶來的最大挑戰(zhàn)不僅僅來自于毫無節(jié)制的技術進展,人們相信機器的心理傾向也難辭其咎。他表示,我們不傾向刪減人工智能生成的內容,因為這么做很勞心費力。換句話說,如果我們不花時間和精力去嚴格審視在互聯網上讀到的信息,我們就會更容易讓自己去相信不實信息。

          “人們有一種‘自動化偏見’,這種偏見使我們認定由電腦模型生成的信息比人類創(chuàng)造的信息更正確。”布雷迪稱。結果是,人們通常不太懷疑人工智能創(chuàng)造的內容。

          當人們相信不實信息,并且不去質疑其真實性就進行分享,不實信息就傳播出去了。布雷迪說,人們需要更加留意,了解自己通過哪些方式在不知不覺中促成不實信息的創(chuàng)造與傳播。布雷迪將此稱為一個“污染問題”。

          布雷迪說:“不實信息的問題往往出在消費者這一邊,與人們在社交上如何分享與做出結論息息相關,與自己制造出的信息相關較小。人們相信自己讀到的東西,并在分享時添油加醋。事實上,他們已經被誤導,而且在放大夸張。”

          接受教育

          布雷迪表示,在現實中,我們不能等待監(jiān)管機構的監(jiān)督或公司的控制來遏止不實信息,他們對內容如何創(chuàng)建與分發(fā)的影響力微不足道。鑒于人工智能的增長勢不可擋,我們需要學習如何更加認識到可能在何時與何地遇到不實信息。

          在理想的世界中,公司會扮演一個重要的角色。

          “公司必須根據自己推出的產品做出負責的介入行動。”他說,“如果內容被標記為有問題,至少人們就能夠決定它可不可信。”

          布雷迪希望看到類似做法應用在不實信息和生成式人工智能上。他贊成網絡平臺通過標注生成式人工智能內容來幫助用戶檢測不實信息。但他知道等待技術公司推出有效的控制方法是不合理的期待。

          “公司不總是因為做出所有應該做的事情而獲得獎勵,而且那樣做也不會改變我們目前的情況。但我們其實也可以把這個權力賦予個人。”布雷迪表示。

          培養(yǎng)用戶對不實信息最可能出現的情境的察覺能力,或許能夠降低不實信息散播的可能性。

          既然年紀較大的成年人最可能成為不實信息的受害者,向那些互聯網精通程度不及Z世代的成年人提供比如數字掃盲培訓視頻或游戲化網站等基礎教育,對壓制網絡不實信息可能很有助益。這些努力可以包括設計各種活動喚起大眾注意力,讓人們察覺算法在過度推廣特定類型的內容(包括極端的政治內容)中扮演的角色。

          “這是關于教育人們了解有關自己最容易受到不實信息影響的背景情況。”(財富中文網)

          財富中文網所刊載內容之知識產權為財富媒體知識產權有限公司及/或相關權利人專屬所有或持有。未經許可,禁止進行轉載、摘編、復制及建立鏡像等任何使用。
          0條Plus
          精彩評論
          評論

          撰寫或查看更多評論

          請打開財富Plus APP

          前往打開