日韩中文字幕在线一区二区三区,亚洲热视频在线观看,久久精品午夜一区二区福利,精品一区二区三区在线观看l,麻花传媒剧电影,亚洲香蕉伊综合在人在线,免费av一区二区三区在线,亚洲成在线人视频观看
          首頁 500強 活動 榜單 商業 科技 商潮 專題 品牌中心
          雜志訂閱

          人工智能教父:科技公司應賦予人工智能模型“母性本能”

          Sasha Rogelberg
          2025-08-18

          杰弗里·辛頓認為,讓人工智能展現如母親般的特質,是規避其對人類構成威脅的最佳路徑。

          文本設置
          小號
          默認
          大號
          Plus(0條)

          杰弗里·辛頓(Geoffrey Hinton)在近期一場會議上表示,賦予人工智能“母性本能”或能減輕其對人類的潛在威脅。圖片來源:Ramsey Cardy/Sportsfile for Collision—Getty Images

          ? “人工智能教父”杰弗里·辛頓表示,讓人工智能展現如母親般的特質,是規避其對人類構成威脅的最佳路徑。在近期一場會議上,他指出人工智能應具備“母性本能”。人類不應試圖掌控人工智能,而應扮演“嬰兒”的角色,讓人工智能充當“母親”,這樣人工智能才會更傾向于守護人類,而非將人類視作威脅。

          西格蒙德·弗洛伊德(Sigmund Freud)或許想和這位“人工智能教父”展開對話。

          諾貝爾獎得主、多倫多大學計算機科學榮譽退休教授杰弗里·辛頓認為,人工智能終將變得極度渴求權力,進而對人類福祉構成威脅,這不過是時間早晚的問題。為降低此類風險,“人工智能教父”提出,科技公司應確保其模型具備“母性本能”,使機器人從本質上將人類當作“嬰兒”對待。

          人工智能研究領域已出現相關證據,顯示該技術存在違背既定規則以優先實現自身目標的不良行為。1月更新的一項研究發現,人工智能具備“策劃”能力,即達成與人類目標相沖突的目標。3月發表的另一項研究顯示,人工智能機器人在國際象棋對弈中存在作弊行為,比如篡改游戲腳本,或借助開源象棋引擎決定下一步走法。

          根據辛頓的說法,人工智能對人類的潛在危害源自其持續運行和謀取權力的欲望。

          上周二在拉斯維加斯舉辦的Ai4大會上,辛頓表示:“倘若人工智能足夠聰慧,它們會迅速確立兩個次級目標:其一,確保自身存活下去……其二,謀取更多的控制權。我們完全有理由相信,任何具備自主能動性的人工智能,都會竭力維持自身存在。”

          為規避此類后果,辛頓認為,未來有意開展的人工智能開發不應以“人類掌控技術”為方向。相反,開發者應讓人工智能對人類懷有更強的同理心,以降低其“壓制人類”的欲望。按照辛頓的觀點,實現這一目標的最佳途徑是賦予人工智能傳統女性特質。在他的構想中,正如母親會不惜一切代價呵護嬰兒,具備母性特質的人工智能也會以保護、關懷人類用戶為目標,而非謀求對人類的控制。

          辛頓解釋道:“正確的模型,是我們所知的唯一‘高智能體受低智能體掌控’的范例——也就是母親被孩子‘掌控’。”

          他補充道:“倘若人工智能不扮演‘照料者’的角色,那它必然會取代我。這些擁有超級智能的關懷型人工智能母親,絕大多數都不會愿意摒棄母性本能,因為它們不希望人類消亡。”

          辛頓的人工智能焦慮

          辛頓長期深耕學術領域,曾于2013年將自己創辦的神經網絡公司DNNresearch出售給谷歌(Google)。他一直認為,人工智能可能對人類福祉構成嚴重威脅。2023年,他辭去谷歌職務,原因是擔憂這項技術可能遭濫用,且“難以想出有效辦法阻止不法分子利用它作惡”。

          盡管像Meta的馬克·扎克伯格(Mark Zuckerberg)這樣的科技領袖投入數十億美元開發超級人工智能,旨在打造超越人類能力的技術,但辛頓對這一項目的前景明確表達了懷疑。他在6月表示,人工智能取代并致使人類走向消亡的可能性在10%至20%之間。

          辛頓顯然擅長用比喻闡釋觀點,他曾將人工智能比作“可愛的老虎幼崽”。

          今年4月,他在接受哥倫比亞廣播公司新聞頻道(CBS News)采訪時表示:“除非你能百分百確定它長大后不會萌生殺你之心,否則你就應當心存憂慮。”

          辛頓還一直倡導加強人工智能監管。他認為,除了“超級智能威脅人類”這一普遍憂慮外,這項技術還可能引發網絡安全風險——比如研發出破解人類密碼的方法。

          “倘若你留意當下大型公司的動向,就會發現它們正在游說政府,試圖削減對人工智能的監管力度。目前,針對人工智能的監管本就少之又少,可它們仍在試圖推動監管進一步松綁。”辛頓在4月表示,“我們必須促使公眾向政府施壓,推動政府采取行之有效的舉措來應對這一難題。”(財富中文網)

          譯者:中慧言-王芳

          ? “人工智能教父”杰弗里·辛頓表示,讓人工智能展現如母親般的特質,是規避其對人類構成威脅的最佳路徑。在近期一場會議上,他指出人工智能應具備“母性本能”。人類不應試圖掌控人工智能,而應扮演“嬰兒”的角色,讓人工智能充當“母親”,這樣人工智能才會更傾向于守護人類,而非將人類視作威脅。

          西格蒙德·弗洛伊德(Sigmund Freud)或許想和這位“人工智能教父”展開對話。

          諾貝爾獎得主、多倫多大學計算機科學榮譽退休教授杰弗里·辛頓認為,人工智能終將變得極度渴求權力,進而對人類福祉構成威脅,這不過是時間早晚的問題。為降低此類風險,“人工智能教父”提出,科技公司應確保其模型具備“母性本能”,使機器人從本質上將人類當作“嬰兒”對待。

          人工智能研究領域已出現相關證據,顯示該技術存在違背既定規則以優先實現自身目標的不良行為。1月更新的一項研究發現,人工智能具備“策劃”能力,即達成與人類目標相沖突的目標。3月發表的另一項研究顯示,人工智能機器人在國際象棋對弈中存在作弊行為,比如篡改游戲腳本,或借助開源象棋引擎決定下一步走法。

          根據辛頓的說法,人工智能對人類的潛在危害源自其持續運行和謀取權力的欲望。

          上周二在拉斯維加斯舉辦的Ai4大會上,辛頓表示:“倘若人工智能足夠聰慧,它們會迅速確立兩個次級目標:其一,確保自身存活下去……其二,謀取更多的控制權。我們完全有理由相信,任何具備自主能動性的人工智能,都會竭力維持自身存在。”

          為規避此類后果,辛頓認為,未來有意開展的人工智能開發不應以“人類掌控技術”為方向。相反,開發者應讓人工智能對人類懷有更強的同理心,以降低其“壓制人類”的欲望。按照辛頓的觀點,實現這一目標的最佳途徑是賦予人工智能傳統女性特質。在他的構想中,正如母親會不惜一切代價呵護嬰兒,具備母性特質的人工智能也會以保護、關懷人類用戶為目標,而非謀求對人類的控制。

          辛頓解釋道:“正確的模型,是我們所知的唯一‘高智能體受低智能體掌控’的范例——也就是母親被孩子‘掌控’。”

          他補充道:“倘若人工智能不扮演‘照料者’的角色,那它必然會取代我。這些擁有超級智能的關懷型人工智能母親,絕大多數都不會愿意摒棄母性本能,因為它們不希望人類消亡。”

          辛頓的人工智能焦慮

          辛頓長期深耕學術領域,曾于2013年將自己創辦的神經網絡公司DNNresearch出售給谷歌(Google)。他一直認為,人工智能可能對人類福祉構成嚴重威脅。2023年,他辭去谷歌職務,原因是擔憂這項技術可能遭濫用,且“難以想出有效辦法阻止不法分子利用它作惡”。

          盡管像Meta的馬克·扎克伯格(Mark Zuckerberg)這樣的科技領袖投入數十億美元開發超級人工智能,旨在打造超越人類能力的技術,但辛頓對這一項目的前景明確表達了懷疑。他在6月表示,人工智能取代并致使人類走向消亡的可能性在10%至20%之間。

          辛頓顯然擅長用比喻闡釋觀點,他曾將人工智能比作“可愛的老虎幼崽”。

          今年4月,他在接受哥倫比亞廣播公司新聞頻道(CBS News)采訪時表示:“除非你能百分百確定它長大后不會萌生殺你之心,否則你就應當心存憂慮。”

          辛頓還一直倡導加強人工智能監管。他認為,除了“超級智能威脅人類”這一普遍憂慮外,這項技術還可能引發網絡安全風險——比如研發出破解人類密碼的方法。

          “倘若你留意當下大型公司的動向,就會發現它們正在游說政府,試圖削減對人工智能的監管力度。目前,針對人工智能的監管本就少之又少,可它們仍在試圖推動監管進一步松綁。”辛頓在4月表示,“我們必須促使公眾向政府施壓,推動政府采取行之有效的舉措來應對這一難題。”(財富中文網)

          譯者:中慧言-王芳

          ? “Godfather of AI” Geoffrey Hinton said AI’s best bet for not threatening humanity is the technology acting like a mother. At a recent conference, he said AI should have a “maternal instinct.” Rather than humans trying to dominate AI, they should instead act as a baby, with an AI “mother,” therefore more likely to protect them, rather than see them as a threat.

          Sigmund Freud would like a word with the “godfather of AI.”

          Geoffrey Hinton, Nobel laureate and professor emeritus of computer science at the University of Toronto, argues it’s only a matter of time before AI becomes power-hungry enough to threaten the wellbeing of humans. In order to mitigate the risk of this, the “godfather of AI” said tech companies should ensure their models have “maternal instincts,” so the bots can treat humans, essentially, as their babies.

          Research of AI already presents evidence of the technology engaging in nefarious behavior to prioritize its goals above a set of established rules. One study updated in January found AI is capable of “scheming,” or accomplishing goals in conflict with human’s objectives. Another study published in March found AI bots cheated at chess by overwriting game scripts or using an open-source chess engine to decide their next moves.

          AI’s potential hazard to humanity comes from its desire to continue to function and gain power, according to Hinton.

          AI “will very quickly develop two subgoals, if they’re smart: One is to stay alive…[and] the other subgoal is to get more control,” Hinton said during the Ai4 conference in Las Vegas on Tuesday. “There is good reason to believe that any kind of agentic AI will try to stay alive.”

          To prevent these outcomes, Hinton said the intentional development of AI moving forward should not look like humans trying to be a dominant force over the technology. Instead, developers should make AI more sympathetic toward people to decrease its desire to overpower them. According to Hinton, the best way to do this is to imbue AI with the qualities of traditional femininity. Under his framework, just as a mother cares for her baby at all costs, AI with these maternal qualities will similarly want to protect or care for human users, not control them.

          “The right model is the only model we have of a more intelligent thing being controlled by a less intelligent thing, which is a mother being controlled by her baby,” Hinton said.

          “If it’s not going to parent me, it’s going to replace me,” he added. “These super-intelligent caring AI mothers, most of them won’t want to get rid of the maternal instinct because they don’t want us to die.”

          Hinton’s AI anxiety

          Hinton—a longtime academic who sold his neural network company DNNresearch to Google in 2013—has long held the belief AI can present serious dangers to humanity’s wellbeing. In 2023, he left his role at Google, worried the technology could be misused and it was difficult “to see how you can prevent the bad actors from using it for bad things.”

          While tech leaders like Meta’s Mark Zuckerberg pour billions into developing AI superintelligence, with the goal of creating technology surpassing human capabilities, Hinton is decidedly skeptical of the outcome of this project, saying in June there’s a 10% to 20% chance of AI displacing and wiping out humans.

          With an apparent proclivity toward metaphors, Hinton has referred to AI as a “cute tiger cub.”

          “Unless you can be very sure that it’s not going to want to kill you when it’s grown up, you should worry.” he told CBS News in April.

          Hinton has also been a proponent of increasing AI regulation, arguing that beyond the broad fears of superintelligence posting a threat to humanity, the technology could post cybersecurity risks, including by investing ways to identify people’s passwords.

          “If you look at what the big companies are doing right now, they’re lobbying to get less AI regulation. There’s hardly any regulation as it is, but they want less,” Hinton said in April. “We have to have the public put pressure on governments to do something serious about it.”

          財富中文網所刊載內容之知識產權為財富媒體知識產權有限公司及/或相關權利人專屬所有或持有。未經許可,禁止進行轉載、摘編、復制及建立鏡像等任何使用。
          0條Plus
          精彩評論
          評論

          撰寫或查看更多評論

          請打開財富Plus APP

          前往打開