日韩中文字幕在线一区二区三区,亚洲热视频在线观看,久久精品午夜一区二区福利,精品一区二区三区在线观看l,麻花传媒剧电影,亚洲香蕉伊综合在人在线,免费av一区二区三区在线,亚洲成在线人视频观看
          首頁 500強 活動 榜單 商業 科技 商潮 專題 品牌中心
          雜志訂閱

          公眾人物該如何應對深度偽造危機?

          Jessica Coacci
          2025-11-04

          AI騙局也可能發生在工作場所。

          文本設置
          小號
          默認
          大號
          Plus(0條)

          在這個充斥著網絡冒名頂替者、深度偽造內容、交易詐騙、ChatGPT代寫論文及AI合成圖像的世界里,越來越多人開始質疑:“這是真實的,還是AI偽造的?”圖片來源:Pier Marco Tacca-Getty Images

          在AI時代,現實或許會在一夜之間被改寫。某天你還在公開支持某位心儀的市長候選人,第二天就有AI生成的言論聲稱你持相反立場。

          前紐約市長白思豪(Bill de Blasio)就遭遇了這種情況。紐約市長選舉前夕,《倫敦時報》記者向其認為是白思豪的郵箱發送郵件,詢問白思豪對民主黨領跑者佐蘭·曼達尼(Zohran Mamdani)政策的看法。

          回復內容出人意料:“依我之見,其主張經不起推敲,且面臨巨大的政治障礙。”在其他媒體及社交平臺紛紛轉載后,真正的白思豪出面澄清,稱該報道純屬捏造,并未反映本人觀點。

          冒充者承認使用ChatGPT撰寫了批評曼達尼稅收計劃的回復,聲稱該計劃難以籌集足夠資金實現目標。

          這一事件雖已解決,卻引發了另一個問題:如果遭遇AI釣魚、深度偽造內容或網絡冒名頂替,該如何應對?

          “我們面臨的問題是,未來偽造聲音或編造故事將變得何等容易,記者、編輯乃至公眾都可能因此受騙。”這位前紐約市長向《財富》雜志表示。

          對公眾人物而言,被“克隆”的風險極高。作為“超現實”冒名事件的當事人,我就如何應對該情況,以及他認為在AI時代必須采取哪些關鍵措施,采訪了真正的白思豪。

          快速回應并確認身份

          白思豪表示,由于此前沒有記者就此事聯系過他,且他與該媒體并無往來,當時最佳的應對方式是立即在網上——即X平臺上——回應,稱該內容為虛假信息。

          “通過網絡要求對方道歉并刪除內容,確實起到了引起他們關注的效果。”他說道。

          OpenAI的Sora和谷歌的Veo 3等工具使AI生成內容更易制作出逼真的虛假圖像和視頻,包括騷亂、犯罪、政治虛假信息、不實指控、欺詐等場景。盡管Sora視頻帶有動態水印以標識其AI創作屬性,但部分專家指出,該標記可通過一定技術手段刪除。

          “你唯一能做的就是上網否認其真實性,”白思豪表示。“如果有人發布我搶劫商店的視頻——而我根本沒搶劫——要快速回應,立即向全世界聲明這是偽造的,而不是試圖讓別人來處理。”

          AI騙局也可能發生在工作場所

          深度偽造技術對公眾人物構成明顯威脅,同樣可能波及職場。

          人力資源管理平臺isolved的欺詐防范主管史蒂夫·倫德曼(Steve Lenderman)指出:“在工作場所,詐騙并不總是一眼就能識破。”

          “詐騙者常冒充高管或同事,利用AI合成聲音或偽造郵件,向人力資源、薪資或財務人員索要緊急付款或員工信息。在防范欺詐時,好奇心并非多疑,而是自我保護。”倫德曼向《財富》雜志表示。

          倫德曼的建議是:迅速行動,并記錄一切。向雇主或IT團隊報告時,截圖、鏈接和信息會發揮重要作用。他們可以控制損失、重置密碼、鎖定受影響賬戶,并啟用多因素認證。“行動越迅速,就越有可能在惡意行為者造成嚴重危害之前阻止他們。在這種情況下,透明度和速度是最佳防御手段。”他補充道。

          采取法律行動的必要性

          遭遇身份冒用事件,促使白思豪反思:針對新興技術帶來的安全風險,亟需采取更強有力的應對措施。2023年,他在哈佛大學的會議上就AI監管政策缺失問題發表了看法。

          “認為AI理應成為規則例外、成為史上唯一不受監管的技術,這種想法簡直荒謬至極。”他表示。

          “若有人通過技術手段捏造他人犯罪的內容,這本身就構成犯罪——任何科技公司都不應協助或縱容發布不當及非法內容的人。”(財富中文網)

          譯者:中慧言-王芳

          在AI時代,現實或許會在一夜之間被改寫。某天你還在公開支持某位心儀的市長候選人,第二天就有AI生成的言論聲稱你持相反立場。

          前紐約市長白思豪(Bill de Blasio)就遭遇了這種情況。紐約市長選舉前夕,《倫敦時報》記者向其認為是白思豪的郵箱發送郵件,詢問白思豪對民主黨領跑者佐蘭·曼達尼(Zohran Mamdani)政策的看法。

          回復內容出人意料:“依我之見,其主張經不起推敲,且面臨巨大的政治障礙。”在其他媒體及社交平臺紛紛轉載后,真正的白思豪出面澄清,稱該報道純屬捏造,并未反映本人觀點。

          冒充者承認使用ChatGPT撰寫了批評曼達尼稅收計劃的回復,聲稱該計劃難以籌集足夠資金實現目標。

          這一事件雖已解決,卻引發了另一個問題:如果遭遇AI釣魚、深度偽造內容或網絡冒名頂替,該如何應對?

          “我們面臨的問題是,未來偽造聲音或編造故事將變得何等容易,記者、編輯乃至公眾都可能因此受騙。”這位前紐約市長向《財富》雜志表示。

          對公眾人物而言,被“克隆”的風險極高。作為“超現實”冒名事件的當事人,我就如何應對該情況,以及他認為在AI時代必須采取哪些關鍵措施,采訪了真正的白思豪。

          快速回應并確認身份

          白思豪表示,由于此前沒有記者就此事聯系過他,且他與該媒體并無往來,當時最佳的應對方式是立即在網上——即X平臺上——回應,稱該內容為虛假信息。

          “通過網絡要求對方道歉并刪除內容,確實起到了引起他們關注的效果。”他說道。

          OpenAI的Sora和谷歌的Veo 3等工具使AI生成內容更易制作出逼真的虛假圖像和視頻,包括騷亂、犯罪、政治虛假信息、不實指控、欺詐等場景。盡管Sora視頻帶有動態水印以標識其AI創作屬性,但部分專家指出,該標記可通過一定技術手段刪除。

          “你唯一能做的就是上網否認其真實性,”白思豪表示。“如果有人發布我搶劫商店的視頻——而我根本沒搶劫——要快速回應,立即向全世界聲明這是偽造的,而不是試圖讓別人來處理。”

          AI騙局也可能發生在工作場所

          深度偽造技術對公眾人物構成明顯威脅,同樣可能波及職場。

          人力資源管理平臺isolved的欺詐防范主管史蒂夫·倫德曼(Steve Lenderman)指出:“在工作場所,詐騙并不總是一眼就能識破。”

          “詐騙者常冒充高管或同事,利用AI合成聲音或偽造郵件,向人力資源、薪資或財務人員索要緊急付款或員工信息。在防范欺詐時,好奇心并非多疑,而是自我保護。”倫德曼向《財富》雜志表示。

          倫德曼的建議是:迅速行動,并記錄一切。向雇主或IT團隊報告時,截圖、鏈接和信息會發揮重要作用。他們可以控制損失、重置密碼、鎖定受影響賬戶,并啟用多因素認證。“行動越迅速,就越有可能在惡意行為者造成嚴重危害之前阻止他們。在這種情況下,透明度和速度是最佳防御手段。”他補充道。

          采取法律行動的必要性

          遭遇身份冒用事件,促使白思豪反思:針對新興技術帶來的安全風險,亟需采取更強有力的應對措施。2023年,他在哈佛大學的會議上就AI監管政策缺失問題發表了看法。

          “認為AI理應成為規則例外、成為史上唯一不受監管的技術,這種想法簡直荒謬至極。”他表示。

          “若有人通過技術手段捏造他人犯罪的內容,這本身就構成犯罪——任何科技公司都不應協助或縱容發布不當及非法內容的人。”(財富中文網)

          譯者:中慧言-王芳

          In the age of AI, reality could be rewritten overnight. One day, you’re publicly supporting one of your favorite mayoral candidates—the next, an AI-generated quote states the opposite.

          That situation happened to former New York City mayor Bill de Blasio (important distinction the d is lower case not uppercase). Days leading up to the New York City mayor’s race, a reporter from The Times of London sent an email to what he thought was Bill de Blasio on his thoughts on Zohran Mamdani’s policies, who is a democrat leading in the race.

          The results were unexpected, as the respondent wrote, “In my view, the math doesn’t hold up under scrutiny, and the political hurdles are substantial.” After picking up on other outlets and social media, the real Bill de Blasio stood up, saying the story was entirely false and fabricated, and doesn’t reflect his views.

          The person impersonating him admitted to using ChatGPT to compose a response criticizing Mamdani’s tax plans, saying it was unlikely to raise the amount of money to reach his goals.

          The scenario, now resolved, raises another question: What do you do if you are catfished by AI, a deepfake, or someone online?

          “We have a question here about how easy it might be, going forward, to fake a voice or fabricate a story and have a journalist or an editor be victimized that way—and the public be victimized,” the former New York City mayor tells Fortune.

          For high-profile figures, the stakes of being cloned couldn’t be higher. As someone who encountered the “surrealism” of being impersonated firsthand, I asked the real Bill de Blasio on how he handled the scenario, and what steps he believes to be crucial going forward in the age of AI.

          Rapid response and confirm identity

          De Blasio said since there were no journalists that had previously reached out about the incident, and he had no contacts at the publication, his best recourse at the time was to immediately respond to the post online—on X—saying it was false.

          “Going online and demanding an apology and demanding it be taken down did have the effect of getting their attention,” he said.

          Tools like OpenAI’s Sora and Google’s Veo 3 have made it easier for AI-generated content to produce realistic imagery and videos of things that are not real—including riots, crimes, political misinformation, false claims, fraud, and more. Though Sora videos feature a moving watermark identifying them as AI creations, some experts say it could be edited out with some effort.

          “All you can do is go online and deny what it is,” de Blasio said. “If someone puts up something on me robbing a store—and I have not robbed the store—rapid response, immediately say that’s a fake to the world, rather than try and get someone to address it.”

          AI scams could happen in the workplace, too

          Deepfakes are an obvious threat for public figures, but it could have ramifications in the workplace, too.

          “In the workplace, scams don’t always look like scams,” said Steve Lenderman, Head of Fraud Prevention at HCM platform isolved.

          “Fraudsters often target HR, payroll or finance employees by pretending to be executives or coworkers and using AI-generated voices or lookalike emails to request urgent payments or employee information. In fraud prevention, curiosity isn’t paranoia—it’s protection,” Lenderman tells Fortune.

          Lenderman’s advice: Act fast, and document everything. Screenshots, links, and messages will be useful when you report it to your employer or IT team. They can contain the damage, reset passwords, lock down affected accounts, and enable multifactor authentication.“The faster you act, the more likely you are to stop bad actors before they can cause serious harm. In these cases, transparency and speed are your best defenses,” he added.

          The need for legal action

          The experience of being impersonated led de Blasio to reflect on the need for stronger action around the safety risks of emerging technology. In 2023, he spoke at a Harvard conference on the lack of policy addressing AI regulation.

          “The notion that somehow AI should be the exception to the rule and be the only technology that was ever not regulated is insane,” he said.

          “If you portray someone committing a crime, that should be a crime—and no tech company should aid and abet the person who puts up that inappropriate and illegal content.”

          財富中文網所刊載內容之知識產權為財富媒體知識產權有限公司及/或相關權利人專屬所有或持有。未經許可,禁止進行轉載、摘編、復制及建立鏡像等任何使用。
          0條Plus
          精彩評論
          評論

          撰寫或查看更多評論

          請打開財富Plus APP

          前往打開