日韩中文字幕在线一区二区三区,亚洲热视频在线观看,久久精品午夜一区二区福利,精品一区二区三区在线观看l,麻花传媒剧电影,亚洲香蕉伊综合在人在线,免费av一区二区三区在线,亚洲成在线人视频观看
          首頁 500強 活動 榜單 商業 科技 商潮 專題 品牌中心
          雜志訂閱

          OpenAI被指存在“持續且危險的行為模式”:將未經安全驗證的產品倉促推向市場

          科技行業再次暴露出“狂飆突進中引發亂象”的痼疾。

          文本設置
          小號
          默認
          大號
          Plus(0條)

          科技行業再次暴露出“狂飆突進中引發亂象”的痼疾。這一次,被顛覆的對象是人類共同的現實感知,以及我們在生前與死后對自身形象的控制權。這一切都源于諸如OpenAI旗下Sora 2等人工智能圖像生成平臺。

          通過OpenAI的應用生成的典型Sora視頻,在TikTok、Instagram、X和Facebook等平臺上迅速傳播。這類視頻往往趣味性十足,能夠吸引用戶點擊和分享,內容可能是伊麗莎白二世女王開口說唱,也可能是更逼真的日常場景。當前一類熱門Sora視頻是偽造的門鈴攝像頭畫面,呈現出一些略顯離奇的瞬間,例如門廊上出現一條蟒蛇,或一只短吻鱷正在逼近平靜的幼童,最后往往以輕微的反轉收尾,比如,老奶奶揮舞著掃帚沖出,大聲叫喊驅趕動物。

          然而,越來越多的倡導團體、學者與專家開始警告:用戶僅憑文字提示就能隨意生成AI視頻存在嚴重風險。這種模式正在催生海量未經當事人同意的影像與逼真的“深度偽造”內容,混雜在看似無害的“AI垃圾內容”海洋中肆意傳播。在遭到外界強烈抗議之后,包括已故藝人家屬與演員工會的施壓,OpenAI才開始限制用戶利用AI創作公眾人物(如邁克爾·杰克遜、馬丁·路德·金、弗雷德·羅杰斯)從事荒誕行為的內容。

          非營利組織公共公民(Public Citizen)已要求OpenAI下架Sora 2。該組織在周二致公司及首席執行官薩姆·奧爾特曼的公開信中表示,該應用為搶占先機而倉促上線,再次體現了OpenAI“持續且危險的行為模式,將本身存在安全隱患,或者缺乏必要防護機制的產品倉促推向市場”。信中指出,Sora 2體現出該公司對產品安全、個人肖像權及民主制度穩定的“魯莽漠視”。該組織已將公開信同時提交給美國國會。

          OpenAI周二未立即回應置評請求。

          公共公民組織的科技政策倡導者J.B.布蘭奇在接受采訪時表示:“我們最大的擔憂是這項技術對民主制度可能構成的威脅。我認為我們正進入一個新時代——人們無法再相信眼前影像的真實性。而且我們已經看到,在政治傳播中,先入為主的影像內容,往往會主導公眾的記憶。”

          作為周二公開信的撰寫者,布蘭奇還指出更廣泛的隱私隱患,網絡弱勢群體首當其沖。

          OpenAI雖然屏蔽了裸體內容,但布蘭奇指出,“女性仍在網絡上遭到其他形式的騷擾”,例如,某些帶有戀物癖意味的小眾內容仍能繞過平臺的限制。上周五,科技媒體404 Media報道稱,互聯網上已出現大量由Sora生成的女性被勒頸的視頻。

          OpenAI于一個多月前在iPhone上推出新版Sora應用,并于上周在美國、加拿大及日本、韓國等多個亞洲國家上線安卓(Android)版本。

          抵制聲浪最強烈的群體來自好萊塢及其他娛樂產業,包括日本漫畫界。Sora發布僅數日后,OpenAI便宣布進行首次重大調整,表示“過度內容審核讓用戶極度沮喪”,但“在全球仍在適應這項新技術的階段”,保持審慎至關重要。

          隨后,OpenAI于10月16日與馬丁·路德·金家族公開達成協議,在公司完善安全措施期間,禁止系統生成對這位民權領袖不尊敬的內容;10月20日,OpenAI又與《絕命毒師》(Breaking Bad)演員布萊恩·克蘭斯頓、美國演員工會(SAG-AFTRA)及多家經紀公司達成類似協議。

          對此,布蘭奇批評道:“名人的權益固然得到了保障,但這基本體現了OpenAI的一種行為模式,他們只會回應極少數群體的憤怒,愿意先發布產品、事后道歉。可實際上,很多問題原本通過產品設計就能提前規避。”

          OpenAI的旗艦產品ChatGPT也遭遇過類似的安全質疑。上周,加利福尼亞法院新受理的七起訴訟,指控該聊天機器人導致無精神病史的用戶產生自殺傾向與有害妄想。這些訴訟由社交媒體受害者法律中心(Social Media Victims Law Center)與科技正義法律項目(Tech Justice Law Project)代表六名成年人和一名青少年提起。訴狀指控OpenAI明知GPT-4o存在嚴重的“諂媚性和心理操控風險”,卻不顧內部警告,仍在去年提前發布該產品。有四名受害者自殺身亡。

          雖然公共公民組織并未參與此類訴訟,但布蘭奇認為,Sora的倉促發布與此如出一轍。

          布蘭奇批評道:“他們全速前進,完全無視潛在風險。很多問題其實是可預見的,但他們寧可先把產品推向市場,讓用戶下載使用并沉迷其中,也不愿花時間做充分的壓力測試,去真正考慮普通用戶的困境。”

          上周,OpenAI還忙于應對來自日本動漫與游戲協會的抗議,該協會成員包括宮崎駿的吉卜力工作室(Studio Ghibli)以及游戲公司萬代南夢宮(Bandai Namco)與史克威爾艾尼克斯(Square Enix)。OpenAI在回應中表示,許多動漫迷希望能與自己喜愛的角色互動,但公司已設置相應的防護措施,禁止未經版權方許可生成知名角色的形象。

          OpenAI在上周回應該行業協會來信的聲明中表示:“我們正與各大工作室及版權方直接溝通,認真傾聽反饋,并學習Sora 2的各地應用案例,包括極其重視文化創意產業的日本。”(財富中文網)

          譯者:劉進龍

          審校:汪皓

          科技行業再次暴露出“狂飆突進中引發亂象”的痼疾。這一次,被顛覆的對象是人類共同的現實感知,以及我們在生前與死后對自身形象的控制權。這一切都源于諸如OpenAI旗下Sora 2等人工智能圖像生成平臺。

          通過OpenAI的應用生成的典型Sora視頻,在TikTok、Instagram、X和Facebook等平臺上迅速傳播。這類視頻往往趣味性十足,能夠吸引用戶點擊和分享,內容可能是伊麗莎白二世女王開口說唱,也可能是更逼真的日常場景。當前一類熱門Sora視頻是偽造的門鈴攝像頭畫面,呈現出一些略顯離奇的瞬間,例如門廊上出現一條蟒蛇,或一只短吻鱷正在逼近平靜的幼童,最后往往以輕微的反轉收尾,比如,老奶奶揮舞著掃帚沖出,大聲叫喊驅趕動物。

          然而,越來越多的倡導團體、學者與專家開始警告:用戶僅憑文字提示就能隨意生成AI視頻存在嚴重風險。這種模式正在催生海量未經當事人同意的影像與逼真的“深度偽造”內容,混雜在看似無害的“AI垃圾內容”海洋中肆意傳播。在遭到外界強烈抗議之后,包括已故藝人家屬與演員工會的施壓,OpenAI才開始限制用戶利用AI創作公眾人物(如邁克爾·杰克遜、馬丁·路德·金、弗雷德·羅杰斯)從事荒誕行為的內容。

          非營利組織公共公民(Public Citizen)已要求OpenAI下架Sora 2。該組織在周二致公司及首席執行官薩姆·奧爾特曼的公開信中表示,該應用為搶占先機而倉促上線,再次體現了OpenAI“持續且危險的行為模式,將本身存在安全隱患,或者缺乏必要防護機制的產品倉促推向市場”。信中指出,Sora 2體現出該公司對產品安全、個人肖像權及民主制度穩定的“魯莽漠視”。該組織已將公開信同時提交給美國國會。

          OpenAI周二未立即回應置評請求。

          公共公民組織的科技政策倡導者J.B.布蘭奇在接受采訪時表示:“我們最大的擔憂是這項技術對民主制度可能構成的威脅。我認為我們正進入一個新時代——人們無法再相信眼前影像的真實性。而且我們已經看到,在政治傳播中,先入為主的影像內容,往往會主導公眾的記憶。”

          作為周二公開信的撰寫者,布蘭奇還指出更廣泛的隱私隱患,網絡弱勢群體首當其沖。

          OpenAI雖然屏蔽了裸體內容,但布蘭奇指出,“女性仍在網絡上遭到其他形式的騷擾”,例如,某些帶有戀物癖意味的小眾內容仍能繞過平臺的限制。上周五,科技媒體404 Media報道稱,互聯網上已出現大量由Sora生成的女性被勒頸的視頻。

          OpenAI于一個多月前在iPhone上推出新版Sora應用,并于上周在美國、加拿大及日本、韓國等多個亞洲國家上線安卓(Android)版本。

          抵制聲浪最強烈的群體來自好萊塢及其他娛樂產業,包括日本漫畫界。Sora發布僅數日后,OpenAI便宣布進行首次重大調整,表示“過度內容審核讓用戶極度沮喪”,但“在全球仍在適應這項新技術的階段”,保持審慎至關重要。

          隨后,OpenAI于10月16日與馬丁·路德·金家族公開達成協議,在公司完善安全措施期間,禁止系統生成對這位民權領袖不尊敬的內容;10月20日,OpenAI又與《絕命毒師》(Breaking Bad)演員布萊恩·克蘭斯頓、美國演員工會(SAG-AFTRA)及多家經紀公司達成類似協議。

          對此,布蘭奇批評道:“名人的權益固然得到了保障,但這基本體現了OpenAI的一種行為模式,他們只會回應極少數群體的憤怒,愿意先發布產品、事后道歉。可實際上,很多問題原本通過產品設計就能提前規避。”

          OpenAI的旗艦產品ChatGPT也遭遇過類似的安全質疑。上周,加利福尼亞法院新受理的七起訴訟,指控該聊天機器人導致無精神病史的用戶產生自殺傾向與有害妄想。這些訴訟由社交媒體受害者法律中心(Social Media Victims Law Center)與科技正義法律項目(Tech Justice Law Project)代表六名成年人和一名青少年提起。訴狀指控OpenAI明知GPT-4o存在嚴重的“諂媚性和心理操控風險”,卻不顧內部警告,仍在去年提前發布該產品。有四名受害者自殺身亡。

          雖然公共公民組織并未參與此類訴訟,但布蘭奇認為,Sora的倉促發布與此如出一轍。

          布蘭奇批評道:“他們全速前進,完全無視潛在風險。很多問題其實是可預見的,但他們寧可先把產品推向市場,讓用戶下載使用并沉迷其中,也不愿花時間做充分的壓力測試,去真正考慮普通用戶的困境。”

          上周,OpenAI還忙于應對來自日本動漫與游戲協會的抗議,該協會成員包括宮崎駿的吉卜力工作室(Studio Ghibli)以及游戲公司萬代南夢宮(Bandai Namco)與史克威爾艾尼克斯(Square Enix)。OpenAI在回應中表示,許多動漫迷希望能與自己喜愛的角色互動,但公司已設置相應的防護措施,禁止未經版權方許可生成知名角色的形象。

          OpenAI在上周回應該行業協會來信的聲明中表示:“我們正與各大工作室及版權方直接溝通,認真傾聽反饋,并學習Sora 2的各地應用案例,包括極其重視文化創意產業的日本。”(財富中文網)

          譯者:劉進龍

          審校:汪皓

          The tech industry is moving fast and breaking things again — and this time it is humanity’s shared reality and control of our likeness before and after death — thanks to artificial intelligence image-generation platforms like OpenAI’s Sora 2.

          The typical Sora video, made on OpenAI’s app and spread onto TikTok, Instagram, X and Facebook, is designed to be amusing enough for you to click and share. It could be Queen Elizabeth II rapping or something more ordinary and believable. One popular Sora genre is fake doorbell camera footage capturing something slightly uncanny — say, a boa constrictor on the porch or an alligator approaching an unfazed child — and ends with a mild shock, like a grandma shouting as she beats the animal with a broom.

          But a growing chorus of advocacy groups, academics and experts are raising alarms about the dangers of letting people create AI videos on just about anything they can type into a prompt, leading to the proliferation of nonconsensual images and realistic deepfakes in a sea of less harmful “AI slop.” OpenAI has cracked down on AI creations of public figures — among them, Michael Jackson, Martin Luther King Jr. and Mister Rogers — doing outlandish things, but only after an outcry from family estates and an actors’ union.

          The nonprofit Public Citizen is now demanding OpenAI withdraw Sora 2 from the public, writing in a Tuesday letter to the company and CEO Sam Altman that the app’s hasty release so that it could launch ahead of competitors shows a “consistent and dangerous pattern of OpenAI rushing to market with a product that is either inherently unsafe or lacking in needed guardrails.” Sora 2, the letter says, shows a “reckless disregard” for product safety, as well as people’s rights to their own likeness and the stability of democracy. The group also sent the letter to the U.S. Congress.

          OpenAI didn’t immediately respond to a request for comment Tuesday.

          “Our biggest concern is the potential threat to democracy,” said Public Citizen tech policy advocate J.B. Branch in an interview. “I think we’re entering a world in which people can’t really trust what they see. And we’re starting to see strategies in politics where the first image, the first video that gets released, is what people remember.”

          Branch, author of Tuesday’s letter, also sees broader concerns to people’s privacy that disproportionately impact vulnerable populations online.

          OpenAI blocks nudity but Branch said that “women are seeing themselves being harassed online” in other ways, such as with fetishized niche content that makes it through the apps’ restrictions. The news outlet 404 Media on Friday reported on a flood of Sora-made videos of women being strangled.

          OpenAI introduced its new Sora app on iPhones more than a month ago. It launched on Android phones last week in the U.S., Canada and several Asian countries, including Japan and South Korea.

          Much of the strongest pushback has come from Hollywood and other entertainment interests, including the Japanese manga industry. OpenAI announced its first big changes just days after the release, saying “overmoderation is super frustrating” for users but that it’s important to be conservative “while the world is still adjusting to this new technology.”

          That was followed by publicly announced agreements with Martin Luther King Jr.’s family on Oct. 16, preventing “disrespectful depictions” of the civil rights leader while the company worked on better safeguards, and another on Oct. 20 with “Breaking Bad” actor Bryan Cranston, the SAG-AFTRA union and talent agencies.

          “That’s all well and good if you’re famous,” Branch said. “It’s sort of just a pattern that OpenAI has where they’re willing to respond to the outrage of a very small population. They’re willing to release something and apologize afterwards. But a lot of these issues are design choices that they can make before releasing.”

          OpenAI has faced similar complaints about its flagship product, ChatGPT. Seven new lawsuits filed last week in California courts claim the chatbot drove people to suicide and harmful delusions even when they had no prior mental health issues. Filed on behalf of six adults and one teenager by the Social Media Victims Law Center and Tech Justice Law Project, the lawsuits claim that OpenAI knowingly released GPT-4o prematurely last year, despite internal warnings that it was dangerously sycophantic and psychologically manipulative. Four of the victims died by suicide.

          Public Citizen was not involved in the lawsuits, but Branch said he sees parallels in Sora’s hasty release.

          He said they’re “putting the pedal to the floor without regard for harms. Much of this seems foreseeable. But they’d rather get a product out there, get people downloading it, get people who are addicted to it rather than doing the right thing and stress-testing these things beforehand and worrying about the plight of everyday users.”

          OpenAI spent last week responding to complaints from a Japanese trade association representing famed animators like Hayao Miyazaki’s Studio Ghibli and video game makers like Bandai Namco and Square Enix. OpenAI said many anime fans want to interact with their favorite characters, but the company has also set guardrails in place to prevent well-known characters from being generated without the consent of the people who own the copyrights.

          “We’re engaging directly with studios and rightsholders, listening to feedback, and learning from how people are using Sora 2, including in Japan, where cultural and creative industries are deeply valued,” OpenAI said in a statement about the trade group’s letter last week.

          財富中文網所刊載內容之知識產權為財富媒體知識產權有限公司及/或相關權利人專屬所有或持有。未經許可,禁止進行轉載、摘編、復制及建立鏡像等任何使用。
          0條Plus
          精彩評論
          評論

          撰寫或查看更多評論

          請打開財富Plus APP

          前往打開