OpenAI董事會之爭似已告一段落,但它預示著,AI技術帶給人類社會的沖擊以及人類圍繞它的思辨,才剛剛開始。
這場爭議被總結為“加速派”與“對齊派”之爭。前者認為應當加速AI研發及應用,讓它盡快造福人類,在發展中解決可能出現的問題;后者則認為應當謹慎行事,先要確保AI“對齊”人類利益,并為之設置足夠護欄后,再推進技術進步。兩派意見都有著大量擁躉。
一位接近OpenAI的知情者引述一位前董事會成員說:“我們每向人工智能靠近一步,每個人都會承受十分的精神錯亂”——那些站在AI技術最前沿、有可能在可見的未來為通用人工智能(AGI)“接生”的技術公司決策者們肩負的巨大責任,從這句話中可窺一斑。
這些技術人今天所做的思考與決策,將決定未來人類與AI的共處方式。
在近日于上海舉辦的2023年《財富》MPW女性峰會上,三位來自技術企業的女性高管以及一位女性技術學者同臺,圍繞AI路線之爭、如何構建負責任的AI、女性在AI研發中的作用等議題分享了思考與實踐。以下為編輯后的對話實錄:

王昉:我想從最近大熱的電影《奧本海默》談起。奧本海默是個天才物理學家,發明了核彈,但后來悲哀地發現核彈可以被用來毀滅人類。很多人認為,在這一點上,AI 與核技術高度類似。請問董老師,您同意嗎?
董潔林:AI和核技術完全不同。核技術的邊界非常清晰,它對人類的好處和壞處,大家也都理解得很明白。另外它的制造門檻非常高。各個國家一旦認識到它的負面破壞力,可以用政策和手段來控制它的擴散。
但是AI不一樣,它帶來的善和惡是混搭的。研發大模型的技術門檻比較高一點,但沒有那么高,應用這個技術的門檻則比較低,所以它非常容易擴散。現在的開源模式下,它已經擴散得到處都是了。在這個情況下,AI在未來行善作惡的可能性,讓很多人充滿期待的同時,讓另一些人憂心忡忡。所以AI與核是非常不同的兩類科技。
王昉:在OpenAI之爭中,代表“對齊派”的OpenAI首席科學家伊利亞·蘇茨克維爾(Ilya Sutskever)打過一個讓我印象深刻的比方。他說,未來AI將會監管人類,那時的AI對于人類,就像今天的人類對寵物一樣,人類并不憎恨寵物,但是當人類決定在城市與城市之間修建高速公路的時候,也不會向寵物們征求意見;當未來的AI可以自行其是的時候,也不會來向人類征求意見。我們該怎么看這個比喻?
董潔林:AI與人的關系,和人與寵物的關系還是非常不一樣的,因為寵物不是人創造的,而AI是人創造的。寵物頂多是在跟人互動的過程中形成了某一種關系,這個關系一直在演化。但AI是人創造的,在創造的過程中,我們有主動權來決定它能做什么、不能做什么。即使將來有一天它有了某種“自主性”,人類依然可以為它設置負面清單,使得它在做“決策”時無法做一些事情,必須人來做。所以這個事情還是可控的,沒有必要自己嚇自己。
王昉:伊利亞認為,AGI,也就是通用人工智能技術,一旦問世,將不斷進化。如果它誕生之初的代碼沒寫對,它將在歧路上越走越遠。那么,我們現在怎么才能把代碼“寫對”?
崔麗:首先,大模型或生成式AI還處于技術發展初期,技術、生態、市場都在快速迭代之中,因此,僅憑預判和思考來提前解決未來可能出現的問題是非常困難的。所以我主張在發展中去發現問題,解決問題,去摸著石頭過河。
其次,技術沒有善惡,善惡在人。AI的本質依然是硅基、無機、數學范疇。而人類則是碳基、有機生物,除了自然科學還有社會科學,人類的認知、決策和行為都有深刻的文化、歷史、價值觀等背景。AI甚至不理解什么叫“責任”,更談不上“負責”,因此,應當是由人類去負責任地構建、使用和監管AI。
目前產業界已經為AI設定了一個3H的理想目標:Helpful,即幫助使用者解決他們的問題;Honest即不捏造資訊或誤導使用者;Harmless即不能對人或環境造成物理、心理、社會危害,與人類價值觀對齊。
然而這些原則非常寬泛,我們需要更具體地考慮諸如幻覺(hallucination)、黑盒帶來的不可解釋性和不可控性,隱私、偏見、濫用和資源消耗等等問題。為應對這些挑戰,我們需要在四大方面去努力,依次是安全、公平、透明和高效。
此外,還需結合應用場景來考慮問題,比如面向大規模公眾的應用,要更多關注安全和公平,而面向特定領域的應用則需要同時關注準確、安全、透明和高效。比如說,如果AI給出的答案用在創意領域,那沒太大關系,但是如果用在專業領域,比如醫療或電信行業,我們當然不希望它一拍腦袋整個網絡就宕機了。
王昉:幻覺(hallucination)是生成式AI目前存在的比較突出的問題。我們應當如何更好地訓練AI?
崔麗:一是“換位思考,因材施教”,比如將我們虛擬的概念或對齊要求,轉化成AI的語境,壓縮空間或聯合概率,徹底回歸到對它更有效的工作方式上,因材施教,提高輸出更準確內容的概率。二是原型知識萃取,加強數據治理,比如在給予虛擬概念時需要謹慎,同時常識或原型類知識優先級應該提升,而不是完全平等地考慮精調。最后是“用魔法打敗魔法”,我們可以采用Agent或多個優秀大模型聯合決策,對各自形成制衡。合理的組織設計可以減少犯錯的次數。
王昉:OpenAI戰火告一段落之后,《紐約時報》發布了一篇文章,標題是“AI belongs to the capitalists now”,意思就是資本主義又一次獲得了勝利。資本總是勝利嗎?IBM也做很多與AI相關的研發,內部是如何思考AI發展方向的?
孟繁晶:IBM一直是AI技術的創造者和推動者,在我們看來,AI一定是要負責任的。我們最近與Meta以及50多家機構、大學、開源社區一起,構建了一個AI Alliance,承諾把所有的技術開放出去,讓大家一起來避免出現一些負面的仇恨,或者對人類的威脅。
我認為,負責任AI有兩個層面的含義。一是,如何負責任地研發AI技術?在IBM,我們開發了一個叫“watsonx”的平臺,提供全生命周期的AI訓練、驗證以及部署,既監管數據——數據里如果就有偏見,就有仇恨,最后的模型一定會學到,又監管整個AI的模型——在運行過程當中,模型有沒有出現偏移和仇恨?
負責任AI的另一層含義是,AI可以對我們的可持續發展作出巨大貢獻。舉個簡單的例子,IBM和很多機構合作,嘗試用AI來解決人口拐賣這個社會問題。人口拐賣80%的受害者是女性和兒童,為什么這個行業一直都存在?因為高暴利,利潤高達1500億美金,跟毒品、走私一樣。我們可以把跟人口拐賣相關的各個利益鏈條上的所有數據,包含交通數據、衛星數據、銀行間的轉賬數據,融合在一起后交給AI模型,就可以在交易發生的過程中甚至之前就發現風險,預防拐賣行為的發生。
王昉:圍繞AI研發是盡量加速還是步伐慢一點,IBM內部有沒有過爭論?
孟繁晶:不僅是爭論,IBM已經付諸行動。我們內部有一個AI倫理委員會,審查相關所有工作,我們決定做審慎的AI技術,也就是有所為有所不為。一個典型例子是,IBM做了一個決定,雖然人臉識別技術可以解決很多問題,但是因為我們沒有辦法確信它將只被用在向善的方面,所以我們放棄了人臉識別相關的所有研究工作。
王昉:來自南京的硅基智能站在AI應用的前沿,已經為全世界50萬人他們制作了數字分身。你們是堅定的“加速派”?
陳莉萍:對,我們是科技加速派。只需看看,過去300多年的技術發展,并沒有給人類造成非常大的沖擊,而是給人類帶來了很多的便利性。當然每個技術在初期會帶來一些風險,比如汽車發明的時候會代替馬車,但是也會發生交通事故。現在的新能源車也可能會引起火災,但是大家還是會選擇它,這是一個進化的方向。所以我們認為,發展中遇到的問題,一定是由發展來解決,也一定能夠解決。
硅基智能是2017年成立的,那時大家對“硅基”兩個字還比較陌生。我們認為AI基于硅基,是一種生命體,我們就是一家在實驗室里造生命體的公司。我們的愿景是2025年為全球創造1億硅基勞動力,為各行各業服務。
比如我們會生產數字老師,讓成千上萬的孩子擁有家庭教師的陪伴;我們可以生產數字醫生,讓更多的患者擁有醫療顧問,隨時了解自己的醫療方案;我們也去做很多的數字律師,讓更多人獲取法律援助。我們認為這就是一種科技向善。
我們如何讓AI負責任?首先,在大模型的訓練過程中,我們遵循了阿希莫夫的“機器人三定律”:機器人不能傷害人類;它們必須服從于人類;它們必須保護自己。其次,在大模型的訓練過程當中,我們增加了一個訓練,叫“人類反饋強化學習”,通過人為標注,告訴它人類更喜歡哪些結果,這樣訓練出來的模型就更偏向于人類的價值觀和選擇偏好。
崔麗:對于如何讓AI更負責,我補充一些看法。在立法及監管側,我們可以強制要求對AI生成的內容做標識,同時應區別對待客觀問題——比如幻覺、黑盒,和主觀問題——包括隱私、IPR、濫用等。法規也要與時俱進,加強對偏主觀問題的約束,而對于偏客觀問題,應該給予一定的容錯空間,以促進創新。此外,我們可以嘗試將現有的大模型納入立法建設中,尊重大模型的知識來賦能現有的監管體系。最后,我們普通人作為AI技術的使用者,不應該過度依賴AI,要保持獨立思考和批判性思維。
王昉:雖然 OpenAI事件中,出現了一位短暫出任CEO的女性,但AI競技場中的前臺活躍人物,包括馬斯克、扎克伯格、奧特曼,絕大多數還是男性。在AI技術的發展中,女性缺失會帶來什么樣的問題?
董潔林:女性缺失會造成很嚴重的女性歧視,女性現在馬上應該做的就是參與。從學生時代開始,女生要大量進入理工科領域,進入計算機和與AI相關的行業,不參與就會受到歧視。等到歧視已經發生,再呼吁平權就太晚了。
實際上女性參與的主要障礙是我們自己,大學理工科一般并不歧視女生,但是女性自己選擇不參與,可能因為缺乏興趣,可能因為其他原因,這導致技術公司中女性程序員比較少,產品經理人也比較少,高管也比較少,董事會成員也比較少。女性要把自己的障礙去掉,從做學生開始參與到AI大潮中,我相信這樣做的社會回報和個人經濟回報都會是非常高的。
孟繁晶:呼應一下董老師的觀點。IBM從2019年開始做 “千人百校AI啟蒙季”,面對中小學生推開,要在他們心中種一個小種子。IBM中研發體系中,女性占50%,所以在技術研發那一刻起,男女生已經在一起了。
王昉:請問硅基智能的莉萍,找你們做數字人分身的,是女性多還是男性多?
陳莉萍:很多女性已經參與到這個行業里面來,用自己的數字分身做知識博主、做直播。數字世界特別適合展現美的文化,而女性更容易展示自己的美,所以她們更有優勢利用數字化的平臺展示自己,甚至不一定要掌握很多技術的女性都很容易在這個平臺上找到自己的定位。
王昉:AI時代,女性管理者是否更有優勢?
崔麗:在這個事情上,男人女人是共同體,大家應該把自己的優勢貢獻出來。女性的優勢是非常敏感,可以獲取多元的知識,本能意識到危機;容易有直覺,且往往是基于常識的判斷;而且女性通常更包容及有同理心。如果能夠有效的將這些特點與男性的優勢相結合,可以共同推動AI向更好的方向發展。(財富中文網)