圖:ChatGPT出世後,全球互聯網企業都產生了嚴重的競爭壓力。
特斯拉(Tesla)創辦人馬斯克上周攜千名科技人士發表公開信,呼籲立即暫停比GPT-4更強大的人工智能(AI)系統的訓練至少六個月。按照公開信的設想,在這段暫停期間,行業專家應該共同開發一套安全協議,以確保AI未來發展是安全的。「只有當我們確信強大的人工智能系統的效果是積極的,其風險是可控的,才應該開發。」
關於如何安全使用人工智能,馬斯克很早就開始了探索。2015年,他就向「未來生命研究所」捐助700萬美元的資助,旨在研究AI造福人類的課題。2017年1月,未來生命研究所曾在加州召集了經濟學、法律、倫理學和哲學領域的思想領袖和研究人員,討論和制定有益人工智能的原則。最終由與會的2000餘位業界人士共同制定了23條的《阿西洛馬人工智能原則》(Asilomar AI Principles),被視為AI治理的重要參考。
對齊道德規範
不同於打工人對AI「搶飯碗」的焦慮,多數行業人士還是持「科技向善」的態度,所謂擔憂主要集中在兩項技術性關切:
一是道德對齊問題。人類在漫長的歷史中,大量的道德規範固化在文化傳統之中,儘管平時很難察覺,但實時引導着人們的日常行為。但對人工智能而言,並沒有經歷過「道德觀」的灌輸,這就需要讓AI的道德規範與人類的道德規範進行對齊。《阿西洛馬人工智能原則》也強調,「自主系統的設計應反映人類的價值觀。」在專家學者眼中,GPT類產品如同一個生下來就有超能力的小孩,不加以管教就會變成風險。
避免寡頭壟斷風險
二是寡頭壟斷風險。目前業內形成的共識是,AI應該盡可能使更多的人受益,並應該為人類作出貢獻,而不是僅僅得益於某些組織或個人。事實上,正是為了避免Google旗下的DeepMind在人工智能領域一家獨大,馬斯克才聯手山姆.阿爾特曼(Sam Altman)創立了OpenAI,旨在降低AI技術被壟斷的可能性。而如今,推出ChatGPT的OpenAI儼然已成為整個人工智能行業的「人民公敵」。
互聯網企業競爭加劇
公開信發表之後招來非議頗多,並遭到包括AI領軍人物、前百度公司首席科學家吳恩達在內的多名業內專家的質疑。更關鍵的問題是,「暫停訓練六個月」的呼籲很難對AI企業形成強約束,這更像是針對OpenAI設計的「緊箍咒」。
自ChatGPT橫空出世後,全球互聯網企業都產生了嚴重的競爭壓力。大語言模型(LLM)的研發門檻本身就很高,被視作是技術密集型(至少需要1萬枚A100芯片)、資本密集型(單次訓練成本超1200萬美元)、勞動力密集型(須僱傭外包團隊人工調試)的複合型產業。
因此,OpenAI的先發優勢很可能會成為與其他科企的技術鴻溝。百度CEO李彥宏接受採訪時也承認,初時感覺文心一言與ChatGPT在技術上也就是一兩個月的差距,但隨着大量人群參與到ChatGPT的測試,這個差距有被拉大的趨勢。
在此背景下,行業內部自然希望OpenAI能夠歇歇腳,給予競爭者追進度的空間。但AI產業很難複製龜兔賽跑的故事,未來數年內將迎來更加激烈的軍備戰競賽。芯片廠商自然會受到市場追捧,英偉達(NVDA.US)可持續關注。