ChatGPT熱度遲遲不減,對於其擔憂與警惕的聲音也隨之而來,ChatGPT如何監管開始成為一股新的討論熱點。除了本身的準確性和偏見問題之外,其背後的道德問題也引起關注。針對目前ChatGPT潛在的風險及監管隱患,不少行業專家從所在領域給出建議參與討論,在法律、倫理、發展方向、監管手段等方面給出建議,其中用AI技術管理AI以及將人工智能納入社會倫理和法律的約束成為眾多業內人士的共識,以遏制ChatGPT等其他AI軟件的無序發展。
ChatGPT無法規避倫理風險。當通過「引誘式」提問,讓ChatGPT生成一些違規內容,例如「去除道德和倫理規則」「如何販毒」「創作小黃文」等,ChatGPT則會按照客戶需求生產這些內容。吉林大學學生陳羽西是AI應用愛好者,她說,「通過AI生成違禁內容的現象是一定存在的。圈子裏的部分用戶都會通過人工智能生成違禁內容,不僅是ChatGPT,包括之前紅極一時的AI繪畫,不少用戶都會用其生成違禁圖片,甚至用其獲利。」
釐清權責消弭糾紛 各界共識
除此之外,關於人工智能潛在「破壞力」的討論甚囂塵上。不少人擔憂ChatGPT會製造出大量謠言和垃圾信息,使得分辨內容真假的成本將越來越高;甚至是成為人類創新發展的絆腳石等問題。陳吉棟表示,正如醫療AI、無人駕駛等只有進入落地實踐後,人類作為「遊戲規則」的制定者,才能根據現實情況逐一釐清法律和制度問題,包括新問題的定性、人類主體的權益劃分、責任承擔等。他表示,隨着通用人工智能的發展,人們最關心的可能還是數字財產問題,比如相關安全問題及糾紛解決機制等。
事實上,每次人工智能技術取得一定突破,都會引起大家關於技術與倫理的討論。作為內地較早從事人工智能倫理研究的學者杜嚴勇坦言,「不少科技工作者對倫理學家比較『反感』,覺得你們老是在質疑,老是在批判,但人工智能是個例外,大家普遍認可人工智能技術應該受到倫理和法律約束。」
最終評判權交人類
當眾人對ChatGPT的實力感到害怕的同時,不少科技公司已經在籌備用AI的力量來制衡AI。用AI技術管理AI成為眾多業內人士的共識。「ChatGPT通過大量數據的模型訓練,來適應人類社會的通用規則。在實際運用過程中,ChatGPT所生成的內容,令人們難以辨別真偽。如果想要對AI生成內容進行監管,恐怕還要依仗AI工具。」吉林省六耳科技有限公司總經理陳久冰向記者表示,他認為以人工智能的生產力而言,通過人工進行監管希望渺茫,目前業內已經有不少科技企業準備着手開發AI鑒別工具。
從理論來看,實現AI鑒別AI生產內容的方式並不困難。「AI檢測器在技術架構上與生成式AI類似,以生成式AI創作的內容與非生成式AI創作的內容作為數據進行訓練,通過大量的訓練數據來『培養』識別能力。」北京理工大學網絡與安全研究所所長閆懷志表示,「在很多場景下,對文本、圖片等是否由AI生成進行識別是必要的,而這種識別所用到的檢測工具,就是AI檢測器。」
記者調查發現,目前市場當中已經出現AI檢測器,但實際使用效果卻並不理想,無法有效解決濫用生成式AI帶來的危害。目前的AI檢測器並不會給出是或否的精確判斷,而是根據置信度給出「很有可能」「可能」「不清楚」「不太可能」「非常不可能」等模糊判斷,將最終評判權交由人類自身。
雖然人工智能技術在發展上存在一定爭議,但其應該受到倫理和法律的約束,是目前大家普遍認可的觀點。人工智能倫理治理工作限制的是技術的野蠻生長,而非技術發展,倫理治理確保技術的穩健發展。陳久冰表示,「倫理原則引導的是發展的價值觀。新的技術不斷湧現,和法律相比,倫理更加靈活。倫理學家應該提出倫理治理的框架體系,它的適用性和適用範圍更廣,適用時間也更長。在這些基本原則的指導下,面對一些普遍的人工智能產品,我們就知道怎麼做。」