編者的話:伴隨著AI技術日新月異的發展,人類對AI的感受總是期待伴隨著焦慮,驚嘆夾雜著不安全感。近日,第二屆全球人工智能(AI)安全峰會在韓國首爾召開,來自全球政治、經濟、科技界人士再次聚首,共話AI安全相關話題。本次峰會距首屆峰會召開和會議成果——《布萊奇利宣言》的簽署發布僅過去半年。各國在擔憂什么?有哪些AI安全議題值得關注?
潛在風險加深不安全感
李志起
“AI風險防范”始終是AI治理工作的重中之重。技術的“雙刃劍效應”在AI領域尤為明顯,它為我們帶來便利的同時,諸多潛在風險也在不斷加深作為普通用戶的不安全感:從個人隱私泄露到算法偏見,再到無法預料的決策失誤,對這些風險的擔憂無處不在。正因如此,更為嚴格的風險評估機制、可執行性更高的風險防范措施、全球各國更及時的合作交流才顯得更為重要。
風險防范之外,全球AI治理還涉及多個重要議題,它們共同構成了AI發展的多維框架。這些議題同樣需要重點關注,具體如下:
首先是AI技術的倫理道德、標準規范以及創新發展等。在倫理道德方面,應推動制定全球通用的AI倫理準則,規范AI技術的研發和應用行為,確保其符合人類價值觀和道德標準。在標準規范方面,各國應攜手制定AI技術的國際標準和規范,以提升技術的互操作性和降低應用風險。同時,鼓勵和支持AI技術的創新與發展也至關重要,通過政策引導、資金投入和人才培養等措施,推動AI技術在各個領域實現突破與進步。
其次,AI技術帶來的就業與社會影響同樣是我們必須正視的重要問題。隨著AI技術的不斷發展和普及,越來越多的傳統崗位面臨著被自動化取代的風險。這種取代不僅可能導致大量勞動力失業,還可能對社會的經濟結構和穩定性造成深遠影響。例如,一些重復性高、技能要求相對較低的工作崗位,如數據錄入員、客服代表等,很可能會被智能機器人或自動化系統所替代。因此,在全球AI治理的進程中,各國政府必須高度關注AI技術對就業市場的具體影響。為了應對這些挑戰,政府需要制定相應的政策和措施,旨在保障勞動者的合法權益,減輕因技術進步而帶來的就業壓力。這可能包括提供職業培訓項目,以幫助工人提升技能,適應新的就業環境;創造更多與AI技術相關的新興就業崗位,以吸納因自動化而失業的勞動力;以及完善社會保障體系,為受影響的工人提供必要的生活保障。
再次,數據隱私與保護也應該成為全球AI治理中的重要議題。AI技術的訓練和應用離不開大量數據,而數據的收集和使用往往涉及個人隱私保護的問題。因此,各國在參與全球人工智能治理時,應加強對數據隱私的保護,制定嚴格的數據安全法規,以防止數據泄露和濫用。(作者是北京市政協經濟委員會副主任,振興國際智庫理事長)
發展中國家需要更多參與
李 崢
短短半年,西方主要國家政府及全球頂尖AI企業已兩次專門就AI治理問題召開專門會議,體現出各國對于當前AI全球治理發展進度緩慢的擔憂。近半年內,AI技術又出現了一些新的變化,主要體現在三方面。一是生成式AI持續高速發展,在多模態領域取得顯著技術進步和應用發展。多模態的生成式AI意味著該技術能夠在不同種類信息中自由切換,更自如地生成和理解數字社會和人類文明。AI生成的內容更加豐富和準確,這一進步將讓生成式AI顯著擴大其應用領域。與此同時,甄別AI生成內容的難度也在不斷增加,信息偽造更加泛濫。如果缺乏更加嚴格的治理和標準,管控生成式AI不被濫用將成為不可能任務。
第二,先進AI越發廣泛地運用于生物技術、化學材料、軍事安全等實體領域,AI與制造業的結合正變得愈發緊密。這一趨勢意味著AI的影響將不限于數字和虛擬空間,將成為一國生產力、軍事工業能力以及前沿技術發展的倍增器。這場AI革命對于各國而言機遇和挑戰并不相同。
三是AI產業開發的成本、基礎條件和制約因素愈發清晰。近半年來,業界愈發關注AI產業化后對能源、水資源、人才、環境、硬件等領域的需求和影響。業界普遍認為,AI高能耗、需要巨大初始投入、后期迭代成本高的特點將難以發生變化。這意味著建設AI產業集群的門檻較高,大多數國家難以支撐初始研發或完全技術自主的成本。AI產業的未來極有可能仍然是中心化形態,即少數企業和國家在全球AI技術生態中處于無法替代的地位。這種情況讓中等發達國家尤為擔憂,擔心該技術可能進一步拉大這些國家與主要大國之間的差距。
從首爾峰會的情況看,當前AI技術進步顯著快于全球治理進度,AI安全主要依賴少數頭部企業自身承諾,以及廣大AI發展滯后國家的訴求未被充分接納是困擾當前全球AI安全治理進程的三大問題。除了此次峰會上提出的所謂“底線原則”以及頭部企業的承諾之外,全球AI治理更需要盡量包容采納發展中國家的整體訴求,采取實際措施解決AI的發展鴻溝問題。該進程需要有更多發展中國家引領和參與。(作者是中國現代國際關系研究院美國研究所所長助理)
應對“超速技術綜合征”
沈 陽
在AI如影隨形的時代,公眾對未來AI的安全性充滿不確定和焦慮。機器是否會取代人類的工作?個人隱私是否能得到保護?AI的決策是否可控?從去年11月首屆全球AI安全峰會到本周的第二屆峰會,人們對AI技術的關注已從單模態內容生成(如文本數據)走到了多模態內容生成(如視頻數據)。AI的發展可謂一浪高過一浪。這不僅僅是技術的躍進,更是一場全球性、人類共同應對挑戰與機遇的雙重奏。
在后現代社會的人類焦慮中,技術的發展速度正在超越社會和法規的適應能力,并引發倫理、安全及社會等層面的多維問題,針對這個現象,我們可以稱之為:超速技術綜合征。
在AI領域,“超速技術綜合征”可具體投射在如下維度:比如,AI的快速迭代不僅重塑了商業模式,帶來了前所未有的便捷,同時也暴露了數據安全、算法偏見及自動化引發的失業等問題。又如,AI的進步加速了數字鴻溝,技術紅利和風險在全球范圍內的不均衡分配,使得發達國家和技術巨頭可能進一步擴大與發展中地區的差距。再如,技術發展的雙刃劍效應日益明顯,AI在優化資源分配、提高生產效率方面的積極作用不言而喻,然而它也可能導致資源分配不公、勞動力市場的動蕩,等等。
如何應對“超速技術綜合征”,為全球社會注入一針鎮定劑?跨國合作和全球統一的行業標準制定顯得尤為關鍵。全球合作與橫跨政治、經濟和商業實體之間的安全承諾,實質上是在為AI發展筑起了一道安全屏障,試圖營造一個更可預測、更安全的技術生態,以減緩由技術引發的社會焦慮。以近期在首爾召開的AI安全峰會為例,本次發布的《首爾宣言》就指出,人工智能安全、創新、包容是相互關聯的目標,國際社會有必要將其列為全球AI治理結構的首要議題。各方敦促通過以人為本的AI技術解決全球性難題,以增進民主、法治、人權、自由等價值,加大隱私保護力度,消除數字和AI鴻溝,提升人類福利水平。
消除“超速技術綜合征”需要更多全球技術企業和政府之間的對話,也需要科技與社會的妥協與合作。通過國際間的協作,我們可以更有效地應對技術帶來的挑戰,確保AI成為推動人類社會進步的正能量