據(jù)媒體報道,近期美國麻省理工學(xué)院一個研究團(tuán)隊稱,部分人工智能系統(tǒng)已經(jīng)學(xué)會如何欺騙人類,其中包括部分號稱已被訓(xùn)練成樂于助人和誠實(shí)的系統(tǒng)。該研究成果發(fā)表在美國細(xì)胞出版社旗下的《模式》雜志上。
盡管有研究人員稱該現(xiàn)象對人類并未造成不利影響,但欺騙性人工智能的出現(xiàn)仍值得警惕。近年來,人工智能的發(fā)展就像一條平坦寬闊的高速公路,研究人員駕駛著“科技”的快車向未來全速前進(jìn)。但若只顧著追求更高、更快、更強(qiáng),在科研競速中必然會導(dǎo)致“脫軌”與“失控”。因此,拉好AI發(fā)展的“警戒線”至關(guān)重要,而拉緊筑牢這道技術(shù)與安全的防線,需要所有參與者的共同努力。
不為科技而科技,不為創(chuàng)新而創(chuàng)新,應(yīng)當(dāng)是一切人工智能發(fā)展的準(zhǔn)則和所有研發(fā)者的底線,卻由于拜技主義者的抵制而一再失效。2023年6月,歐洲議會通過了全球首個AI綜合性監(jiān)管法案《人工智能法案》,但由于openAI、谷歌、微軟等多家科技巨頭以“阻礙AI創(chuàng)新”為由提出反對,并未成功將通用AI(AGI)列入高風(fēng)險類別,導(dǎo)致法案無法適用于軍事、國防、科學(xué)研究。
由此可見,若想真正監(jiān)管AI發(fā)展,技術(shù)背后的“人”首先需要達(dá)成共識,認(rèn)可彼此所肩負(fù)的共同的社會責(zé)任。風(fēng)物長宜放眼量,就像醫(yī)生不能只看病歷,科研工作者也不能只專于技術(shù)創(chuàng)新。正如英國劍橋大學(xué)人工智能研究員哈利·勞所說,“監(jiān)管機(jī)構(gòu)和人工智能公司必須仔細(xì)權(quán)衡技術(shù)造成危害的可能性與其對社會的潛在利益,并明確區(qū)分模型能做什么和不能做什么”。在歐盟的“人腦計劃”項目中,除了神經(jīng)科學(xué)家、計算機(jī)科學(xué)家負(fù)責(zé)技術(shù)研發(fā),還有倫理學(xué)家、心理學(xué)家、社會學(xué)家對大量腦數(shù)據(jù)使用的倫理問題進(jìn)行評估及研究腦科學(xué)發(fā)現(xiàn)對社會的影響。只有不同領(lǐng)域的專家共同努力,才能及時洞悉事態(tài)變化,預(yù)測潛在風(fēng)險,在技術(shù)發(fā)展的同時提供多元視角的保障。
其實(shí)早在2017年,一些人工智能領(lǐng)域的科學(xué)家、工程師、研究學(xué)者以及科技企業(yè)家們,就建立了確保AI為人類利益服務(wù)的23項原則——“阿西洛馬人工智能原則”,但由于這一原則并沒有被正式采納為全球性的法律,不具有強(qiáng)制性和規(guī)范性,各國實(shí)施情況并不樂觀。因此,在專家學(xué)者自行協(xié)定的原則之外,由能夠頒布限制性文件的國際組織從國際層面發(fā)揮作用更為必要。只有擁有眾多締約國的規(guī)范性文件,才能切實(shí)有效地引導(dǎo)、規(guī)制人工智能技術(shù)的發(fā)展。
在人工智能發(fā)展的全球性趨勢下,往往一個微小的變化就有可能引發(fā)世界范圍的波動與震蕩。在這場與人工智能的博弈中,沒有一個國家能獨(dú)善其身。科技革命加速正在進(jìn)行時,只有各國、各領(lǐng)域、各利益主體共同努力,攜手拉好、拉緊規(guī)范科技發(fā)展的“警戒線”,AI才能行穩(wěn)致遠(yuǎn),一路暢通。