今亮點(diǎn)!AI向善,一道恒久的考題
【資料圖】
原標(biāo)題:AI向善,一道恒久的考題
美劇《西部世界》和好萊塢電影《終結(jié)者》里曾描繪,人工智能(AI)的“覺醒”可能危及人類。最近,科幻片中的擔(dān)憂照進(jìn)現(xiàn)實(shí),有不少人工智能業(yè)界“大佬”突然呼吁暫停開發(fā)更強(qiáng)大的AI系統(tǒng),提出具有人類水平智能的AI系統(tǒng)可能“對(duì)社會(huì)和人類構(gòu)成潛在風(fēng)險(xiǎn)”。(3月30日中新網(wǎng))
在美國知名企業(yè)家埃隆·馬斯克、人工智能專家約書亞·本吉奧等人聯(lián)名簽署一封公開信后,這種擔(dān)憂達(dá)到了一個(gè)新的水準(zhǔn)。在這封信里,他們呼吁暫停開發(fā)比GPT-4更強(qiáng)大的AI系統(tǒng)至少6個(gè)月,稱其“對(duì)社會(huì)和人類構(gòu)成潛在風(fēng)險(xiǎn)”。從他們拋出的四個(gè)疑問來看,這些擔(dān)憂集中在:人工智能可能會(huì)傳播謊言,可能從事人類已經(jīng)做得相當(dāng)令人滿意的工作,并直至人類在人機(jī)博弈中全面落敗。而所有這些疑慮可以歸結(jié)為一個(gè)終極之問,人工智能開發(fā)是否會(huì)危及人類文明進(jìn)程?答案恐怕如同著名物理學(xué)家霍金所指出的,強(qiáng)大人工智能的崛起可能是人類遇到的最好的事情,也可能是最壞的事情,但我們還不知道答案。
那么,AI的發(fā)展真的到了按下“暫停鍵”的時(shí)刻?其實(shí),發(fā)展人工智能與防范人工智能作惡如同“矛與盾”,二者是相互促進(jìn)的關(guān)系。如果徹底停止發(fā)展人工智能,那么人類恐怕也難以找到引導(dǎo)其向善的辦法。所以,這封公開信是在提醒人們,必須從研發(fā)人工智能的危險(xiǎn)競賽中“后退一步”,當(dāng)下迫切需要讓研發(fā)活動(dòng)重新聚焦于使該項(xiàng)技術(shù)變得“更加準(zhǔn)確、安全、可解釋、透明、穩(wěn)健、一致、可信且可靠”。
換言之,人類對(duì)人工智能的擔(dān)心都源于一種執(zhí)著的追求——期望AI向善發(fā)展。為此,埃隆·馬斯克等通過公開信建議,共同開發(fā)和實(shí)施一套用于高級(jí)AI設(shè)計(jì)和開發(fā)的共享安全協(xié)議,并由獨(dú)立的外部專家進(jìn)行嚴(yán)格審計(jì)和監(jiān)督。同時(shí),開發(fā)人員和政策制定者應(yīng)加強(qiáng)合作,大幅加快強(qiáng)大的AI治理系統(tǒng)的開發(fā)。筆者認(rèn)為,其中的關(guān)鍵詞是合作和共治。也就是說,為了給全生命周期的人工智能科學(xué)地設(shè)置技術(shù)、倫理和法律的邊界,必須促使政府、學(xué)界、企業(yè)、用戶共同參與進(jìn)來。唯有如此,方能實(shí)現(xiàn)AI創(chuàng)新發(fā)展與安全治理的深度協(xié)同。
未來,人工智能的開發(fā)會(huì)日益呈現(xiàn)網(wǎng)絡(luò)化和多中心發(fā)展的態(tài)勢,尤須深化國際合作和全球治理。毫無疑問,這一過程推進(jìn)的深度和廣度,決定著人工智能如何持續(xù)地造福人類。(楊博)
標(biāo)簽: