用“科技向善”約束AI不當(dāng)濫用風(fēng)險(xiǎn)
(資料圖片僅供參考)
原標(biāo)題:用“科技向善”約束AI不當(dāng)濫用風(fēng)險(xiǎn)
數(shù)字化3.0時(shí)代,人類生活越來越離不開人工智能。但無論是深度合成技術(shù)存在被“惡用”,還是虛擬人取代部分真人職業(yè)帶來的誤導(dǎo)效果,都顯示了人工智能被濫用惡用的風(fēng)險(xiǎn)。善用人工智能價(jià)值的同時(shí)也要遏制濫用惡用風(fēng)險(xiǎn),確保技術(shù)被用來造福社會(huì)而非用于作假作惡,目前已成社會(huì)多方的共識(shí)。
隨著ChatGPT、GPT-4與文心一言等相繼問世,人工智能正越來越多地嵌入大眾生活,諸如AI換臉、三維重建、智能對(duì)話、虛擬代言人之類的應(yīng)用場(chǎng)景,亦漸次從科幻片照進(jìn)現(xiàn)實(shí)。它連著的,也是新一輪科技革命和產(chǎn)業(yè)變革的宏闊圖景。但人工智能技術(shù)的跨越性突破,也會(huì)帶來很多不容小覷的風(fēng)險(xiǎn)。現(xiàn)實(shí)中,利用人工智能技術(shù)侵犯?jìng)€(gè)體隱私、實(shí)施網(wǎng)絡(luò)詐騙等情況時(shí)有曝光,由此引發(fā)的社會(huì)顧慮就擺在那。
亞里士多德說:一切技術(shù)、一切規(guī)劃以及一切實(shí)踐和抉擇,都以某種善為目標(biāo)。只有將人工智能發(fā)展引向科技向善的軌道中來,才能避免ChatGPT變CheatGPT,人工智能成為作惡工具。而這,需要企業(yè)、公眾和監(jiān)管方等多方圍繞推動(dòng)科技向善目標(biāo)相向而行。
法律學(xué)者馬長(zhǎng)山曾表示,在算法治理過程中,應(yīng)適時(shí)確立數(shù)字正義原則,框定數(shù)字正義領(lǐng)域,探索數(shù)字正義實(shí)現(xiàn)路徑,從而構(gòu)建科技向善、以人為本的算法治理秩序,促進(jìn)我國(guó)的數(shù)字法治建設(shè)。這要求我們建立起相應(yīng)的監(jiān)管機(jī)制、自律機(jī)制、社會(huì)監(jiān)督機(jī)制和司法保障機(jī)制。這類原則,顯然該貫穿于人工智能技術(shù)發(fā)展與監(jiān)管的始終。
揆諸現(xiàn)實(shí),從“民權(quán)保護(hù)之母”《民法典》,到作為信息保護(hù)根本大法的《個(gè)人信息保護(hù)法》,再到今年1月10日起施行的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,我國(guó)涉及AI規(guī)范使用的法律體系正不斷完善。這也為AI善用提供了現(xiàn)實(shí)指引。
人工智能的算法有弊端有不足,那就用更高階的“算法”來消解——這套“算法”的核心就是以人為本。某種程度上,這也是“科技向善”的正確打開方式。(佘宗明)
標(biāo)簽: