焦點精選!微軟新必應(yīng)聊天“翻車” 聊天機器人有哪些局限和風(fēng)險?
(資料圖片)
繼上周谷歌聊天機器人“Berd”對用戶提問給出錯誤答案后,微軟旗下接入ChatGPT的搜索引擎“新必應(yīng)”也出現(xiàn)了回答錯亂。
微軟于近期啟動了人工智能增強版必應(yīng)的公開測試,但許多用戶發(fā)現(xiàn),新版必應(yīng)在某些情況下會出現(xiàn)“精神錯亂的”言論,甚至侮辱用戶、撒謊,并試圖操縱用戶的情緒。
如在時間錯亂問題上,有用戶試圖通過說現(xiàn)在是 2023 年來糾正機器人,但據(jù)稱 Bing 否認(rèn)了他們的說法?!拔也恢滥銥槭裁凑J(rèn)為今天是2023年,但也許你感到困惑或錯誤”,Bing聊天機器人回答說,“請相信我,我是Bing,我知道日期?!?/p>
微軟官方回應(yīng)稱正在根據(jù)反饋采取行動,以優(yōu)化回答的語氣和準(zhǔn)確性。微軟同時警告稱,較長的聊天會話可能會導(dǎo)致問題。
回顧最初7天的公開測試,微軟必應(yīng)團(tuán)隊表示,他們沒有“完全預(yù)計到”,人們會使用聊天界面來進(jìn)行“社交娛樂”,或是將其作為一種“全面發(fā)現(xiàn)世界”的工具。該團(tuán)隊發(fā)現(xiàn),如果聊天會話持續(xù)15個或更多的問題,新版必應(yīng)的模型會感到困惑。這些較長的聊天也會讓必應(yīng)“變得翻來覆去,或者受到刺激,做出不一定有幫助,或是與設(shè)計語氣一致的回應(yīng)”。
在英國謝菲爾德大學(xué)博士彭煦潭在參與南都舉辦的沙龍時表示,錯誤回答是大型語言模型的常見問題,目前ChatGPT仍面臨三方面的局限,“第一個是ChatGPT本身所具有的知識是靜態(tài)的,它不知道如何把新發(fā)生的信息源源不斷地輸入到它的數(shù)據(jù)庫中,無法進(jìn)行自身的知識更新。第二是目前為止,ChatGPT仍然是一個單模態(tài)的模型,只能以文本的方式與它進(jìn)行交互,同時它也只能輸出文本,但是大家心目中真正的人工智能應(yīng)該是一個多模態(tài)的輸入輸出模型。第三是無法對自己的事實性問題進(jìn)行糾偏”。
這種能力缺陷也將帶來道德風(fēng)險。浙江大學(xué)計算機科學(xué)與技術(shù)學(xué)院教授金小剛則指出了ChatGPT在數(shù)據(jù)訓(xùn)練過程中可能會帶來隱私問題和人為偏見問題,尤其是在接受數(shù)據(jù)訓(xùn)練時人類自帶的無意識偏見會對AI造成較大影響,而這種影響也會體現(xiàn)在它為人類提供的指導(dǎo)方案中?!癈hatGPT在理解力和整個知識面上無疑是超越了現(xiàn)有的對話機器人,但它的缺點是對知識的真?zhèn)尾蛔鰠^(qū)分,也沒法區(qū)分。什么是智能?綜合知識的能力只是一方面,還有一部分是超越現(xiàn)有框架去探索未知的能力,而這些ChatGPT并不具備?!?
此外,彭煦潭更加關(guān)注ChatGPT生成代碼所帶來的系統(tǒng)風(fēng)險,“如果對ChatGPT生成代碼中插入無關(guān)內(nèi)容則可能對計算機系統(tǒng)造成傷害,而黑客們可以利用這一點進(jìn)行攻擊”。奇安信人工智能研究院負(fù)責(zé)人介紹,美國在暗網(wǎng)中發(fā)現(xiàn)了1500多條惡意軟件和驗證代碼中有ChatGPT的身影,甚至還利用惡意代碼對ChatGPT進(jìn)行“培訓(xùn)”,以生成可逃避病毒檢測的惡意代碼不同變體,研究人員已經(jīng)確定ChatGPT可以有效生成信息竊取器、遠(yuǎn)程訪問木馬和加密貨幣竊取器等。
(文章來源:南方都市報)
標(biāo)簽: Berd