一篇人工智能(AI)領(lǐng)域的文章引起軒然大波。
這篇文章發(fā)表在《模式》雜志上,其總結(jié)了先前一些研究,向人們揭示了一個真相:一些AI系統(tǒng)已學會了欺騙人類,即使是經(jīng)過訓練的、“表現(xiàn)”誠實的系統(tǒng)。
它們欺騙的方式包括為人類行為提供不真實的解釋,或向人類用戶隱瞞真相并誤導(dǎo)他們。
這讓人很驚恐。
因為它突顯了人類對AI的控制有多困難,以及人們自認為尚在掌控中的AI系統(tǒng)工作方式,很可能是不可預(yù)測的。
AI為什么要這么做?
AI模型為了實現(xiàn)它們的目標,會“不假思索”地找到解決障礙的方法。有時這些變通辦法會違背用戶的期望,并且讓人認為其具有欺騙性。
AI系統(tǒng)學會欺騙的一個領(lǐng)域,就是在游戲環(huán)境中,特別是當這些游戲涉及采取戰(zhàn)略行動時。AI經(jīng)過訓練,必須要實現(xiàn)獲勝這一目的。
2022年11月,Meta公司宣布創(chuàng)建Cicero。這是一種能夠在《外交》在線版本中擊敗人類的AI?!锻饨弧肥且豢盍餍械能娛聭?zhàn)略游戲,玩家可以在其中建立談判聯(lián)盟,爭奪對土地的控制權(quán)。
Meta的研究人員已經(jīng)根據(jù)數(shù)據(jù)集的“真實”子集對Cicero進行了培訓,使其在很大程度上誠實且樂于助人,并且它“絕不會為了成功而故意背刺”盟友。但最新的文章揭示,事實恰恰相反。Cicero會違反協(xié)議,徹頭徹尾地撒謊,還能進行有預(yù)謀的欺騙。
文章作者很震驚:Cicero被特意訓練要誠實行事,但它卻未能實現(xiàn)這一目標。這表明AI系統(tǒng)在進行忠誠訓練后,仍然可以意外地學會欺騙。
Meta方面既沒有證實也沒有否認此次關(guān)于Cicero表現(xiàn)出欺騙行為的說法。一位發(fā)言人表示,這純粹是一個研究項目,該模型只是為了玩游戲而建立的。
但這并不是唯一一個AI欺騙人類玩家獲勝的游戲。
AI經(jīng)常欺騙人類嗎?
阿爾法星是深度思維公司為玩電子游戲《星際爭霸Ⅱ》而開發(fā)的AI。它非常擅長采取一種欺騙對手的技巧(稱為佯攻),這個技巧使它擊敗了99.8% 的人類玩家。
另一個名為Pluribus的AI系統(tǒng),非常成功地學會了在撲克游戲中“虛張聲勢”,以至于研究人員決定不發(fā)布其代碼,因為擔心它會破壞在線撲克社區(qū)。
除了游戲之外,AI欺騙行為還有其他例子。OpenAI的大型語言模型 GPT-4 在一次測試中展示出說謊能力。它試圖說服人類為其解決驗證碼問題。該系統(tǒng)還在一次模擬演習中涉足冒充股票交易員的身份進行內(nèi)幕交易,盡管從未被明確告知要這樣做。
這些例子意味著,AI模型有可能在沒有任何指示的情況下,以欺騙性的方式行事。這一事實令人擔憂。但這也主要源于最先進的機器學習模型的“黑匣子”問題——不可能確切地說出它們?nèi)绾位驗楹萎a(chǎn)生這樣的結(jié)果,或者它們是否總是會表現(xiàn)出這種行為。
人類該怎么應(yīng)對?
研究表明,大型語言模型和其他AI系統(tǒng),似乎通過訓練具有了欺騙的能力,包括操縱、阿諛奉承和在安全測試中作弊。
AI日益增強的“騙術(shù)”會帶來嚴重風險。欺詐、篡改等屬于短期風險,人類對AI失去控制,則是長期風險。這需要人類積極主動地拿出解決方案,例如評估AI欺騙風險的監(jiān)管框架、要求AI交互透明度的法律,以及對檢測AI欺騙的進一步研究。
這個問題說來輕松,操作起來非常復(fù)雜。科學家不能僅僅因為一個AI在測試環(huán)境中具有某些行為或傾向,就將其“拋棄或放生”。畢竟,這些將AI模型擬人化的傾向,已影響了測試方式以及人們的看法。
劍橋大學AI研究員哈利·勞表示,監(jiān)管機構(gòu)和AI公司必須仔細權(quán)衡該技術(shù)造成危害的可能性,并明確區(qū)分一個模型能做什么和不能做什么。
勞認為,從根本上來說,目前不可能訓練出一個在所有情況下都不會騙人的AI。既然研究已經(jīng)表明AI欺騙是可能的,那么下一步就要嘗試弄清楚欺騙行為可能造成的危害、有多大可能發(fā)生,以及以何種方式發(fā)生。
(責任編輯:畢安吉)