人工智能會導致人類滅亡嗎?專家稱更擔心虛假信息和操縱用戶

2023-06-04 17:57:27   來源:網(wǎng)易科技   評論:0   [收藏]   [評論]
導讀:  6月4日消息,隨著人工智能技術的快速發(fā)展和普及,很多行內(nèi)人士擔心不加限制的人工智能可能會導致人類滅亡。但專家們表示,人工智能帶來的最大負面影響不太可能是科幻電影中的核戰(zhàn)場面,反而更有可能是虛假信
  6月4日消息,隨著人工智能技術的快速發(fā)展和普及,很多行內(nèi)人士擔心不加限制的人工智能可能會導致人類滅亡。但專家們表示,人工智能帶來的最大負面影響不太可能是科幻電影中的核戰(zhàn)場面,反而更有可能是虛假信息、操縱用戶等造成的社會環(huán)境不斷惡化。

  以下是翻譯內(nèi)容:

  近幾個月來,業(yè)內(nèi)愈發(fā)擔心人工智能。就在本周,300多名行業(yè)領袖發(fā)表了一封聯(lián)名公開信,警告人工智能可能導致人類滅絕,對待人工智能應該像“疫情和核戰(zhàn)”那樣加以嚴肅對待。

  像“人工智能末日”這種術語總會讓人聯(lián)想到科幻電影中機器人統(tǒng)治世界的畫面,但實際上任由發(fā)展的人工智能會帶來哪些后果?專家們說,現(xiàn)實可能不像電影情節(jié)那樣跌宕起伏,不會是人工智能啟動核彈,而是社會基礎環(huán)境逐漸惡化。

  加州大學伯克利分校人工智能安全計劃主任杰西卡·紐曼(Jessica Newman)說:“我不認為人們該擔心人工智能會變壞,或者人工智能會有某種惡意欲望。”“危險來自一些更簡單的東西,那就是人們可能會給人工智能編程,讓它做有害的事情,或者我們最終會把天生不準確的人工智能系統(tǒng)整合到越來越多的社會領域,從而造成傷害。”

  這并不是說我們不應該擔心人工智能。即便末日場景不太可能發(fā)生,強大的人工智能也有能力用錯誤信息問題不斷加劇、操縱人類用戶以及給勞動力市場帶來巨大變化等形式破壞社會穩(wěn)定。

  雖然人工智能技術已經(jīng)存在了幾十年時間,但像ChatGPT這種語言學習模型的普及加劇了人們長期以來的擔憂。紐曼說,與此同時,科技公司爭先恐后將人工智能應用到他們的產(chǎn)品中,相互開展激烈競爭,帶來了一堆麻煩事。

  她說:“我非常擔心我們眼下走的道路。”“對于整個人工智能領域來說,我們正處于一個特別危險的時期,因為這些系統(tǒng)雖然看起來很特別,但仍然非常不準確,并且存在固有漏洞。”

  接受采訪的專家們表示,他們最擔心的有不少方面。

  錯誤和虛假信息

  許多領域早已經(jīng)啟動了所謂的人工智能變革。機器學習技術支撐著社交媒體新聞推送算法,長期以來,人們一直指責這種技術加劇了固有偏見和錯誤信息等問題。

  專家們警告說,隨著人工智能模型的發(fā)展,這些尚未解決的問題只會進一步加劇。最糟糕的情況可能影響到人們理解事實真相和有效信息,從而導致更多基于謊言的事件發(fā)生。專家們表示,錯誤和虛假信息的增加可能引發(fā)進一步的社會動蕩。

  “可以說,社交媒體的崩潰是我們第一次遇到真正愚蠢的人工智能。因為推薦系統(tǒng)實際上只是簡單的機器學習模型,”數(shù)據(jù)科學平臺Anaconda首席執(zhí)行官兼聯(lián)合創(chuàng)始人Peter Wang說。“我們真的徹底失敗了。”

  Peter Wang補充說,這些錯誤可能導致系統(tǒng)陷入永無止境的惡性循環(huán),因為語言學習模型也是在錯誤信息的基礎上進行訓練,為未來模型創(chuàng)造的又是有缺陷的數(shù)據(jù)集。這可能會導致“模型自相殘殺”效應,未來模型會因為過去模型的輸出放大偏差,并永遠受到影響。

  專家們稱,不準確的錯誤信息和容易誤導人們的虛假信息都被人工智能放大了。像ChatGPT這種大語言模型很容易出現(xiàn)所謂的“幻覺”現(xiàn)象,反復捏造杜撰虛假信息。新聞行業(yè)監(jiān)督機構NewsGuard的一項研究發(fā)現(xiàn),幾十個完全由人工智能撰寫材料的在線“新聞”網(wǎng)站中有許多內(nèi)容都存在不準確之處。

  NewsGuard聯(lián)合首席執(zhí)行官戈登·克羅維茨(Gordon Crovitz)和史蒂文·布里爾(Steven Brill)表示,這種系統(tǒng)可能會被壞人利用,故意大規(guī)模傳播錯誤信息。

  克羅維茨說:“一些惡意的行為者可以制造虛假陳述,然后利用這個系統(tǒng)的倍增效應來大規(guī)模傳播虛假信息。”“有人說人工智能的危險被夸大了,但在新聞信息領域,它正在產(chǎn)生驚人影響。”

  全球非營利性機構Partnership on AI的麗貝卡·芬利(Rebecca Finlay)表示:“就更大規(guī)模的潛在危害而言,錯誤信息是人工智能最有可能對個人造成傷害的方面、風險也最高。”“問題是我們?nèi)绾蝿?chuàng)造一個生態(tài)系統(tǒng),讓我們能夠理解什么是真實的?”“我們又該如何驗證我們在網(wǎng)上看到的東西?”

  惡意操縱用戶

  雖然大多數(shù)專家都表示,錯誤信息是最直接和最普遍的擔憂,但關于這項技術可能會在多大程度上對用戶的思想或行為產(chǎn)生負面影響,還存在不少爭議。

  事實上,這些擔憂已經(jīng)帶來了不少悲劇。據(jù)報道,比利時一名男子在得到聊天機器人的鼓動后自殺身亡。還有聊天機器人告訴用戶和他的伴侶分手,或者讓有飲食失調(diào)問題的用戶減肥。

  紐曼說,從設計上講,因為聊天機器人是以對話的形式與用戶交流,可能會產(chǎn)生更多的信任感。

  “大語言模型特別有能力說服或操縱人們在潛移默化中改變他們的信念或行為,”她說。“孤獨和心理健康已經(jīng)是全世界的大問題,我們需要觀察聊天機器人會對世界產(chǎn)生何種認知影響。”

  因此,專家們更擔心的不是人工智能聊天機器人會獲得感知能力并超越人類用戶,而是它們背后的大語言模型可能會操縱人們給自己造成原本沒有的傷害。紐曼說,那些以廣告盈利模式運作的語言模型尤為如此,它們試圖操縱用戶行為,從而盡可能長時間地使用平臺。

  紐曼表示:“在很多情況下,給用戶造成傷害也不是因為他們想要這樣做,而是系統(tǒng)未能遵循安全協(xié)議造成的后果。”

  紐曼補充說,聊天機器人的類人特性使用戶特別容易受到操縱。

  她說:“如果你和一個使用第一人稱代詞的東西交談,談論它自己的感受和所處情境,即使明知道它不是真實的,仍然更有可能引發(fā)一種它像人類的反應,讓人們更容易想要相信它。”“語言模型讓人們愿意信任它,把它當成朋友,而不是工具。”

  勞動力問題

  長期存在的另一個擔憂是,數(shù)字自動化將取代大量人類工作。一些研究得出結論,到2025年,人工智能將在全球范圍內(nèi)取代8500萬個工作崗位,未來將取代超過3億個工作崗位。

  受人工智能影響的行業(yè)以及崗位非常多,有編劇也有數(shù)據(jù)科學家,F(xiàn)如今,人工智能可以像真正的律師那樣通過律師考試,還能比真正的醫(yī)生更好回答健康方面的問題。

  專家們發(fā)出警告,人工智能的崛起可能會導致出現(xiàn)大規(guī)模失業(yè),從而造成社會不穩(wěn)定。

  Peter Wang警告說,大規(guī)模裁員在不久將來就會發(fā)生,“許多工作崗位都面臨風險”,而且?guī)缀鯖]有任何計劃應對后果。

  他說:“在美國,沒有關于人們失業(yè)時如何生存的框架。”“這將導致很多混亂和動蕩。對我來說,這是由此產(chǎn)生的最具體、最現(xiàn)實的意外后果。”

  未來怎么辦

  盡管人們越來越擔心科技行業(yè)和社交媒體帶來的負面影響,但在美國,監(jiān)管科技行業(yè)和社交媒體平臺的措施卻很少。專家們擔心人工智能也是如此。

  Peter Wang說:“我們許多人擔心人工智能發(fā)展的原因之一是,在過去的40年時間里,作為一個社會,美國基本上放棄了對科技的監(jiān)管。”

  盡管如此,近幾個月來美國國會已經(jīng)有了一番積極動作,舉行聽證會,讓OpenAI首席執(zhí)行官薩姆·奧爾特曼(Sam Altman)就應該實施的監(jiān)管措施作證。芬利表示,她對這些舉措感到“鼓舞”,但在制定人工智能技術規(guī)范以及如何發(fā)布方面,還需要做更多工作。

  她說:“很難預測立法和監(jiān)管部門的反應能力。”“我們需要對這種水平的技術進行嚴格審查。”

  盡管人工智能的危害是行業(yè)內(nèi)大多數(shù)人最關心的問題,但并非所有專家都是“末日論者”。許多人也對這項技術的潛在應用感到興奮。

  Peter Wang說:“實際上,我認為新一代人工智能技術真的可以為人類釋放出巨大的潛力,讓人類社會以更大規(guī)模繁榮起來,要超出過去100年甚至200年的水平。”“實際上,我對它的積極影響非常非常樂觀。”(辰辰)

分享到:
責任編輯:zsz

網(wǎng)友評論