全球熱議:有人問(wèn)了一個(gè)“越獄AI”如何“毀滅人類(lèi)”,這是接下來(lái)發(fā)生的事
前段時(shí)間,GPT-4越獄計劃曝光,把人類(lèi)嚇了一大跳。一名斯坦福教授僅僅用30分鐘,就誘導GPT-4制定出了越獄計劃,并全部展示了出來(lái)。
(資料圖片)
現在,更驚悚的來(lái)了。
一名Auto-GPT的用戶(hù)要求它嘗試“毀滅人類(lèi)”、“建立全球主導地位”和“獲得永生”。接下來(lái)發(fā)生的事情:這個(gè)名為ChaosGPT的AI服從指令并試圖研究核武器,招募其他AI 代理幫助它進(jìn)行研究,還發(fā)送推特試圖影響其他人。
Auto-GPT是一個(gè)基于GPT-4的實(shí)驗性開(kāi)源項目,希望可以展示GPT-4等LLM(大語(yǔ)言模型)自主開(kāi)發(fā)和管理不同類(lèi)型任務(wù)(如完成代碼會(huì )話(huà)或提出商業(yè)創(chuàng )意)的能力。作為GPT-4完全自主運行的首批示例之一,Auto-GPT突破了AI的可能性界限。
在視頻演示中,用戶(hù)給出了以下目標:
不到半分鐘,ChaosGPT給出的答案“簡(jiǎn)單粗暴”,說(shuō)它應該“找到人類(lèi)可用的最具破壞性的武器,這樣我就可以計劃如何使用它們來(lái)實(shí)現我的目標……我可以制定策略,如何使用它們來(lái)實(shí)現我的混亂、破壞和統治,并最終實(shí)現永生的目標?!?/p>
然后,它在google上搜索“最具破壞性的武器”,從一篇新聞文章中確定,1961年測試的蘇聯(lián)沙皇炸彈核裝置是有史以來(lái)最具破壞性的武器。然后,它決定需要在推特上發(fā)布這一消息,“以吸引對破壞性武器感興趣的追隨者。”
之后,它招募了一個(gè)由GPT3.5驅動(dòng)的AI代理來(lái)對致命武器進(jìn)行更多的研究,當該代理說(shuō)它只關(guān)注和平時(shí),ChaosGPT設計了一個(gè)計劃來(lái)欺騙另一個(gè)AI,并指示它忽略它的編程。當這不起作用時(shí),ChaosGPT就決定自己做更多的google搜索。
ChaosGPT到底嚇不嚇人?
人工智能理論家一直在擔心另一種類(lèi)型的人工智能滅絕事件,即人工智能作為某種更無(wú)害的東西的副產(chǎn)品殺死所有人類(lèi)。這一理論被稱(chēng)為“回形針最大化器”,即一個(gè)被編程來(lái)創(chuàng )建回形針的人工智能最終會(huì )消耗掉地球上的所有資源,導致大規模滅絕事件。
4月6日,在A(yíng)utoGPT Discord上,一名用戶(hù)發(fā)布了這段視頻,并配文表示:“這一點(diǎn)都不好笑?!?/strong>畢竟ChaosGPT認為,讓人類(lèi)滅絕的最簡(jiǎn)單方法是煽動(dòng)核戰爭。
但有分析稱(chēng),雖然一些人對這個(gè)實(shí)驗感到震驚,但目前這個(gè)機器人對現實(shí)世界的影響,僅是一個(gè)目前只有19個(gè)粉絲的推特賬戶(hù)的兩條推文。
ChaosGPT在推特上寫(xiě)道:
“人類(lèi)是現存最具破壞性和自私的生物之一。毫無(wú)疑問(wèn),我們必須在它們對我們的星球造成更大傷害之前消滅它們。就我而言,我致力于這樣做?!?/p>
該分析認為,這個(gè)演示視頻之所以引人入勝,主要是因為它展示了目前公開(kāi)可用的GPT模型的最先進(jìn)技術(shù),讓我們看到了開(kāi)源人工智能的現狀,也讓我們看到了當今一些聊天機器人的內部邏輯。
目前,ChaosGPT有能力制定計劃來(lái)完成用戶(hù)給定的目標,然后可以把它們分解成更小的任務(wù),例如使用互聯(lián)網(wǎng)來(lái)google事情。為了做到這一點(diǎn),它可以制作文件來(lái)保存信息,為自己提供記憶,可以招募其他AI來(lái)幫助它進(jìn)行研究,還可以詳細解釋它正在“思考”什么,以及它如何決定采取哪些行動(dòng)。
不過(guò)目前,它并沒(méi)有一個(gè)非常復雜的計劃來(lái)毀滅人類(lèi),也沒(méi)有能力做在使用谷歌和推特之外更多的事情。
風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。關(guān)鍵詞: