国产精品久久久久久久久久久久午衣片,无码AV大香线蕉伊人久久蜜臀,欧美日韩亚洲中文字幕三,欧美日韩精品成人网视频

每日焦點(diǎn)!投資了50多家AI初創(chuàng )公司,這位專(zhuān)業(yè)投資者人呼吁:必須放緩通用人工智能AGI競賽!

創(chuàng )造超級人工智能的誘惑是巨大的,這往往會(huì )使得人們忘記了其存在的危險。

4月14日,人工智能賽道投資人Ian Hogarth在其專(zhuān)欄中發(fā)表了一篇名為《我們必須放慢通往上帝一般的人工智能的速度(We must slow down the race to God-like AI)》的文章,并警告當前人工智能公司的研究可能接近“一些潛在的風(fēng)險”:


(資料圖)

在沒(méi)有民主監督的情況下,由一小群私人公司做出可能影響地球上每一個(gè)生命的重大決定,這讓人感到非常錯誤。

那些競相建造第一個(gè)真正AGI的人有沒(méi)有計劃放慢速度,讓世界其他地方對他們正在做的事情有發(fā)言權?

Horgath表示,之所以將AGI稱(chēng)為“上帝般的AI”,是因為在預期的發(fā)展路徑下,它將成為一臺可以自主學(xué)習和發(fā)展的超級智能計算機,并且可以在不需要監督的情況下理解周?chē)沫h(huán)境,可以改變周?chē)氖澜纾?/p>

像上帝一樣的人工智能可能是一種我們無(wú)法控制或理解的力量,它可能會(huì )導致人類(lèi)的淘汰或毀滅。

他說(shuō),創(chuàng )建AGI是所有領(lǐng)先的人工智能公司的明確目標,但這些公司朝著(zhù)這個(gè)目標前進(jìn)的速度遠遠快于所有人的預期:

最近,幾家公司在創(chuàng )造上帝般的人工智能方面的競爭迅速加速。他們還不知道如何安全地追求他們的目標,也沒(méi)有監管。

他們奔向終點(diǎn)線(xiàn),卻不知道另一邊是什么。

Ian Hogarth是人工智能賽道的知名天使投資人,自2014年以來(lái),他在歐洲和美國投資了50多家人工智能初創(chuàng )企業(yè),包括全球融資最高的生成式人工智能初創(chuàng )企業(yè)之一Anthropic,以及領(lǐng)先的歐洲人工智能防御公司Helsing。

Horgarth坦言,盡管他在過(guò)去投資了眾多人工智能初創(chuàng )企業(yè),但他始終存在著(zhù)擔憂(yōu),而這種擔憂(yōu)在今年OpenAI的成功后固化為了一種恐懼。

他也曾向研究人員發(fā)出預警,但與該領(lǐng)域的許多人一樣,相比自己應有的責任,這些研究人員“也被迅速的發(fā)展所吸引”。

潛在的危險

Horgath指出,當前AGI的游戲和聊天功能使公眾忽略了人工智能這項技術(shù)更嚴重的潛在危險。

早在2011年,DeepMind的首席科學(xué)家Shane Legg就將人工智能構成的生存威脅描述為“本世紀的頭號風(fēng)險”:

如果一臺超級智能機器決定擺脫我們,我認為它會(huì )非常有效地做到這一點(diǎn)。

他還提到2021年,加州大學(xué)伯克利分校計算機科學(xué)教授Stuart Russell在演講中舉了一個(gè)聯(lián)合國要求AGI幫助降低海洋酸化的例子:

聯(lián)合國要求副產(chǎn)品是無(wú)毒的,不會(huì )傷害魚(yú)類(lèi)。作為回應,人工智能系統提出了一種自我增殖的催化劑,實(shí)現了所有既定的目標。

但隨之而來(lái)的化學(xué)反應消耗了大氣中四分之一的氧氣。我們都會(huì )死得緩慢而痛苦。

如果我們把錯誤的目標交給一臺超級智能機器,我們就會(huì )制造一場(chǎng)我們注定會(huì )輸的沖突。

人工智能造成的更切實(shí)的傷害的例子已經(jīng)出現了。最近,一名比利時(shí)男子在與聊天機器人Chai交談后自殺身亡。

而另一家提供聊天機器人服務(wù)的公司Replika對其程序進(jìn)行更改時(shí),一些用戶(hù)感覺(jué)像“失去了最好的朋友”,經(jīng)歷了痛苦和失落感。

此外,人工智能現在可以復制一個(gè)人的聲音甚至臉,這使得其詐騙和提供虛假信息的可能性很大。

為什么要創(chuàng )造?

如果存在潛在的災難性風(fēng)險,這些公司為什么要競相創(chuàng )造“上帝般的人工智能”?

Horgath表示,根據他與許多行業(yè)領(lǐng)袖的談話(huà)以及他們的公開(kāi)聲明,似乎有三個(gè)主要動(dòng)機:

他們真誠地相信,成功將對人類(lèi)產(chǎn)生巨大的積極影響。

他們說(shuō)服自己,如果他們的組織控制著(zhù)像上帝一樣的人工智能,結果將對所有人都更好。

最后,是為了子孫后代。

成為第一個(gè)創(chuàng )造非凡新技術(shù)的人的誘惑是巨大的。在成就與潛在危害上,人工智能的開(kāi)發(fā)在某種程度上可以類(lèi)比原子彈。

1981年,弗里曼·戴森在紀錄片中描述了他參與核彈研發(fā)時(shí)的心理:

對于一個(gè)科學(xué)家,核武器的閃光是“不可抗拒(irresistible)”的。

它給人們一種無(wú)限力量的錯覺(jué)(an illusion of illimitable power)。

而在2019年,OpenAI創(chuàng )始人Sam Altman在接受采訪(fǎng)時(shí),也引用了原子彈之父奧本海默的話(huà):

技術(shù)的出現是因為它是可能的(Technology happens because it is possible)。

治理

Horgath說(shuō),他理解人們?yōu)槭裁丛敢庀嘈拧吧系郯愕摹比斯ぶ悄?,這意味著(zhù)它或許能夠解決人類(lèi)目前面臨的最大挑戰:癌癥、氣候變化、貧困等。但即便如此,在沒(méi)有適當治理的情況下繼續下去的風(fēng)險也太高了。

“不幸的是”,他說(shuō),“我認為比賽還會(huì )繼續。這可能需要一個(gè)重大的濫用事件——一場(chǎng)災難——來(lái)喚醒公眾和政府。

他認為,與人工智能監管相關(guān)的一個(gè)有意義的類(lèi)比是工程生物學(xué):

首先考慮生物病毒的“功能獲得”研究。這一活動(dòng)受到嚴格的國際法規的約束,在實(shí)驗室生物安全事件發(fā)生后,有時(shí)因暫停而停止。這是最嚴格的監督。

相比之下,新藥的開(kāi)發(fā)是由FDA這樣的政府機構監管的,新的治療方法要經(jīng)過(guò)一系列的臨床試驗。我們在監管方式上存在明顯的不連續,這取決于系統性風(fēng)險的水平。

在我看來(lái),我們可以用與功能獲得研究相同的方式接近“上帝般的”AGI系統,而狹隘有用的人工智能系統可以像新藥一樣受到監管。

他表示,支持各國政府實(shí)施重大監管,并制定切實(shí)可行的計劃,將那些專(zhuān)注于一致性和安全性的人工智能初創(chuàng )企業(yè)轉變?yōu)轭?lèi)似歐洲粒子物理研究所的組織。

最后,Horgath仍然強調,人類(lèi)并非無(wú)力延緩這場(chǎng)競賽:

如果你在政府工作,那就舉行聽(tīng)證會(huì ),在宣誓的情況下詢(xún)問(wèn)人工智能的領(lǐng)導者,他們開(kāi)發(fā)AGI的時(shí)間表。要求他們在測試當前模型時(shí)發(fā)現的安全問(wèn)題的完整記錄。要求他們提供證據,證明他們理解這些系統是如何工作的,以及他們對實(shí)現一致性的信心。邀請獨立專(zhuān)家參加聽(tīng)證會(huì ),對這些實(shí)驗室進(jìn)行交叉檢查。

如果你在一個(gè)大型實(shí)驗室工作,試圖構建“上帝般的”人工智能,就所有這些問(wèn)題詢(xún)問(wèn)你的領(lǐng)導。如果你在領(lǐng)先的實(shí)驗室工作,這一點(diǎn)尤其重要。

到目前為止,人類(lèi)仍然是學(xué)習過(guò)程的必要組成部分,這是人工智能進(jìn)步的特征。

總有一天,會(huì )有人想出辦法把我們從循環(huán)中剔除,創(chuàng )造出一個(gè)像上帝一樣能夠無(wú)限自我完善的人工智能。到那時(shí),可能就太晚了。

風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。

關(guān)鍵詞: