国产精品久久久久久久久久久久午衣片,无码AV大香线蕉伊人久久蜜臀,欧美日韩亚洲中文字幕三,欧美日韩精品成人网视频

天天看熱訊:OpenAI首席科學(xué)家:AI幻覺(jué)是個(gè)大問(wèn)題,但很有可能被「治愈」

Craig S. Smith 是《紐約時(shí)報》的前記者和高管,是「 Eye on AI 」播客的主持人。不久之前,他采訪(fǎng)了 OpenAI 的聯(lián)合創(chuàng )始人 Ilya Stutskever。本文是對此次采訪(fǎng)內容的整理,英文首發(fā)于 Forbes,機器之心經(jīng)授權發(fā)布。


(相關(guān)資料圖)

當我們飛速邁向人工智能的未來(lái)時(shí),很多評論家都在大聲質(zhì)疑我們是否發(fā)展得太快?科技巨頭、研究者和投資者都似乎在瘋狂開(kāi)發(fā)最先進(jìn)的人工智能。很多人擔心他們是否考慮過(guò) AI 帶來(lái)的風(fēng)險呢?

這個(gè)問(wèn)題并非完全無(wú)解??梢苑判?,有數百個(gè)聰明的頭腦正在考慮反烏托邦可能性以及避免它們的方法。但未來(lái)就是未知,ChatGPT 這種強大新技術(shù)的影響與互聯(lián)網(wǎng)出現時(shí)一樣難以想象——有好的,也會(huì )有壞的。未來(lái)也肯定會(huì )有強大的人工智能系統,我們的孫子輩甚至會(huì )有更加強大的人工智能。這是無(wú)法阻止的。

我曾與 OpenAI 的聯(lián)合創(chuàng )始人 Ilya Stutskever 談過(guò)這項新技,就在 OpenAI 的巨型人工智能系統 GPT-4 發(fā)布之前。

GPT 是生成式預訓練 Transformer(Generative Pre-trained Transformer)的縮寫(xiě),這三個(gè)重要的單詞可以幫助我們理解這個(gè)荷馬史詩(shī)般的波呂斐摩斯:

Transformer 是這個(gè)巨型系統核心算法的名稱(chēng)、預訓練(Pre-trained 是指通過(guò)大量文本語(yǔ)料庫進(jìn)行訓練,讓它理解語(yǔ)言的基本模式和關(guān)系——簡(jiǎn)而言之,讓它了解世界。生成( Generative ),意味著(zhù)這種人工智能可以從這個(gè)基礎知識中創(chuàng )造新的思想。

人工智能已經(jīng)接管了我們生活的許多方面。但即將到來(lái)的AI更先進(jìn)、 也更強大。我們正在進(jìn)入未知的領(lǐng)域。值得花一點(diǎn)時(shí)間考慮一下這意味著(zhù)什么。但同樣重要的是不要反應過(guò)度,不要像烏龜一樣躲避正照耀我們的陽(yáng)光。在荷馬的史詩(shī)《奧德賽》中,獨眼巨人波呂斐摩斯把奧德修斯和他的船員困在他的洞穴里,打算吃掉他們。但是奧德修斯設法讓這個(gè)巨人失明并逃脫了。人工智能不會(huì )吃掉我們。

Ilya Sutskever 是 OpenAI 的聯(lián)合創(chuàng )始人和首席科學(xué)家,是大型語(yǔ)言模型 GPT-4 和 ChatGPT 的核心成員之一,可以毫不夸張地說(shuō),他正在改變世界。

這不是 Ilya 第一次改變世界了。他是卷積神經(jīng)網(wǎng)絡(luò ) AlexNet 的主要推動(dòng)力量,其驚人的性能在 2012 年震驚了科學(xué)界,引發(fā)了深度學(xué)習革命。

以下是對話(huà)的編輯記錄。

Ilya Sutskever,OpenAI 的聯(lián)合創(chuàng )始人和首席科學(xué)家

CRAIG:Ilya,我知道你出生在俄羅斯。你是因為對計算機科學(xué)感興趣還是其他原因,比如神經(jīng)科學(xué),才進(jìn)入這個(gè)領(lǐng)域的呢?

ILYA:確實(shí),我出生在俄羅斯。我在以色列長(cháng)大,然后少年時(shí),我的家人移民到了加拿大。我父母說(shuō)我從小就對人工智能感興趣。我也對意識非常感興趣,它讓我感到非常不安,我很好奇什么可以幫助我更好地理解它。

我17歲時(shí)就開(kāi)始和 Geoff Hinton(深度學(xué)習的創(chuàng )始人之一,當時(shí)是多倫多大學(xué)的教授)一起工作了。因為我們搬到了加拿大,我立刻就能加入多倫多大學(xué)。我真的很想做機器學(xué)習,因為它是人工智能最重要、也很難企及的部分。

我們現在認為計算機可以學(xué)習,但是在 2003 年,我們認為計算機無(wú)法學(xué)習。當時(shí)人工智能的最大成就是 Deep Blue( IBM 的)象棋引擎(在1997 年擊敗世界冠軍加里·卡斯帕羅夫)。?

這只是用一種簡(jiǎn)單的方法來(lái)確定一個(gè)位置是否比另一個(gè)位置更好,不可能適用于現實(shí)世界,因為沒(méi)有學(xué)習。學(xué)習是一個(gè)巨大的謎團,很感興趣。我運氣很好,Geoff Hinton 正好是大學(xué)的教授,一拍即合,我加入了他們的團隊。

那么智能是如何工作的呢?我們如何讓計算機變得更加智能?我的意圖很明確,就是為人工智能做出非常小但真正的貢獻。能否理解智能如何工作并為之做出貢獻?這就是我的最初動(dòng)機。這幾乎是 20 年前的事了。

簡(jiǎn)而言之,我意識到,如果你在一個(gè)足夠大的數據集上訓練一個(gè)大型深度神經(jīng)網(wǎng)絡(luò )來(lái)完成某些復雜任務(wù),比如視覺(jué)任務(wù),你必然會(huì )成功。這樣做的邏輯是不可約的( irreducible );我們知道人類(lèi)的大腦可以解決這些任務(wù),并且可以快速地解決它們。而人類(lèi)的大腦只是一個(gè)由慢神經(jīng)元構成的神經(jīng)網(wǎng)絡(luò )。

所以,我們只需要拿一個(gè)較小但相關(guān)的神經(jīng)網(wǎng)絡(luò ),用數據來(lái)訓練它。計算機內部最好的神經(jīng)網(wǎng)絡(luò )將與我們大腦中執行此任務(wù)的神經(jīng)網(wǎng)絡(luò )相關(guān)。

CRAIG:2017年?Attention Is All You Need?論文問(wèn)世,介紹了自我注意和 transformers。GPT項目是在什么時(shí)候開(kāi)始的?你對 transformers有什么直覺(jué)嗎?

ILYA:從 OpenAI 成立之初起,我們就在探索一個(gè)想法,即預測下一個(gè)東西就是你所需的一切。我們用當時(shí)更受限制的神經(jīng)網(wǎng)絡(luò )探索這個(gè)想法,如果你有一個(gè)神經(jīng)網(wǎng)絡(luò )可以預測下一個(gè)單詞,它將解決無(wú)監督學(xué)習。所以,在 GPT之前,無(wú)監督學(xué)習被認為是機器學(xué)習的圣杯。

現在它已經(jīng)被完全解決,甚至沒(méi)有人談?wù)撍?,但它曾是一個(gè)神秘的問(wèn)題,因此我們在探索這個(gè)想法。我非常興奮,因為預測下一個(gè)單詞足夠好,將為你提供無(wú)監督學(xué)習。

但我們的神經(jīng)網(wǎng)絡(luò )無(wú)法勝任此任務(wù)。我們使用的是遞歸神經(jīng)網(wǎng)絡(luò )。當 transformer 出現時(shí),就在論文發(fā)表的第二天,我們立即意識到,transformers 解決了遞歸神經(jīng)網(wǎng)絡(luò )的局限性,解決了學(xué)習長(cháng)程依賴(lài)關(guān)系( long-term dependencies)的問(wèn)題。

這是一個(gè)技術(shù)問(wèn)題。我們立即轉向 transformers。因此,新生的 GPT 項目開(kāi)始使用transformer。它開(kāi)始工作得更好,當你不斷讓它變得更大后。

這就導致最終的 GPT-3,基本上是我們今天所處的位置。

CRAIG:目前既有大型語(yǔ)言模型的局限性在于它們的知識被包含在訓練它們的語(yǔ)言中。而大部分人類(lèi)知識,我認為每個(gè)人都會(huì )同意,是非語(yǔ)言的。

它們的目標是滿(mǎn)足提示的統計意義上的一致性,對語(yǔ)言所關(guān)聯(lián)的現實(shí)并沒(méi)有潛在的理解。我問(wèn) ChatGPT 關(guān)于我自己的情況。它知道我是一名記者,在不同的報紙工作過(guò),但它不停地談?wù)撐覐奈传@得過(guò)的獎項,讀起來(lái)很漂亮,但很少與潛在的現實(shí)聯(lián)系起來(lái)。在你未來(lái)的研究中有沒(méi)有什么方法來(lái)解決這個(gè)問(wèn)題?

ILYA:我們有多大把握認為今天看到的這些局限性?xún)赡旰笕詫⒋嬖??我并不那么有信心。我還想對一個(gè)問(wèn)題的某一部分發(fā)表評論,即這些模型只是學(xué)習統計規律,因此它們不真正知道世界的本質(zhì)是什么。

我的觀(guān)點(diǎn)與此不同。換句話(huà)說(shuō),我認為學(xué)習統計規律比人們看到的更重要。

預測也是一個(gè)統計現象。但是要進(jìn)行預測,需要理解生成數據的基本過(guò)程,需要了解更多關(guān)于產(chǎn)生數據的世界的知識。

我認為,隨著(zhù)我們的生成模型變得異常優(yōu)秀,它們對世界及其許多微妙之處的理解將達到令人震驚的程度。它通過(guò)文本的鏡頭看到世界,試圖通過(guò)投射在互聯(lián)網(wǎng)上的文本影子了解更多關(guān)于世界的信息。

但是,這些文本已經(jīng)表達了世界。舉個(gè)最近的例子,很有意思。我們都聽(tīng)說(shuō)過(guò)Sydney(前不久,微軟利用 OpenAI 的新技術(shù)推出了新版必應搜索引擎,其中內置了初始代號為 Sydney 的聊天機器人?!g者注)是它(必應)的化身。當用戶(hù)告訴 Sydney 谷歌是比必應更好的搜索引擎時(shí),Sydney 變得好斗和攻擊性。

如何思考這種現象?這意味著(zhù)什么?您可以說(shuō),它只是預測人們會(huì )做什么,人們確實(shí)會(huì )這樣做,這是真的。但也許我們現在正在達到一個(gè)臨界點(diǎn),開(kāi)始利用心理學(xué)語(yǔ)言來(lái)理解這些神經(jīng)網(wǎng)絡(luò )的行為。

現在讓我們來(lái)談?wù)勥@些神經(jīng)網(wǎng)絡(luò )的局限性。事實(shí)上,這些神經(jīng)網(wǎng)絡(luò )有產(chǎn)生幻覺(jué)的傾向。這是因為語(yǔ)言模型非常擅長(cháng)學(xué)習世界知識,但在生成良好輸出方面則略顯不足。這其中存在一些技術(shù)原因。語(yǔ)言模型在學(xué)習各種思想、概念、人物、過(guò)程等世界知識方面表現非常出色,但其輸出卻沒(méi)有達到預期的水平,或者說(shuō)還有進(jìn)一步提升的空間。

因此,對于像 ChatGPT 這樣的語(yǔ)言模型,我們引入了一種額外的強化學(xué)習訓練過(guò)程,稱(chēng)為「人類(lèi)反饋強化學(xué)習」( Reinforcement Learning from Human Feedback,RLHF )。

在預訓練過(guò)程中,我們希望它能夠學(xué)習關(guān)于世界的一切。而在來(lái)自人類(lèi)反饋的強化學(xué)習中,我們更關(guān)心輸出結果。如果輸出結果不恰當,就不要再這樣做了。這樣它就能夠快速學(xué)會(huì )生成良好的輸出。但這種良好的輸出水平并不在語(yǔ)言模型預訓練過(guò)程中出現。

至于幻覺(jué),它有時(shí)會(huì )胡言亂語(yǔ),這也大大限制了它們的用途。但我非常希望通過(guò)簡(jiǎn)單改進(jìn)后續的人類(lèi)反饋強化學(xué)習,就能教它不再產(chǎn)生幻覺(jué)。你可能會(huì )問(wèn),它真的能學(xué)會(huì )嗎?我的答案是,讓我們試試看吧。

我們現在的做法是雇人教會(huì ) ChatGPT 如何表現。你只需要與它互動(dòng),它就能從你的反應中推斷出你想要的東西,比如,你對輸出結果不滿(mǎn)意。因此,它應該在下一次做些不同的事情。我認為這種方法很有可能(a quite a high chance)完全解決幻覺(jué)的問(wèn)題。

CRAIG:Yann LeCun( Facebook 首席人工智能科學(xué)家、深度學(xué)習先驅之一)認為,大型語(yǔ)言模型缺少可參考的、非語(yǔ)言的基礎世界模型。我想聽(tīng)聽(tīng)你對此的看法,以及你是否已經(jīng)進(jìn)行了相關(guān)探索。

ILYA: 我審查過(guò) Yann LeCun 的提案,用不同語(yǔ)言表達了很多想法,可能與當前的范式有一些微小的差異,但在我看來(lái),它們不是很顯著(zhù)。

他的第一個(gè)主張是一個(gè)系統需要有多模態(tài)理解,這樣它就不只是從文本中了解世界。我對此的評論是,多模式理解確實(shí)是可取的,因為你對世界了解得更多,你對人了解得更多,你對他們的狀況了解得更多,系統將能夠更好地理解它應該解決的任務(wù)是什么,以及他們想要什么。

我們在這方面做了很多工作,最引人注目的是我們已經(jīng)完成的兩個(gè)主要神經(jīng)網(wǎng)絡(luò )。一個(gè)叫 Clip,一個(gè)叫 Dall-E。它們都朝著(zhù)這個(gè)多模態(tài)方向移動(dòng)。但我認為這種情況不是非此即彼的:如果你沒(méi)有視覺(jué),不能從視覺(jué)上或視頻上理解世界,那么事情就不會(huì )成功。

我想要證明這一點(diǎn)。有些東西從圖像和圖表中更容易學(xué)習,但我認為仍然可以只從文本中學(xué)習,只是速度更慢。想想顏色的概念。

當然,一個(gè)人不能只從文本中學(xué)習顏色的概念,但是當你看「嵌入」時(shí)——我需要繞一個(gè)小彎子來(lái)解釋「嵌入」的概念。每個(gè)神經(jīng)網(wǎng)絡(luò )都通過(guò)「嵌入」表示單詞、句子、概念,這些「嵌入」是高維向量。

我們可以看一下這些高維向量,看看它們彼此之間有什么相似之處;神經(jīng)網(wǎng)絡(luò )如何看待這個(gè)概念或那個(gè)概念?所以,機器可以通過(guò)嵌入向量,知道紫色和藍色比紅色更相似,紅色和橙色比紫色更相似。它只通過(guò)文本就知道這些。這是怎么做到的呢?

如果你看得見(jiàn),就會(huì )立刻看到顏色差異。如果只有文字,你就需要更長(cháng)時(shí)間,也許你知道如何說(shuō)話(huà),也理解語(yǔ)法,單詞和語(yǔ)法,但直到很久以后才真正開(kāi)始理解顏色。所以,這就是我關(guān)于多模態(tài)性必要性的觀(guān)點(diǎn):它不是必要的,但肯定是有用的。這是一個(gè)值得追求的方向。我只是認為它不是非此即彼的。

這也是為什么(LeCun 的)論文中聲稱(chēng),最大挑戰之一是預測具有不確定性的高維向量。

但我發(fā)現令人驚訝的是,在這篇論文中未被承認的是,當前的自回歸 transformers ?( autoregressive transformers )已經(jīng)具有這種性質(zhì)。

舉兩個(gè)例子。一個(gè)是給定書(shū)中的一頁(yè),預測書(shū)中的下一頁(yè)。接下來(lái)可能會(huì )有很多頁(yè)。這是一個(gè)非常復雜的高維空間,他們處理得很好。這同樣適用于圖像。這些自回歸 transformers 在圖像上工作得非常完美。

例如,和 OpenAI 一樣,我們在 iGPT 上做了一些工作。我們只是拿了一個(gè) transformers 把它應用到像素上,表現得非常好,能以非常復雜和微妙的方式生成圖像。Dall-E 1 也是一樣的。

所以,這篇論文強調現有方法無(wú)法預測高維分布的部分,我的觀(guān)點(diǎn)是(它們)肯定是可以的。

CRAIG:按你說(shuō)的,有一群人類(lèi)訓練師正在使用 ChatGPT 或一個(gè)大型語(yǔ)言模型來(lái)指導它有效地強化學(xué)習,直覺(jué)上,這不像是一種教會(huì )模型掌握語(yǔ)言潛在現實(shí)的有效方法。

ILYA:我不同意這個(gè)問(wèn)題的措辭。我認為,我們預先訓練過(guò)的模型已經(jīng)知道了它們需要知道的關(guān)于潛在現實(shí)的一切。他們已經(jīng)有了這些語(yǔ)言知識,也有大量關(guān)于世界上存在的產(chǎn)生這種語(yǔ)言的過(guò)程的知識。

大型生成模型從他們的數據中學(xué)到的東西——在這種情況下,大型語(yǔ)言模型——是產(chǎn)生這些數據的真實(shí)世界過(guò)程的壓縮表示,這不僅意味著(zhù)人和他們的想法,他們的感受,還意味著(zhù)人們所處的條件以及他們之間存在的互動(dòng)。一個(gè)人可能處于不同的情境,而所有這些情境信息都是壓縮過(guò)程的一部分,由神經(jīng)網(wǎng)絡(luò )表示,以生成文本。語(yǔ)言模型越好,生成模型越好,保真度越高,它就能更好地捕捉這個(gè)過(guò)程。

現在,正如你所描述的那樣,這些訓練師的確也在使用人工智能輔助。這些人不是獨自行動(dòng)的,他們正在使用我們的工具,而工具則承擔了大部分工作。但是,你確實(shí)需要有人來(lái)監督和審核他們的行為,因為你希望最終實(shí)現非常高的可靠性。

確實(shí)有很多動(dòng)機使其盡可能高效和精確,這樣得到的語(yǔ)言模型將盡可能表現良好。

ILYA:是的,這些人類(lèi)訓練師正在教授模型所需的行為。他們使用人工智能系統的方式不斷提高,因此他們自己的效率也在不斷提高。

這跟人類(lèi)教育沒(méi)什么不同。我們需要額外培訓,確保模型知道幻覺(jué)不可行。人類(lèi)或者其他方法能夠教會(huì )它。

某些因素應該會(huì )奏效。我們很快就會(huì )找到答案。

CRAIG: 你現在的研究方向是什么?

ILYA: 我不能詳細談?wù)撐艺趶氖碌木唧w研究,但是我可以簡(jiǎn)單地提到一些廣義的研究方向。我非常有興趣使這些模型更加可靠、可控,讓它們從教材數據中更快地學(xué)習,減少指導。讓它們不會(huì )出現幻覺(jué)。

CRAIG: 如果你有足夠的數據和足夠大的模型,能否為一些看似無(wú)法解決的沖突找出讓每個(gè)人都滿(mǎn)意的最佳解決方案?你是否思考過(guò)這將如何幫助人類(lèi)管理社會(huì )?

ILYA:這是一個(gè)很大的問(wèn)題,因為這是一個(gè)更加面向未來(lái)的問(wèn)題。我認為,我們的模型在許多方面將比現在強大得多。

政府將如何使用這項技術(shù)作為各種建議的來(lái)源,目前還無(wú)法預測。關(guān)于民主的問(wèn)題,我認為未來(lái)可能發(fā)生的一件事是,因為這些神經(jīng)網(wǎng)絡(luò )將無(wú)處不在,對社會(huì )具有巨大影響力,因此可能會(huì )探索出更讓人滿(mǎn)意的民主方式,比如每個(gè)公民向它們輸入一些信息,包括他們希望事態(tài)如何發(fā)展等。這可能是一種非常高度的民主方式,從每個(gè)公民那里獲得更多信息,這些信息被聚合起來(lái),然后搞清楚我們到底希望系統如何運作?,F在它引發(fā)了很多問(wèn)題,但這是未來(lái)可能發(fā)生的一件事。

(聚合龐大信息意味著(zhù)模型可能分析某種情境下的所有變量,那么)分析所有變量意味著(zhù)什么呢?最終你需要找出一些真正重要的變量,進(jìn)行深入研究。這就像為了深入了解,我可以讀一百本書(shū),也可以仔細讀一本書(shū)。同時(shí),我認為從根本上說(shuō),理解所有事情是不可能的。讓我們舉一些簡(jiǎn)單的例子。

任何時(shí)候,社會(huì )上出現任何復雜情況,即使是在一個(gè)公司,一個(gè)中等規模公司,它已經(jīng)超出了任何一個(gè)人的能力范圍。如果以正確方式構建人工智能系統,它就在各種情境下極大地幫助到我們。

作者 |?Craig S. Smith

編譯 |ChatGPT-4 、吳昕

風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。

關(guān)鍵詞: