国产精品久久久久久久久久久久午衣片,无码AV大香线蕉伊人久久蜜臀,欧美日韩亚洲中文字幕三,欧美日韩精品成人网视频

天天短訊!一文讀懂AIGC:萬(wàn)億新賽道為何今年獲得爆發(fā)?

AIGC——利用人工智能技術(shù)來(lái)生成內容,它被認為是繼PGC、UGC之后的新型內容創(chuàng )作方式。2022年AIGC發(fā)展速度驚人,迭代速度更是呈現指數級爆發(fā),這其中深度學(xué)習模型不斷完善、開(kāi)源模式的推動(dòng)、大模型探索商業(yè)化的可能,成為AIGC發(fā)展的“加速度”。騰訊將持續關(guān)注AIGC賽道,從技術(shù)突破、商業(yè)模式、頭部公司等方向,推出“AIGC未來(lái)指北”系列內容,本文為系列第一篇。

以下為正文:

2022年8月,在美國科羅拉多州舉辦的新興數字藝術(shù)家競賽中,參賽者提交AIGC(AI-Generated Content,以下簡(jiǎn)稱(chēng)“AIGC“)繪畫(huà)作品《太空歌劇院》,參賽者沒(méi)有繪畫(huà)基礎但是卻獲得了此次比賽“數字藝術(shù)/數字修飾照片”類(lèi)別一等獎,引發(fā)多方爭議:一方面,批判者認為AI在“學(xué)習”了大量前人的作品之后,其創(chuàng )作沒(méi)有任何情緒和靈魂,難以和人類(lèi)的藝術(shù)創(chuàng )作相提并論。另一方面,支持者認為創(chuàng )作者在一遍遍修改文本內容后,才讓AI創(chuàng )作出滿(mǎn)意的作畫(huà),而且作品有很強的觀(guān)賞性,AI的創(chuàng )作有其獨特價(jià)值。


(資料圖片僅供參考)

AIGC構建發(fā)展“加速度”

AIGC是利用人工智能技術(shù)來(lái)生成內容。2021年之前,AIGC生成的主要還是文字,而新一代模型可以處理的格式內容包括:文字、語(yǔ)音、代碼、圖像、視頻、機器人動(dòng)作等等。AIGC被認為是繼專(zhuān)業(yè)生產(chǎn)內容(PGC,professional-generated content)、用戶(hù)生產(chǎn)內容(UGC,User-generated content)之后的新型內容創(chuàng )作方式,可以在創(chuàng )意、表現力、迭代、傳播、個(gè)性化等方面,充分發(fā)揮技術(shù)優(yōu)勢。2022年AIGC發(fā)展速度驚人,年初還處于技藝生疏階段,幾個(gè)月之后就達到專(zhuān)業(yè)級別,足以以假亂真。這讓花費畢生所學(xué)進(jìn)行創(chuàng )作的從業(yè)人員倍感焦慮和緊張。同時(shí),AIGC的迭代速度呈現指數級爆發(fā),這其中深度學(xué)習模型不斷完善、開(kāi)源模式的推動(dòng)、大模型探索商業(yè)化的可能,成為AIGC發(fā)展的“加速度”。

(一)深度學(xué)習模型是AIGC加速普及的基礎

視覺(jué)信息一直在網(wǎng)絡(luò )中有較強的傳播力且容易被大眾感知,具有跨平臺、跨領(lǐng)域、跨人群的優(yōu)勢,天然容易被人記憶和理解。同時(shí)視覺(jué)信息應用場(chǎng)景廣泛,因此生成高質(zhì)量的圖像成為當前AI領(lǐng)域的一個(gè)現象級功能。

2021年,OpenAI團隊將跨模態(tài)深度學(xué)習模型CLIP(Contrastive Language-Image Pre-Training,以下簡(jiǎn)稱(chēng)“CLIP”)進(jìn)行開(kāi)源。CLIP模型能夠將文字和圖像進(jìn)行關(guān)聯(lián),比如將文字“狗”和狗的圖像進(jìn)行關(guān)聯(lián),并且關(guān)聯(lián)的特征非常豐富。因此,CLIP模型具備兩個(gè)優(yōu)勢:一方面同時(shí)進(jìn)行自然語(yǔ)言理解和計算機視覺(jué)分析,實(shí)現圖像和文本匹配。另一方面為了有足夠多標記好的“文本-圖像”進(jìn)行訓練,CLIP模型廣泛利用互聯(lián)網(wǎng)上的圖片,這些圖片一般都帶有各種文本描述,成為CLIP天然的訓練樣本。據統計,CLIP模型搜集了網(wǎng)絡(luò )上超過(guò)40億個(gè)“文本-圖像”訓練數據,這為后續AIGC尤其是輸入文本生成圖像/視頻應用的落地奠定了基礎。

“對抗生成網(wǎng)絡(luò )”GAN(Generative Adverserial Network, 以下簡(jiǎn)稱(chēng)“GAN”)雖然也是很多AIGC的基礎框架,但是GAN有三個(gè)不足:一是對輸出結果的控制力較弱,容易產(chǎn)生隨機圖像;二是生成的圖像分別率較低;三是由于GAN需要用判別器來(lái)判斷生產(chǎn)的圖像是否與其他圖像屬于同一類(lèi)別,這就導致生成的圖像是對現有作品的模仿,而非創(chuàng )新。因此依托GAN模型難以創(chuàng )作出新圖像,也不能通過(guò)文字提示生成新圖像。

隨后出現的Diffusion擴散化模型,則真正讓文本生成圖像的AIGC應用為大眾所熟知,也是2022年下半年Stable Diffusion應用的重要推手。Diffusion模型有兩個(gè)特點(diǎn):一方面,給圖像增加高斯噪聲,通過(guò)破壞訓練數據來(lái)學(xué)習,然后找出如何逆轉這種噪聲過(guò)程以恢復原始圖像。經(jīng)過(guò)訓練,該模型可以從隨機輸入中合成新的數據。另一方面,Stable Diffusion把模型的計算空間從像素空間經(jīng)過(guò)數學(xué)變換,降維到一個(gè)可能性空間(Latent Space)的低維空間里,這一轉化大幅降低了計算量和計算時(shí)間,使得模型訓練效率大大提高。這算法模式的創(chuàng )新直接推動(dòng)了AIGC技術(shù)的突破性進(jìn)展。

總的來(lái)看,AIGC在2022年實(shí)現破圈,主要是在深度學(xué)習模型方面有了長(cháng)足進(jìn)步:首先CLIP模型基于海量互聯(lián)網(wǎng)圖片進(jìn)行訓練,推動(dòng)AI繪畫(huà)模型進(jìn)行組合創(chuàng )新;其次Diffusion擴散化模型實(shí)現算法創(chuàng )新;最后使用潛空間降維的方法來(lái)降低Diffusion模型在內存和時(shí)間消耗較大的問(wèn)題。因此,AIGC繪畫(huà)之所以能夠幫助大眾畫(huà)出各種天馬行空的畫(huà)作,背后離不開(kāi)大量深度學(xué)習模型的不斷完善。

(二) “開(kāi)源模式”成為AIGC發(fā)展催化劑

在算法模型方面,AIGC的發(fā)展離不開(kāi)開(kāi)源模式的推動(dòng)。以深度學(xué)習模型CLIP為例,開(kāi)源模式加速CLIP模型的廣泛應用,使之成為當前最為先進(jìn)的圖像分類(lèi)人工智能,并讓更多機器學(xué)習從業(yè)人員將CLIP模型嫁接到其他AI應用。同時(shí),當前AIGC繪畫(huà)最熱門(mén)的應用Stable Diffusion已經(jīng)正式開(kāi)源(包括模型權重和代碼),這意味著(zhù)任何用戶(hù)都可以以此建立針對特定文本到圖像的創(chuàng )作任務(wù)應。Stable Diffusion的開(kāi)源直接引發(fā)2022年下半年AIGC引發(fā)廣泛關(guān)注,短短幾個(gè)月時(shí)間內出現大量二次開(kāi)發(fā),從模型優(yōu)化到應用拓展,大幅降低用戶(hù)使用AIGC進(jìn)行創(chuàng )作的門(mén)檻,提升創(chuàng )作效率,并長(cháng)期長(cháng)期霸占GitHub熱榜第一名。

在訓練數據集方面,機器學(xué)習離不開(kāi)大量數據學(xué)習,LAION作為全球非盈利機器學(xué)習研究機構,在2022年3月開(kāi)放了當前規模最大的開(kāi)源跨模態(tài)數據庫LAION-5B,使得近60億個(gè)“文本-圖像”對可以用來(lái)訓練,從而進(jìn)一步加快AI圖像生成模型的成熟,幫助研究人員加快推動(dòng)從文字到圖像的生成模型。正是CLIP和LAION的開(kāi)源模式構建起當前AI圖像生成應用的核心。未來(lái),隨著(zhù)模型穩定,開(kāi)源將成為AIGC成熟的催化劑,源模式有望讓相關(guān)模型成為海量應用、網(wǎng)絡(luò )和服務(wù)的基礎,應用層面的創(chuàng )造力有望迎來(lái)拐點(diǎn)。

AIGC為創(chuàng )作領(lǐng)域帶來(lái)的效率與模式的創(chuàng )新

(一) AIGC工具屬性有助于效率提升

在捕捉靈感方面,AIGC可以幫助有經(jīng)驗的創(chuàng )作者捕捉靈感,創(chuàng )新互動(dòng)形式。例如在游戲行業(yè),制作人靈感往往難以準確表達,與美術(shù)工作人員經(jīng)常由于溝通產(chǎn)生理解誤差。通過(guò)AIGC系統可以在設計初期,生成大量草圖,在此基礎上制作人與美術(shù)人員可以更好的理解并確認彼此的需求。同時(shí),創(chuàng )作靈感難以琢磨,可以提前通過(guò)AIGC來(lái)尋找“感覺(jué)”,進(jìn)一步降低美術(shù)創(chuàng )作者大量前期工作和項目成本。例如,制作人先構建完整的背景故事后,由AIGC生成系列畫(huà)作,之后再由專(zhuān)業(yè)的美術(shù)人員進(jìn)行篩選、處理、整合,并將整個(gè)故事和畫(huà)面進(jìn)一步完善提升。

在提升效率方面,AIGC的出現將會(huì )讓創(chuàng )作者擁有一個(gè)更加高效的智能創(chuàng )作工具,在內容創(chuàng )作環(huán)節進(jìn)行優(yōu)化,而非成為競爭對手。例如在極短的項目籌備時(shí)間內,AIGC可以大幅提升效率,驗證了AI投入到工業(yè)化使用的可行性。尤其是對于藝術(shù)、影視、廣告、游戲、編程等創(chuàng )意行業(yè)的從業(yè)者來(lái)說(shuō),可以輔助從業(yè)者進(jìn)行日常工作,并有望創(chuàng )造出更多驚艷的作品。同時(shí),還可以進(jìn)一步降低成本和效率,為規?;a(chǎn)構建市場(chǎng)增量。

(二) AIGC構建創(chuàng )意與實(shí)現的分離

在創(chuàng )意構思方面,AIGC構建了新的創(chuàng )意完善通路,傳統的創(chuàng )作過(guò)程中消化、理解以及重復性工作將有望交由AIGC來(lái)完成,最終創(chuàng )意過(guò)程將變?yōu)椤皠?chuàng )意-AI-創(chuàng )意”的模式。

在創(chuàng )意實(shí)現方面,創(chuàng )作者和AIGC的關(guān)系類(lèi)似于攝影師和照相機。攝影師構建拍攝思路并進(jìn)行規劃,對相機進(jìn)行參數配置,但是不用了解相機的工作機制,一鍵生成高質(zhì)量的內容。同樣的,創(chuàng )作者構思并進(jìn)行規劃,對AI模型進(jìn)行參數配置,不需要了解模型的原理,直接點(diǎn)擊輸出內容即可。創(chuàng )意和實(shí)現呈現出分離狀態(tài),實(shí)現過(guò)程變?yōu)橐环N可重復勞動(dòng),可以由AIGC來(lái)完成,并逐步將成本推向趨近于0。

(三) AIGC給創(chuàng )作者獲得更多收益帶來(lái)思路創(chuàng )新

創(chuàng )作者的成果是AIGC學(xué)習的對象,但創(chuàng )作者的創(chuàng )意才是關(guān)鍵,創(chuàng )意本身比AIGC生成的繪畫(huà)更有價(jià)值,因此如何將創(chuàng )作者的“創(chuàng )意”進(jìn)行量化,甚至定價(jià),將有助于打造AIGC的商業(yè)模式。這其中“注意力機制”將成為AIGC潛在的量化載體。例如國內有機構專(zhuān)家提出,可以通過(guò)計算輸入文本中關(guān)鍵詞影響的繪畫(huà)面積和強度,我們就可以量化各個(gè)關(guān)鍵詞的貢獻度。之后根據一次生成費用與藝術(shù)家貢獻比例,就可以得到創(chuàng )作者生成的價(jià)值。最后在與平臺按比例分成,就是創(chuàng )作者理論上因貢獻創(chuàng )意產(chǎn)生的收益。

例如某AIGC平臺一周內生成數十萬(wàn)張作品,涉及這位創(chuàng )作者關(guān)鍵詞的作品有30000張,平均每張貢獻度為0.3,每張AIGC繪畫(huà)成本為0.5元,平臺分成30%,那么這位創(chuàng )作者本周在該平臺的收益為:30000*0.3*0.5*(1-30%)=3150元的收益,未來(lái)參與建立AI數據集將有望成為藝術(shù)家的新增收益。

(四) 從“大模型”到“大應用”,探索可行商業(yè)模式

基于深度學(xué)習算法數據越多,模型魯棒性越強的特點(diǎn),當前的大模型規模只增不減,比拼規模已經(jīng)成為標配。例如,Open AI推出的GPT-3參數已經(jīng)超過(guò)1750億個(gè)。但“數據投喂”并非一種技術(shù)路徑上的創(chuàng )新,更多的是在工程領(lǐng)域的微調。需要指出的是,模型規模越大,其實(shí)越難以在現實(shí)場(chǎng)景中落地部署。同時(shí)“海量數據”并不等同于“海量高質(zhì)量數據”,有可能會(huì )導致反向效果產(chǎn)生。

AIGC的發(fā)展離不開(kāi)預訓練大模型的不斷精進(jìn)。大模型雖然在很多領(lǐng)域都表現出良好的使用效果,但是這些效果作為展示甚至噱頭之后,很難形成良性的商業(yè)價(jià)值,與大模型的訓練成本、基礎設施投入更是相差甚遠。如何推動(dòng)“大模型”向“大應用”來(lái)轉變,正在成為關(guān)鍵的考驗。AIGC的破圈以及引發(fā)的關(guān)注,可以看到大模型商業(yè)化的潛力正在清晰化:一方面大模型企業(yè)可以根據C端用戶(hù)實(shí)際“按需提供服務(wù)”和商業(yè)轉化;另一方面帶動(dòng)對云計算、云存儲的使用量上升。將AIGC從“嘗鮮試試看”變成大眾頻繁使用的需求,再到與具體行業(yè)和領(lǐng)域深度結合,依托我國豐富的產(chǎn)業(yè)需求和應用場(chǎng)景,有望為大模型商業(yè)化和長(cháng)期價(jià)值探索一條新路徑。

AIGC發(fā)展面臨的挑戰

Gartner預計,到2025年,生成式人工智能將占所有生成數據的10%。根據《Generative AI :A Creative New World》的分析,AIGC有潛力產(chǎn)生數萬(wàn)億美元的經(jīng)濟價(jià)值。AIGC在引發(fā)全球關(guān)注的同時(shí),知識產(chǎn)權、技術(shù)倫理將面臨諸多挑戰和風(fēng)險。同時(shí)AIGC距離通用人工智能還有較大的差距。

(一) AIGC引發(fā)“創(chuàng )造力”歸屬爭論

傳統印象中,人工智能在創(chuàng )造性工作領(lǐng)域與人類(lèi)還無(wú)法進(jìn)行競爭,主要擅長(cháng)的是計算、挖掘,聚焦在海量數據分析領(lǐng)域。人類(lèi)更擅長(cháng)的是創(chuàng )新,例如詩(shī)詞、設計、編程等需要創(chuàng )造性的事物上。與AI下棋相比,AI進(jìn)行繪畫(huà)創(chuàng )作給大眾帶來(lái)的沖擊更為明顯:棋類(lèi)游戲具有明確的規則和定義,不需要AI具備創(chuàng )造性,但AIGC尤其是輸入文字就能進(jìn)行繪畫(huà)、視頻,讓沒(méi)有相關(guān)專(zhuān)業(yè)能力的人也可以制作出以假亂真的專(zhuān)業(yè)級別作品,則引發(fā)人們對自身引以為傲的“創(chuàng )造力”擔憂(yōu)。AI不會(huì )替代創(chuàng )作者,但是可能會(huì )替代不會(huì )AI工具的創(chuàng )作者。

(二) 知識產(chǎn)權引發(fā)創(chuàng )作者擔憂(yōu)

由于算法模型的進(jìn)一步完善和成本快速下降,AIGC大規模商業(yè)化成為現實(shí),過(guò)去遙不可及的專(zhuān)業(yè)能力已經(jīng)具備從實(shí)驗室飛入尋常百姓家的可能。與此同時(shí),AIGC的飛速發(fā)展和商業(yè)化應用,除了對創(chuàng )作者造成沖擊外,也對大量依靠版權為主要營(yíng)收的企業(yè)帶來(lái)沖擊。具體來(lái)看:

一方面,AIGC難以被稱(chēng)為“作者”。根據我國《著(zhù)作權法》的規定,作者只能是自然人、法人或非法人組織,很顯然AIGC不是被法律所認可的權利主體,因此不能成為著(zhù)作權的主體。但AIGC應用對生成的圖片版權問(wèn)題持有不同觀(guān)點(diǎn),圖片屬于平臺、完全開(kāi)源還是生成者,目前尚未形成統一意見(jiàn)。

另一方面,AIGC產(chǎn)生的“作品”尚存爭議。根據我國《著(zhù)作權法》和《著(zhù)作權法實(shí)施條例》的規定,作品是指文學(xué)、藝術(shù)和科學(xué)領(lǐng)域內具有獨創(chuàng )性并能以某種有形形式復制的智力成果。AIGC的作品具有較強的隨機性和算法主導性,能夠準確證明AIGC作品侵權的可能性較低。同時(shí),AIGC是否具有獨創(chuàng )性目前難以一概而論,個(gè)案差異較大。

由于創(chuàng )作者每次新的創(chuàng )作都在無(wú)形中對AIGC進(jìn)行免費培訓,這讓眾多版權機構產(chǎn)生巨大擔憂(yōu)。目前已經(jīng)有大量藝術(shù)家和創(chuàng )作者宣布禁止AI學(xué)習自己的作品,從而保護自身知識產(chǎn)權。Getty Images、Newgrounds等網(wǎng)站也紛紛宣布禁止上傳和銷(xiāo)售AIGC作品。

(三) 距離通用人工智能還有較大差距

當前熱門(mén)的AIGC系統雖然能夠快速生成圖像,但是這些系統是否能夠真正理解繪畫(huà)的含義,從而能夠根據這些含義進(jìn)行推力并決策,仍是未知數。

一方面,AIGC系統對輸入的文本和產(chǎn)生的圖像不能完全關(guān)聯(lián)起來(lái)。例如,用戶(hù)對AIGC系統進(jìn)行測試,輸入“騎著(zhù)馬的宇航員”和“騎著(zhù)宇航員的馬”內容時(shí),相關(guān)AIGC系統難以準確生成對應的圖像。因此,當前的AIGC系統還并沒(méi)有深刻理解輸入文本和輸出圖像之間的關(guān)系。另一方面,AIGC系統難以了解生成圖像背后的世界。了解圖像背后的世界,是判斷AIGC是否具備通用人工智能的關(guān)鍵。目前來(lái)看,AIGC系統還難以達到相關(guān)的要求。比如,在Stable Diffusion 輸入“畫(huà)一個(gè)人,并把拿東西的部分變成紫色”,在接下來(lái)的九次測試過(guò)程中,只有一次成功完成,但準確性還不高。顯然,Stable Diffusion 并不理解人的雙手是什么。

知名AI專(zhuān)家發(fā)出的調查也印證了同樣的觀(guān)點(diǎn),有86.1%的人認為當前的AIGC系統對世界理解的并不多。持相同觀(guān)點(diǎn)的人還包括Stable Diffusion的首席執行官。

(四) 創(chuàng )作倫理問(wèn)題尚未有效解決

部分開(kāi)源的AIGC項目,對生成的圖像監管程度較低。一方面,部分數據集系統利用私人用戶(hù)照片進(jìn)行AI訓練,侵權人像圖片進(jìn)行訓練的現象屢禁不止。這些數據集正式AIGC等圖片生成模型的訓練集之一。例如,部分數據集在網(wǎng)絡(luò )上抓取了大量病人就醫照片進(jìn)行訓練,且沒(méi)有做任何打碼模糊處理,對用戶(hù)隱私保護堪憂(yōu)。另一方面,一些用戶(hù)利用AIGC生成虛假名人照片等違禁圖片,甚至會(huì )制作出暴力和性有關(guān)的畫(huà)作,LAION-5B數據庫包含色情、種族、惡意等內容,目前海外已經(jīng)出現基于Stable Diffusion模型的色情圖片生成網(wǎng)站。

由于A(yíng)I本身還不具備價(jià)值判斷能力,為此一些平臺已經(jīng)開(kāi)始進(jìn)行倫理方面的限制和干預。例如DALL·E2已經(jīng)開(kāi)始加強干預,減少性別偏見(jiàn)的產(chǎn)生、防止訓練模型生成逼真的個(gè)人面孔等。但相關(guān)法律法規的空白和AIGC應用研發(fā)者本身的不重視將引發(fā)對AI創(chuàng )作倫理的擔憂(yōu)。

本文作者:騰訊科技,來(lái)源:騰訊科技,原文標題:《一文讀懂AIGC:萬(wàn)億新賽道為何今年獲得爆發(fā)?》

風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。

關(guān)鍵詞: 人工智能 知識產(chǎn)權 不斷完善