国产精品久久久久久久久久久久午衣片,无码AV大香线蕉伊人久久蜜臀,欧美日韩亚洲中文字幕三,欧美日韩精品成人网视频

AI見(jiàn)聞日報:OpenAI降價(jià)95%!還用API自己造插件;AMD挑戰英偉達發(fā)布超強AI芯片 | 見(jiàn)智研究 環(huán)球熱頭條

今日要點(diǎn)

1、OpenAI降價(jià)95%,用API自己造插件;

2、AMD發(fā)布AI芯片 MI300X,仍無(wú)法挑戰英偉達CUDA壁壘;


(相關(guān)資料圖)

3、微軟推出醫學(xué)大模型LLaVA-Med ,能夠推測患者病理情況;

4、Windows10到2025年后將永久停止使用;

5、阿聯(lián)酋打造的大模型持續霸榜Hugging Face;

每日見(jiàn)智AI

1、OpenAI大降價(jià)!開(kāi)放函數調用功能,讓開(kāi)發(fā)者操作更便捷

OpenAI官網(wǎng)宣布“更新更可調的API模型、函數調用功能(Function calling)、更長(cháng)的上下文和更低的價(jià)格”,發(fā)布更高效更低成本的版本。

降價(jià)方面:不同版本降價(jià)幅度不同,OpenAI最先進(jìn)、用戶(hù)最多的嵌入模型Text-embedding-ada-002降價(jià)75%;用戶(hù)最多的聊天模型gpt-3.5-turbo降價(jià)25%。此外,OpenAI還推出了gpt4-16k平替版——gpt-3.5-turbo-16k,價(jià)格為每輸入1000 tokens 0.003美元,相當于降價(jià)95%!

最值得關(guān)注的是:函數調用功能;開(kāi)發(fā)者現在可以向gpt-4-0613和gpt-3.5-turbo-0613兩個(gè)模型描述函數,并讓模型智能地選擇輸出一個(gè)包含參數的JSON(JavaScript Object Notation,一種數據交換的文本格式)對象來(lái)調用這些函數。若將GPT功能與外部工具或API進(jìn)行連接,這種方法更加可靠。

見(jiàn)智點(diǎn)評:

函數調用功能最大程度幫助開(kāi)發(fā)者更輕松地構建調用外部工具、將自然語(yǔ)言轉換為外部 API 調用或進(jìn)行數據庫查詢(xún)的聊天機器人。

底層邏輯是:允許開(kāi)發(fā)者更可靠地從模型中獲取結構化數據,能夠很大程度提高程序的可讀性,能夠提升代碼的組織效率;

例如調用外部工具提供回答、從文本中提取數據化結構等。這樣很大程度降低了操作門(mén)檻,極大的優(yōu)化了效率,同時(shí)還能夠更大程度發(fā)揮模型的功能。

函數調用能夠將復雜程序分解為更小的部分,同時(shí)更加便于管理和使用。另外在測試上面也更便捷和高效,在方便調用的同時(shí)更有助于提高整體運行的質(zhì)量。

從降價(jià)角度來(lái)看,Sam Altman兌現了承諾,并且遠遠超過(guò)市場(chǎng)預期。另外,由于 OpenAI 不斷更新其模型,舊版本將不會(huì )永久存在。公司還宣布開(kāi)始淘汰一些早期版本的這些模型,包括 gpt-3.5-turbo-0301 和 gpt-4-0314將在9月13日之后停止使用。

2、AMD發(fā)布AI芯片 MI300X,仍無(wú)法挑戰英偉達CUDA壁壘

AMD宣布即將推出迄今為止最先進(jìn)的人工智能GPU MI300X芯片,并可以使用高達192GB的內存的HBM3高帶寬內存來(lái)加速大型語(yǔ)言模型和生成式AI計算。

AMD主要客戶(hù)將在第三季度開(kāi)始試用MI300X,第四季度開(kāi)始全面生產(chǎn)。另一種型號Instinct MI300A現在正在向客戶(hù)發(fā)售。

除了AI芯片外,AMD還推出專(zhuān)為云計算和超大規模用戶(hù)設計的全新EPYC服務(wù)器處理器,代號為Bergamo,每個(gè)插槽最多包含128個(gè)內核,并針對各種容器化工作負載進(jìn)行了優(yōu)化。

見(jiàn)智點(diǎn)評:

MI300X一定程度能夠成為AI芯片市場(chǎng)很受歡迎的產(chǎn)品,當下英偉達AI芯片供應仍舊處于非常緊缺的狀態(tài),openAI等多家企業(yè)也紛紛想要申請購買(mǎi)更多的芯片滿(mǎn)足日漸增長(cháng)的數據中心訪(fǎng)問(wèn)量,但是訂單排期已經(jīng)陸續延到年底。

雖然MI300X還不足以完全替代GH200,但在內存容量方面已經(jīng)比英偉達GH100更大,且在節能方面MI300X表現比GH200更出色,但是對于價(jià)格方面目前還沒(méi)有定論,市場(chǎng)預估成本可能會(huì )高于H100。

另外,見(jiàn)智認為英偉達CUDA GPU 在許多計算密集型任務(wù)中比 AMD GPU 更快,包括 GPU 的設計和更高效的編譯器優(yōu)化的可用性,AMD仍無(wú)法挑戰英偉達CUDA壁壘。AMD正在努力提高其MI300X GPU的性能,并為其平臺提供更好的支持。但AMD是否能夠縮小與NVIDIA的差距還有待觀(guān)察。

3、微軟推出醫學(xué)大模型LLaVA-Med,能夠推測患者病理情況

微軟研究人員展示了 LLaVA-Med 模型,該模型主要用于生物醫學(xué)方面的研究,可根據 CT、X 光圖片等推測出患者的病理狀況。

據悉,微軟研究人員與一批醫院合作,獲得了使用生物醫學(xué)圖像文本對應大型數據集來(lái)訓練多模態(tài) AI 模型。該數據集包括胸部 X 光、MRI、組織學(xué)、病理學(xué)和 CT 圖像等,覆蓋范圍相對全面。

微軟使用 GPT-4,基于 Vision Transformer 和 Vicuna 語(yǔ)言模型,在八個(gè)英偉達 A100 GPU 上對 LLaVA-Med 進(jìn)行訓練,其中包含“每個(gè)圖像的所有預分析信息”,用于生成有關(guān)圖像的問(wèn)答,以滿(mǎn)足“可自然語(yǔ)言回答有關(guān)生物醫學(xué)圖像問(wèn)題”的助手愿景。

在學(xué)習過(guò)程中,模型主要圍繞“描述此類(lèi)圖像的內容”以及“闡述生物醫學(xué)概念”而展開(kāi)。據微軟稱(chēng),該模型最終具有“出色的多模式對話(huà)能力”、“在用于回答視覺(jué)問(wèn)題的三個(gè)標準生物醫學(xué)數據集上,LLaVA-Med 在部分指標上領(lǐng)先于業(yè)界其他先進(jìn)模型”。

見(jiàn)智點(diǎn)評

醫學(xué)大模型LLaVA-Med已經(jīng)被證明對圖像問(wèn)題的回答能夠達到90%的準確率,是一個(gè)非常有前景的專(zhuān)用大模型工具,未來(lái)很有可能徹底改變研究人員和生物醫學(xué)數據交互的方式,同時(shí)還能夠優(yōu)化醫療診斷的流程,成為為醫生提供更具專(zhuān)業(yè)度和可信度的診斷的AI助手。

當然,任何大模型都還有需要提供的空間,比較這款大模型就會(huì )出現虛假舉例和推理不佳的問(wèn)題,研究團隊也表示未來(lái)會(huì )側重于提高模型的質(zhì)量和可靠性,有朝一日可以應用于商業(yè)生物醫學(xué)。

4、Windows10將在2025年后永久停止使用

微軟已宣布正式停止支持Windows10 21H2版本,這意味著(zhù)仍在運行該版本的用戶(hù)將被強制升級至22H2版本。雖然Windows 11仍然可以選擇升級,但只適用于支持該系統的硬件。

除了21H2版,微軟還停止支持了Windows10 20H2版本和第二代SurfaceBook。據悉,Windows10 22H2版本將是最后一個(gè)Windows10版本,支持也將于2025年10月結束。目前,Windows 10處于“維護模式”,只接收每月的累積更新。1月份,微軟已停止Windows10數字版的下載和售賣(mài),集中精力開(kāi)發(fā)Windows 11,并預計在2024年推出“Windows 12”。

5、阿聯(lián)酋打造的大模型持續霸榜Hugging Face

近日,阿聯(lián)酋科技創(chuàng )新研究所(TII)打造出的400億參數的語(yǔ)言模型Falcon-40B,在Hugging Face 的OpenLLM排行榜上依舊排名第一,并持續霸榜,贏(yíng)過(guò)此前LLaMA、StableLM和RedPajama等競爭者。

Falcon-40B模型利用將近5億個(gè)Token、并使用384顆GPU進(jìn)行了2個(gè)月的訓練。為提高訓練過(guò)程的質(zhì)量,團隊成員還自己組建了一套工作流程來(lái)篩選出“最高質(zhì)量的的語(yǔ)料”供該模型進(jìn)行訓練。經(jīng)過(guò)多個(gè)基準測試后,表現比LLaMA、Vicuna和Alpaca更加出色。

見(jiàn)智點(diǎn)評

Falcon背后的研發(fā)方為阿聯(lián)酋的阿布扎比技術(shù)創(chuàng )新研究所(TII),這是中東首個(gè)世界頂級的大模型產(chǎn)品。團隊采用了“多重查詢(xún)注意力”機制來(lái)提高模型的效率。其中,“多重查詢(xún)注意力”機制即模型可以對每個(gè)token進(jìn)行多個(gè)查詢(xún),來(lái)更好表示同一序列中不同token之間的關(guān)系,從而在加速模型運算效率的同時(shí),降低模型的復雜性,進(jìn)一步提高模型整體的可維護性。

風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。

關(guān)鍵詞: