馬斯克們的擔憂(yōu)并非空穴來(lái)風(fēng)?大型科技公司裁減了AI倫理團隊
大型科技公司一直在裁減致力于評估部署AI相關(guān)倫理問(wèn)題的團隊員工,這使人們對這項新技術(shù)的安全性更加擔憂(yōu)。
(資料圖)
近日,據媒體報道,微軟、Meta、谷歌、亞馬遜和推特等公司都裁減了其“負責任的人工智能團隊”(Responsible AI)的成員,這些團隊負責為使用AI的消費產(chǎn)品提供安全建議。
被裁減的員工大概有幾十人,在因整個(gè)科技行業(yè)低迷而被裁掉的數萬(wàn)名員工中,這只是冰山一角。但是在A(yíng)I高速發(fā)展的當下,這么多相關(guān)員工被解雇依然令業(yè)內人士感到震驚和不解。
這些公司表示,他們將繼續致力于推出安全的AI產(chǎn)品。但專(zhuān)家認為,裁員仍令人擔憂(yōu),因為就在全球開(kāi)始測試大型AI工具之際,對這項技術(shù)的潛在濫用也在漸漸暴露出來(lái)。隨著(zhù)OpenAI推出的聊天機器人ChatGPT在全球大熱,他們的擔憂(yōu)也越來(lái)越強烈。
Alphabet 旗下 DeepMind 的前倫理和政策研究員、研究機構 Ada Lovelace Institute 副主任 Andrew Strait?向媒體表示:
令人震驚的是,在比以往任何時(shí)候都需要這樣的團隊的時(shí)候,有這么多相關(guān)員工被解雇。
微軟、推特、亞馬遜等公司相繼行動(dòng)
今年1月,在微軟的萬(wàn)人級別大裁員行動(dòng)中,該公司解散了其所有的倫理道德與社會(huì )團隊。微軟表示,此次裁員不到10個(gè)人,仍有數百人在A(yíng)I辦公室工作。
微軟首席負責人工智能官 Natasha Crampton?稱(chēng):
我們已經(jīng)大大增加了我們負責的AI工作,并努力在全公司范圍內將其制度化。
在馬斯克的領(lǐng)導下,推特裁掉了超過(guò)一半的員工,其中包括一個(gè)小型的道德AI團隊。該團隊過(guò)去的工作包括修正推特算法中的偏差,例如該算法在選擇裁剪社交網(wǎng)絡(luò )上的圖像時(shí)似乎更傾向于留下白人的面孔。
據媒體援引知情人士透露,亞馬遜旗下的流媒體平臺 Twitch 上周也裁減了其道德AI團隊,要求所有從事AI產(chǎn)品開(kāi)發(fā)的團隊都要對與AI偏見(jiàn)相關(guān)的問(wèn)題負責。
今年9月,Meta解散了其創(chuàng )新團隊,該團隊由約20名工程師和倫理學(xué)家組成,負責評估 Instagram 和 Facebook 上的公民權利和道德規范。Facebook前AI倫理研究員 Josh Simons 向媒體表示:
AI團隊是大型科技公司唯一的內部堡壘,必須確保構建AI系統的工程師考慮到受AI系統影響的人和社區。
它們被廢除的速度讓大型科技公司的算法受制于廣告需求,損害了兒童、弱勢群體和我們民主的福祉。
另?yè)槿耸客嘎?,作?Alphabet 整體裁員計劃的一部分,谷歌一些負責AI道德監管的員工也被解雇了。谷歌沒(méi)有具體說(shuō)明有多少員工被削減,但表示AI仍是公司的首要任務(wù),“我們將繼續投資于這些團隊”。
此前,谷歌內部已經(jīng)出現過(guò)關(guān)于A(yíng)I技術(shù)的發(fā)展、影響和安全性之間的緊張關(guān)系。兩位AI倫理研究負責人 Timnit Gebru 和 Margaret Mitchell 在與該公司爆發(fā)了一場(chǎng)激烈爭吵后,分別于2020年和2021年離職。
Strait?表示:
當負責任的人工智能實(shí)踐在競爭或推動(dòng)市場(chǎng)時(shí),卻被排除在外,這是有問(wèn)題的。
而不幸的是,我現在看到的正是這種情況。
邪惡的AI?
一個(gè)重要擔憂(yōu)是,ChatGPT等聊天機器人的大型語(yǔ)言模型會(huì )“創(chuàng )造幻覺(jué)”,即它們會(huì )做出虛假陳述并將其包裝成事實(shí),可用于傳播虛假信息和考試作弊等目的。另外,AI自身潛在的高速進(jìn)化也讓企業(yè)家和科學(xué)家們“警鈴大作”。
華爾街見(jiàn)聞此前提及,3月22日,生命未來(lái)研究所向全社會(huì )發(fā)布了一封《暫停大型人工智能研究》的公開(kāi)信,呼吁所有人工智能實(shí)驗室立即暫停比GPT-4更強大的人工智能系統的訓練,暫停時(shí)間至少為6個(gè)月。
而截止目前,圖靈獎得主Yoshua Bengio、馬斯克、蘋(píng)果聯(lián)合創(chuàng )始人Steve Wozniak、Stability AI?創(chuàng )始人Emad Mostaque等上千名科技大佬和AI專(zhuān)家已經(jīng)簽署公開(kāi)信。
倫敦國王學(xué)院AI研究所主任 Michael Luck?向媒體表示:
我們開(kāi)始看到的是,我們無(wú)法完全預測這些新技術(shù)將會(huì )發(fā)生的所有事情,關(guān)鍵是我們要對它們給予一定的關(guān)注。
AI內部倫理團隊的角色也受到了審查,因為有議論稱(chēng),人類(lèi)對算法的任何干預是否應該增加透明度,聽(tīng)取公眾和監管機構的意見(jiàn)。
2020年,Meta旗下的 Instagram 成立了一個(gè)團隊“IG Equity”,以解決其平臺上的算法正義問(wèn)題。該團隊希望對 Instagram 的算法進(jìn)行調整,以加強對種族的討論,突出邊緣化人群的形象。
Simons?認為,相關(guān)工程師們能夠干預并改變這些制度和偏見(jiàn),并探索能夠促進(jìn)公平的技術(shù)干預措施,但他們不應該決定社會(huì )應該如何被塑造。
風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。關(guān)鍵詞: