美國(guó)人工智能研究公司OpenAI內(nèi)部動(dòng)蕩持續(xù)。據(jù)美國(guó)CNBC網(wǎng)站17日?qǐng)?bào)道,消息人士透露,OpenAI在宣布成立人工智能長(zhǎng)期風(fēng)險(xiǎn)團(tuán)隊(duì)——“超級(jí)對(duì)齊”僅一年后,就解散該團(tuán)隊(duì),一些團(tuán)隊(duì)成員被分配到公司其他團(tuán)隊(duì)。去年7月,OpenAI宣布成立這個(gè)團(tuán)隊(duì),專注于“科學(xué)和技術(shù)突破,以引導(dǎo)和控制比我們聰明得多的人工智能系統(tǒng)”。當(dāng)時(shí),OpenAI表示將在4年內(nèi)將其20%的算力投入到該團(tuán)隊(duì)中。特斯拉首席執(zhí)行官馬斯克針對(duì)“超級(jí)對(duì)齊”團(tuán)隊(duì)解散這一消息評(píng)論稱:“這顯示安全并不是OpenAI的首要任務(wù)。”
就在這一消息公布的幾天前,OpenAI的兩名高管——聯(lián)合創(chuàng)始人兼首席科學(xué)家伊利亞·蘇茨克韋爾和簡(jiǎn)·雷克宣布離開(kāi)這家公司,他們是“超級(jí)對(duì)齊”團(tuán)隊(duì)的共同領(lǐng)導(dǎo)人。雷克17日在社交媒體發(fā)文稱,“加入OpenAI是因?yàn)槲艺J(rèn)為這家公司是進(jìn)行這項(xiàng)研究的最佳場(chǎng)所。然而,我一直不同意OpenAI領(lǐng)導(dǎo)層對(duì)公司核心優(yōu)先事項(xiàng)的看法,直到我們達(dá)到了臨界點(diǎn)。”雷克寫(xiě)道,“在過(guò)去的幾個(gè)月里,我的團(tuán)隊(duì)一直在逆風(fēng)航行。有時(shí)我們會(huì)為算力資源苦苦掙扎,完成這項(xiàng)關(guān)鍵的研究變得越來(lái)越困難。”雷克提醒說(shuō),OpenAI必須成為一家“安全第一的人工智能公司”,“制造比人類(lèi)更聰明的機(jī)器本身就是一種危險(xiǎn)的嘗試。OpenAI肩負(fù)巨大的責(zé)任。但在過(guò)去幾年時(shí)間里,安全文化和流程已經(jīng)讓位于‘閃亮的產(chǎn)品’。”
“為何OpenAI負(fù)責(zé)人類(lèi)安全的團(tuán)隊(duì)被解散?”美國(guó)沃克斯網(wǎng)站17日稱,去年11月,OpenAI董事會(huì)試圖解雇首席執(zhí)行官奧特曼,結(jié)果奧特曼很快奪回權(quán)力。此后,至少有5名公司最具安全意識(shí)的員工辭職或被解雇。美國(guó)《華爾街日?qǐng)?bào)》稱,蘇茨克韋爾將注意力集中在確保人工智能不會(huì)傷害人類(lèi)上,而包括奧特曼在內(nèi)的其他人更渴望推動(dòng)新技術(shù)的發(fā)展。美國(guó)《連線》雜志稱,蘇茨克韋爾是去年11月解雇奧特曼的4名董事會(huì)成員之一。
該公司的消息人士向沃克斯網(wǎng)站透露,有安全意識(shí)的員工已經(jīng)對(duì)奧特曼失去了信心,“這是一個(gè)信任一點(diǎn)點(diǎn)崩塌的過(guò)程,就像多米諾骨牌一塊塊倒下一樣”。他們認(rèn)為,奧特曼聲稱將安全放在首位,但在行為上卻自相矛盾。
美國(guó)TechCrunch科技博客網(wǎng)站18日稱,OpenAI放棄安全研究,轉(zhuǎn)而推出像GPT-4o這樣的新產(chǎn)品,最終導(dǎo)致“超級(jí)對(duì)齊”團(tuán)隊(duì)的兩位負(fù)責(zé)人辭職。目前尚不清楚科技行業(yè)何時(shí)或是否會(huì)實(shí)現(xiàn)必要的突破,以創(chuàng)造出能夠完成人類(lèi)所能完成的任何任務(wù)的人工智能。但“超級(jí)對(duì)齊”團(tuán)隊(duì)的解散似乎證實(shí)了一件事:OpenAI的領(lǐng)導(dǎo)層——尤其是奧特曼——選擇優(yōu)先考慮產(chǎn)品而不是安全措施。在過(guò)去一年時(shí)間里,OpenAI讓其聊天機(jī)器人商店充斥著垃圾郵件,并違反平臺(tái)的服務(wù)條款從YouTube抓取數(shù)據(jù)……安全似乎在該公司處于次要地位——越來(lái)越多的安全研究人員得出這種結(jié)論,選擇另謀高就。
雷克17日還提到,“我們應(yīng)該把更多的資源用于為下一代模型做準(zhǔn)備,包括安全性、監(jiān)控、一致性、保密性、社會(huì)影響等。這些問(wèn)題很難解決,我擔(dān)心我們沒(méi)有走在解決問(wèn)題的正確軌道上。”沃克斯網(wǎng)站稱,當(dāng)一名世界領(lǐng)先的人工智能安全專家說(shuō),世界領(lǐng)先的人工智能公司沒(méi)有走在正確的軌道上時(shí),我們都有理由感到擔(dān)憂。
據(jù)加拿大全球新聞網(wǎng)18日?qǐng)?bào)道,17日發(fā)布的一份關(guān)于人工智能安全的國(guó)際報(bào)告稱,專家們對(duì)這項(xiàng)技術(shù)帶來(lái)的風(fēng)險(xiǎn)意見(jiàn)不一。這份由加拿大魁北克人工智能研究所科學(xué)主任本吉奧主持的報(bào)告得出結(jié)論,通用人工智能的未來(lái)軌跡非常不確定。報(bào)告稱,在不久的將來(lái)人工智能可能呈現(xiàn)各種各樣的發(fā)展軌跡,包括非常積極和非常消極的結(jié)果。該報(bào)告概述了一些風(fēng)險(xiǎn),包括人工智能可能通過(guò)虛假信息、欺詐以及網(wǎng)絡(luò)攻擊造成傷害。報(bào)告提到人工智能中的偏見(jiàn)可能導(dǎo)致風(fēng)險(xiǎn),特別是在“醫(yī)療保健、招聘和金融貸款等高風(fēng)險(xiǎn)領(lǐng)域”。還有一種情況是,人類(lèi)可能失去對(duì)人工智能的控制。
舉報(bào)郵箱:jubao@people.cn
違法和不良信息舉報(bào)電話:010-65363263
由《環(huán)球人物》雜志社有限公司主管、主辦
Copyright ? 2015-2024 globalpeople.com.cn.
版權(quán)所有:環(huán)球人物網(wǎng)