Meta首席AI科學(xué)家楊立昆:ChatGPT還沒(méi)有狗聰明
2023-06-18 15:03:23 | 來(lái)源:個(gè)人圖書(shū)館-深柏淺覓探 |
2023-06-18 15:03:23 | 來(lái)源:個(gè)人圖書(shū)館-深柏淺覓探 |
隨著人工智能技術(shù)的快速進(jìn)步,有關(guān)其潛在危險(xiǎn)的爭(zhēng)論越來(lái)越激烈。但Meta首席人工智能科學(xué)家楊立昆(Yann LeCun)表示,像ChatGPT這樣的人工智能系統(tǒng)遠(yuǎn)遠(yuǎn)沒(méi)有達(dá)到人類(lèi)的智能水平,甚至還不如狗聰明。
(資料圖片僅供參考)
OpenAI開(kāi)發(fā)的聊天機(jī)器人ChatGPT以大語(yǔ)言模型為基礎(chǔ)。這意味著,它接受了大量語(yǔ)言數(shù)據(jù)的訓(xùn)練。當(dāng)用戶(hù)向它提問(wèn)或請(qǐng)求時(shí),聊天機(jī)器人可以用我們更容易理解的語(yǔ)言回答。
人工智能的快速發(fā)展引發(fā)了許多技術(shù)專(zhuān)家的擔(dān)憂(yōu)。他們認(rèn)為,如果不加以控制,這項(xiàng)技術(shù)可能會(huì)對(duì)社會(huì)構(gòu)成危險(xiǎn)。特斯拉首席執(zhí)行官埃隆·馬斯克(Elon Musk)今年表示,人工智能是“人類(lèi)文明未來(lái)面臨的最大風(fēng)險(xiǎn)之一”。
周三在巴黎舉辦的Viva Tech峰會(huì)上,主要從事科技文章撰寫(xiě)的法國(guó)經(jīng)濟(jì)和社會(huì)理論家雅克·阿塔利(Jacques Attali)也表示,人工智能是好是壞取決于它的用途。
“如果你用人工智能來(lái)開(kāi)發(fā)更多的化石燃料,后果將是可怕的。如果你用人工智能來(lái)開(kāi)發(fā)更致命的武器,后果同樣令人擔(dān)憂(yōu)?!卑⑺f(shuō)?!芭c此相反,人工智能也可以對(duì)健康、教育和文化產(chǎn)生驚人的影響。”
在Viva Tech峰會(huì)的小組討論會(huì)上,F(xiàn)acebook母公司Meta首席人工智能科學(xué)家楊立昆被問(wèn)及人工智能目前的局限性。楊立昆專(zhuān)注于在大語(yǔ)言模型上訓(xùn)練生成式人工智能,他說(shuō)這些模型還不是很聰明,因?yàn)樗鼈冎唤邮苷Z(yǔ)言方面的訓(xùn)練。
“這些系統(tǒng)的能力仍然非常有限,它們并沒(méi)有理解真實(shí)世界的潛在現(xiàn)實(shí),因?yàn)樗鼈兗兇馐轻槍?duì)文本進(jìn)行訓(xùn)練的,大量的文本,”楊立昆說(shuō)?!岸祟?lèi)獲得的大部分知識(shí)與語(yǔ)言無(wú)關(guān)。因此,人工智能也無(wú)法學(xué)習(xí)這部分人類(lèi)經(jīng)驗(yàn)。”
楊立昆補(bǔ)充說(shuō),人工智能系統(tǒng)現(xiàn)在可以通過(guò)美國(guó)的律師資格考試,但卻不能很好地操控洗碗機(jī),而一個(gè)10歲的孩子“10分鐘就能學(xué)會(huì)如何使用它”。
“這表明,我們還缺少一些真正重要的東西。人工智能不僅遠(yuǎn)未達(dá)到人類(lèi)的智力水平,甚至還沒(méi)有狗聰明?!睏盍⒗タ偨Y(jié)道。
楊立昆證實(shí),Meta正在努力在視頻方面訓(xùn)練人工智能,而不僅僅是在語(yǔ)言方面,這是一項(xiàng)艱巨的任務(wù)。
在另一個(gè)例子中,楊立昆提到了當(dāng)前人工智能的局限性。他說(shuō),五個(gè)月大的嬰兒看到漂浮的物體不會(huì)想太多,但是九個(gè)月大的嬰兒看到這種情況就會(huì)感到驚訝,因?yàn)樗麄円庾R(shí)到物體不應(yīng)該漂浮起來(lái)。
楊立昆表示,我們“不知道如何用今天的機(jī)器重現(xiàn)這種能力。在我們能夠做到這一點(diǎn)之前,我們不會(huì)有相當(dāng)于人類(lèi)水平的人工智能,甚至不會(huì)有相當(dāng)于貓狗智力水平的智能”。
機(jī)器人會(huì)接管世界嗎?
阿塔利對(duì)未來(lái)持悲觀態(tài)度,他說(shuō):“眾所周知,未來(lái)三四十年內(nèi)人類(lèi)將面臨許多危險(xiǎn)?!彼赋?,氣候?yàn)?zāi)難和戰(zhàn)爭(zhēng)是他最擔(dān)心的問(wèn)題,他還擔(dān)心機(jī)器人“會(huì)轉(zhuǎn)而開(kāi)始反抗人類(lèi)”。
在談話(huà)中,楊立昆表示,未來(lái)會(huì)出現(xiàn)比人類(lèi)更聰明的機(jī)器,這不應(yīng)該被視為構(gòu)成危險(xiǎn)。他說(shuō):“我們不應(yīng)該將其視為威脅,而是將其視為非常有益的東西。我們每個(gè)人都會(huì)有一個(gè)人工智能助手,它就像一個(gè)比你更聰明的工作人員那樣,在日常生活中幫助你?!?
這位科學(xué)家補(bǔ)充說(shuō),這些人工智能系統(tǒng)需要被創(chuàng)造成“可控的,基本上服從于人類(lèi)”。他還駁斥了機(jī)器人將接管世界的觀點(diǎn)。
“科幻小說(shuō)中流傳的一種恐懼是,如果機(jī)器人比我們更聰明,它們就會(huì)想要接管世界。但聰明和想要接管世界之間沒(méi)有關(guān)聯(lián),”楊立昆說(shuō)。
人工智能的倫理與監(jiān)管
審視人工智能帶來(lái)的危險(xiǎn)和機(jī)遇時(shí),阿塔利得出結(jié)論,需要為這項(xiàng)技術(shù)的發(fā)展設(shè)置安全護(hù)欄。但他不確定誰(shuí)該承擔(dān)這項(xiàng)任務(wù)?!罢l(shuí)來(lái)劃定邊界?”他問(wèn)道。
人工智能監(jiān)管一直是Viva Tech峰會(huì)上的熱門(mén)話(huà)題。歐盟正在推進(jìn)自己的人工智能立法,而法國(guó)政府官員最近表示,該國(guó)希望看到全球范圍內(nèi)對(duì)人工智能技術(shù)進(jìn)行監(jiān)管。