“人工智能讓世界變得更愚蠢”?專家警告AI炒作“很快就會破滅”
參考消息網(wǎng)8月14日報(bào)道 據(jù)德國《商報(bào)》網(wǎng)站7月15日報(bào)道,現(xiàn)年54歲的認(rèn)知科學(xué)家加里·馬庫斯是人工智能(AI)圈子里最具爭議的人物之一。圍繞所謂的大型語言模型的能力,馬庫斯與開放人工智能研究中心(OpenAI)首席執(zhí)行官薩姆·奧爾特曼以及特斯拉首席執(zhí)行官埃隆·馬斯克爭論不休。奧爾特曼和馬斯克預(yù)計(jì),人工智能將很快發(fā)展出類人的能力。
馬庫斯卻看到了另一種危險(xiǎn):他認(rèn)為,新的人工智能模型只是一場炒作,“很快就會破滅”。
《商報(bào)》記者問:馬庫斯先生,您可能是最著名的OpenAI批評者。奧爾特曼公司的哪一點(diǎn)讓您不滿?
馬庫斯答:我并不反對OpenAI或奧爾特曼本人。我反對的是虛假承諾。
問:虛假承諾是指?
答:OpenAI宣布,其使命是開發(fā)能造福全人類的通用人工智能。人們可以向它提出任何問題,它會理性地給出正確答案。但實(shí)際上,OpenAI的軟件既不安全也不可靠,且忽視了公眾利益。
問:奧爾特曼說,OpenAI離實(shí)現(xiàn)通用人工智能可能只差一兩次突破。
答:我認(rèn)為,這是炒作和無稽之談。
問:為什么?
答:看看新模型GPT-4o,我認(rèn)為它是構(gòu)建GPT-5的一次失敗嘗試。OpenAI曾多次暗示,即將推出GPT-5,然后通用人工智能就會到來。事實(shí)卻是,人工智能的發(fā)展速度最近一直在放緩。OpenAI走錯了方向。
問:走錯方向?隨著聊天機(jī)器人ChatGPT的推出,OpenAI引發(fā)了前所未有的人工智能熱潮。
答:ChatGPT或許很受歡迎,但并不可信。我對精明的企業(yè)家沒什么意見,但必須指出當(dāng)下流行的人工智能模型的技術(shù)局限性。只有克服這些局限性,人工智能的發(fā)展才能進(jìn)入值得信賴的軌道。
問:具體是什么讓您不安?
答:我不認(rèn)為大型語言模型(生成式人工智能的一個子集)真的是一個好的解決方案,盡管它們很受歡迎。它們包藏了太多風(fēng)險(xiǎn),其中最嚴(yán)重的是錯誤信息,另一個則是幻覺。
問:也就是說,這些模型會編造答案和結(jié)果。
答:正是。什么是大型語言模型?它是一種概率模型,可以計(jì)算出句子中最有可能出現(xiàn)的下一個詞。其結(jié)果是,系統(tǒng)擁有驚人的模仿能力,但并不真正聰明。它們或許可以很好地解答80%的問題,卻對剩下的20%幾乎束手無策。人們可以和聊天機(jī)器人談?wù)搸缀跞魏问虑椤?有時答案是對的,有時是錯的。但我們無法預(yù)測何時會出錯,這是一個大問題。
問:人類不會犯錯嗎?
答:人類當(dāng)然會犯錯,但人的錯誤與機(jī)器的錯誤截然不同。此外,人類在某些領(lǐng)域非常出色,當(dāng)今的機(jī)器則不然。以人工智能輔助駕駛為例:我們看到,很多事故都是由人類駕駛員高估機(jī)器的能力造成的。他們看到機(jī)器正確駕駛了45分鐘,于是就認(rèn)為“太好了,我能信任它”。從統(tǒng)計(jì)學(xué)角度看,這種想法很愚蠢。一輛在95%的場景中自動駕駛的汽車,會在20種情況中的某一種中做出錯誤決定。這可能會要了我們的命。這是不可接受的。
問:馬斯克認(rèn)為,更多的數(shù)據(jù)將完善自動駕駛。OpenAI也提出,數(shù)據(jù)越多,語言模型越強(qiáng)。
答:這是誤入歧途。我們看到,新推出的模型變體帶來的回報(bào)逐漸減少。進(jìn)步速度放緩。我們不會因?yàn)槟P驮絹碓酱蠖鴮?shí)現(xiàn)通用人工智能。
問:您怎么能如此確定呢?
答:沒有什么是確定的。但在我看來,用越來越多的數(shù)據(jù)“喂養(yǎng)”模型,從而實(shí)現(xiàn)通用人工智能,這種可能性微乎其微。一方面,根本沒有足夠的好數(shù)據(jù)。OpenAI已經(jīng)搜刮了互聯(lián)網(wǎng)上的人類文本,現(xiàn)在又在轉(zhuǎn)錄優(yōu)兔(YouTube)視頻,但仍然不夠。另一方面,目前還不清楚更多的文本是否真的有助于人工智能的發(fā)展。就拿我的孩子們來說:他們比任何人工智能都要聰明,但他們并沒有翻閱整個互聯(lián)網(wǎng)。為什么?因?yàn)樗偗鋫兡芨咝У胤治鰯?shù)據(jù),并從更多渠道獲取數(shù)據(jù):通過眼睛、耳朵和感覺從現(xiàn)實(shí)生活獲取數(shù)據(jù)。人類構(gòu)建了世界運(yùn)行的因果模型,但生成式人工智能做不到這一點(diǎn),所以我們無法真正信任它。
問:許多人都希望用所謂的合成數(shù)據(jù),即人工智能生成的數(shù)據(jù),來訓(xùn)練他們的模型。
答:這是主流人工智能抓住的下一根救命稻草,其背后的想法非常糟糕。人工智能系統(tǒng)會產(chǎn)出滿是幻覺的糟糕數(shù)據(jù),然后它們又被用來訓(xùn)練其他系統(tǒng)。結(jié)果就是,越來越多的虛假信息污染了互聯(lián)網(wǎng)。人類已經(jīng)在用生成式人工智能來快速炮制不可靠的產(chǎn)品,例如未經(jīng)研究、未經(jīng)核查的傳記。這樣一來,人工智能不會讓世界變得更聰明,而是變得更愚蠢。
問:ChatGPT通過了圖靈測試。這是數(shù)學(xué)家艾倫·圖靈在1950年提出的一項(xiàng)測試:如果人類認(rèn)為一臺機(jī)器的回答是人類的回答,那么這臺機(jī)器就是智能的。
答:拜托,圖靈測試太可怕了。也許這曾是個偉大的想法,但它已經(jīng)有74年歷史了,經(jīng)不起時間的考驗(yàn)。圖靈測試更適用于驗(yàn)證人類有多么容易上當(dāng)受騙。我們現(xiàn)在就能建立一個系統(tǒng),在短期內(nèi)騙過一個沒有受過心理學(xué)或人工智能訓(xùn)練的天真的人。但這并不能證明什么。圖靈測試的確提出了一個正確的問題:什么是智能?但我們?nèi)晕凑业酱鸢浮?