是否,站在人類終結(jié)時(shí)代的地平線上,唯有人工智能?

當(dāng)AI巔峰時(shí),人類智慧將聚焦價(jià)值本源與倫理錨點(diǎn),以非結(jié)構(gòu)化認(rèn)知、元倫理構(gòu)建及人機(jī)共生拓展思維邊疆,在技術(shù)理性中重塑人文靈性,守護(hù)不可編碼的意識特質(zhì)與存在意義。
——被問到AI時(shí)代人類的定位后,DeepSeek如此回答
思考需要他者、需要碰撞
上觀新聞:在人工智能急速發(fā)展的背景下,是什么最終驅(qū)動(dòng)您寫下《再見智人:技術(shù)—政治與后人類境況》(以下簡稱《再見智人》)這本書,并且以“再見智人”為題?
吳冠軍(華東師范大學(xué)教授、政治與國際關(guān)系學(xué)院院長、奇點(diǎn)研究院院長):“智人”這個(gè)詞,本來就是我們從物種意義上的“自稱”。10年前,尤瓦爾·赫拉利寫的《人類簡史:從動(dòng)物到上帝》有效地將這個(gè)詞帶入跨學(xué)科的研究視域。
今天,因?yàn)槿斯ぶ悄艿某霈F(xiàn),我們可以對“智人”做很多反思性的思考。“智人(Homo Sapiens)”這個(gè)名字,實(shí)際上是人類自己給自己起的。假設(shè)未來有一個(gè)人類文明之后的文明,他們會(huì)怎樣稱呼我們?這是一個(gè)新的視角。
在人工智能不斷發(fā)展之際,尤其是從2022年11月(OpenAI宣布正式推出ChatGPT)開始,我們震驚地發(fā)現(xiàn)生成式人工智能在很多領(lǐng)域不比我們差,甚至還超過我們。圖靈獎(jiǎng)得主約書亞·本吉奧甚至認(rèn)為以ChatGPT為代表的大模型已經(jīng)通過了圖靈測試。有這樣的人工智能站在旁邊,以“智”自我命名的人類,到了需要證明自己的時(shí)候。
我認(rèn)為這是一個(gè)非常好的時(shí)刻,促使我們重新思考智人的“智”在哪里。以前在現(xiàn)代性框架內(nèi),不存在這樣一個(gè)參照物或參照系。我把研究大模型的新著題名為《再見智人》,眾所周知“再見”在漢語中是個(gè)雙關(guān)語。它可以是跟“智人”道別,也可以是再次見到“智人”——在新的地平線上,人類需要重新界定自己的“智”。我們需要用一種十分嚴(yán)肅的方式來問這個(gè)問題:我們的“智”體現(xiàn)在哪里?重新自我認(rèn)知,當(dāng)下正是緊要關(guān)頭。
上觀新聞:就在幾個(gè)月前,多位參與推動(dòng)人工智能發(fā)展的頂級科學(xué)家共同發(fā)表了一封公開信,呼吁建立更好的“安保措施”,擔(dān)憂人工智能濫用給整個(gè)人類帶來嚴(yán)重后果。
吳冠軍:面對人工智能開始在智能方面追上人類甚至有所超越,有的人很興奮,因?yàn)橛X得這個(gè)時(shí)代充滿可能性;也有很多人倍感焦灼,甚至認(rèn)為應(yīng)該限制其發(fā)展。人類的智能面對人工智能是如此捉襟見肘,這實(shí)在太讓人痛苦了。
然而即便我們同意后一種主張,當(dāng)下的主權(quán)國家與全球資本主義的既有格局,使得人工智能的發(fā)展像軍備競賽那樣無法減速。
去年初,《自然》雜志上有一篇神經(jīng)科學(xué)研究論文,題目叫作《It takes two to think(要二才能思)》。換句話說,從來沒有“一個(gè)人的”思考,思考結(jié)構(gòu)性地需要“二”——兩個(gè)智能體。我是《再見智人》的作者,然而我在寫作前和寫作過程中卻是在同大量當(dāng)代乃至過去時(shí)代的思考者進(jìn)行“對話”,這本書絕不是一個(gè)人思考的產(chǎn)物。
思考結(jié)構(gòu)性地需要他者、需要碰撞。今天,我們有了人工智能,這是一個(gè)非常棒的時(shí)刻,因?yàn)榕c我們對話、共思的同行者又增加了。我現(xiàn)在就經(jīng)常和ChatGPT一起思考。
人工智能是個(gè)“黑箱”
上觀新聞:此前,另一封公開信似乎掀起了更大爭論。2023年3月,包括馬斯克等在內(nèi)的千名科技人士發(fā)表公開信:呼吁暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng),時(shí)間至少是6個(gè)月。這種又期待又害怕的矛盾,似乎是各個(gè)階段人們面對迅速生長的人工智能的一種典型情緒。
吳冠軍:當(dāng)年這封公開信是由麻省理工學(xué)院的物理學(xué)家、計(jì)算機(jī)科學(xué)家泰格馬克起草的。現(xiàn)在我們在近兩年后回頭看,這封信的呼吁是失敗的,就連在上面簽名的馬斯克本人都根本沒有停止開發(fā)人工智能。
關(guān)于這封信,我與泰格馬克有過一次討論。泰格馬克呼吁“keeping AI under control(將人工智能置于可控范圍內(nèi))”。理由源自他提出一種計(jì)算機(jī)研究的路徑——“mechanisticinterpretability(機(jī)械式的可闡釋性)”。因?yàn)槟壳暗拇竽P图幢銓τ陂_發(fā)者而言亦是一個(gè)“黑箱”,換言之,我們只知道輸入了什么,以及最后的輸出,一個(gè)特別棒的文本或視頻,但研究者對中間的“生成”過程并不全然掌握。
這就帶來了一個(gè)巨大的風(fēng)險(xiǎn),因?yàn)檫^程是不透明的,人類就無法參與對生成結(jié)果的控制,所以泰格馬克由此提出“必須控制”的倡議。
當(dāng)時(shí)我跟他的爭論點(diǎn)是:“control(控制)”預(yù)設(shè)了“power(不管是能源意義上的開關(guān)機(jī)鍵,還是政治意義上的權(quán)力)”,控制意味著必須握有控制的權(quán)力。那么,誰握有這個(gè)權(quán)力?或者說,當(dāng)泰格馬克說“Let us not to lose control”時(shí),誰是這個(gè)“us(我們)”?泰格馬克回答“Of course,this ‘us’ is humanity(當(dāng)然這個(gè)控制者是人類)”。那么問題就是,從人類文明史來看,還沒有以“整體人類”為主體來做過一件事。
要求嚴(yán)格控制人工智能的科學(xué)家們糾結(jié)的點(diǎn)在于“人工智能是個(gè)黑箱”。然而我們有沒有想過,人類本身的智能載體,是一個(gè)包含800億個(gè)神經(jīng)元的神經(jīng)網(wǎng)絡(luò),就今天的腦科學(xué)而言,每個(gè)人對他人而言都是一個(gè)黑箱。我們同樣只能看到一個(gè)人的輸入與輸出,這個(gè)黑箱中有著怎樣的過程,對我們同樣是不透明的。
對于人類智能的“黑箱”,我們發(fā)明了信任——我把信任稱作為智人的一個(gè)根基性的智慧,因?yàn)樗蔀樯鐣?huì)化生活的基礎(chǔ)。用一個(gè)極端的例子,在恐怖襲擊中,“獨(dú)狼”式恐怖襲擊比團(tuán)隊(duì)作案的襲擊更難防范,美國不少槍擊案的作案者,可能之前就是鄰居或同學(xué),毫無征兆。盡管這難以防范,但并沒有讓人們從此不敢再進(jìn)入公共場所或校園。
上觀新聞:您的意思是既然我們選擇把信任給了彼此,為什么不能把它給同樣是黑箱的人工智能?
吳冠軍:不妨把人類的智能和人工智能放在一起看。當(dāng)我們批評今天的人工智能有幻覺、妄想、會(huì)說錯(cuò)時(shí),想一想我們?nèi)擞涘e(cuò)、說錯(cuò)的可能更多。如果我是一個(gè)哲學(xué)領(lǐng)域的外行,想知道德里達(dá)的“解構(gòu)”理論,是問一個(gè)德里達(dá)研究專家還是ChatGPT?后者的答案可能更靠譜,因?yàn)榧词故亲钆5牡吕镞_(dá)專家,也沒有一個(gè)人能把德里達(dá)所有著作全部背下來并隨時(shí)精準(zhǔn)重復(fù)。
德國社會(huì)學(xué)家尼古拉斯·盧曼說,任何信任都是信息透支。什么叫透支?你想盡辦法從各種途徑搜集的關(guān)于對方的信息,都不足以讓你賦予其完全的信任。
劉慈欣在他的科幻小說《三體》中,使用了“猜疑鏈”這個(gè)詞。猜疑一旦取代信任,那么這個(gè)鏈條會(huì)無限延續(xù)。那么,怎么打破“猜疑鏈”?除了通過互動(dòng)溝通降低猜疑程度之外,還需要一次“跳躍”,即一個(gè)付出信任的決斷。這種信任是一種政治智慧,令人類社會(huì)出現(xiàn)合作的可能。人類憑借信任跨越猜疑完成了那么多了不起的事,當(dāng)人工智能出現(xiàn)后,我們有必要重新研究信任問題。
人工智能會(huì)讓我們“變傻”嗎
上觀新聞:您書里有一個(gè)觀點(diǎn)非常有沖擊性,即人工智能可能帶來“人工愚蠢”。一些高校目前已經(jīng)有了新情況——學(xué)生利用AI進(jìn)行學(xué)習(xí)、研究、寫論文已經(jīng)非常普遍,而這種“高效輔助”似乎正在影響教育的達(dá)成。在您看來,除了教育領(lǐng)域以外,“人工愚蠢”還可能波及哪個(gè)領(lǐng)域?
吳冠軍:隨著人工智能變得越來越智能,我們可能變蠢。人類學(xué)觀察告訴我們,赤道附近的文明發(fā)展速度比溫帶慢,恰恰是因?yàn)槟抢飾l件太好了,隨便吃個(gè)果子糖分就很高,不會(huì)餓肚子,更不會(huì)挨凍。智能技術(shù)會(huì)讓我們(至少我們中不少人)不必親身參與智能性的實(shí)踐,長期效應(yīng)就是變得愚蠢。比如,有了計(jì)算器后很多人的心算能力就“廢”掉了。隨著智能技術(shù)的指數(shù)級迭代,人們會(huì)越來越多地放棄參與智能活動(dòng),你以前是有這個(gè)能力的,但是你自己荒廢了。長此以往,人類在生物演化上也會(huì)退化的。
今天,很多人愛刷短視頻。當(dāng)跟抽象文字打交道時(shí),其實(shí)大腦是稍微有點(diǎn)不舒服的,因?yàn)槲覀內(nèi)祟惖囊曈X神經(jīng)一開始不是處理抽象文字的。森林里,我們的祖先看到一只猛獸,馬上逃跑。我們用視覺神經(jīng)去處理抽象的東西時(shí)間不長,就幾千年的時(shí)間,所以閱讀是不舒服的。
但就是因?yàn)檫@些不舒服,使得我們有了更多的抽象思考能力、分析能力。但是用刷短視頻代替閱讀,恰恰會(huì)使得我們的這個(gè)能力閑置,長此以往陷入“退化”。若我們在生物意義上一代一代“變傻”,低智到一定時(shí)候,我們就真的沒法參與真正認(rèn)真的思考了。很多時(shí)候刷短視頻我們“哈哈哈”笑,甚至連笑話都不是一整段的了,故事邏輯都不要了,反正只要某個(gè)點(diǎn),“哈哈哈”就笑起來了。
這樣的狀態(tài),是值得深思的。
物不同而理同,說到生成式人工智能大模型,比如ChatGPT也一樣。學(xué)校里很多開放性課堂作業(yè)需要花時(shí)間去規(guī)劃、去調(diào)研、去爭論、去歸納,現(xiàn)在靠大模型來一番輸入輸出,成品稍加修改提交老師,教育和練習(xí)的基本目標(biāo)達(dá)到了嗎?答案顯然是否定的,是它幫你做了閱讀、調(diào)研、解讀、思考……
當(dāng)用這種方式與人工智能“合作”的時(shí)候,是在允許它代替完成本該我們承擔(dān)的智能性的、大腦皮層參與的任務(wù)。哺乳動(dòng)物中,只有人類的大腦皮層才有那么多皺褶,一層一層長出來不容易,不用了或許很快就會(huì)平下去。
那么是不是說,我們就應(yīng)該為此而禁掉ChatGPT、中斷發(fā)展人工智能?不,我們真正應(yīng)該改變的是與后者的合作方式。
人工智能可以是給教育帶來負(fù)面影響的“代筆槍手”,同樣可以是帶來可靠分析與啟發(fā)的優(yōu)秀科研伴侶。前者讓學(xué)生喪失了學(xué)習(xí)的主體性,后者讓學(xué)者更愿意做科研,因?yàn)樗?jié)省了以前大量的重復(fù)低效非創(chuàng)造性勞動(dòng)的時(shí)間,令做科研這件事的爽點(diǎn)越來越高。
所以我的觀點(diǎn)是,人工智能把我們“變傻”的原因在于我們允許它代替自己的智能實(shí)踐,是自己放棄對該實(shí)踐的主導(dǎo)和參與,而非技術(shù)本身。它使我們變得更“傻”的唯一可能性,是我們自己允許它讓我們變“傻”,在這個(gè)意義上,才會(huì)出現(xiàn)“人工愚蠢”。
當(dāng)下,技術(shù)智能正在指數(shù)級增長,而應(yīng)與之匹配的政治智慧卻鮮有發(fā)展,甚至倒退。
上觀新聞:然而不可否認(rèn)的是,追求舒適和高效是人類的本能,我們該如何抵抗這種技術(shù)浪潮可能帶來的“去智化”?這似乎是無解的,因?yàn)闊o論從效率、從慕強(qiáng)的角度來看,發(fā)展趨勢都很難阻擋,就類似我們無法減少短視頻對長閱讀、長視頻的巨大沖擊。
吳冠軍:首先應(yīng)有所意識。要抵抗“去智化”,就需要重新定位我們?nèi)祟愔堑穆潼c(diǎn)。我在華東師范大學(xué)政治與國際關(guān)系學(xué)院工作,試問,我們能不能讓ChatGPT來為我們解決俄烏沖突或中東問題?它會(huì)回復(fù)你一大堆已有做法的總結(jié)歸納,但問題恰恰是已有做法并不能解決困境。人工智能無法替代智人政治智慧的持續(xù)性創(chuàng)造。
所以,即便人工智能在下圍棋乃至氣象學(xué)與結(jié)構(gòu)分子生物學(xué)研究上超過人類,但它并沒有全部覆蓋人類之智。所以我們需要面對人工智能重組我們自己的智,在這些人工智能無能為力的地方投入更大的精力。
20世紀(jì)50年代諾伯特·維納出過一本書——《人有人的用處:控制論與社會(huì)》,從偶然性的宇宙觀念和歷史上的控制論談起,圍繞著語言、學(xué)習(xí)、有機(jī)體、法律、通信、社會(huì)政策和知識分子的作用等各個(gè)方面討論了控制論的應(yīng)用,展示了從控制論的觀念來觀察社會(huì)所產(chǎn)生的情景。這本書的大背景是工業(yè)革命引發(fā)了關(guān)于機(jī)器能否代替人的討論。在今天這個(gè)智能時(shí)代,面對各種各樣的大模型,我們很有必要重新定義“人的用處”。
人類學(xué)家湯因比晚年寫的一本書里,有一句話說得很好,“我們今天陷入人類自己制造的僵局里面”。這個(gè)僵局不是天災(zāi),是我們?nèi)祟愖约喊炎约嚎ā八馈绷耍卟怀鰜怼┤缃裉斓膰H格局,譬如“人類世”的生態(tài)變異。如何擺脫這個(gè)人類自我施加的困境?未來需要更多思想者參與、投身進(jìn)去。
我的這本書的副標(biāo)題是“技術(shù)—政治與后人類境況”,想表達(dá)的是,技術(shù)取代不了政治,政治的智慧、政治的思考,這是我們今天智人的一個(gè)特別大的用武之地。這不僅是一種選擇,更是一種需求。
在社會(huì)層面上,我們要認(rèn)可有大量的人原來的工作、原來的研究、原來的崗位被取代了。當(dāng)人類面臨這樣的社會(huì)新問題時(shí),尤為需要政治智慧。
上觀新聞:是否可以這樣理解,即從倫理上來說,這是個(gè)體的選擇和命運(yùn);從政治意義上來說,甚至是國家層面、社會(huì)層面的對策,要有提前的思考?
吳冠軍:技術(shù)和政治,構(gòu)成了智人發(fā)展文明的兩個(gè)基石。當(dāng)下,技術(shù)智能正在指數(shù)級增長,而應(yīng)與之匹配的政治智慧卻鮮有發(fā)展,甚至倒退。
上觀新聞:我注意到您書里面有一句話,似乎就講到社會(huì)層面的事,“人類正面臨其文明史上第一次全面出現(xiàn)‘不被需要’的困境”。
吳冠軍:我們需要面對“‘不被需要’的政治學(xué)”,不是政治學(xué)“不被需要”,而是處理智人個(gè)體大范圍“不被需要”的政治學(xué)。我們?nèi)绾蝸響?yīng)對這樣的困境?赫拉利所說的“無用之人”將何去何從?
為解決這一問題,美國曾有人提出“UBI”,即universal basic income(普遍的基本收入),社會(huì)上所有人每月啥也不用干就能獲得1000美元收入,但社會(huì)馬上就面對錢從哪里來的問題。即使如此,UBI依然是政治智慧層面上的一次創(chuàng)新。在人工智能指數(shù)級迭代的奇點(diǎn)時(shí)代,我們需要這樣的政治智慧的探索。
人工智能迅猛發(fā)展的時(shí)代,也必須是政治哲學(xué)的大時(shí)代。今天政治學(xué)上用的核心理念、概念,都還是幾百年前的政治哲人們創(chuàng)新出來的。面對人工智能能動(dòng)者的挑戰(zhàn),人類能動(dòng)者并不應(yīng)直接放棄控制或繼續(xù)幻想能夠擁有控制。能否以富有智慧的方式來面對這個(gè)挑戰(zhàn),這也許就是后人類境況下人類的首要任務(wù)。
重新尋找自己的生態(tài)位
上觀新聞:還有一個(gè)問題現(xiàn)在爭論得很激烈,因?yàn)楦鞣嚼妫詻]有一個(gè)標(biāo)準(zhǔn)答案。現(xiàn)在訓(xùn)練人工智能的模型很多,訓(xùn)練模型需要用人類世界創(chuàng)造出來的東西,特別是媒體、藝術(shù)各方面精神文明的創(chuàng)造作為養(yǎng)料。人類創(chuàng)作者認(rèn)為你把我的創(chuàng)作拿去喂養(yǎng)人工智能長大,用來代替我們,我的版權(quán)必須得到特別保護(hù)和補(bǔ)償。這是一種倫理上的沖突。對此您怎么看?
吳冠軍:我們每個(gè)人理解問題都是出于我們所在時(shí)空環(huán)境的坐標(biāo)。往前推幾百年,“版權(quán)”這個(gè)概念都是沒有的;再過個(gè)幾十年、幾百年,這些詞可能也不存在了。視野的尺度可以放得更大更遠(yuǎn)些。我甚至?xí)f,如果你的作品沒有被人工智能納入訓(xùn)練,或許就意味著你未能在文明史中留下自己的痕跡。
上觀新聞:可是這事關(guān)生存,是飯碗問題。
吳冠軍:是的,所以這不只是個(gè)倫理學(xué)的問題,而是政治學(xué)的問題。單就“版權(quán)”而言,這個(gè)世界一直在變化,你怎么去理解變化?人們覺得沒有變化或不該變化,往往因?yàn)樯虝海闪康某叨忍 ?/span>
上觀新聞:我看到倫敦的創(chuàng)作者們就此提出激烈的反對。對此,訓(xùn)練人工智能模型的技術(shù)總監(jiān)回應(yīng)的是:“我很擔(dān)心如果不讓我們用英國的這個(gè)素材,我們只能用別人的素材,訓(xùn)練出來的東西是不適用于英國的。”
吳冠軍:所以應(yīng)該抓緊時(shí)間重新尋找自己的生態(tài)位。人工智能在很多地方確實(shí)可能做得比我們好,同時(shí)也把我們從中解放出來,讓我們有可能從事更能展現(xiàn)智人之智的活動(dòng)。人工智能發(fā)展的同時(shí),它的擠壓迫使人類第二次生長,重新定義智慧。

《再見智人:技術(shù)—政治與后人類境況》
吳冠軍 著 北京大學(xué)出版社
閱讀原文
記者丨彭德倩
來源丨上觀新聞
編輯丨王越月
編審丨郭文君
更多閱讀:
解放日報(bào)丨重新定義"人的用處"