
當(dāng)看到現(xiàn)在這句話的時(shí)候,你會(huì)根據(jù)過(guò)去的經(jīng)驗(yàn)覺(jué)得是由一個(gè)活生生的人類寫出來(lái)的。而且,現(xiàn)在的確是人類在打字:" 你好!" 不過(guò),在現(xiàn)在這個(gè)時(shí)代,很多看起來(lái)像人寫的句子其實(shí)是由人工智能系統(tǒng)經(jīng)過(guò)大量人工文本訓(xùn)練后生成的。
人們不假思索地認(rèn)為,流利語(yǔ)言的背后一定是活生生的人類,以至于很容易忽略證偽這種假定的反例。那么,人們又是如何開(kāi)始探究這一未經(jīng)涉獵的領(lǐng)域——一段文本究竟是由人類創(chuàng)造,還是人工智能生成的?人們傾向于將流利的表達(dá)和連貫的思想聯(lián)系在一起。由于有這種想法,人們自然就會(huì)認(rèn)為,如果人工智能模型能夠自如地表達(dá) " 自我 ",就說(shuō)明它能像人類一樣可知可感。
最近,谷歌前工程師聲稱," 因?yàn)楣雀璧娜斯ぶ悄芟到y(tǒng) LaMDA 可以巧舌如簧地用文字來(lái)表達(dá)‘自我情緒’,所以它具有自我意識(shí)。" 這種觀點(diǎn)并不出人意料。在媒體 1 上發(fā)酵后,這一觀點(diǎn)引發(fā)了一系列 2 持高度批判態(tài)度的文章 3 和推文 4。它們質(zhì)疑的點(diǎn)在于,(如果)人類語(yǔ)言的處理模型是有情緒的,這就意味著它們有思考、感覺(jué)和感受的能力。(即,人工智能太像人這件事引發(fā)了恐慌。)

- LaMDA -
" 人工智能模型可能有感情這事意味著什么 " 是個(gè)十分復(fù)雜的問(wèn)題(請(qǐng)看我們同事的調(diào)研 5),不過(guò)本篇文章的目的并不是徹底搞明白這個(gè)問(wèn)題。作為語(yǔ)言科學(xué)研究者 6,我們能做的是用在認(rèn)知科學(xué)和語(yǔ)言學(xué)領(lǐng)域的科研成果來(lái)解釋為什么人類如此容易落入認(rèn)知的陷阱,即,誤認(rèn)為能流利使用語(yǔ)言的實(shí)體就一定是有感情、有意識(shí)、智力的。
用人工智能生成人類語(yǔ)言
技術(shù)發(fā)展到現(xiàn)在,我們已經(jīng)很難區(qū)分 LaMDA 語(yǔ)言模型生成的文本和人類寫的句子。這一驚人的成就歸功于數(shù)十年以來(lái)研究者們?cè)诖祟I(lǐng)域的投入。在科研項(xiàng)目中,研究者們搭建出了可以生成出語(yǔ)法正確且語(yǔ)意連貫的話語(yǔ)的自然語(yǔ)言模型。
20 世紀(jì) 50 年代的早期版本(被稱之為 "n 元模型 " [ n-gram models ] )只能靠計(jì)算某個(gè)特定詞組出現(xiàn)的次數(shù)來(lái)推測(cè)特定語(yǔ)境下哪個(gè)詞會(huì)出現(xiàn)。比如,我們其實(shí)很容易就能猜出來(lái) " 花生醬和果醬 "(一種很常見(jiàn)的三明治夾心組合)肯定比 " 花生醬和菠蘿 " 更可能被放在一起組詞。如果手頭有足量英語(yǔ)文本,你會(huì)看到 " 花生醬和果醬 " 這個(gè)詞組一次又一次地出現(xiàn),但很有可能永遠(yuǎn)看不到 " 花生醬和菠蘿 " 這個(gè)詞組出現(xiàn)。

第一個(gè)讓人們進(jìn)行對(duì)話的計(jì)算機(jī)系統(tǒng)是半個(gè)多世紀(jì)前建造的名為 Eliza 的心理治療軟件。
—
Rosenfeld Media/Flickr
當(dāng)今的語(yǔ)言模型用數(shù)據(jù)組和規(guī)則來(lái)模擬人類語(yǔ)言,這和早期的嘗試已經(jīng)有了很大程度上的不同。首先,當(dāng)今的模型是利用整個(gè)互聯(lián)網(wǎng)做語(yǔ)料庫(kù)來(lái)訓(xùn)練的。其次,它們可以學(xué)習(xí)兩個(gè)毫無(wú)關(guān)系的詞匯之間的聯(lián)系,而不僅僅停留在同義詞或者關(guān)聯(lián)詞語(yǔ)之間。再次,它們是用大量的內(nèi)在 " 球形節(jié)點(diǎn) " 來(lái)校準(zhǔn)的——校準(zhǔn)點(diǎn)的數(shù)量之多,即便是編寫算法的程序員們也很難完全理解為什么這些模型會(huì)生成這一句話而不是那一句話。
然而,當(dāng)今的語(yǔ)言模型和 20 世紀(jì) 50 年代的版本在使命上并無(wú)不同,仍然是找到下一個(gè)應(yīng)該出現(xiàn)的詞匯。不過(guò),當(dāng)今的語(yǔ)言模型在這個(gè)領(lǐng)域上已經(jīng)做得很好了,幾乎所有生成的句子都能保證語(yǔ)言流暢、語(yǔ)法通順。

- Karolis Strautniekas -
花生醬和菠蘿?
我們讓大型語(yǔ)言生成模型 GPT-37 補(bǔ)全句子 " 花生醬和菠蘿 ______"。它給出如下表達(dá)," 花生醬和菠蘿是很不錯(cuò)的搭配。花生醬和菠蘿完美互補(bǔ),甜咸口,很好吃。" 如果這句話是人寫的,我們可能會(huì)猜筆者把花生醬和菠蘿放在一起吃過(guò),于是形成了這樣的感受,并把這種感受分享給讀者。
但是,GPT-3 是如何說(shuō)出這句話的呢?答案是,根據(jù)給定語(yǔ)境,生成一個(gè)最符合這句話意思的詞,然后再生成下一個(gè)詞,然后繼續(xù)生成下一個(gè)詞。模型從來(lái)沒(méi)見(jiàn)過(guò)、沒(méi)摸過(guò)、也沒(méi)嘗過(guò)菠蘿——它只處理過(guò)互聯(lián)網(wǎng)上所有提到菠蘿的文本。然而,閱讀這段文本會(huì)誤導(dǎo)人類(即便是谷歌工程師)認(rèn)為 GPT-3 是一個(gè)有心智的存在,并且認(rèn)為它的智力水平足以想象放了放了花生醬的菠蘿是什么味道。
Alif Jakir
大型人工智能語(yǔ)言模型可以參與流利的對(duì)話。然而,他們大體上沒(méi)什么話要說(shuō),因此,他們的措辭總是遵循常見(jiàn)的比喻,而這些比喻則是它們從訓(xùn)練文本中提取出來(lái)的。比如,如果給一個(gè)主題詞 " 愛(ài)的本質(zhì) ",模型可能會(huì)生成出 " 相信愛(ài)情可以戰(zhàn)勝一切 " 這樣的句子。讀者看到這句話,由于腦內(nèi)的預(yù)判信息,會(huì)將這些文字理解為語(yǔ)言模型關(guān)于 " 愛(ài)情的本質(zhì) " 這個(gè)話題的觀點(diǎn),但其實(shí)這些話只是一系列能說(shuō)得通的詞組合在一起罷了。
人腦被預(yù)設(shè)了 " 揣度文字背后的意思 " 這一功能。跟別人說(shuō)話的時(shí)候,你的思維會(huì)不由自主地為你的說(shuō)話對(duì)象建立一個(gè)思維模型。然后,你會(huì)把對(duì)方說(shuō)的話輸入模型,并解讀出對(duì)方的目的、感受和看法。
從話語(yǔ)到思想模型的過(guò)程是無(wú)縫銜接的,并且,你每接收到一個(gè)全須全尾的句子,這種轉(zhuǎn)換過(guò)程都會(huì)被觸發(fā)一次。這種認(rèn)知過(guò)程幫你省了很多時(shí)間和精力,而且極大程度上促進(jìn)了你的社交。
然而,對(duì)于人工智能系統(tǒng)而言,這種思想模型是無(wú)效的——如同給廢話文學(xué)做閱讀理解。
只要再多深究一點(diǎn),就能發(fā)現(xiàn)嘗試閱讀理解人工智能的話語(yǔ)有多沒(méi)用。看看以下題目:" 花生醬和羽毛放在一塊很好吃,因?yàn)?_____。"GPT-3 續(xù)寫如下:" 花生醬和羽毛放在一塊很好吃,因?yàn)樗麄兂云饋?lái)都有堅(jiān)果的味道。花生醬用它的順滑細(xì)膩的口感很好地抵消了羽毛的口感。"
這次的生成文本和前文提到的 " 花生醬和菠蘿 " 那個(gè)例子在語(yǔ)法上一樣流利,只是模型開(kāi)始說(shuō)胡話了。如果按照 " 人工智能模型可知可感 " 的理論,那些人就又該猜 GPT-3 從來(lái)沒(méi)吃過(guò)花生醬和羽毛了。

將人工智能歸為機(jī)器而非人類
認(rèn)知偏見(jiàn)使人們把 GPT-3 歸為人類,但諷刺的是,正是這種認(rèn)知偏見(jiàn)使人們以非人的方式對(duì)待他人。語(yǔ)言學(xué)家在社會(huì)和文化的大背景下研究語(yǔ)言。他們的研究表明,人們主觀臆斷地認(rèn)為流利的表達(dá)和連貫的思想之間存在緊密連接,這種主觀臆斷的結(jié)果是,人們會(huì)對(duì)語(yǔ)言表達(dá)不流利的人產(chǎn)生偏見(jiàn)。
比如,人們通常覺(jué)得說(shuō)話帶口音的人不太聰明 8。除此之外,說(shuō)話帶口音的人也很難找到和他們業(yè)務(wù)能力相稱的工作。同樣的偏見(jiàn)也在歧視那些說(shuō)土話 9(尤其是 " 鄉(xiāng)巴佬方言 ",比如美國(guó)南部的方言 10)的人、用手語(yǔ)的人 11、以及有語(yǔ)言障礙的人(比如口吃 12)。
盡管這些偏見(jiàn)已經(jīng)反復(fù)被證明為空穴來(lái)風(fēng),但仍有很多人在用它們傷害別人,引起種族歧視或者性別歧視。
流利的語(yǔ)言并不完全意味著人性
人工智能有朝一日會(huì)變得有感情嗎?這個(gè)問(wèn)題仍需深思,畢竟哲學(xué)家們已經(jīng)為此思辨 13 了數(shù)十年 14。但是科研工作者們已經(jīng)認(rèn)清了一個(gè)事實(shí),那便是,當(dāng)自然語(yǔ)言生成模型描述它的感受的時(shí)候,我們不能聽(tīng)它說(shuō)什么就信什么。文字很可能誤導(dǎo)人,而且,我們實(shí)在是太容易認(rèn)為流利的語(yǔ)言代表連貫的思想了。
原文地址:http://www.myzaker.com/article/630490ae8e9f09478c15ff6f
轉(zhuǎn)載請(qǐng)注明:如果這篇文章為AI所寫,那是否意味它已學(xué)會(huì)思考? | 快導(dǎo)航網(wǎng)






川公網(wǎng)安備51012402001058號(hào)