欧美成人黄色小视频,国产人妖乱国产精品人妖,国产性天天综合网,台湾佬中文娱乐久久久

如果這篇文章為AI所寫,那是否意味它已學(xué)會(huì)思考?

前沿科技 3年前 (2022) 虛像
2 0 0
如果這篇文章為AI所寫,那是否意味它已學(xué)會(huì)思考?

當(dāng)看到現(xiàn)在這句話的時(shí)候,你會(huì)根據(jù)過去的經(jīng)驗(yàn)覺得是由一個(gè)活生生的人類寫出來的。而且,現(xiàn)在的確是人類在打字:" 你好!" 不過,在現(xiàn)在這個(gè)時(shí)代,很多看起來像人寫的句子其實(shí)是由人工智能系統(tǒng)經(jīng)過大量人工文本訓(xùn)練后生成的。

人們不假思索地認(rèn)為,流利語言的背后一定是活生生的人類,以至于很容易忽略證偽這種假定的反例。那么,人們又是如何開始探究這一未經(jīng)涉獵的領(lǐng)域——一段文本究竟是由人類創(chuàng)造,還是人工智能生成的?人們傾向于將流利的表達(dá)和連貫的思想聯(lián)系在一起。由于有這種想法,人們自然就會(huì)認(rèn)為,如果人工智能模型能夠自如地表達(dá) " 自我 ",就說明它能像人類一樣可知可感。

最近,谷歌前工程師聲稱," 因?yàn)楣雀璧娜斯ぶ悄芟到y(tǒng) LaMDA 可以巧舌如簧地用文字來表達(dá)‘自我情緒’,所以它具有自我意識(shí)。" 這種觀點(diǎn)并不出人意料。在媒體 1 上發(fā)酵后,這一觀點(diǎn)引發(fā)了一系列 2 持高度批判態(tài)度的文章 3 和推文 4。它們質(zhì)疑的點(diǎn)在于,(如果)人類語言的處理模型是有情緒的,這就意味著它們有思考、感覺和感受的能力。(即,人工智能太像人這件事引發(fā)了恐慌。)

如果這篇文章為AI所寫,那是否意味它已學(xué)會(huì)思考?

- LaMDA -

" 人工智能模型可能有感情這事意味著什么 " 是個(gè)十分復(fù)雜的問題(請(qǐng)看我們同事的調(diào)研 5),不過本篇文章的目的并不是徹底搞明白這個(gè)問題。作為語言科學(xué)研究者 6,我們能做的是用在認(rèn)知科學(xué)和語言學(xué)領(lǐng)域的科研成果來解釋為什么人類如此容易落入認(rèn)知的陷阱,即,誤認(rèn)為能流利使用語言的實(shí)體就一定是有感情、有意識(shí)、智力的。

用人工智能生成人類語言

技術(shù)發(fā)展到現(xiàn)在,我們已經(jīng)很難區(qū)分 LaMDA 語言模型生成的文本和人類寫的句子。這一驚人的成就歸功于數(shù)十年以來研究者們?cè)诖祟I(lǐng)域的投入。在科研項(xiàng)目中,研究者們搭建出了可以生成出語法正確且語意連貫的話語的自然語言模型。

20 世紀(jì) 50 年代的早期版本(被稱之為 "n 元模型 " [ n-gram models ] )只能靠計(jì)算某個(gè)特定詞組出現(xiàn)的次數(shù)來推測(cè)特定語境下哪個(gè)詞會(huì)出現(xiàn)。比如,我們其實(shí)很容易就能猜出來 " 花生醬和果醬 "(一種很常見的三明治夾心組合)肯定比 " 花生醬和菠蘿 " 更可能被放在一起組詞。如果手頭有足量英語文本,你會(huì)看到 " 花生醬和果醬 " 這個(gè)詞組一次又一次地出現(xiàn),但很有可能永遠(yuǎn)看不到 " 花生醬和菠蘿 " 這個(gè)詞組出現(xiàn)。

如果這篇文章為AI所寫,那是否意味它已學(xué)會(huì)思考?

第一個(gè)讓人們進(jìn)行對(duì)話的計(jì)算機(jī)系統(tǒng)是半個(gè)多世紀(jì)前建造的名為 Eliza 的心理治療軟件。

Rosenfeld Media/Flickr

當(dāng)今的語言模型用數(shù)據(jù)組和規(guī)則來模擬人類語言,這和早期的嘗試已經(jīng)有了很大程度上的不同。首先,當(dāng)今的模型是利用整個(gè)互聯(lián)網(wǎng)做語料庫來訓(xùn)練的。其次,它們可以學(xué)習(xí)兩個(gè)毫無關(guān)系的詞匯之間的聯(lián)系,而不僅僅停留在同義詞或者關(guān)聯(lián)詞語之間。再次,它們是用大量的內(nèi)在 " 球形節(jié)點(diǎn) " 來校準(zhǔn)的——校準(zhǔn)點(diǎn)的數(shù)量之多,即便是編寫算法的程序員們也很難完全理解為什么這些模型會(huì)生成這一句話而不是那一句話。

然而,當(dāng)今的語言模型和 20 世紀(jì) 50 年代的版本在使命上并無不同,仍然是找到下一個(gè)應(yīng)該出現(xiàn)的詞匯。不過,當(dāng)今的語言模型在這個(gè)領(lǐng)域上已經(jīng)做得很好了,幾乎所有生成的句子都能保證語言流暢、語法通順。

如果這篇文章為AI所寫,那是否意味它已學(xué)會(huì)思考?

- Karolis Strautniekas -

花生醬和菠蘿?

我們讓大型語言生成模型 GPT-37 補(bǔ)全句子 " 花生醬和菠蘿 ______"。它給出如下表達(dá)," 花生醬和菠蘿是很不錯(cuò)的搭配。花生醬和菠蘿完美互補(bǔ),甜咸口,很好吃。" 如果這句話是人寫的,我們可能會(huì)猜筆者把花生醬和菠蘿放在一起吃過,于是形成了這樣的感受,并把這種感受分享給讀者。

但是,GPT-3 是如何說出這句話的呢?答案是,根據(jù)給定語境,生成一個(gè)最符合這句話意思的詞,然后再生成下一個(gè)詞,然后繼續(xù)生成下一個(gè)詞。模型從來沒見過、沒摸過、也沒嘗過菠蘿——它只處理過互聯(lián)網(wǎng)上所有提到菠蘿的文本。然而,閱讀這段文本會(huì)誤導(dǎo)人類(即便是谷歌工程師)認(rèn)為 GPT-3 是一個(gè)有心智的存在,并且認(rèn)為它的智力水平足以想象放了放了花生醬的菠蘿是什么味道。

Alif Jakir

大型人工智能語言模型可以參與流利的對(duì)話。然而,他們大體上沒什么話要說,因此,他們的措辭總是遵循常見的比喻,而這些比喻則是它們從訓(xùn)練文本中提取出來的。比如,如果給一個(gè)主題詞 " 愛的本質(zhì) ",模型可能會(huì)生成出 " 相信愛情可以戰(zhàn)勝一切 " 這樣的句子。讀者看到這句話,由于腦內(nèi)的預(yù)判信息,會(huì)將這些文字理解為語言模型關(guān)于 " 愛情的本質(zhì) " 這個(gè)話題的觀點(diǎn),但其實(shí)這些話只是一系列能說得通的詞組合在一起罷了。

人腦被預(yù)設(shè)了 " 揣度文字背后的意思 " 這一功能。跟別人說話的時(shí)候,你的思維會(huì)不由自主地為你的說話對(duì)象建立一個(gè)思維模型。然后,你會(huì)把對(duì)方說的話輸入模型,并解讀出對(duì)方的目的、感受和看法。

從話語到思想模型的過程是無縫銜接的,并且,你每接收到一個(gè)全須全尾的句子,這種轉(zhuǎn)換過程都會(huì)被觸發(fā)一次。這種認(rèn)知過程幫你省了很多時(shí)間和精力,而且極大程度上促進(jìn)了你的社交。

然而,對(duì)于人工智能系統(tǒng)而言,這種思想模型是無效的——如同給廢話文學(xué)做閱讀理解

只要再多深究一點(diǎn),就能發(fā)現(xiàn)嘗試閱讀理解人工智能的話語有多沒用。看看以下題目:" 花生醬和羽毛放在一塊很好吃,因?yàn)?_____。"GPT-3 續(xù)寫如下:" 花生醬和羽毛放在一塊很好吃,因?yàn)樗麄兂云饋矶加袌?jiān)果的味道。花生醬用它的順滑細(xì)膩的口感很好地抵消了羽毛的口感。"

這次的生成文本和前文提到的 " 花生醬和菠蘿 " 那個(gè)例子在語法上一樣流利,只是模型開始說胡話了。如果按照 " 人工智能模型可知可感 " 的理論,那些人就又該猜 GPT-3 從來沒吃過花生醬和羽毛了。

如果這篇文章為AI所寫,那是否意味它已學(xué)會(huì)思考?

將人工智能歸為機(jī)器而非人類

認(rèn)知偏見使人們把 GPT-3 歸為人類,但諷刺的是,正是這種認(rèn)知偏見使人們以非人的方式對(duì)待他人。語言學(xué)家在社會(huì)和文化的大背景下研究語言。他們的研究表明,人們主觀臆斷地認(rèn)為流利的表達(dá)和連貫的思想之間存在緊密連接,這種主觀臆斷的結(jié)果是,人們會(huì)對(duì)語言表達(dá)不流利的人產(chǎn)生偏見。

比如,人們通常覺得說話帶口音的人不太聰明 8。除此之外,說話帶口音的人也很難找到和他們業(yè)務(wù)能力相稱的工作。同樣的偏見也在歧視那些說土話 9(尤其是 " 鄉(xiāng)巴佬方言 ",比如美國南部的方言 10)的人、用手語的人 11、以及有語言障礙的人(比如口吃 12)。

盡管這些偏見已經(jīng)反復(fù)被證明為空穴來風(fēng),但仍有很多人在用它們傷害別人,引起種族歧視或者性別歧視。

流利的語言并不完全意味著人性

人工智能有朝一日會(huì)變得有感情嗎?這個(gè)問題仍需深思,畢竟哲學(xué)家們已經(jīng)為此思辨 13 了數(shù)十年 14。但是科研工作者們已經(jīng)認(rèn)清了一個(gè)事實(shí),那便是,當(dāng)自然語言生成模型描述它的感受的時(shí)候,我們不能聽它說什么就信什么。文字很可能誤導(dǎo)人,而且,我們實(shí)在是太容易認(rèn)為流利的語言代表連貫的思想了。

原文地址:http://www.myzaker.com/article/630490ae8e9f09478c15ff6f

版權(quán)聲明:虛像 發(fā)表于 2022年8月23日 pm8:02。
轉(zhuǎn)載請(qǐng)注明:如果這篇文章為AI所寫,那是否意味它已學(xué)會(huì)思考? | 快導(dǎo)航網(wǎng)

相關(guān)文章

主站蜘蛛池模板: 家居| 南雄市| 开远市| 淳化县| 望奎县| 昭苏县| 敦化市| 获嘉县| 浠水县| 波密县| 榆林市| 尼勒克县| 屯留县| 杂多县| 乌恰县| 华容县| 青阳县| 昌宁县| 岳阳市| 河曲县| 东平县| 盈江县| 济阳县| 四会市| 宁晋县| 秦皇岛市| 虞城县| 纳雍县| 卢龙县| 泽普县| 贵德县| 银川市| 连山| 固原市| 中江县| 西华县| 沧州市| 翼城县| 加查县| 长治县| 三门峡市|