2023 年是人工智能的一年,從聊天機(jī)器人 ChatGPT,到 AI 創(chuàng)作的歌曲參加格萊美獎(jiǎng),再到好萊塢的演員和編劇抗議大制片公司過(guò)度使用自動(dòng)化技術(shù),人工智能已無(wú)處不在。
IT之家注意到,近日美國(guó)南佛羅里達(dá)大學(xué)的一項(xiàng)研究表明,AI 生成的文字內(nèi)容可能已經(jīng)無(wú)法與人類(lèi)寫(xiě)的區(qū)分開(kāi)來(lái)。研究作者邀請(qǐng)了一些語(yǔ)言學(xué)專(zhuān)家參與了這個(gè)項(xiàng)目,他們都是世界頂級(jí)語(yǔ)言學(xué)期刊的專(zhuān)家,但即使是這樣的專(zhuān)業(yè)人士,也發(fā)現(xiàn)很難識(shí)別出 AI 寫(xiě)的內(nèi)容?偟膩(lái)說(shuō),他們只能正確區(qū)分出 39% 的情況。
南佛羅里達(dá)大學(xué)世界語(yǔ)言系的學(xué)者馬修 凱斯勒與孟菲斯大學(xué)應(yīng)用語(yǔ)言學(xué)助理教授 J.埃利奧特 卡薩爾合作,讓 72 名語(yǔ)言學(xué)專(zhuān)家審閱一系列研究摘要,并判斷哪些是由人類(lèi)寫(xiě)的,哪些是由 AI 生成的。具體來(lái)說(shuō),每位參與的專(zhuān)家必須檢查四個(gè)寫(xiě)作樣本。結(jié)果沒(méi)有一個(gè)專(zhuān)家能夠正確識(shí)別所有四個(gè)樣本,有 13% 的專(zhuān)家全部答錯(cuò)了。
基于這些結(jié)果,研究作者不得不得出結(jié)論:大多數(shù)現(xiàn)代教授都無(wú)法區(qū)分學(xué)生自己寫(xiě)的內(nèi)容和 AI 生成的內(nèi)容。研究者推測(cè),在不久的將來(lái)可能需要開(kāi)發(fā)軟件來(lái)幫助教授識(shí)別 AI 寫(xiě)的內(nèi)容。
語(yǔ)言學(xué)專(zhuān)家們?cè)噲D使用一些理由來(lái)判斷寫(xiě)作樣本,例如識(shí)別某些語(yǔ)言和風(fēng)格特征。然而,最終這些方法基本上都失敗了 —— 導(dǎo)致整體正確識(shí)別率只有 38.9%。
總之,凱斯勒和卡薩爾都得出結(jié)論:像 ChatGPT 這樣的聊天機(jī)器人確實(shí)可以像大多數(shù)人類(lèi)一樣(甚至在某些情況下更好地)寫(xiě)出短篇文章。AI 通常不會(huì)犯語(yǔ)法錯(cuò)誤。然而,研究作者指出,在長(zhǎng)篇寫(xiě)作方面,人類(lèi)仍然占據(jù)優(yōu)勢(shì)。
“對(duì)于長(zhǎng)文本,AI 已經(jīng)被證明會(huì)產(chǎn)生幻覺(jué)和虛構(gòu)內(nèi)容,使得更容易識(shí)別出它是由 AI 生成的!眲P斯勒總結(jié)說(shuō)。
凱斯勒希望這項(xiàng)工作能夠促進(jìn)人們的討論,關(guān)注在研究和教育領(lǐng)域使用 AI 時(shí)建立明確的道德和指導(dǎo)原則的迫切需要。該研究發(fā)表在《應(yīng)用語(yǔ)言學(xué)研究方法》雜志上。