我們讓 ChatGPT 給這篇文章寫了一個開頭:
語言,正在變得越來越熟悉——也越來越陌生。
在我們這個由算法驅動的時代,表達不再只是人與人之間的橋梁,也成為人與機器之間的共鳴器。
當越來越多的人開始使用 AI 工具協(xié)助寫作與交流,我們的語言,正在悄然發(fā)生變化。不是突然的,也不是劇烈的,而是一種潛移默化的趨同:詞匯變得標準,語氣更趨中性,情緒被規(guī)整得恰到好處。
你可能已經察覺到了這一點——一些句子聽起來 " 哪里怪怪的 ",太整潔,太流暢,太像 AI。
人們把這種風格稱為:"AI 味 "。
這不僅僅是一個風格問題,它關乎我們如何看待創(chuàng)作,如何信任彼此,甚至如何定義 " 人 " 的表達方式。
于是,一個看似簡單的判斷題浮現(xiàn)出來:這段文字,是人寫的,還是 AI 寫的?而更深一層的問題也隨之而來:如果連我們自己也開始說得像 AI,那么人類表達的界限,又該如何劃定?
讓 ChatGPT 用 AI 味討論 AI 味,實在是別有一番風味。
別擔心,接下來的正文,都是手打的。如果有 AI 味,那就正好切題了。
一、" 時間的褶皺 "
人們已經受不了 AI 味了。
有人總結出 DeepSeek 常用詞:拓撲、克萊因瓶、第 X 根睫毛、青苔、賽博、齒輪、白襯衫……如果有傷口,那一定是 " 傷口 0.01 公分 ",如果時長三分半,那一定是 " 持續(xù)三分半鐘 ",如果出現(xiàn)眼睛,那八成是 " 暗紅色的瞳仁 "。
少女肩胛骨在晨光中震顫如振翅的拓撲曲面,攥著錄取通知書的指節(jié)泛起 1.7 厘米寬的骨白色。她沿著木質階梯向下疾奔,時間褶皺里翻涌出薄荷糖的量子糾纏——三年前母親在銹蝕的郵箱前咳出的暗紅色血漬此刻正以熵增速率在記憶里結痂。通知書牛皮紙的粗糲聲息穿透 0.3 秒的沉默,將螢火蟲群般的未來釘死在樓梯轉角蛛網狀的光影中,而鞋跟敲擊聲正把克萊因瓶底的嗚咽壓成十七歲盛夏的標本。
越來越多的人在社交媒體上抱怨,稱網上充斥著 " 一眼 DeepSeek" 的文案,讓人 " 想吐 "。他們呼吁博主們不要再依賴 AI 寫文案了,或者至少潤色一下,讓文案更有人味兒也好。比如有用戶評論說,"ds 的華麗風,有種無病呻吟的感覺 "" 在千篇一律的 AI 文中那一抹人味的獨特審美和思想彌足珍貴 "。
于是,一場 "AI 與人的狼人殺 " 開始了,一邊是不滿處處 AI 的人當 "AI 警察 ",一言不合就 " 出警 ";一邊是部分被指責是 AI 代筆的人無辜發(fā)言:我真的沒用 AI!都是自己寫的!
這實在是一個有意思的現(xiàn)象。
首先,如果 AI 那么好用,我們?yōu)槭裁磿敲从憛?"AI 味 "?
其次,一個人該不該以及要怎么自證自己寫的東西不是出自 AI 之手?
最后,我們的語言里也開始出現(xiàn) "AI 味 " 了嗎?如果是,該去抵抗這種趨勢嗎?
好在,人類總是在思考,有的問題科學家已經開始研究了。
二、你聽起來像 ChatGPT
你的感覺沒有錯,我們的語言可能真的在被 AI 影響。
這一點,英文世界已經有研究可以參考。
加入任何一個 Zoom 會議,或隨便點開一個 YouTube 視頻,不難察覺到 AI 語言風格。像 "prowess(高超技藝)""tapestry(豐富多彩的圖景)" 這樣的詞,正是 ChatGPT 所偏愛的詞匯,正在悄然進入歐美詞匯庫;而 "bolster(支持)""unearth(挖掘)""nuance(細微差別)" 這些 ChatGPT 不太常用的詞,則使用頻率正在下降。
德國馬克斯 · 普朗克人類發(fā)展研究所的研究人員分析了近 28 萬個來自學術頻道的 YouTube 視頻,發(fā)現(xiàn)在 ChatGPT 發(fā)布后的 18 個月里,使用者使用 "meticulous(細致)""delve(深入)""realm(境界)" 和 "adept(熟練)" 等詞匯的頻率比三年前高出了 51%。
而且研究者表示,AI 常用詞匯滲透進人類的語言系統(tǒng),還只是 " 冰山一角 "。
盡管目前的大多數(shù)研究仍主要聚焦在詞匯層面,但研究人員懷疑,AI 的影響已經開始滲透到表達方式和語氣之中——發(fā)言更長、更有結構,以及情緒表達更加克制。
至于討厭別人用 AI,這一點也有相關研究涉及。
康奈爾大學的一項研究發(fā)現(xiàn),當兩個人在文字聊天,一方使用 AI 來回復,往往效果很好,因為 AI 給出的回復是很正面的。但這僅限于一方完全不知道對方用了 AI,且對此沒有懷疑的情況下。
也就是說,讓語言起作用的,不僅僅是語言本身承載的內容,人們還會從中去尋找其他線索。如果語言出自 AI,那么那個人自己就是 " 隱身 " 的,這會讓人覺得喪失了溝通的部分意義。
研究人員進一步指出,AI 正在決定什么是 " 正確的 "" 標準的 " 英語。而當我們周圍每個人的說話都開始聽起來 " 標準無誤 ",我們也就隨之失去了那些口誤、俚語、帶點走音的語句——而這些恰恰是脆弱、真實和 " 人性 " 本身的信號。
三、Delve 入侵
好,現(xiàn)在我們知道,已經有若干研究在說一件事:ChatGPT 有一些偏好,正在侵染人類的語言習慣。
如果我們繼續(xù)追問,事情會變得更加有趣—— ChatGPT 為什么會有這些語言偏好?
大模型——尤其是早期的大模型——是基于人類的文本進行訓練的。也就是說,喂進去的都是人類的話,為什么會出來和人類不同的 "AI 味 " 呢?
我們可以用 Delve 這個詞來舉例。
Delve 是一個真實存在的英文詞匯,用作動詞時的意思是 " 深入研究 "" 探究 "" 鉆研 "。
在歐美社會,這個詞非常沒有存在感,幾乎無人會在日常使用它。然而,ChatGPT 格外喜歡這個詞。進而,人類也開始更頻繁地使用它。這一點甚至讓一些編輯開始主動屏蔽這個詞,因為它的出現(xiàn)頻率高到 " 像是一種流行病 "。
早在 2024 年 3 月,就有人指出在醫(yī)學論文中 Delve 一詞的使用率飆升。從圖表中可以看到,2023 年這個詞的使用率突然激增,超過 400%,是幾年前的百倍,而 ChatGPT 是 2022 年年底發(fā)布的。
彼時,衛(wèi)報發(fā)表了一篇名為《非洲廉價的外包勞動力如何塑造 AI 英語》的文章,將 ChatGPT 頻繁使用 "Delve" 的起源指向了非洲大陸。
大模型在海量數(shù)據上進行數(shù)天甚至數(shù)周的訓練后,必須采取措施確保人工智能不會偏離軌道。它必須 " 對齊 "。為了實現(xiàn)這一點,需要使用額外的監(jiān)督學習步驟。于是,人工標注員登場,評估語言模型的輸出。然后,他們的評估結果將用于微調模型。
而這些人工標注員來自何方呢?
將大模型變成一個有用的聊天機器人,需要投入數(shù)十萬小時的人工,很自然地,大型 AI 公司將這項工作主要外包給廉價的地區(qū),尤其是官方語言也是英語的國家。
而非洲,正是這樣一片 " 沃土 "。
《衛(wèi)報》指出,Delve 這個詞,在歐美國家很少被用到,但是在尼日利亞的商務英語中極其常用。
因此,ChatGPT 對 Delve 一詞的偏愛,很有可能(只能說有可能而非全然確定,因為大模型說到底仍然是 " 黑匣子 ")是被非洲人工標注員無意識打上的烙印。
若果真如此,那歐美社會利用非洲廉價勞動力,反過來卻影響了自己的語言系統(tǒng),實在是讓人感慨。
不管怎么說,人類與 AI 的互相影響還將持續(xù)下去。如果你很在意人類有 "AI 味 ",也大可以樂觀點,畢竟幾年之后,可能人味和 AI 味已經不分你我、難以區(qū)分了。
本文來自微信公眾號:直面 AI,作者:小金牙,編輯:肖陽