DeepSeek式的AI味,越来越让人受不了了
文 | 字母榜,作者 | 小金牙,编辑 | 肖阳
我们让ChatGPT给这篇文章写了一个开头:
语言,正在变得越来越熟悉——也越来越陌生。
在我们这个由算法驱动的时代,表达不再只是人与人之间的桥梁,也成为人与机器之间的共鸣器。
当越来越多的人开始使用 AI 工具协助写作与交流,我们的语言,正在悄然发生变化。不是突然的,也不是剧烈的,而是一种潜移默化的趋同:词汇变得标准,语气更趋中性,情绪被规整得恰到好处。
你可能已经察觉到了这一点——一些句子听起来“哪里怪怪的”,太整洁,太流畅,太像 AI。
人们把这种风格称为:“AI 味”。
这不仅仅是一个风格问题,它关乎我们如何看待创作,如何信任彼此,甚至如何定义“人”的表达方式。
于是,一个看似简单的判断题浮现出来:这段文字,是人写的,还是AI写的?而更深一层的问题也随之而来:如果连我们自己也开始说得像AI,那么人类表达的界限,又该如何划定?
让ChatGPT用AI味讨论AI味,实在是别有一番风味。
别担心,接下来的正文,都是手打的。如果有AI味,那就正好切题了。
“时间的褶皱”
人们已经受不了AI味了。
有人总结出DeepSeek常用词:拓扑、克莱因瓶、第X根睫毛、青苔、赛博、齿轮、白衬衫……如果有伤口,那一定是“伤口0.01公分”,如果时长三分半,那一定是“持续三分半钟”,如果出现眼睛,那八成是“暗红色的瞳仁”。
“一个少女拿着录取通知书跑下楼”这句话,放到DeepSeek里洗一遍就变成了:
少女肩胛骨在晨光中震颤如振翅的拓扑曲面,攥着录取通知书的指节泛起1.7厘米宽的骨白色。她沿着木质阶梯向下疾奔,时间褶皱里翻涌出薄荷糖的量子纠缠——三年前母亲在锈蚀的邮箱前咳出的暗红色血渍此刻正以熵增速率在记忆里结痂。通知书牛皮纸的粗粝声息穿透0.3秒的沉默,将萤火虫群般的未来钉死在楼梯转角蛛网状的光影中,而鞋跟敲击声正把克莱因瓶底的呜咽压成十七岁盛夏的标本。
越来越多的人在社交媒体上抱怨,称网上充斥着“一眼DeepSeek”的文案,让人“想吐”。他们呼吁博主们不要再依赖AI写文案了,或者至少润色一下,让文案更有人味儿也好。比如有用户评论说,“ds的华丽风,有种无病呻吟的感觉”“在千篇一律的AI文中那一抹人味的独特审美和思想弥足珍贵”。
DeepSeek的赛博浪漫散文风格尚且有迹可循,其他的常用AI工具如ChatGPT的“味道”则更加微妙。它更偏好结构完整、语气温和、带引导性的句子,经常使用“探索”“可能性”“值得注意的是”等模糊但有礼貌的表达。
于是,一场“AI与人的狼人杀”开始了,一边是不满处处AI的人当“AI警察”,一言不合就“出警”;一边是部分被指责是AI代笔的人无辜发言:我真的没用AI!都是自己写的!
小红书用户@椰汁糕不睡了就分享,自己写的口播视频文案,因为用了“蜘蛛”这个意象,被老板指责“你太依赖AI”“我需要一个认真工作、对珠宝有些热爱、愿意了解的人,机器人我不需要”。让她百口莫辩。
但恐怖的是,还有另一些人绝望地发现,明明是自己写的东西,却真的隐隐飘出一阵阵AI味。他们在电脑里输入“时间的皱褶”,又慌乱地赶紧删掉。
这实在是一个有意思的现象。
首先,如果AI那么好用,我们为什么会那么讨厌“AI味”?
其次,一个人该不该以及要怎么自证自己写的东西不是出自AI之手?
最后,我们的语言里也开始出现“AI味”了吗?如果是,该去抵抗这种趋势吗?
好在,人类总是在思考,有的问题科学家已经开始研究了。
你听起来像ChatGPT
你的感觉没有错,我们的语言可能真的在被AI影响。
这一点,英文世界已经有研究可以参考。
加入任何一个 Zoom 会议,或随便点开一个YouTube视频,不难察觉到AI语言风格。像“prowess(高超技艺)”“tapestry(丰富多彩的图景)”这样的词,正是 ChatGPT 所偏爱的词汇,正在悄然进入欧美词汇库;而“bolster(支持)”“unearth(挖掘)”“nuance(细微差别)”这些 ChatGPT 不太常用的词,则使用频率正在下降。
德国马克斯·普朗克人类发展研究所的研究人员分析了近28万个来自学术频道的YouTube视频,发现在ChatGPT发布后的18个月里,使用者使用“meticulous(细致)”“delve(深入)”“realm(境界)”和“adept(熟练)”等词汇的频率比三年前高出了51%。
值得注意的是,说话的人往往没有意识到自己的语言正在变化。
而且研究者表示,AI常用词汇渗透进人类的语言系统,还只是“冰山一角”。
尽管目前的大多数研究仍主要聚焦在词汇层面,但研究人员怀疑,AI的影响已经开始渗透到表达方式和语气之中——发言更长、更有结构,以及情绪表达更加克制。
至于讨厌别人用AI,这一点也有相关研究涉及。
康奈尔大学的一项研究发现,当两个人在文字聊天,一方使用AI来回复,往往效果很好,因为AI给出的回复是很正面的。但这仅限于一方完全不知道对方用了AI,且对此没有怀疑的情况下。
一旦一方怀疑或者认为对方用了AI,那完全会起到反效果。研究人员表示:“我们是通过语言线索来感知对方的。”
也就是说,让语言起作用的,不仅仅是语言本身承载的内容,人们还会从中去寻找其他线索。如果语言出自AI,那么那个人自己就是“隐身”的,这会让人觉得丧失了沟通的部分意义。
研究人员进一步指出,AI正在决定什么是“正确的”“标准的”英语。而当我们周围每个人的说话都开始听起来“标准无误”,我们也就随之失去了那些口误、俚语、带点走音的语句——而这些恰恰是脆弱、真实和“人性”本身的信号。
Delve入侵
好,现在我们知道,已经有若干研究在说一件事:ChatGPT有一些偏好,正在侵染人类的语言习惯。
如果我们继续追问,事情会变得更加有趣——ChatGPT为什么会有这些语言偏好?
大模型——尤其是早期的大模型——是基于人类的文本进行训练的。也就是说,喂进去的都是人类的话,为什么会出来和人类不同的“AI味”呢?
我们可以用Delve这个词来举例。
Delve是一个真实存在的英文词汇,用作动词时的意思是“深入研究”“探究”“钻研”。
在欧美社会,这个词非常没有存在感,几乎无人会在日常使用它。然而,ChatGPT格外喜欢这个词。进而,人类也开始更频繁地使用它。这一点甚至让一些编辑开始主动屏蔽这个词,因为它的出现频率高到“像是一种流行病”。
早在2024年3月,就有人指出在医学论文中Delve一词的使用率飙升。从图表中可以看到,2023年这个词的使用率突然激增,超过400%,是几年前的百倍,而ChatGPT是2022年年底发布的。
但有一个问题一直困扰着机器学习专家:如果ChatGPT是基于人类数据进行训练的,它怎么会突然想到要这么频繁地使用“Delve”?这是一种自然而然的行为吗?为什么偏偏是“Delve”?
彼时,卫报发表了一篇名为《非洲廉价的外包劳动力如何塑造AI英语》的文章,将ChatGPT频繁使用“Delve”的起源指向了非洲大陆。
不要忘了,大模型的训练中,少不了人工标注员。
大模型在海量数据上进行数天甚至数周的训练后,必须采取措施确保人工智能不会偏离轨道。它必须“对齐”。为了实现这一点,需要使用额外的监督学习步骤。于是,人工标注员登场,评估语言模型的输出。然后,他们的评估结果将用于微调模型。
而这些人工标注员来自何方呢?
将大模型变成一个有用的聊天机器人,需要投入数十万小时的人工,很自然地,大型AI公司将这项工作主要外包给廉价的地区,尤其是官方语言也是英语的国家。
而非洲,正是这样一片“沃土”。
《卫报》指出,Delve这个词,在欧美国家很少被用到,但是在尼日利亚的商务英语中极其常用。
因此,ChatGPT对Delve一词的偏爱,很有可能(只能说有可能而非全然确定,因为大模型说到底仍然是“黑匣子”)是被非洲人工标注员无意识打上的烙印。
若果真如此,那欧美社会利用非洲廉价劳动力,反过来却影响了自己的语言系统,实在是让人感慨。
不管怎么说,人类与AI的互相影响还将持续下去。如果你很在意人类有“AI味”,也大可以乐观点,毕竟几年之后,可能人味和AI味已经不分你我、难以区分了。
(来源:钛媒体)