随笔 / AI 写作

AI 味不是机器味,是平均值的味道

· AI/Agent 写作 Taste

很多人以为 AI 味只是几个口头禅。更本质的真相是:它太像一个被训练得很好的优等生,努力完整、努力礼貌、努力不犯错,却越来越像平均值。

这段时间,大家说 AI 写文章“有味儿”的频率,明显比去年高了很多。

有意思的地方在于:这不代表 AI 变差了。恰恰相反,很多模型现在写得比以前顺太多了。结构更稳,句子更圆,解释更全,错别字更少。问题也恰恰出在这里。它越来越像一个训练得很好的优等生,努力完整,努力礼貌,努力不犯错。最后读者闻到的,不是机器味,而是一种很强的平均值感。

AI 味不是因为它太笨,而是因为它太擅长产出“标准答案”。

很多人会把这个问题讲得很轻,好像只是删几个“首先”“其次”“综上所述”,或者少打几个破折号就行了。我不太认同。那些东西顶多算皮,不是骨头。真正的问题是:模型写出来的东西,越来越像先搭好模板,再往里填内容,而不是从一个具体判断长出来。

为什么它会越来越像“标准答案”

这件事如果拆开看,其实完全不神秘。

第一层是 next-token prediction。模型天然偏向高概率延续,而不是低概率但更有个性的表达。它最容易写出的,不是“这句话只像你会这么说”,而是“多数情况下都不会错的说法”。

第二层是 instruction tuning 和对齐训练。无论是 InstructGPT,还是 Anthropic 的 Constitutional AI,它们都在把模型往“更可用、更合作、更安全”方向推。这当然很有价值,但副作用也很明显:语气会更稳,更礼貌,也更容易变成一种统一人格。

第三层则更现实。我们自己给 AI 的 prompt,本身就在持续强化这种统一人格。你让它“结构清晰、逻辑完整、分 3 点展开、最后总结一下”,它当然会越来越像一个汇报生成器。模型没有故意油腻,是我们平时的使用方式反复奖励这种油腻。

所以 AI 味不是一个点的问题,而是三层叠加:

  1. 高概率平均表达
  2. 对齐训练塑造出来的稳态语气
  3. 提示词自己带进去的模板收敛

三层一叠,最后就不是“像人”,而是“像一个被训练得太成功的优等生”。

人为什么会一眼闻出来

我现在越来越觉得,大家识别 AI 味,往往不是靠某个词,而是靠一组感觉同时出现。

第一,结构先于判断。读者会很快感觉到:这篇东西不是从一个观点长出来的,而是先有框架,再填观点。第二,解释欲过强。每个概念都解释了,每个转折都照顾到了,但信息越来越多,判断反而越来越薄。第三,对风险的回避过于一致。它总想两边都照顾,总想讲全面,于是读完之后你知道“它很稳”,但不知道“它到底站哪边”。

这也是为什么我现在会把 AI 味理解成一种更本质的东西:

AI 味,本质上是认知摩擦被过早抹平之后留下的平滑表面。

真正有力量的文字,很多时候不是一次就写顺的。它往往要经过卡住、删掉、重排、推翻原框架这些过程。可 AI 太擅长给你一个“已经看起来可以交”的版本了。危险也在这里。它不是写得差,而是太容易让你误以为自己已经想清楚了。

为什么有些人特别讨厌这种味道

我觉得这背后不是单纯审美差异,而是任务差异。

如果你写的是 FAQ、说明书、会议纪要、基础汇总,这种风格其实挺好用。它稳定、省事、不容易翻车。但如果你写的是判断、汇报、说服、战略表达,这套风格就会出问题。因为这些场景真正需要的,不是完整,而是压缩后的判断。你得敢于删,敢于押注,敢于让文字带着一点“这就是我的看法”的成本感。

这也是为什么我越来越反感“技术分享会式”写作。不是因为它技术不对,而是因为它太像信息同步,不像认知对齐。它把事情讲清了,却没有把判断讲出来。

真正的去味,不是删词,是改控制面

很多人对抗 AI 味的方法,像在做词汇打地鼠。删掉几个“此外”,删掉几个“总之”,不让它打破折号。这些当然有帮助,但治标不治本。因为问题不是某个词,而是任务对象本身。

如果你给模型的目标还是“写一篇完整文章”,它就会自动回到那条高概率平均值路径。你删了几处口头禅,它下一段还是会走回熟悉骨架。

真正有效的改法,我现在更相信有四条。

第一,先让模型站住判断,不是先展开结构

不要先问“怎么写完整”,先问“这篇东西最核心的一句判断是什么”。一旦没有这句判断,后面所有展开都会默认长成模板。

第二,同时给正向风格约束和反向禁令

只说“写自然一点”没用。更有效的是明确写:要具体、要有场景、要有取舍;不要每段都总结,不要平均用力,不要像主持分享会。

第三,把人工编辑动作当成高价值偏好数据

这点我体感最深。真正让 AI 变得更像你,不是你补了多少抽象形容词,而是你到底改了哪里。你删掉什么,保留什么,重排什么,这些动作本身就是最值钱的 taste signal。

所以我现在越来越相信:真正有竞争力的写作系统,不是第一次就写得最顺的系统,而是最会从“你删掉了什么”里持续学会 taste 的系统。

第四,在生成端就先控重复和模板化

OpenAI 官方文档里对 frequency_penaltypresence_penalty 的说明很朴素,但很有价值。它提醒我们:有些味道不该完全留到后处理,而应该在生成阶段就先压住。否则你拿到的已经是一副成型骨架,后面只能修边角。

最后的判断

如果非要把这件事压缩成一句话,我现在的判断是:

AI 味不等于机器感,它等于被奖励函数抹平之后的平均值感。

所以最好的去味方法,不是逼模型“更像人类”,而是让它少回到平均值,多暴露判断,多保留删改痕迹,多接受来自真实工作流的偏好校准。

真正有复利的,也不会是一次次手工修文,而是把这件事本身做成控制面:任务怎么定义,候选怎么分化,编辑痕迹怎么沉淀,下一轮怎么回灌。这样你对抗的就不只是这一篇文章的 AI 味,而是在给系统慢慢长出自己的 taste。