过去几个月,变化似乎以史无前例的速度发生。我不确定这究竟是因为变化本身加快了,还是因为我们对变化的感知变得更加敏锐了。

X平台上的变化似乎打破了封闭的内容泡沫。我看到越来越多原本不会主动寻找、或此前未曾关注的内容,这种信息曝光量简直超乎想象。

奇怪的是,这种方式竟如此有效。即便X上的内容已与从前不同,长期用户的脑回路早已被训练成以特定格式吸收信息。当内容改变而格式不变时,几乎不存在上下文切换的成本。

若换作更专业的撰稿人,大概会援引神经可塑性、认知图式和学习加速等理论。简而言之,标准化能提升我们的学习速度。改变格式代价高昂——大脑必须先重新配置自身,才能吸收任何新内容。

计算机也是如此。大型语言模型(LLMs)亦是如此。若偏离共同的认知模式或标准过于甚远,无论在计算、社交、财务还是其他方面,你都无异于置身孤岛。

这个周末我在把玩 isitagentready.comorank.ai 时,这一观点变得格外清晰。向缺乏好奇心或时间紧迫的人群引入新语言或新模式,风险极高。对于那些为速度和模式识别而无情优化的 LLM 而言,情况亦是如此。

我们用来向计算机说明网站内容或产品内部信息的语言,其含义似乎正在发生实质性的变化。长期以来,我们主要局限于SEO、Open Graph以及相对较小的模式更新。这已不再足够。

新理念若以人们熟悉的格式呈现,传播速度会更快。