AI 时代最危险的变化,不是机器会写文章、画图片、生成视频。 真正危险的是:内容本身正在失去作为证据的资格。
过去很长时间里,人类默认媒介对象具有一定可信度。 文本需要人写,图片需要拍,视频需要录,声音需要真实说出口。 它们当然可以伪造,但伪造需要成本——需要技术,需要时间,需要组织,需要钱。
也正因为有成本,社会演化出了一套隐性的认知捷径:看到一段视频,多少会信一点;看到一张照片,多少会信一点; 看到一篇署名文章,多少会信一点。 不是因为人类天真,是因为长期以来,“看起来真的”和“真的”之间存在着一笔不便宜的过路费。
AI 把这笔过路费打到接近零。
当可信外观可以批量生成,内容就从“证据”降级成了“素材”。 真相当然还存在,但真相不再自动随内容一起交付。 以前内容自带一点信任余额,现在余额清零了。 想要被相信,必须额外付费——付时间、付历史、付责任、付背书、付某种 AI 生成不出来的东西。
麦克卢汉说过一句被引用过太多次的话:媒介即讯息。 这句话真正的意思是,一种新媒介带来的最大影响,从来不是它传递的内容,而是它对人和社会结构的重塑—— 一种潜在的、二阶的、长期的改造。 之前我写过一篇《用麦克卢汉的刀来解剖 AI》,分析了 AI 对人类社会可能带来的几种二阶影响: 注意力的进一步坍缩、知识结构的重新分层、教育体系的根基松动、人和工具的边界模糊。
但最让人警惕的二阶影响,是 AI 正在拆掉信任系统的脚手架。 这件事比任何具体的失业、版权、安全问题都更深。 失业可以再就业,版权可以重立法,安全可以补漏洞。 但信任一旦塌陷,重建以代际计。
二、信任不是一件事 #
讨论信任问题最常见的错误,是把“信任”当成 一个 东西。 它不是。
中文里“信”字承担了太多工作。 “我相信这条视频是真的”、“我信任我的合伙人”、“我对这家银行有信心”、“这位医生靠谱”—— 这四句话表面上都在说“信”,但它们的认识论结构完全不同。
第一句是事实判断。 视频是个对象,它不能“背叛”你。 第二句是关系判断。 合伙人是个有自由意志的他者,他可以选择是否背叛你。 第三句是默认状态。 你没有在意识层面认真考虑过银行倒闭的可能。 第四句是能力评估。 你在判断医生做好医生这件事的概率。
把这四件事装在同一个词里讨论,会造成一种虚假的清晰度——你以为自己在讨论一个问题,其实在四个问题之间滑动。
哲学家 Annette Baier 给“信任”下过一个干净的定义:信任是接受他者对你照看之物拥有自由裁量权。 这个定义里关键的词是“他者”和“自由裁量权”——他者必须有自由意志,他可以选择对你怎样。
按这个严格定义,信任专属于人对人的那种关系。 它必然涉及风险(对方可能背叛),必然涉及意志(你选择暴露),必然涉及关系(不是面对物,是面对他者)。
视频不能背叛你,对视频的“相信”是识别,不是信任。 银行系统不会“选择”对你怎样,对它的“信心”是默认状态,不是信任。 医生的能力是客观属性,“医生靠谱”是评估,不是信任。
只有当你把某件你在意的事,交到一个可以选择对你怎样的人手里,那个时刻才是真正意义上的信任。
这个区分看起来抠字眼,但它直接决定了 AI 时代到底什么变了。
三、文明的隐性奢侈品 #
人和人之间做赤裸的信任决定从来不容易。
最原始的状态下,两个人面对面,要不要分享食物、要不要合作打猎、要不要把背交给对方—— 每一次都是一次完整的、消耗认知资源的判断。 没有合同,没有担保,没有第三方仲裁。
人类受不了这种状态。 它太累。 所以文明史的一个隐藏主线,是人类不断发明新的机制,让信任决定不需要每次都赤裸地做出。
最早的机制是血缘和地缘。 和你流着同样血的人、和你住在同一个村子的人,比陌生人可信,因为长期博弈让背叛成本太高。
后来有了仪式。 歃血为盟、交换信物、当众宣誓——这些动作把“我承诺”这件事从私域拽进公域,让背叛要承担社会代价。
文字普及之后有了契约。 盖章的文书比一句话有约束力,因为它可以被第三方验证、被法院执行。
工业时代有了机构。 你不需要信任银行职员(在严格意义上),你只需要相信银行系统会运转。 机构、品牌、专业资格、监管牌照——这些东西的本质是把信任问题外包给某个抽象系统。
互联网时代加了一层算法和平台。 Google 帮你判断哪个网页可信,亚马逊帮你判断哪个商家可靠,社交媒体帮你过滤信息——你不需要每天对每件事做赤裸的信任判断。
每一代机制做的是同一件事:把那个累的、需要意志介入的信任决定,转化为不需要意识介入的默认。
德国社会学家 Luhmann 在 1968 年那本研究信任的书里给这两个状态起过名字: 真正需要意志介入的叫信任(Trust),不需要意识介入的默认状态叫信心(Confidence)。 他指出,现代社会的本质是把信任降级为信心——让人在大部分日常生活里,不必真的做信任决定。
这是文明的隐性奢侈品。 我们这几代人享受这种奢侈品几十年,习以为常,以为生活本来就该这样。
AI 把这个降级机制反向运转了。
四、五层脚手架同时在松动 #
AI 没有改变信任本身的逻辑——那个面对可能背叛的他者仍然选择暴露的跳跃,跟一万年前一样。 AI 改变的是支撑信任决定的整套脚手架。
这套脚手架可以拆成五层。 这五层不是同一种东西,每一层都对应“信任/信心”链条的不同环节。
第一层:识别——“这是不是真的”成本暴增 #
这一层是工程问题。
过去“我面对的是不是真人/真物/真事”这个问题,大部分时候有一个非常便宜的默认答案。 视频是真的,因为伪造一段那种质量的视频需要团队、设备、时间。 声音是真的,因为模仿一个具体人很难。 署名文章是真的,因为代笔者很少能完全模仿一个人的思维节奏。
AI 让这个默认失效。 识别工作必须从隐性变成显式,从默认变成必须主动启动的程序。
但这一层的真正问题不是“东西变假了”——东西从来都可能是假的。 真正的问题是识别工作必须从默认变成显式。 每次看到一段内容,都要主动问一遍:来源是哪?谁发的?有没有签名?时间戳对吗?
识别本身不是信任,是信任的前置条件——你必须先确认面对的是谁,才谈得上要不要信任他。
这一层是 AI 时代信任问题里最容易解决的一层。 C2PA 内容凭证、数字签名、设备级密码学认证、可验证身份凭证——这些技术不是花架子,是在实实在在地恢复识别能力。 它们会逐步成为基础设施。 欧盟已经在推动 C2PA 强制;身份钱包在欧盟全境部署;软件供应链的 Sigstore 已经成为事实标准。
但识别问题的解决不等于信任问题的解决。 一个被完美签名的视频,仍然可能是不值得信任的人发出的真话。 识别只回答“这个对象是它声称的那个对象”,不回答“这个对象值不值得我把自己暴露给它”。
第二层:信心——大量判断被迫升级为意识判断 #
这一层是认知负担问题。
我们对“看到的视频是真的”曾经有过几十年的信心——不是因为我们判断它真,是因为我们没有在意识层面把这个问题打开过。 这就是 Luhmann 意义上的信心,一种节能机制。
AI 让这种信心崩塌——视频问题必须重新进入意识层面被处理。 这不是“我们不再信任视频”——视频本来也不是信任对象。 这是节能机制的失效。
人脑的认知带宽有限。 当原本不需要主动判断的事情都必须主动判断,认知预算会很快被吃光。 这时候人会进入两种状态:要么过度警觉——什么都不信,包括真的东西;要么认知投降——干脆不判断了,凭情绪和站队决定信什么。
这两种反应都不是信任崩塌,是大脑在节能策略失效后的应急反应。 修复信心比修复识别难得多。 技术能恢复识别,但不能直接恢复信心——信心是被时间和稳定性养出来的。 一个新生的信息环境要养出新的信心,至少十年起步。
第三层:中介——帮你做信任决定的“代理人”合法性受损 #
这一层是制度问题。
过去,我们把大量信任决定外包给中介——传统媒体帮我们判断什么是事实,机构帮我们判断什么是权威, 平台算法帮我们过滤可信内容,KOL 帮我们筛选值得关注的东西。 这些中介的存在让我们不必每次都重新做判断。
AI 同时冲击了多种中介。
传统媒体的过滤功能在 AI 内容海里失效——他们筛选出来的内容本身可能就是 AI 污染的。 算法平台的“推荐可信内容”承诺在内容污染面前破产。 KOL 的可信度被 AI 仿制内容稀释——一个 KOL 的语气、风格、观点都可以被 AI 大量复制。
但中介不会全部消失。 它们会分化。
那些靠“我帮你筛选信息”建立合法性的中介会变臭——通用搜索、信息流、内容聚合,未来的合法性会持续下降。
但那些靠“我能担保身份和责任”建立合法性的中介反而会变强——掌握账号、设备、支付、实名、企业认证、 硬件签名、操作系统入口的大平台,在内容不可信的时代价值反而上升。 当你不知道一段视频是不是真的时,“它从某个有实名支付历史的账号发出来”成了关键信息。
未来的大平台不再主要靠“推荐好内容”掌权,而是靠“我知道谁是真的”掌权。 集市可以脏,海关不能倒。
这是一个不舒服的预测:在内容污染最严重的时代,掌握身份认证的大平台权力反而更大。 很多反平台叙事不愿意面对这一点,但事实就是这样。
第四层:判断能力——心智化系统的疲劳 #
这一层是生理问题。
人脑里有一组专门用来推断他人意图的脑区,神经科学叫“心智化系统”。 我们靠它判断别人在想什么、对我们有没有善意、靠不靠谱。 这套系统是信任决定的生理基础——没有心智化能力,就形不成对“对方善意”的预期,也就做不出真正的信任决定。
AI 内容给这套系统出了一个前所未有的难题:你在试图推断一个没有稳定意图的对象的意图。
一篇 AI 生成的文章背后没有统一的“作者意图”——它是模型公司、训练数据、用户提示词、随机性的混合。 但人脑不会因为对象没有意图就关闭推断——它会启动,失败,再启动,再失败。 这个过程消耗的是真实的神经资源。
长期暴露在大量“心智化失败”的内容中,可能让心智化系统疲劳,进而影响人对真实他者的信任能力。 这不是预言,是一个有理由担心的合理推测。 已经有研究显示社交媒体高使用者的人际信任水平下降,AI 内容海会进一步加剧这个趋势。
这一层和前三层不同:前三层是外部环境的问题,外部修复了能力还在。 这一层是内部能力的问题,一旦受损,外部修复了能力也未必恢复。
第五层:社会资本——文明的隐性储蓄在流失 #
这一层是宏观问题。
社会资本是文明的隐性储蓄——人和人之间的一般信任、社区参与、跨群体合作能力。 它积累慢,消耗快,重建极难。 Putnam 在《独自打保龄》里观察到的美国社会资本下降,到现在过了一代人还没反转。 Fukuyama 在《信任》里论证过,社会的“信任半径”决定了它的经济发展上限。
AI 时代我们可能正在经历一次更快的社会资本消耗。 前面四层都在向下施压:识别失效让人警觉、信心崩塌让人疲惫、中介分化让人无所适从、心智化疲劳让人对他人减少投入。 这些累积起来,就是陌生人之间合作变难、跨群体信任收缩、长期合同更难签、公共领域协商失效、政治极化加深。
这一层的修复时间是多代人。
五层按可解决程度排序 #
把这五层放在一起,会发现一个让人不安的规律:越浅的层越容易解决,越深的层越无解。
第一层(识别)是工程问题,会被工程方案逐步解决。 第二层(信心)需要十年量级的时间。 第三层(中介分化)已经在发生,会在五到十年内重组完成。 第四层(心智化疲劳)几乎没有应对方案。 第五层(社会资本)是多代人的问题。
公共讨论中“AI 信任问题”的能见度跟它的严重程度成反比——能被讨论的都是浅的,深的没有讨论框架。 这是为什么“AI 信任治理”的话语听起来很多,但实质性的应对方案大部分集中在第一层。
五、这套框架能预测什么 #
提出一个框架的价值,不是它的修辞优美程度,而是它能预测什么。 把上面六层放到具体场景里,能直接推出几个判断。
关于内容生产:
低成本输出会持续通胀。 AI 能批量生产“看起来还不错”的文章、视频、图片、代码。 任何依赖产量获得地位的人,未来五年会越来越累,越来越没钱。 靠日更维持影响力的 KOL,靠快速搬运的内容创作者,靠中等水平输出的咨询机构,处境都会快速恶化。
升值的不是内容本身,是让自己的内容能被信任的支撑结构。 可追问的历史比单点声誉值钱。 长期承担责任的记录比表达能力值钱。 具体的、不能被无损复制的关系比泛泛的关注值钱。
关于平台和中介:
通用搜索、信息流、内容聚合这类做“信息过滤”的中介会持续衰落,因为它们的价值前提(“我帮你筛”)在 AI 内容海里破产。
掌握“身份+责任”的中介会反向升值。 账号实名、设备签名、企业认证、支付历史、操作系统级身份验证——这些过去被认为是“基础设施”的东西,会变成新型权力。
KOL 这种基于个人 IP 的信任中介会两极分化。 靠表达能力维持的会贬值(AI 能仿制);靠长期具体行动和承担维持的会升值(AI 仿不了责任)。
关于技术圈的具体分层:
会写代码这件事会贬值——AI 已经能写出大部分代码。
会 review 代码的能力会保持——但这个能力的核心是判断“什么是好代码”,而不是产出代码。
会维护系统的能力会升值——AI 可以生成项目,但不能让用户十年依赖它,不能替你处理线上事故,不能承担系统坏掉之后的组织责任。
能定义方向的能力会显著升值——决定一个项目应该做什么、不该做什么,比把决定的事情写成代码值钱得多。
能让别人长期依赖的能力最值钱——这是 AI 时代真正的硬通货。 它包括:可追问的历史、长期承担的记录、稳定的判断、具体的关系网络。
真正的分界线是责任密度。 越靠近真实状态、真实数据、真实资金、真实事故,AI 替代越慢。 越靠近包装、转述、样板代码、信息搬运,AI 替代越快。 这条线比“程序员会不会失业”更有解释力。
关于个人战略:
AI 时代最容易犯的战略错误,是以为自己应该生产更多内容。 不对。
内容已经过剩,观点已经过剩,教程已经过剩。 靠产量吃饭的路径正在快速贬值。
真正应该投入的是让自己被信任的支撑结构——把文章变成档案,把项目变成治理,把社群变成路径, 把判断变成公开记录,把一次会议变成连续传统,把一次背书变成可追责承诺,把单点声誉变成网络声誉。
这些动作的共同点是:它们让别人面对你的输出时,不需要每次都做赤裸的信任决定。 他们可以基于你的长期记录、可追问历史、责任承担、具体关系,形成某种局部的信心。
这不是要回到工业时代那种大机构脚手架——那个回不去了。 这是在小规模上、在地方上、在具体圈层里,慢慢搭一些小的脚手架。 让你这个具体的人、你这个具体的项目、你这个具体的社区,在你身边的人那里,重新成为可以默认的存在。
这件事很慢。 AI 让产出便宜,所以承担变贵。
代码会越来越便宜,维护会越来越贵。 表达会越来越便宜,责任会越来越贵。 生成会越来越便宜,判断会越来越贵。 单点会越来越便宜,网络会越来越贵。
关于人和 AI 的协作:
AI 作为合作者的时代已经开始。 下一个十年,工程师、写作者、设计师、研究者会大量地把判断外包给 AI Agent。
这件事的边界需要每个人自己摸索。 哪些判断可以外包?哪些必须自己做?AI 的建议在什么时候应该被接受、什么时候应该被否决? 这些问题没有标准答案,但回避这些问题本身就是一个糟糕的答案——把判断默认地外包给 AI, 等于把信任决定让给了一个没有责任结构的实体。
更深的问题是身份问题。 当一个人越来越依赖 AI 做判断,他的判断能力会不会萎缩?他对人类合作者的耐心会不会下降? 他面对真正需要赤裸信任决定的时刻——比如重要的人生选择、关键的合作关系、深度的人际承诺——还会不会有完成这种决定的能力?
这些问题现在没人有答案。 但它们必须被识别为问题,否则人会在不知不觉中失去某些核心的能力。
六、信任永远要由人自己做 #
回到最开始那个区分:信任是人对有自由意志的他者的关系性意志行为。
这意味着无论脚手架重建得多么好,无论技术多么先进,无论 AI 多么聪明,最终的信任决定永远在人身上。
那个意识到对方可能背叛、看到风险、仍然选择暴露的跳跃——是任何技术系统都不能代替的。 识别可以被技术化,能力可以被评估,责任可以被合同化,但那个跳跃本身永远是赤裸的。
这是为什么所有“AI 信任治理”的话语,最终都会撞上一面墙。 我们可以让识别变可靠,让平台变透明,让监管变严格,让算法变审慎。 但我们不能消除人在面对他者时必须做出的那个决定——那是人之为人的核心时刻之一。
这个判断对当下的实际意义是:不要被“AI 终将解决一切”的乌托邦叙事麻痹。 前五层冲击中只有第一层是技术能解决的,后四层都需要人做出真实的承担。 第六层(人和 AI 的关系)则是一个全新的、没有现成答案的领域。
我们这一代人面对的不是某种新型的信任技术问题,而是一件被遗忘了几十年的事的重新出现: 在没有现成脚手架的环境里,做出真正意义上的信任决定。
这件事很累。 脚手架时代之前的人类一直在做。 脚手架时代的我们大部分人忘记了怎么做。 AI 时代要求我们重新学会。
文明从来不是建立在没有这种决定时刻的世界上的。