【摘要】AI 生成影像正在改写“眼见为实”的底层规则,照片和视频不再天然代表真实瞬间。Instagram 负责人亚当·莫塞里的观点勾勒出一个新框架,信任将从画面本身迁移到创作者身份与技术溯源链路。视觉不再是终点,而只是入口,平台架构、相机签名、账号信誉和算法治理将共同重建内容真实性的新秩序。

引言

过去一百多年里,照片与视频一直是人类社会最重要的“现实凭证”。从战争照片到新闻直播,从手机随手拍到社交平台,人们习惯把影像等同于事实。
这一套共识正在被 AI 重写。生成模型可以在几秒钟内合成几乎乱真的人脸、街景、事件画面,深度伪造视频也逐渐走出实验室,进入大众日常信息流。Instagram 负责人亚当·莫塞里在回顾平台未来时,给出了一个足够冷静但又相当激烈的判断,眼见已经不一定为实,人类需要重新学习如何在信息流中辨别可信内容。

这篇文章以莫塞里的公开观点为线索,结合当前业界在内容溯源和算法治理上的实践,从技术与产品两个层面来梳理一个核心命题,在 AI 合成内容漫灌的时代,内容真实性如何从“像素判断”走向“身份与链路判断”。

◆ 一、视觉信任的崩塌与新常态

1.1 从物理证据到数字幻象

摄影诞生之初,影像和现实几乎是绑定的。拍摄、冲洗、放大、刊印,链路长,成本高,篡改门槛也高。
进入数字时代以后,修图软件让“润色”变得常见,但早期的合成痕迹依然明显。人眼或多或少还能分辨出拼接感和不自然阴影,媒体机构也可以通过取证手段判断剪辑真假。

深度学习模型普及后,情况发生了结构性变化。
人脸替换、视频重演、文本驱动图像生成这类技术,开始在开放社区和商用产品里快速迭代。几轮大模型升级之后,普通人通过手机应用就能生成逼近纪实风格的照片和视频。内容的边际生产成本接近于零,而“造假难度”也迅速降到大众水平。

在这种环境下,过去那个“照片等于事实”的思维惯性被打穿。视觉证据不再天然可信。人们意识到,屏幕上出现的任何画面,都可能只是模型采样的产物,而不是相机捕捉过的现实。

1.2 从默认信任到默认怀疑

人类对视觉有很强依赖。大脑愿意相信自己看到的东西,远胜过抽象的文字描述。
社交网络发展十多年,这种依赖被进一步放大,每个人都在用手机屏幕作为感知世界的“前端”。

现在这一前端开始不稳定。AI 影像的渗透迫使用户调整策略。
面对一张照片或一段视频,越来越多的人不会先问发生了什么,而是先问谁发的。内容从“世界的窗口”,变成“发布者意图”的投影。

这种心态转变不算舒服。长久以来,人们依赖“第一眼判断”。现在需要多走几步,要看账号历史、要查评论氛围、要对比多方来源。信任变慢,怀疑变快。
在宏观层面,社会话语环境从“轻信风险”转向“信任稀缺”。在微观层面,每个用户都在形成自己的小规模信任名单,只对有限的一批账号保持较高信任度。

1.3 社交平台上的三重变化

在 Instagram 这类社交平台上,视觉信任的变化可以分成三层来看。

维度

过去的共识

当前的状态

逼近中的新常态

内容形态

多为真实拍摄和轻度修图

实拍 内容 加上 大量 AI 生成混合

AI 内容在数量上压过实拍

用户心态

默认真实 偶尔怀疑

默认中性 遇争议内容才做深度核查

默认怀疑 只对少数源头快速信任

信任依据

画面细节与媒体权威

画面加简单平台标签

发布者身份 溯源链路 账号信誉

可以看到,用户决策的重心已经从“在像素里找线索”,转移到“在账号和链路上找线索”。
莫塞里提出的判断,其实是对这一趋势的系统化总结,也是对 Instagram 下一阶段产品策略的铺垫。

◆ 二、“不完美”作为短暂防线

2.1 原始感为什么成了稀缺信号

在 AI 可以轻松生成“完美影像”的背景下,精修照片和大片式短视频的说服力在下降。
镜头语言越专业,构图越工整,肤质越平滑,反而越容易让一部分用户联想到模板化、流水线和算法生成。

另一边,平台内部的数据也在变化。人们更愿意在私信里分享模糊照片、晃动视频、随手拍的房间一角。
这类内容几乎不修图,没有复杂剪辑,有时甚至光线糟糕,构图凌乱。可是朋友更愿意相信这样的内容。因为看起来费劲,不讨好,像是出自现实场景而不是广告团队。

这种“原始感”正在形成一种新的稀缺信号。创作者开始主动选择低加工度的素材,保留噪点、抖动和小瑕疵,用不完美来暗示真实。
在任何东西都可以被美化的时候,刻意的不完美本身就成了信息,它在向受众传达一个隐含前提,这不是为了取悦算法的产物,而是某个具体时刻真实发生过的记录。

2.2 不完美美学的生命周期

从技术角度看,所谓“不完美美学”,本质是一个针对生成模型的“对抗信号”。
只要大模型对这类风格的学习不充分,真实世界里的粗糙感就可以作为判别线索。
但这种对抗窗口不会持续太久。

内容生态改变,模型训练数据也随之改变。用户拍摄和上传了大量“原始风格”的内容,平台又在用这些数据训练下一代生成模型。
不完美被采样、建模、复制。模型开始学会模仿压缩噪点、手机镜头畸变、随手摇晃的运动模糊,甚至学会模拟人类拍摄时常见的构图失误。

这种演化过程可以用一个简化的流转来表示。

在这个循环里,任何单一风格都很难长期充当真实性的可靠指标。
不论是高清大片还是粗糙抓拍,一旦成为大规模训练数据的一部分,都可以被模型复制。

所以莫塞里的结论很直接,靠画面本身已经不能长期承担真实性判断的重任。
所谓“不完美”的防线,只是合成技术暂时还没有学会完全伪装的那段过渡期。

2.3 从画面真假到语境真假

当画面风格不再可靠,判断重点开始从“像素层”移动到“语境层”。
同一张照片,如果配上不同账号、不同描述和不同传播路径,它所承载的可信度是完全不同的。

语境主要包括几类信息。

  • 元数据
    拍摄时间、地理位置、设备型号、原始文件是否存在、是否连续拍摄等。

  • 关系网络
    谁转发过这条内容,通常与哪些账号互动,以往是否参与过争议事件。

  • 历史记录
    账号过往内容是否自洽,是否频繁删帖改口,是否多次发布被证伪内容。

这些因素综合起来,构成了一个“内容语境画像”。
在 AI 时代,用户对真假的判断逐步从“图像取证”走向“语境取证”。

这也是为什么莫塞里强调,未来平台不能只在内容维度做识别,更需要在账号和关系维度提供足够多的可信信号。

◆ 三、信任迁移 从内容像素到创作者身份

3.1 内容本身不再能独立承担信任

在传统媒体年代,一张刊登在报纸头版的新闻照片背后,其实是机构信用。
读者相信的是那家媒体的审核流程和职业规范,而不是那张图片的像素结构。

社交网络兴起后,机构信用被部分移交给算法分发。
用户倾向于相信“被推到眼前的内容已经大致安全”,平台推荐成了新的隐性背书。

在合成技术全面普及后,这两个支撑点都开始松动。
机构可以被假冒,算法可以被利用,内容本身又难以直接区分真伪。信任只能向更细粒度的方向退却,退回到一个个具体的账号和创作者身上。

可以这样理解,内容可信度变成一个多因子评分。
画面质量只是其中一项指标,账户身份、历史记录、互动关系、技术签名等因素,共同决定这条内容在用户心中的分值。

3.2 身份 信誉与长期一致性

从平台产品设计角度看,“创作者是谁”这件事需要被拆解成几个维度。

  • 身份可验证
    是否完成了高强度实名验证,是否与现实世界组织或个人挂钩,有没有可追溯的线下实体。

  • 历史可追踪
    是否持续产出某一领域内容,观点是否稳定,是否有被频繁打脸的记录,出现问题时是否公开更正。

  • 行为可解释
    是否存在异常涨粉和数据波动,是否参与过恶意带节奏或大规模营销,是否长时间依赖同一类吸引眼球手法。

这些信息经过结构化处理后,可以在平台侧形成一个“账号信誉画像”。
对于用户来说,一个在同一领域深耕多年、有稳定输出、在争议事件中愿意纠错的账号,其发出的内容,哪怕画面略显粗糙,也更容易获得信任。
而一个刚注册不久、内容风格混乱、互动关系异常的账号,即使用了非常真实的实拍素材,也会在心理层面打折扣。

这意味着,未来内容生态的关键竞争点,不再是单条内容的质量,而是创作者长期的透明和一致性。

3.3 对不同参与者的影响

信任迁移带来的结构性变化,会同时作用在用户、创作者和品牌机构身上。

对普通用户来说,信息判断任务变复杂。
需要学会看账号主页、浏览历史内容、关注平台给出的背景提示,而不只盯着单条视频或图片。
这要求大众具备一定的信息素养,理解何为合成内容,何为溯源签名,以及账号信誉信号大致代表什么含义。

对个人创作者来说,真正的资产从内容本身转移到“被多少人长期信任”。
批量生成内容并不能形成护城河,持续、稳定、一以贯之的表达才有价值。
创作者需要意识到,每一次发布、删改和回应争议的方式,都会积累进自己的信誉档案。

对品牌和机构来说,公信力不再是默认配置,而是需要重新争取的资源。
久负盛名的媒体如果错用合成图、错引视频来源,带来的伤害远大于普通博主。
机构账号需要像个人一样经营长期信任,更开放地展示采集流程和审核标准,甚至接受第三方工具对其影像材料做溯源验证。

◆ 四、技术对策 从标签识别到源头加密

4.1 后期标签的能力边界

面对 AI 内容的扩散,很多平台选择在界面上增加“AI 生成”标签或水印。
这种方法有必要,但存在显然的边界。

一方面,平台无法完全掌握内容的生成链路。
创作者可以离线使用任意模型生成素材,在本地再次编辑,再通过录屏、截图等方式绕开检测。
另一方面,生成技术与检测技术在同一赛道对抗,生成模型对检测器做反向优化并不难,攻防拉锯会长期存在。

标签系统还有一个使用层面的难点。
如果平台在每一张可能相关的图片上都加上 AI 标识,标签会迅速失去区分度。
用户看到标签的频率过高之后,就难以对其产生实质反应。
如果只对部分内容加标签,其他未标记内容又会被默认视为“天然真实”,这同样存在风险。

所以,后期标签可以发挥提醒作用,但难以作为真实性判断的核心基础设施。

4.2 内容指纹与可信溯源链路

更底层的思路是,不再只在平台端做识别,而是把可信标记前移到“拍摄端”。
也就是在相机或拍摄设备上,直接给每一张真实影像写入难以伪造的签名。

一个典型方案是结合安全芯片和密码学签名。
每台相机在出厂时拥有唯一身份密钥,拍摄时将图像内容和关键元数据做摘要,再用设备私钥对摘要做签名。
最终照片或视频文件中,附带一段可供验证的签名数据。

当内容被上传到平台时,平台可以用公开密钥去验证这段签名是否匹配,并检查文件是否被篡改。
如果符合预期,平台即可在内部标记这条内容为“有可信拍摄来源”。

这一过程可以用一个简化的流程图来表示。

这种方案的关键点在于
拍摄设备的私钥不离开硬件
签名与具体内容绑定
验证过程公开透明

与简单水印不同,签名不依附于画面可见区域,而是以结构化方式存在于文件或传输协议中。
篡改画面内容或剪辑视频片段,都可能破坏签名逻辑,从而在验证阶段被发现。

当前行业已经有类似实践。
国际上出现了内容凭证和可追溯规范,推动相机厂商、软件工具和平台采用统一元数据结构和签名标准。
Instagram 之类的平台,可以在这一标准之上构建自己的可信内容体系。

4.3 平台侧的系统设计思路

从平台架构视角看,未来的真实性治理,很难依靠某一个单点技术完成。
更现实的方案是把多种信号融合,在整个内容生命周期中引入多层校验。

可以用下表梳理几类常见路径及其特点。

技术路径

主要手段

优点

局限与风险

模型检测

用识别模型判断是否为 AI 生成

对现有内容可直接应用

易被对抗训练绕过 算力开销较大

可见水印

在图像上叠加肉眼可见标记

对用户提示直接 明显

易被裁剪 涂抹 截屏等方式去除

隐形水印

在像素中嵌入特征值

不影响观看体验 可自动检测

高压缩或严重编辑时易失效

拍摄端签名

相机对内容做密码学签名

溯源可信 不易伪造

需硬件支持 旧设备难以覆盖

区块链存证

将摘要写入链上形成时间戳

不可篡改 公开可查

存储成本与隐私合规需谨慎权衡

组合策略

上述多种方法混合使用

提升整体鲁棒性和覆盖度

系统复杂度和治理成本较高

对 Instagram 这类平台来说,比较现实的演化路径是采用组合策略。

在短期阶段,继续强化 AI 内容标签和隐形水印,配合内容审核与用户举报机制,缓解最严重的滥用风险。
在中期阶段,逐步支持拍摄端签名和内容凭证标准,对接主流相机与手机厂商,在客户端与上传端提供“来源校验”通道。
在长期阶段,把真实性信号融入推荐算法、账号评分和用户界面,让真正有来源信息和可信身份的内容在分发上获得优势。

这一演进过程,既是技术建设任务,也是产品价值选择。

◆ 五、平台责任与算法治理

5.1 推荐系统如何奖励真实

推荐算法是社交平台最有力量的部件,同样也是风险最高的部件。
如果算法只关注停留时长和互动数量,就会天然偏好情绪强烈、视觉冲击力强、极端观点密集的内容,而不关心其真假。

在 AI 时代,这类内容可以被低成本批量生产。
一旦缺乏约束,平台信息流会迅速被“精心设计过的虚假内容”占据。

要缓解这一趋势,推荐系统需要把“真实性相关信号”引入排序逻辑。
这类信号可以包括
内容是否有可信来源标记
账号是否长期保持健康表现
是否存在明显的异常行为模式
是否被多次外部辟谣等

在排序时,系统对缺乏来源 又来自低信誉账号的内容,可以自然降低曝光。
对有指纹溯源 又由长期稳定创作者发布的内容,给予更高初始权重。
这种做法并不保证绝对真实,但可以显著抬高大规模造假的成本。

5.2 账号背景信息与“信任面板”

光靠算法内部调整还不够,用户需要直观可见的参考信息。
平台可以通过设计“账号信任面板”的方式,在界面层帮助用户判断。

所谓信任面板,是对账号若干关键维度的简要呈现,例如
账号创建时间
内容领域标签
实名认证状态
是否绑定官方机构或品牌
近一段时间是否有内容被平台公开纠正
是否支持内容来源凭证展示

这些信息不必过度堆砌,也不需要显得权威庄重,关键是易于理解。
当用户打开一个账号主页时,只要通过几个统一图形或标签,就能大致判断其可信程度。
在内容详情页,也可以通过轻量交互,快速查看某条内容的来源情况和账号的长期记录。

这种设计会改变用户的决策路径。
过去是看完一条内容再搜索账号背景,现在可以在浏览内容时顺手了解账号画像。
信任不再是完全的黑箱,而是由平台和用户共同构建的一套外显体系。

5.3 跨平台与行业协同

内容流通并不只发生在单一平台内部。
一条视频往往会在多个平台间搬运,甚至经过剪辑和叠加字幕多次再传播。

在这种环境中,真实性治理如果只在各自平台孤立进行,成本会非常高。
对抗者可以利用平台之间的差异和延迟来获得空间。

更可行的路径是,围绕内容溯源和凭证,形成一定程度的行业共识。
这包括统一的元数据字段规范、兼容的签名验证机制、跨平台的违规内容指纹共享、对恶意反复造假的账号实施多平台联动限制等。

一些关于“死亡互联网”的讨论,其实是在提醒一个风险,如果整个网络空间被大量合成内容和自动化账号占领,用户会对所有在线内容产生整体怀疑,从而进一步降低参与度和信任度。
要避免这种结果,单一平台的努力远远不够,需要硬件厂商、内容平台、工具开发者和监管机构共同制定基础规则。

◆ 六、创作者的新价值坐标

6.1 从“会做内容”到“只能你能做”

在 AI 工具广泛可用之前,会写文案 会拍视频 会剪辑,就是一类技能壁垒。
现在,模型可以给出不错的草稿,模板可以自动套用流行形式,生产的门槛被压低。

在这个环境中,创作者的价值开始转移。
不再只看“能不能做内容”,而是看“有没有别人做不出的内容”。
换句话说,看的是不可替代性。

这种不可替代性可以体现为
独特的个人经历和视角
对某一垂直领域的长期实践和理解
持续多年建立起来的相互信任关系
在争议时愿意公开自省和修正的态度

这些特征很难用一两条内容完成,必须靠时间积累。
AI 可以帮助生成素材,但无法复制与你的受众之间的历史关系。
这也意味着,创作者真正应当投入的,是可追溯的长期表达,而不是短期流量技巧。

6.2 内容策略的现实建议

站在技术与产品的结合点,可以给创作者几个更具操作性的方向。

第一,明确区分“工具使用”和“真实性承诺”。
使用 AI 辅助创作并不意味着不真实,只要清楚告诉受众哪些部分是重建 哪些是合成 哪些是事实记录,就能避免误解。
透明说明反而会增强信任。

第二,保留一定比例的“原始记录”。
在重剪辑和高制作的视频之外,可以定期发布未经复杂后期的日常片段和工作过程。
这类内容不一定追求高数据表现,但对稳固关系很有价值。

第三,主动维护自己的“可信档案”。
注意避免轻率转发未经核实的爆款内容,在涉及公共事件时尽量给出来源链接或出处说明,当转发内容被证伪时及时更正。
平台侧未来很可能会把这些行为纳入账号信誉评分。

第四,建立个人的内容备份与溯源管理。
保留原始拍摄文件、存档重要内容的发布时间与背景说明、在条件允许时使用支持签名的拍摄设备。
这些步骤在今天看可能略显繁琐,但在未来争议场景里会提供有力支撑。

6.3 品牌与机构的适配路径

品牌与机构在真实性问题上的挑战更为复杂。
一方面要追求传播效果和视觉表现,一方面又要避免在关键议题上失去公信力。

可以考虑几个方向。

  • 在商业内容与事实内容之间划线
    明确区分广告创意与信息报道,在创意物料中可以大胆使用合成技术,但在涉及产品安全、社会事件和公共沟通时,尽量坚持有溯源的实拍素材。

  • 对外公开部分创作与审核流程
    例如介绍如何选取素材、如何验证用户故事的真实性、如何处理争议反馈等,用流程透明度换取信任。

  • 与平台和工具方合作落地内容凭证
    率先采用带签名的拍摄设备和工作流,在官方账号内容上展示来源凭证,把对真实的态度变成清晰的品牌特征。

机构如果能够在这一轮信任重构中站到前列,不只是在道德层面加分,也会在算法和受众层面获取长期红利。

结论

AI 合成技术的普及,正在把人类几百年来形成的“眼见为实”习惯拆解开来。
影像从事实证据变成了一种可高度伪造的表现形式,真实性不再附着在像素上,而是需要附着在链路和身份上。

Instagram 负责人莫塞里的判断,可以看作这一大趋势在主流社交产品上的具体投影。
从“不完美影像”短暂成为信号,到平台主动为真实内容建立指纹与签名,再到推荐算法引入账号信誉和来源标记,一整套围绕内容真实性的基础设施,正在从无到有。

对用户来说,需要学习新的信息判断方式,把“谁在说”与“怎么说”结合起来理解。
对创作者来说,需要从“产量焦虑”转向“信任积累”,在长期的一致表达中建立自己的不可替代性。
对平台与行业来说,需要放下单点技术幻想,用组合方案和跨界协作来搭建共同的真实性底座。

未来的互联网不会回到没有合成内容的年代。
但在像素不再值得盲信的世界里,身份、关系、源头和轨迹,仍然可以构成新的信任框架。
视觉的说服力会降低,而可验证的链路与可追溯的表达,会成为更重要的公共资源。

📢💻 【省心锐评】

在 AI 主导影像生产的时代,真正稀缺的不是内容,而是可被验证的关系与长期一贯的表达。