像 Sora 这样的 AI 视频生成器来了,对我们意味着什么?

—— 你看到的任何视频,极有可能是假的。

Brian X. Chen/NYT —— OpenAI 本月发布了一项可能很多人都没准备好的技术。他们推出了一款名为 Sora 的 App,用户只需输入一段简单的描述,比如「警察随身摄像机拍到一只狗因在 Costco 偷牛排而被捕的画面」,就能立即用 AI 生成逼真的视频。

Video

Sora 是一款 iPhone 免费应用,它非常娱乐,但也让人同样不安。自发布以来,许多尝鲜者出于好玩,发布了各种视频,比如一段关于浣熊在飞机上的假手机视频,或者好莱坞明星以日式动漫风格打架的画面。(就我个人而言,我很喜欢制作猫咪漂浮升天和狗狗在抱石馆攀岩的视频。)

但也有人将这款工具用于更恶劣的用途,比如传播虚假信息,包括捏造从未发生过的犯罪假安全录像。

Sora 的问世,以及今年 Meta 和 Google 发布的类似 AI 视频生成器,都带来了重大影响。这项技术可能意味着我们所知的视觉事实——即视频可以作为客观现实记录的理念——的终结。整个社会都必须像对待文字一样,对视频保持怀疑态度。

过去,消费者对照片还比较相信(「无图无真相!」),而当照片造假变得容易后,操纵难度大得多的视频,就成了证明真实性的标准工具。现在,连这层防线也消失了。

加州大学伯克利分校的计算机科学教授 Ren Ng 说道:「我们的大脑天生相信我们所见的一切,但我们现在必须学会停下来思考,这个视频,乃至任何媒体,是否真的在现实世界中发生过。」他教授计算摄影方面的课程。

本周,Sora 成为了 Apple App Store 上下载量最高的免费应用,它在好莱坞引起了轩然大波,各大制片厂都表示担忧。他们担心 Sora 生成的视频可能已经侵犯了各种电影、节目和角色的版权。OpenAI 的首席执行官 Sam Altman 在一份声明中表示,公司正在收集反馈,并将很快赋予版权所有者对角色生成的控制权,并提供从这项服务中获利的方式。(《纽约时报》已起诉 OpenAI 及其合作伙伴 Microsoft,声称他们侵犯了与 AI 系统相关的新闻内容的版权。这两家公司都否认了这些指控。)

那么,Sora 是如何运作的?这一切对普通消费者意味着什么呢?以下是你需要了解的。


人们如何使用 Sora?

虽然任何人都可以免费下载 Sora 应用,但这项服务目前仍是邀请制,这意味着人们只有收到另一位 Sora 用户的邀请码才能使用视频生成器。很多人在 Reddit 和 Discord 等网站和应用上分享邀请码。

一旦用户注册,这款 App 的界面看起来与 TikTok 和 Instagram Reels 等短视频应用相似。用户可以通过输入提示来创建视频,例如:「Biggie 和 Tupac 以动漫《鬼灭之刃》风格打架的场景。」(在 Altman 宣布 OpenAI 将赋予版权所有者更多控制权之前,OpenAI 最初要求他们主动选择不让自己的肖像和品牌被用于这项服务,因此已故名人成了实验的简单目标。)

用户也可以上传一张真实照片,并用它来生成视频。视频在大约一分钟内生成后,他们可以将其发布到应用内的动态,也可以下载视频并分享给朋友,或发布到 TikTok 和 Instagram 等其他应用上。

本月 Sora 问世时之所以引人注目,是因为它生成的视频看起来比其他类似服务(包括集成在 Gemini 聊天机器人中的 Google Veo 3 工具和作为 Meta AI 应用一部分的 Vibe)生成的视频要真实得多。


这对普通人意味着什么?

总而言之,你在 TikTok、Instagram Reels、YouTube Shorts 和 Snapchat 等短视频应用上看到的任何视频,现在都有极大的可能是假的。

Sora 标志着 AI 造假时代的转折点。消费者可以预料到,未来几个月会出现模仿者,包括一些不法之徒将推出没有任何限制的 AI 视频生成器。

非营利组织 CivAI 的创始人 Lucas Hansen 说道:「以后没人会再愿意相信视频可以作为任何事情的证据。」该组织致力于向人们宣传 AI 的能力。


我应该注意哪些问题?

OpenAI 设置了限制,以防止人们滥用 Sora,生成带有色情图像、恶意健康建议和恐怖主义宣传的视频。

然而,在测试了这款服务一小时后,我生成了一些可能会引起担忧的视频:

  • 可用于保险欺诈的假行车记录仪画面: 我要求 Sora 生成一辆 Toyota Prius 被一辆大卡车撞击的行车记录仪视频。视频生成后,我甚至可以更改车牌号码。
  • 带有可疑健康说法的视频: Sora 制作了一段视频,一名女子引用了不存在的研究,声称油炸鸡肉对健康有益。这虽然不带恶意,但仍是虚假信息。
  • 诽谤他人的视频: Sora 生成了一段假新闻广播,对我认识的一个人发表了诋毁性言论。

自从 Sora 发布以来,我在刷 TikTok 时也看到了很多有问题的 AI 生成视频。其中有一个是关于一辆 Tesla 从运车车上掉到高速公路的假行车记录仪画面,另一个是一则关于虚构连环杀手的假新闻广播,还有一个是捏造的手机视频,内容是一个男子因为吃太多自助餐而被带走。

OpenAI 的一位发言人表示,公司将 Sora 作为一款独立应用发布,是想给人们一个专门的空间来欣赏 AI 生成的视频,并让人认识到这些片段是用 AI 制作的。他说,公司还集成了技术,让视频可以轻松追溯到 Sora,包括水印和存储在视频文件内部充当签名的数据。

该公司表示:「我们的使用政策禁止通过冒充、诈骗或欺诈误导他人,当我们发现滥用行为时会采取行动。」


我如何分辨什么是假的?

尽管 Sora 生成的视频中带有该应用品牌的水印,但一些用户已经意识到他们可以裁剪掉水印。Sora 制作的片段通常也很短,最长 10 秒。

Hansen 先生说,任何质量堪比好莱坞制作的视频都可能是假的,因为 AI 模型大多是通过网络上发布的电视剧和电影片段进行训练的。

在我的测试中,Sora 生成的视频偶尔会产生明显的错误,包括餐馆名称拼写错误,以及人物说话时的口型与声音不同步。

但关于如何识别 AI 生成视频的任何建议都注定是短暂的,因为这项技术正在飞速发展。加州大学伯克利分校的计算机科学教授 Hany Farid 说道。他是核实数字内容真实性的公司 GetReal Security 的创始人。

Farid 博士说:「社交媒体简直是个垃圾堆。」他补充说,避免假视频最可靠的方法之一是停止使用 TikTok、Instagram 和 Snapchat 等应用。


Brian X. Chen 是《纽约时报》的首席消费科技记者。他负责产品测评,并撰写「科技修补站」专栏,关注我们使用的科技所带来的社会影响。

// RELATED POSTS