Skip to content
首页 » 阅读|新闻 » AI 如何决定以色列在加沙的轰炸目标

AI 如何决定以色列在加沙的轰炸目标

「我很怀念全家人一天结束时的聚会。我们曾经一起聊天。像个正常的家一样。有每天平凡的小细节,像每个人都有的那样。」Heba 住在加沙北部。她的家人在 2023 年 10 月 11 日撤离。到了二月,她得知家已经没了。

她在加沙南部一个朋友家里和我聊:「我们收到了家里的照片,我们震惊了。我们家里曾经种了树和花。」Heba 不知道她的家为什么会被毁。但是在过去的几个月里,以色列记者发现,自从 10 月 7 日的袭击以来,加沙的大部分破坏都是由人工智能系统促成和指挥的。

人工智能的优点通常有两个方面:一个是速度,另一个是准确性。 AI 的整个概念就是能够更精确地打击。但现在超过 34,000 名巴勒斯坦人被杀,相比之下以色列 2014 年加沙战争只有 1,400 多人被杀 —— 很明显情况不同了。那么 AI 与此有何关系?为了找到一些答案,我们联系了一些 AI 专家、记者和调查记者。

以色列国防军使用 AI 并不是什么新鲜事。

最著名的 AI 使用案例是铁穹系统,这是一套旨在破坏导弹袭击威胁的防御系统。这一系统部分保护了以色列免受 2024 年 4 月伊朗无人机和导弹袭击的威胁。

另一个国产武器叫做 SMAH by Smartshooter,这是一个 AI 精确攻击瞄准镜,可以安装在手持武器上。它通过使用先进的图像处理算法锁定目标,有点像《使命召唤》中的自动瞄准。

以色列使用 AI 的另一个方式是通过对被占领土上的巴勒斯坦人进行监视。每当他们通过数百个检查站之一时,他们的动作都会被记录,他们的面部图像和其他生物特征会与数据库匹配。

但我们现在了解到更多关于选择加沙轰炸目标的 AI 系统,来自以色列媒体 +972 和 Local Call 的两篇报告:一个为加沙生成轰炸目标的 AI 系统「Gospel」。它通过与其他 AI 工具合作来完成这项工作。

跟其他 AI 系统一样,第一步是大规模的数据收集 —— 关于加沙巴勒斯坦人和武装分子位置的监视和历史数据。这里最著名的应用是 Alchemist,这是一个收集数据、并允许不同部门之间数据传输的平台,随后转移到另一套系统 —— Fire Factory —— 里进行观察和分类。生成的目标通常分为四类:

  • 首先是战术目标,通常包括武装分子小组、武器仓库、发射器和武装分子总部。
  • 然后是地下目标,主要是民宅下的隧道。
  • 第三类包括哈马斯或伊斯兰圣战组织成员的家。
  • 最后一类包括显然不是军事性质的目标,特别是有数十名平民的住宅和高层建筑。国防军称这些为「力量目标」。

一旦数据被组织起来,它会经过第三层,就是这套被称为「Gospel」的系统。 Gospel 会输出具体的可能目标、可能的弹药、可能的附带损害警告等。这个系统比人类更快地生成加沙的攻击目标。在战争的前五天内,一半的目标来自「力量目标」类别。与 +972 交谈的多个消息来源报告说,攻击「力量目标」的想法是要对哈马斯施加民事压力。 Heba 的家很可能是 Gospel 系统选择的「力量目标」之一。

几个月后的调查中,+972 还揭示了一套更加不透明和秘密的 AI 系统,专门用于针对特定人员,称为「Lavender」。

以色列与哈马斯战争开始时,Lavender 使用历史数据和监视,生成了 37,000 多个哈马斯和伊斯兰圣战组织的目标。消息人士告诉 +972,其中约 10% 的目标是错误的。即使是在 90% 所谓正确目标中,以色列也首次扩大了哈马斯成员的定义。因为哈马斯控制着加沙地带。所以有很多与哈马斯互动的民间社会 —— 警察、医生、一般的老百姓等。这些都是他们正考虑的目标。在 Lavender 使用其数据生成这些目标后,AI 会将目标链接到特定的家庭住宅,然后根据行动人员的级别推荐国防军使用的武器。

消息人士告诉记者,Lavender 对于每个标记的初级哈马斯武装分子,允许杀死多达 15 或 20 名平民。但也有些目标,允许的平民伤亡人数高达 300 人。 AI 系统不产生事实,他们只产生预测,就像天气预报或股票市场一样。所谓的「智能」完全依赖于创建系统的人的质量、有效性和理解。

以色列国防军向《卫报》声明,明确否认他们有「任何把数万人杀死在家里的政策」,并强调人类分析师必须进行独立检查后才能选择目标。而我们得知,轰炸 Lavender 标记的嫌疑初级武装分子的房屋前,唯一的人类监督协议是进行单一检查:确保 AI 选择的目标是男性、而不是女性。

专家们告诉我们,基本上,加沙正在成为未来 AI 技术的测试场。 2023 年 11 月,美国发布了「在战争中负责任使用 AI」的国际框架,有 50 个国家签名 —— 不包括以色列。因此,我们处于这样一个状态,缺乏对无人机战争的充分监督和问责,更不用说像 Gospel 和 Lavender 这样的新系统了。

我们正在展望一个未来,那里将会有更多不准确、有偏见的自动化打击目标,使得平民伤亡变得更加严重。「更快的战争会带来全球安全与和平」的谬论是不现实的。相反,我们需要以各种方式打断这些技术。对于 Heba 来说,她的家再也不会回来了 ——「这不是像我离开家、去旅行,知道家还在那里 —— 不,它已经不在了。」

###

本文编译自 Vox 视频:How AI tells Israel who to bomb

生于湖南,求学于北京,先后在广东、北京、DC 工作。一代移民,生活在美东小镇。

Disclosure: We are an Amazon Associate. Some links on this website are affiliate links, which means we may earn a commission or receive a referral fee when you sign up or make a purchase through those links.

相关文章

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Stock images sponsored by depositphotos.com | Skimlinks