网站搜索

你认为你能发现人工智能生成的假新闻故事吗?参加这个测验来找出答案


Netskope 的调查显示,约 47% 的人认为人工智能创建的虚假新闻故事是真实的。你能做得更好吗?

您在互联网上看到一则新闻报道,标题是“革命性突破,人工智能现在可以提前 2 个月准确预测天气”。听起来很有趣。但这是真的吗?嗯,不一定。

弄清楚你在网上找到的信息是真实的还是虚假的一直是一个挑战。但人工智能已经把这变成了一项更加棘手的任务。网络安全提供商 Netskope 最近进行的一项调查发现,许多人无法区分真实的新闻报道和人工智能炮制的新闻报道。

作为一项测试,Netskope 向 1000 名美国用户和 500 名英国用户展示了虚假的人工智能新闻报道和真实的新闻报道。大约 84% 的英国人吹嘘自己擅长识别虚假故事,但其中一半人认为虚假故事是真实的。在美国,88% 的人相信自己能够发现虚假故事,但 44% 的人认为人工智能生成的故事是合法的。

为了了解您在识别虚假人工智能故事与真实故事方面的表现如何,Netskope 邀请您参加其虚假新闻测验。在这里,您将看到 12 个不同的故事,并需要猜测您认为每个故事是假的还是合法的。

Netskope 的调查对象表示,他们使用社交媒体并对新闻感兴趣。被要求指出他们最值得信赖的新闻报道、最著名的报纸和小报服务。但 TikTok 和 Snapchat 等视频平台位居第二。

作为研究的一部分,Netskope 还根据社会观点、参与度和其他因素研究了 2023 年最广泛的假新闻报道和照片,以确定其影响。最上面的单品是弗朗西斯教皇穿着超大号白色羽绒服的照片。尽管这张照片是假的,但它在社交媒体上的浏览量已超过 2000 万次,并受到 300 多家媒体出版物的关注。

另一个受到关注的人工智能生成项目是唐纳德·特朗普今年三月在华盛顿特区被捕的照片。尽管特朗普多次触犯法律,但这张图像是使用人工智能图像生成器 Midjourney 创建的。尽管这张照片是假的,但这张照片在 Twitter(现在的 X)上获得了超过 1000 万次浏览,并被 671 家新闻出版物报道。

这些假照片表明,用欺骗性图像来愚弄人们是多么容易。使用 Midjourney 和 DALL-E 等工具,几乎任何人都可以制作出如此逼真的图像,它不仅可以欺骗普通人,还可以欺骗那些本来更有洞察力的新闻出版商和专业人士。

现在,更多的人工智能工具能够生成虚假视频。 Netskope 重点介绍的 2023 年虚假广告包括希拉里·克林顿 (Hillary Clinton) 支持共和党人罗恩·德桑蒂斯 (Ron DeSantis) 竞选总统,以及埃隆·马斯克 (Elon Musk) 宣扬食用大麻食品的好处。

一旦假新闻报道或照片在网上传播,识别其是否为假新闻可能需要一段时间。平均而言,大多数此类内容需要大约六天的时间才能被发现和驳斥。但是,比尔·盖茨 (Bill Gates) 结束对 ABC 新闻记者 Sarah Ferguson 的采访(有关他参与 COVID-19 疫苗分发的问题)的人工智能编辑视频花了长达 15 天的时间才被标记为虚假视频。

为了帮助人们更好地辨别真假,Netskope 提供了以下提示和技巧:

对于新闻报道

  • 尝试找到故事的原始来源。如果您看到某个故事提出了不寻常或古怪的主张,请检查来源。您也许可以通过扫描社交媒体找到它的起源。如果是图像,请使用 Google 反向图像搜索、TinEye 或 Yandex 运行反向图像搜索。

对于基于图像的故事

  • 放大图像以检查是否有错误。放大图像可能会显示不准确或质量差的细节,表明可能有人工智能参与。
  • 检查图像的比例。人工智能生成的图像经常会在手、手指、牙齿、耳朵、眼镜以及其他身体部位和物体的比例上出现错误。
  • 仔细检查背景。对于伪造或更改的图像,背景通常会倾斜、重复或缺乏细节。
  • 检查是否有缺陷。在人工智能图像中,通常很详细甚至粗糙的特征通常是平滑和完美的。皮肤、头发、牙齿和面孔往往看起来完美无瑕,令人难以置信。
  • 扫描详细信息。图像的不一致通常可能表明人工智能造假。也许人的眼睛颜色在不同的图像中不匹配,或者图案从一个图像变为另一个图像。

对于基于视频的故事

  • 检查视频的大小。比应有的尺寸和分辨率更低的视频有时是人工智能生成的标志。
  • 查看任何字幕。对于虚假视频,字幕通常会遮盖脸部,这样就更难看出音频与嘴唇动作不匹配。
  • 检查嘴唇形状是否错位。嘴唇形状错位是人工智能操纵的另一个迹象,尤其是在嘴中部附近可见拼接区域的情况下。

相关文章