咨询电话:010-60700691

AI 换脸被骗18 亿!普通人怎么样才可以识别 AI 作图的真假?

行业案例 发布时间:2024-05-02 22:35:57 1来源:必发888官网登录

  看着 AI 一次又一次展现出令人惊叹的本领,不知道你是否有过担忧,既然 AI 能够生成接近于真人的图片、视频,作为普通人的我们,以后还能分辨出一张图片或者一段视频是不是真实的吗?

  这样的担忧不无道理。我们不妨做一个小测试,看看你是否能在下面的四张图片中,找到唯一一张真人照片?

  当然了,除了人像,AI 还能够生成各种各样的风景照片,以及本身就是用电脑制作的 CG 图片。而要分辨这些照片,对普通人来说就更加困难了。

  但幸好,在大部分情况下,是否能分辨图片是不是出自 AI 之手,并不会对我们的生活产生实质性的影响。网络上的绝大部分图片,我们都是一看了之。

  这些假新闻虽然大部分是恶作剧,但如果这样的假新闻充斥网络,可能会让人们对新闻事件的可信度产生怀疑。毕竟,眼见都不一定为实了,那我们怎么知道哪些是真的,哪些是假的?

  既然网络上的图片真假混杂,我们到底要怎样判断一张图片是否是由 AI 生成的?其实,有一些简单的办法能够帮助我们判断。

  在过去一两年里,AI 图片生成的人类手部特征一直是被吐槽的焦点。虽然一些模型比如 Midjourney V5,Stable Diffusion 针对手部进行了一些优化,但如果观察 AI 假新闻中的图片,依然会发现一些“奇怪的手部”。

  利用 GPT4.0 的 DALL·E 绘制的手,依然能看出“不合理”的手部特征

  首先,特朗普的身后出现了一个朝向奇怪的且不属于任何人的脚。另外,特朗普的左臂扭曲成了不正常的形状。而身后的路人面对这样“重大”的事件,表情漠不关心,而追逐的警察们,似乎眼睛关注的焦点也不在特朗普身上。

  因此,人类世界的常识以及我们对物理世界的了解,是我们识别 AI 图片的巨大武器。如果图片中出现了一些违背常识和物理规律的细节,那基本可以认定这是一张 AI 生成的图片。

  但有些图片的常识性错误隐藏在很细节的地方,乍一看不太容易分辨。对这一类图片,同样有一个简单的判断方法。

  现在的搜索引擎都有“图片查询”功能,不少在线网站也可以提供类似的功能。你可以直接将“可疑图片”上传。通过“查找图片来源”,就能找到发布过这张图片的网站。

  假如对于一个非常重大的新闻事件,发布媒体却无一例外地是个人媒体或者营销号,那么这张图片大概率是假的。如果有可靠媒体发布过,并且报道的内容也证实了图片内容,那这样的图片才可能是真的。

  目前,有很多网站可以直接查询图片的 EXIF 信息(记录着相机的镜头、光圈、快门等参数)。

  假如别人向你发来了一张图片炫耀自己的假期或者是摄影技术,你可以直接将图片上传查询。

  如果能够看到相机参数,那这张图片大概率是真实的,至少说明确实是用相机拍摄的。而如果没有这些信息,有可能是 AI 生成,但也有可能是经过了压缩处理的图片。

  除此之外,还有专门的识别 AI 图片的网站,比如“AI or not 网站”。这些网站也可以识别给定的图片是 AI 生成的还是人类创作的,虽然不是百分之百准确,但可以作为一个参考。

  当然了,对于大部分的新闻事件,热度很快就会过去,并不会对普通人的生活产生实质性的影响。但接下来要提到的“深度伪造”技术,是会对每一个人产生直接影响的。

  深度伪造(deepfake)是一个由深度学习(deep learning)和伪造(fake)合成的词。它的意思很好理解,就是利用深度学习技术来伪造一些图片、视频,这类图片和视频一般以人类为主体。

  其实早在 GPT、midjourney 之类的 AI 工具出现之前,深度伪造技术就已经出现了。它最典型的一个应用,就是 AI 换脸。

  在 2019 年,古装剧《长安十二时辰》里的“崔六郎”角色,就经过了 AI 换脸。另外,在 2020 年的《三千杀鸦》《了不起的儿科医生》等影视剧中,也使用了 AI 换脸技术。

  而最近的“短剧出海”,深度伪造技术也发挥了重要作用,利用 AI 换脸技术,一键就可以把中国人面孔换成外国人面孔,免去了翻拍的成本。

  这些技术既可以用于平时的娱乐,也可以用于商业行为中,比如制作主播的数字人替身,实现 24 小时无间断直播卖货。

  比如,骗子可以利用在网络上收集到的图片,制作 AI 换脸视频,利用这样的视频进行诈骗。

  今年年初,中国香港的警方就接到一起报案,骗子通过 AI 换脸冒充某公司的首席财务官,要求公司财务转账 2 亿港币(约合人民币 1.8 亿元),公司财务转账之后几天,才意识到上当受骗了。

  除此之外,还有骗子利用 AI 换脸,冒充被害人的朋友、儿女、父母等角色,对人实施诈骗。而在视频中看到自己亲朋好友的画面,会让受害人放下戒心。

  当坏人掌握了深度伪造技术,就实实在在地会对普通人的生活产生影响,任何人都有可能成为受骗者。

  在一些图片生成模型的使用过程中,比如 Open AI 的 DALL·E 模型中,你是没有办法让 AI 对某张具体照片进行处理的,也没有办法生成特定的人脸内容。

  大部分的 AI 生成模型都会屏蔽特殊的词汇,以防止模型被用来生成恶意的图片或者视频。比如在“特朗普被捕”的假新闻图片泛滥之后,Midjourney 禁止了 arrest(被捕)这个词的使用。

  另外,大部分机构包括 Open AI、Meta、midjourney 等等,都会在生成的图像数据中添加水印,而正规的提供 AI 换脸的机构,也会在视频里内嵌水印,和真人视频做区别。

  当然了,不法分子在利益的驱使下,会绞尽脑汁去掉伪造痕迹。他们的目的就是让人认为,这些图片视频是真的。

  对于我们普通人来说,我们手中不太可能有专门的鉴别软件,也不太可能逐帧去分析画面中的破绽,但依然有一些简单方法能够在一定程度上帮助我们分析判断。

  如果视频里的人提到了让你转钱,你可以要求视频里的人做一些特定的动作,比如转个身,以及用手在摄像头前面停留一会、挥一挥。

  通过这种方法,既可以分辨对方是不是一个提前录制好的视频,同时,手在脸前面晃动也会对一些简单的 AI 换脸工具进行干扰,“假人”可能会露出破绽。

  除此之外,你也可以让对方回答一些只有你们才知道的消息,比如“你们最后一次见面是在哪里?”或者明知道对方没有孩子,也故意问一问对方孩子的消息,看看是不是骗子冒充的。

  毕竟,对方已经提到让你转钱了,让对方做几个动作回答几个问题验证身份也并不过分。而自己的钱袋子,当然要自己守护好。

  原标题:《AI 换脸被骗1.8 亿!普通人怎么样才可以识别 AI 作图的真假?》

上一篇:防伪标识这样被伪造:没有资质认证 自建查询系统
下一篇:【48812】怎样查防伪码的真假

微信咨询

lovenihao2012

在线咨询

电话咨询