万恶的Deepfake,为什么百禁不绝?

在数字时代,Deepfake技术的发展无疑带来了前所未有的挑战。这项能够制作出以假乱真的音视频的技术,正被一些不法分子用于制造和传播虚假信息,甚至用于恶意诽谤和侵害他人隐私。 在国庆假期期间,网友恶搞的雷军AI配音突然爆火,引发了诸多争议。

造假音视频

似乎已经成为一个无法关闭的潘多拉魔盒。在更早之前,韩国爆发的Deepfake危害事件就曾引发全球关注。根据相关报道,最初是由多名韩国女性通过社交平台,披露了传播Deepfake换脸不雅视频的事件。随后,有越来越多的危害事件与受害人被爆出。 根据社交媒体流传的受Deepfake影响名单,有超过百所韩国中小学以及国际学校出现相关问题。有韩国官员表示,受害者可能达到22万人。

高质量的电话营销数据可以为之前的活动结 目标电话号码或电话营销数据 果增加价值,因为它可以保护活动针对感兴趣的目标。这种差异化洞察力可能为获得比平常更高的转化率铺平道路,从而根据数据的实际人口统计、行为和偏好减少一些损失,以获得更好的投资回报率。

这里大家可能会有这样一个疑问:为什么多年来人人喊打的Deepfake反而愈演愈烈? 要知道,早在2017年Deepfake刚刚出现的时候,仅仅几天就遭到了全球范围的合力封杀,包括但不限于主流社交媒体的严格封禁。此后,多个国家与地区采用了立法的形式,严禁利用Deepfake以及其他AI换脸技术侵犯他人肖像权与隐私权。 做交互设计10年,我为何转岗到产品经理? 真正转岗之后,我发现很多工作还是超出了自己的想象。产品经理的工作确实比较杂。

理论上,产品经理的工作包括了产品的方方面面,从市场研究、用户调研、数据分析… 查看详情 > 危害难以杜绝,是因为Deepfake技术高深,让人防不胜防吗? 答案刚好相反,Deepfake难以禁止的原因,恰恰在于其过分简单,只需要简单的技术资源就能造成巨大的破坏性影响。 而这些资源,在今天的互联网环境下能够轻而易举地获取。 

人类最邪恶的AI技术 我想

我们没有必要从人性和动机上讨论为什么有人制作和传播AI换脸视频。只要违法成本够低,这种行为就必然无法杜绝。作为普通人,我们也难以从立法和执法的角度探讨如何打击Deepfake。我们能做的,是审视进行Deepfake的真实情况,进而考虑如何增大违法难度,压缩这种行为的生存空间。 Deepfake被很多媒体称作“人类最邪恶的AI技术”。这种描述有其合理性,但也客观上对Deepfake进行了妖魔化、神秘化的修饰,让不了解的人将其与黑客、勒索病毒、暗网等关键词联系起来,认为其非常隐秘而高深。

事实恰恰相反,Deepfake的危害性与破坏性,恰恰在于其操作简单。近乎没有任何技术学习门槛,同时其所需要的每一步帮助,都可以在公开的互联网环境中堂而皇之地获取。 试想一下,韩国的22万名受害者,不可能都是某几个技术大牛进行的施暴。当普通人可以随时随地,没有成本地作恶,恶意才真正难以被遏制。 之所以这样说,是我们必须先了解Deepfake的具体流程。一般来说,使用Deepfake进行AI换脸,需要经历以下几个步骤: 1.准备Deepfake相关软件,或者找到具有类似功能的在线AI开发平台。 2.准备要进行人脸替换的视频,对视频进行照片化切图。 3.挑选出若干照片中要替换的人脸并进行操作。俗称切脸,提脸。 4.将准备好的照片进行覆盖,进而进行模型训练。这一步对于缺乏技术功底的人来说,大概率需要预训练模型来辅助训练。 

训练完成,生成视

从这个流程中我们可以总结出,想要进行一次有危害性的Deepfake最多只需要四件东西:AI换脸软件、预训练模型、被换脸的视频、受害人照片。 获取这些东西过分容易,就是Deepfake百禁不绝,反而流毒更广的核心原因。

寻觅受害者信息,现成的社交网络摆在那里 我们可以来分步骤看看,Deepfake的“作案工具”究竟来自哪里。 讨论这些的原因绝不是希望普及相关知识,而是希望指出互联网环境下,留给Deepfake作恶者的机会与漏洞究竟在哪里。这些漏洞不被斩断,仅凭道德层面的号召倡议,或者对AI换脸视频的技术识别,是断然无法组织别有用心者的。 首先,AI换脸必然需要受害人的照片。根据相关技术社区的分享,最初版本的Deepfake大概需要50张、多角度、高清晰度的照片,才能实现较为自然的视频合成。但经过几年的迭代,目前只需要20张左右的照片就可以实现。 试想一下,对于稍微有社交媒体分享习惯的朋友来说,20张照片被盗用简直是轻而易举。 加上一段很容易找到的不雅视频,一场无妄之灾可能就此开启。

得到换脸软件

成本基本为0 得到了受害人的照片信息之后,不法分子就要找到可以进行Deepfake的软件。Deepfake的创始人最早是将软件与教程分享到了Reddit上,此后很快被官方禁止。一气之下,作者就将这款软件的代码全部放到了Github上进行免费分享,可供随时下载与使用。

到2022年,相关软件已经升级到了DeepFaceLab 3.0版本,不仅可以在作者的Github下载,在中文互联网环境中还有大量QQ群、网盘链接进行分享。 更为可恶的是,在各个下载渠道中获得的DeepFaceLab,都有非常详细的中文说明与操作指引。而在切脸这类比较繁琐的工作上,甚至有专门软件进行加速。 唯一可能给不法者造成阻碍的,是AI换脸依旧需要比 7 个最适合 WhatsApp 营销的 CRM 较好的显卡来进行训练加速,但中高端的游戏显卡也已经完全足够。 获取成本为0的不法软件,技术成本为0的操作难度,构成了Deepfake真正恐怖的地方。

获取预训练模型

电商缺乏监管 到以上为止,如果是一个有AI技术能力的人,已经获得了全部进行Deepfake施暴的前提条件。但对不太了解AI技术的人来说,还有一个关键需求,就是获取预训练模型。 预训练模型,是AI开发的一个基本机制。由于大部分AI模型的前置训练任务是相同的,因此开发者倾向将相同的部分进行预训练,在同类任务中作为公用底座来使用。而在AI换脸任务中,由于难以掌握训练方法,大部分新手训练出的AI换脸模型会出现贴脸不自然,严重掉帧等现象。这时候就需要使用预训练模型进行训练,从而在提升模型精度的同时,也降低模型训练所需时间。

按理说,作为非技术人员的普通人,应该较难获得预训练模型来进行Deepfake吧? 事实并非如此,打开很多电商平台、二手交易平台,就可以轻松找到专用于Deepfake的预训练模型。这些模型一般被称为“AI金丹”。 在某主流二手交易平台,搜索AI金丹、AI仙丹、AI底丹,或者DFL丹药、DFL灵丹等关键词,会出现大量Deepfake预训练模型的出售联接。一般只需要几元钱成本。 由于平台缺乏监管,这类售卖行为长期存在,成为滋长恶行的“产业链”。就连上文提到的DeepFaceLab软件,很多时候也可以在二手交易平台买到,卖家还对进行操作教程与指引。 而这种“AI仙丹产业链”另一个难以杜绝的地方在于,一个Deepfake用户熟练操作之后,又可以将自己的模型制作为预训练模型,也被俗称为“炼丹”。炼好的弹药再到二手平台进行贩卖,这种灰色产业就这样不断扩散绵延。

如何应对Deepfake的泛滥

总结Deepfake施暴者每一步的支持来源,是为了指出杜绝其危害,真正应该着手发力的地方。

目前相关话题的讨论,经常会陷入某种误区:总是想要用非常前沿的,高成本的方法去阻击Deepfake,比如倡导利用AI技术来鉴别视频是否为AI生成等。 当然,通过AI算法来分辨AI换脸有重要的应用场景,比如在AI换脸诈骗识别上,检测视频造假 uab 目录 就至关重要。 但在类似韩国Deepfake事件,这类利用AI换脸炮制不雅视频的犯罪中,识别视频为假是无力的,甚至是无用的。 对于造假者与传播者而言,他们大多不在乎视频是否为假。

依靠高精尖的智能化技术去检测

就像用微小的技术沙袋,去堵决堤的人性江河,不过是扬汤止沸而已。 更有效的方法,或许是釜底抽薪,是从源头上杜绝别有用心者尝试Deepfake。

首先,或许我们需要在社交媒体上分享照片时更加慎重。诚然,不能让受害者承担制止犯罪的义务,但在这个充满不确定性的网络环境中,个人隐私的保护责任也在变得愈发重要。 接下来,是对相关软件要采取更具严格的封禁策略。

发表评论

您的电子邮箱地址不会被公开。 必填项已用 * 标注