要点:
“AI诈骗”正在全球范围内频频爆发,当“AI换脸”和“AI语音合成”这两大核心技术门槛和成本越来越低时,人工智能的负面影响也开始浮现。如何客观对待AI带来的诈骗问题、社会与个体该如何合力寻找应对“AI诈骗”的合理方案亟待解决。犯罪分子总是会创新,打击AI诈骗需要多方面的方法,包括技术进步、宣传活动和政策措施。
在“速食”成为主流的视听传播时代,社会每天都在产生大量信息。而应该探讨的深度,却永不止于话题或事件本身。我们一起,从社会发展中洞察有价值、有趣、有争论点的生活方式及现象。
狂呼社会研究所聚焦社会变革下不同的声音,向外延申社会背景、文化背景的思考深度,以多角度剖析、独特的社会视角,引领大众感知社会的“人间百态”。
狂呼,为每一个社会现象或事件的背后,提供具有探讨价值的观点,始于洞察、终于启发。
联系我们// 相关文章
人工智能正在颠覆我们的世界“10分钟,被骗走430万”! 无所不能的AI,再次刷新了诈骗的速度。当你还在担心ChatGPT是否会在未来某一天取代自己的工作时,有一群人已经靠这项新技术赚了大钱的“AI骗子”。
AI诈骗正在全球范围内频频爆发,诈骗成功率越来越高甚至有部分案件更是接近100%。一系列的诈骗事件也火速登上国内外媒体热搜榜,引起大众的高度关注和激烈讨论。
AI愈加发展、进步,既可以成为内容生产的流量助力者,也可能成为诈骗背后的幕后推手。互联网的流量模型是一个三层的漏斗,“获客→ 留存→ 变现”。过去我们通过大规模广告投放获客,通过提供内容获得用户留存,然后通过广告、打赏、会员等办法变现,但如今处于互联网的下半场,接下去是AIGC时代,优质内容的成本将被极限压缩,通过AI可以轻松地将大量的数据和文本转化为高质量的内容,无论是文字、图片、音频还是视频。而大量溢出的内容必将导致流量争夺的加剧。 AI既能以更高效、快速的方法搜索、整合信息,同时也可以快速生成创意内容,以较高的内容质量和主题创新吸引更大的流量进来。但与此同时,AI的低成本、低门槛自动化生成各种内容,也给图谋不轨的人一个快速手段去进行信息伪造和诈骗,利用人工智能来达到过往无法实现的“真人伪造”。
10分钟骗到430万元保证金
这是中国在今年5月发生的一个真实案例。福州市某科技公司老板郭先生的好友给他打了一通微信视频,说自己的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,想用郭先生公司的账户走一下账。在这通视频里,对方先要了郭先生的银行卡号,声称已经打了钱甚至还发了银行转账截图。又是视频聊天,又是转账记录,让郭先生怎么也猜不到对面竟然是个“AI假人”,从而遇上了“高端”骗局,被对方佯装成好友对他实施了“AI诈骗”。
除了中国发生的这起案件,类似的事情在大洋彼岸也在发生。
绑架勒索百万美元
今年4月,生活在亚利桑那州的Jennifer DeStefan接到了一个陌生电话,电话里的声音是自己在外准备滑雪比赛的女儿Brianna。 Brianna在电话另一头带着哭腔向她求救。几十秒后,一个低沉的男音在电话里威胁道:“听着,你女儿在我手里,拿出100万美元的赎金,要是你打电话报警或告诉其他人,就永远别想再见到她了。”
在Jennifer表示自己拿不出100万美元后,电话那头的男子将赎金大减价至5万美元。爱女心切的Jennifer不顾友人和丈夫的劝阻,已经开始和对方讨论支付赎金的方式,直到Brianna打来一个电话表示自己平安无事,才避免了这次财产损失。
以上两个诈骗案件的关键都涉及了“AI换脸”和“语音合成”这两个人工智能核心技术。
AI 换脸软件,又称为AI深度伪造/Deepfake技术。骗子首先会根据选定的目标用户发布在社交平台上的照片或视频信息生成假脸,然后在视频通话中利用“AI换脸”技术骗取受害人的信任。而且现在“AI换脸”在中国的成本也越来越低,合成一个动态视频成本仅在2元至10元之间,至于面向更精准、更实时的大型直播平台,全套换脸模型购买价格也不过是3.5万元,功能效果都很好甚至不存在延迟等一系列的bug。
至于“语音合成”方面,技术效果也是越来越逼真。比如,过去骚扰电话只是诈骗,但现在就算诈骗不成,骗子也可以通过骚扰电话录音等手段来提取你的声音,再进行声音合成。这样一来,你的声音样本就被骗子轻松提取。前段时间,微软发布了新模型VALL·E,让人十分惊讶的是,使用这个工具只需3秒,就可以复制任何人的声音,甚至连环境背景音都能模仿到位。
骗子门槛和成本<br>当这两项技术门槛和成本变得越来越低时,国内外骗子就陆续嗅到了钱的味道。 “AI诈骗”已经不是新鲜事,频频发生并且手段层出不穷地在变化着。小到借用杨幂、迪丽热巴的脸在中国短视频平台上带货、恶搞日本众议院“美女大胸照”搏取内容流量,大到伪造“五角大楼爆炸”假新闻引发美股市场暴跌等等,都是在利用AI以更快的速度生成、发布及广泛传播各色各样的内容。
除了以上“以假乱真”的视频和作图技术,AI的“瞬间写作”能力,更是放飞自我。
前不久,一条“新闻”引起了大众传播和热议:22岁的加拿大小哥为了在韩国顺利出道,以防弹少年团的朴智旻为模版,整容了12次,花费了上百万,最后不幸丧命。在这条“新闻”下面,很多人痛批韩娱的畸形审美,结果很快,这就被证实是AI炮制的假新闻。
在中国,也出现了类似的情况。多达21个网站上同步出现了一条本地“新闻”:痛心!甘肃一火车撞上修路工人,致9人死亡。如此骇人听闻的标题外加大体量的集中报道,让这条“新闻”的点击量迅速爆炸。当网警介入调查后却发现,这条“新闻”是犯罪嫌疑人利用了AI技术进行的新闻造假。他先是购买了大量账号,再通过ChatGPT全网抓取社会热点素材,简单修改一番避开内容平台的查重审查,最后炮制出一系列的假新闻。
看来,有了AI的“加持”,不仅能轻松拿捏社交媒体流量,还成为了诈骗背后的幕后推手。
AI技术可以轻松拿捏社交媒体流量。在竞争日益激烈的社交媒体平台上,有部分人利用AI技术,自动化快速生成大量看似真实实则虚假的内容,以吸引流量和用户关注。如果再结合技术,生成一个有趣、引人入胜的“标题”,即可低成本生成一篇又一篇搏取眼球、收获爆款流量的文章。
同时,还可以利用AI自动化操控社交媒体平台,以增加内容的曝光和影响力。很多不法分子会利用AI技术自动创建大量的社交媒体账号,并通过自动化程序进行互动和传播,以获得更多的关注和流量,甚至形成了“AI媒体账号矩阵”的产业链运作思维。
除此以外,AI还是诈骗背后的幕后推手。 AI技术可以帮助不法分子伪造身份信息,包括虚假的姓名、地址、银行账号等,以便进行网络诈骗。同时,AI可以模拟人类语言和行为,使得诈骗活动的成功率和效率大大提高。如果说伪造一个人的声音和视频是需要一定的技术门槛,那么ChatGPT的出现,则让AI诈骗变得更加容易和低门槛。据国外网络安全平台资料,由于强大的工作生产效率和极低的使用门槛,ChatGPT吸引了一大批网络诈骗犯,以各种手段正在“花式”犯法。
未来人类文明AI时代
对AI时代的飞速进步,谷歌前CEO之前就发出警告,“AI被滥用迟早会威胁人类生存”。马斯克更极端,甚至把AI比作未来人类文明最大的风险之一,威胁程度远高于车祸、飞机失事、毒品泛滥等,甚至比核武器都要危险得多。
当人工智能和犯罪潜力搅在一起,ChatGPT的各类安全漏洞频道出现时,使得人们愈发不安。 “我们应如何对人工智能进行监管”已经成为了许多国家争论的重点。
据相关媒体报道,多个国家已经开始推出法规来规范以OpenAI为代表的人工智能。面对各国政府的疑虑,OpenAI首席技术官米拉·穆拉蒂在接受釆访时也表示,“公司欢迎包括监管机构和政府在内的各方开始介入”。但在快速发展的人工智能面前,立法者如何做才能跟上技术的脚步,仍是一个未知数。
而AI诈骗的爆发与技术的快速发展密切相关。 AI技术的进步为诈骗分子提供了更多的手段和工具,使他们能够更高效和隐蔽地进行欺诈活动。因此,应该着手从教育、执法力度两大方面进行预防。
首先,通过政府、媒体和社会组织的宣传、教育和培训活动,增强公众的防范意识和能力。其次,面对日益爆发的AI诈骗,加强执法力度也是应对的重要手段。各国政府相关部门应明确对AI诈骗行为的界定和惩罚力度,加大对违法行为的打击力度,为受害者提供对应的保护和救济。
面对现在逐步出现的AI负面影响,我们也必须用客观、理性的角度来看待。 AI是一种工具,它的应用取决于使用它的人。 AI本身没有意识和道德判断能力,它只是根据预先设定的规则和算法执行任务。因此,不能将诈骗行为归咎于AI本身,而是应该将责任归结于实施诈骗的人。
对待AI带来的诈骗问题,我们应该以理性和科学的态度来看待,把更多的焦点放在关注诈骗行为的背后人为因素,并釆取适当的技术和法律手段来预防和打击AI诈骗,才是行之有效的根本方法。
观点1
虽然如今“AI诈骗”的手段层出不穷,但电信诈骗并不是什么新鲜事。电信诈骗的“前世今生”可追溯到19世纪初。在19世纪初,光电报被用来在全国范围内传递信息,并允许操作员通过信号量发送和传递。 光学电报系统比派遣信使通过马背传递信息要快得多,而这种信息传递速度自罗马统治以来基本上保持不变,保证了传递速度的稳定性。
但是,光学电报也有一个缺点:发出的消息可能会被拦截和操纵。在1830 年代的法国,弗朗索瓦和约瑟夫·布兰克两兄弟成功实施了历史上第一起已知的电信诈骗案。两人都是银行家,操纵光学电报意味着他们在巴黎证券交易所获取的相关投资信息和其他交易员相比,赢得了快五天的时间优势。在两人最终被捕之前,他们通过操纵光学电报获利的财富持续了两年多。
而19 世纪发生的另外一个重要事件:第一个电话网络开始出现。这些网络是由连接到交换机的物理电话线组成。在交换机处,需要通过接线员手动接通电话。可以想象,只要会一点点社会工程和操纵的人,就可以让接线员免费接听电话。
在60 年代,为了了解系统是如何工作的(并最终获得对它们的访问权限),“phreakers”正在探索全国电话网络。值得注意的是,phreaker 场景由一群对黑客亚文化感兴趣的热心技术爱好者组成。史蒂夫·沃兹尼亚克(Steve Wozniak) 和史蒂夫·乔布斯/Steve Jobs后来都创立了苹果公司,而他们都是公认的飞客。
随着电话网络数字化,phreaking 演变成我们今天所知道的计算机“黑客攻击”。尽管技术可能发生了变化,但有趣的是,社会工程元素在很大程度上保持不变。在许多方面,社会工程学是一种与欺诈本身一样古老的工具。它需要使用诡计和伪装。正是这种人为因素,因此它既能绕过系统又能确保欺诈得以成功实施,即使在现代世界也是如此。
随着科技的发展,一系列技术工具的开发出现和被使用,使得虚假信息诈骗犯罪迅速发展与蔓延。过去,更多的是借助于手机、固定电话、网络等通信工具,而现代社会下,釆取的AI人工智能高科技诈骗更是花样百出,给受害者造成了很大的损失。不管是从古至今哪一种形式的通讯诈骗,我们都应该谨慎、注意提防,遇到任何事先思考事情的真实性,防止被诈骗。
观点2
犯罪分子总是会创新打击AI/深度造假诈骗需要多方面的方法,包括技术进步、宣传活动和政策措施。虽然该领域正在进行研究和开发,但是市场上有一些我们可以使用的工具去解决造假诈骗问题。例如检测工具,一些组织和研究人员正在致力于开发深度造假检测工具。这些工具利用机器学习算法来分析视频或图像并识别操纵迹象。虽然并非万无一失,但它们可以作为有用的第一道防线。
一些专家建议我们应该采用一种新的媒体取证。数字取证技术可用于分析媒体内容的真实性。这涉及检查视频或图像中的各种伪影和不一致,以识别任何篡改。开发高级算法来自动执行此过程并提高效率。
例如一种开放的技术标准,使出版商、创作者和消费者能够追踪不同类型媒体的来源。
在美国有一个名为C2PA的项目
CAI于2019年底由Adobe与“纽约时报”和Twitter合作成立,正在构建一个系统来提供数字媒体的出处和历史,为创作者提供声明作者身份的工具,同时使消费者能够就什么做出明智的决定去相信。 Project Origin由BBC、CBC加拿大广播电台、微软和纽约时报于2019年创立,专注于通过定义发布、分发和附加信号到内容以证明其完整性的端到端流程来解决数字新闻中的虚假信息。
C2PA结合了这两个团体的努力,专注于开发开放的全球技术标准,以引导CAI 和Project Origin的内容来源努力。 C2PA的任务是:
- 记录CAI & Project Origin和其他合作伙伴组织通知的工作流要求
- 在内容出处规范的开发中应用这些要求
- 开发应用这些标准的最佳实践和参考设计
- 推动选定规范成为全球标准
- 促进全球采用数字来源技术
- 促进社交和媒体平台采用数字联盟的规范和标准
- 即使应用了数字来源技术,也确保内容仍然可访问
随着这个项目的进展,我们应该看到新的标准在互联网上树立起来,并为人工智能的世界做好准备。
最后我们必须注意公众教育问题提高对AI/深度造假及其潜在风险的认识至关重要。就AI骗局的存在和流行对公众进行教育可以帮助人们在遇到可疑的媒体内容时变得更加怀疑和谨慎。政府和立法机构可以通过制定解决深度造假技术滥用问题的法律法规,在打击深度造假诈骗方面发挥作用。
这些法规可以包括对深度造假的创建和分发进行更严格的控制,以及对那些将深度造假用于恶意目的的人承担法律后果。科技公司、研究人员和政策制定者之间的合作对于应对AI诈骗带来的挑战至关重要。共享知识、资源和最佳实践有助于开发更有效的工具和对策。
随着深度造假技术的进步,对抗它的方法也在不断进步。虽然今天有可用的工具和策略,但这是一场持续的战斗,需要不断创新和保持警惕。