要点:
Ai 科技带来了技术上的进步,同样也成为了很多不法分子的犯罪“快捷”最新手段。 AI趋势下,内容简单创作变得特别容易,将导致内容的生产者出现“劣币驱逐良币”的过程。长期以往,除了少数非盈利且不在乎被洗稿抄袭的作者以外,大部分都不再认真创作有价值的内容,而由于内容质量的快速降低,且垃圾内容越来越多,恶性循环下,令观众更无法把握内容的真实性。
在“速食”成为主流的视听传播时代,社会每天都在产生大量信息。而应该探讨的深度,却永不止于话题或事件本身。我们一起,从社会发展中洞察有价值、有趣、有争论点的生活方式及现象。
狂呼社会研究所聚焦社会变革下不同的声音,向外延申社会背景、文化背景的思考深度,以多角度剖析、独特的社会视角,引领大众感知社会的“人间百态”。
狂呼,为每一个社会现象或事件的背后,提供具有探讨价值的观点,始于洞察、终于启发。
联系我们// 相关文章
复制语音的技术飞跃进步,你不能再相信自己的耳朵了!
全世界诈骗集团常用老梗“妈,我被绑架了!”十万火急要求爸妈或亲友汇款,帮助他摆脱困境,现在有诈骗份子加入人工智能AI技术,让一般民众根本难辨声音的真假。
鉴于这类新型态诈骗案件频传,美国联邦贸易委员会近日特别警告消费者,诈骗集团可以利用短短3秒钟本尊声音,加上AI技术,制造模仿本人声音,来诈取钱财,呼吁民众小心别上当。
美国4月10日报导,亚利桑那州一位母亲向警局报案,并警告亲友,她亲身遭遇一个可怕的电话诈骗案件,涉及仿声AI技术。
美国妈妈叙述亲身经历
这位妈妈德斯特凡诺/Jennifer DeStefano说,她曾接到一个陌生电话号码,差点把它转到语音信箱。然而,电话传出她15岁女儿的声音,说她正在外地滑雪,所以,DeStefano担心可能发生意外,赶紧拿起电话,。
“我拿起电话,听到女儿的声音说妈妈!然后她在抽泣。我马上问,发生什么事了?她说,妈妈,我搞砸了,然后她断断续续抽泣和哭泣。”德斯特凡诺回忆道。德斯特凡诺指出,她随后听到一个男人的声音说,“把头往后仰,躺下。”这位母亲的困惑很快变成恐惧。
诈骗犯不准妈妈打电话给其他人
陌生男子抢过电话大声喊道,“听着,你女儿在我这,你敢打电话给警察、你打电话给任何人的话,我要让她充满毒品,我要随便处置她,我要把她送到墨西哥。”德斯特凡诺听完这段恐吓,就在那一刻,她开始颤抖。电话传来女儿微弱的声音“妈妈,拜托救救我,救我。”然后她大哭起来。电话里那个男子随后要赎金,先是要100万美元,然后德斯特凡诺说她没有钱时,他很快将赎金降低到5万美元。
德斯特凡诺让陌生男子继续说话。在讲电话时候,她刚好在另一个女儿的舞蹈教室,周围满是焦急的妈妈们,她们想帮忙,一个叫她打911报警,另一个叫她打电话给丈夫。
在短短4分钟内,他们确认她的女儿是安全的。
AI仿声骗过亲妈
女儿在楼上的房间里说,“什么? 发生什么事了?”然后,德斯特凡诺表示,“我气炸了,跟对方大吼说,你不能拿这来开玩笑。”了解女儿人身安全后,德斯特凡诺马上挂断了电话,但是她确认电话里是她女儿的声音。 「绝对是我女儿的声音,也是她啜哭的方式,我一点也不怀疑那是她,这是真正让我陷入迷惑的诡异情节。」她害怕说道。然而,事实证明,这个15岁的女孩从未在电话另一头说过任何一句话,电话里的声音,只是人工智能AI创造出来的分身。
3秒钟本尊的声音就可以复制“分声”
亚利桑那州立大学人工智慧专业的资讯科学教授Subbarao Kambhampati表示,“复制语音的技术飞跃进步,你不能再相信自己的耳朵了。”以前,复制声音需要从本尊身上获取大量样本。 现在Kambhampati表示,只需3秒钟本尊的声音就可以复制出一模一样的“分声”。
Kambhampati解释说,只要有了这3秒钟,AI就可以复制本人的声音了,大多数复制实际上都有捕捉到本人语调和情感的转折。
深度学习技术几乎没有受到法规的监督
Kambhampati警告,目前深度学习技术几乎没有受到法规的监督,而且它越来越容易取得和使用。 “这是一种新玩具,我认为它可以应用在好的一方面,但是肯定也有非常令人担忧的用途。”他补充说。
FBI凤凰城办公室的助理特务梅奥/Dan Mayo表示,使用语音复制技术的骗子经常会在社交媒体上找到猎物。为了避免成为此类骗局的受害者,梅奥呼吁每个人都将个人资料保持在私人模式,不要向大众公开。
“你必须把那些东西锁起来。问题是,如果你把个资公开,会让自己被骗子诈欺,因为他们会尽可能从你公开档案找出你更多个人资料,他们会深入了解你。”梅奥说明。
只要钱一旦汇出,想要取回几乎是不可能的。
联邦贸易委员会指出,诈骗份子通常会要求受害者电汇款项、发送加密货币或使用礼品卡,来支付赎金,只要金钱一旦汇出,想要取回几乎是不可能的。梅奥指出,需要注意的危险信号包括来自你不熟悉的区号电话号码、电话号码是国际号码,以及打电话的人不允许你向其他家人寻求帮助。
“接到诈骗电话时,想想电影情节吧。放慢速度,对方慢下来,问对方一堆问题,如果他们有你感兴趣的人,你就会知道很多关于他们的细节,但是这个骗子不会知道。等你开始质问他是谁,以及他们不公开的背景细节,你很快就会发现他是一个骗子。”梅奥解说自保之道。
每天都有诈骗电话
目前不清楚有多少人收到过类似的家人紧急情况或AI复制语音谎报假绑架的诈骗电话,但是梅奥表示这种情况每天都在发生,但不是每一个人都向警方报案。梅奥说,他相信有些人知道家人安全,松了一口气,以至于忘记通报骗局。然而,另外有些人真的被骗了,他们最后汇钱给诈骗集团,“相信我,联邦调查局正在调查这些诈骗犯,我们有捉到诈骗犯。”梅奥透露。
至于德斯特凡诺,她很庆幸自己没有给骗子寄钱,但这没有阻止她受到伤害,“我接到电话时真的哭了起来,为诈欺犯的假话流泪,这一场骗局显得那么真实。”她说。
观点1
AI科技带来了技术上的进步,同样也成为了很多不法分子的犯罪“快捷”最新手段。对于公共职能部门而言,政府和执法机构应该加大对这种行为的打击力度,釆取更加严厉的措施,制定更多的法律法规来约束和监管AI技术的应用。例如,加强对AI技术的知识产权保护,加强对AI技术在网络安全、金融诈骗、侵犯隐私等领域的监管,从而加大对骗子的处罚力度,让他们付出应有的代价。
同时,我们也需要加强对人工智能技术的研究和应用,开发出更加安全和可靠的技术,为人们的生活带来更多的便利和安全。总之,骗子利用AI声音冒充亲人进行诈骗的行为给社会带来了不小的影响,我们需要加强对这种行为的打击和处罚,加强对人工智能技术的监管和研究,同时也需要加强人们的安全意识和信息保护意识,这样才能更好地保护我们的利益和安全。
如果你发现自己遭遇了AI声音诈骗,或者有人试图用这种方式骗你,你应该立即向警方报案,提供相关的证据和信息,帮助警方追踪和抓捕犯罪分子。
观点2
作为个体,我们也需要增强自我保护意识,避免轻信陌生电话、短信、邮件等形式的信息。若接到可疑电话,应该通过设法放慢速度、询问对方身边人的细节等方式来确认对方的身份和信息是否真实。
除了Ai诈骗外,AI还被不法分子利用,带来的大量“垃圾内容”也需要引起大众的重视。我们最近访谈节目上,也和AI专家提及到AI对于内容的负面影响,大量快速生成的Ai内容,不仅无法辨别真伪,而且产生的大量“垃圾信息”,让观众对信息的真实度更难求证了。
AI趋势下,内容简单创作变得特别容易,将导致内容的生产者出现劣币驱逐良币的过程。长此以往,除了少数纯非盈利的且不在乎被洗稿抄袭的作者以外,大部分都不再会认真创作有价值的内容,而由于内容质量的快速降低,且垃圾内容越来越多,恶性循环下,令观众更无法把握内容的真实性。
针对不同的信息,我们应该提高自我的判断能力,对于信息的真伪要多加注意,预防自己卷入错误信息中却不自知,可以针对同一个资讯查询不同的官方网站,全面了解后再作定段,而不是因其中一两篇就以偏概全,全相信当中提及的信息点。