要點:
Ai 科技帶來了技朮上的進步,同樣也成為了很多不法分子的犯罪“快捷”最新手段。AI趨勢下,內容簡單創作變得特別容易,將導致內容的生產者出現“劣幣驅逐良幣”的過程。長期以往,除了少數非盈利且不在乎被洗稿抄襲的作者以外,大部分都不再認真創作有價值的內容,而由於內容質量的快速降低,且垃圾內容越來越多,惡性循環下,令觀眾更無法把握內容的真實性。
在“速食”成為主流的視聽傳播時代,社會每天都在產生大量信息。而應該探討的深度,卻永不止於話題或事件本身。我們一起,從社會發展中洞察有價值、有趣、有爭論點的生活方式及現象。
狂呼社會研究所聚焦社會變革下不同的聲音,向外延申社會背景、文化背景的思考深度,以多角度剖析、獨特的社會視角,引領大眾感知社會的“人間百態”。
狂呼,為每一個社會現象或事件的背后,提供具有探討價值的觀點,始於洞察、終於啟發。
聯系我們 // 相關文章
複製語音的技術飛躍進步,你不能再相信自己的耳朵了!
全世界詐騙集團常用老梗“媽,我被綁架了!”十萬火急要求爸媽或親友匯款,幫助他擺脫困境,現在有詐騙份子加入人工智能AI技術,讓一般民眾根本難辨聲音的真假。
鑒於這類新型態詐騙案件頻傳,美國聯邦貿易委員會近日特別警告消費者,詐騙集團可以利用短短3秒鐘本尊聲音,加上AI技術,製造模仿本人聲音,來詐取錢財,呼籲民眾小心別上當。
美國4月10日報導,亞利桑那州一位母親向警局報案,並警告親友,她親身遭遇一個可怕的電話詐騙案件,涉及仿聲AI技術。
美國媽媽敘述親身經歷
這位媽媽德斯特凡諾/Jennifer DeStefano說,她曾接到一個陌生電話號碼,差點把它轉到語音信箱。然而,電話傳出她15歲女兒的聲音,說她正在外地滑雪,所以,DeStefano擔心可能發生意外,趕緊拿起電話,。
“我拿起電話,聽到女兒的聲音說媽媽!然後她在抽泣。我馬上問,發生什麼事了?她說,媽媽,我搞砸了,然後她斷斷續續抽泣和哭泣。”德斯特凡諾回憶道。德斯特凡諾指出,她隨後聽到一個男人的聲音說,“把頭往後仰,躺下。”這位母親的困惑很快變成恐懼。
詐騙犯不准媽媽打電話給其他人
陌生男子搶過電話大聲喊道,“聽著,你女兒在我這,你敢打電話給警察、你打電話給任何人的話,我要讓她充滿毒品,我要隨便處置她,我要把她送到墨西哥。”德斯特凡諾聽完這段恐嚇,就在那一刻,她開始顫抖。電話傳來女兒微弱的聲音“媽媽,拜託救救我,救我。”然後她大哭起來。電話裡那個男子隨後要贖金,先是要100萬美元,然後德斯特凡諾說她沒有錢時,他很快將贖金降低到5萬美元。
德斯特凡諾讓陌生男子繼續說話。在講電話時候,她剛好在另一個女兒的舞蹈教室,周圍滿是焦急的媽媽們,她們想幫忙,一個叫她打911報警,另一個叫她打電話給丈夫。
在短短4分鐘內,他們確認她的女兒是安全的。
AI仿聲騙過親媽
女兒在樓上的房間裡說,“什麼? 發生什麼事了?”然後,德斯特凡諾表示,“我氣炸了,跟對方大吼說,你不能拿這來開玩笑。”了解女兒人身安全後,德斯特凡諾馬上掛斷了電話,但是她確認電話裡是她女兒的聲音。「絕對是我女兒的聲音,也是她啜哭的方式,我一點也不懷疑那是她,這是真正讓我陷入迷惑的詭異情節。」她害怕說道。然而,事實證明,這個15歲的女孩從未在電話另一頭說過任何一句話,電話裡的聲音,只是人工智能AI創造出來的分身。
3秒鐘本尊的聲音就可以複製“分聲”
亞利桑那州立大學人工智慧專業的資訊科學教授Subbarao Kambhampati表示,“複製語音的技術飛躍進步,你不能再相信自己的耳朵了。”以前,複製聲音需要從本尊身上獲取大量樣本。 現在Kambhampati表示,只需3秒鐘本尊的聲音就可以複製出一模一樣的“分聲”。
Kambhampati解釋說,只要有了這3秒鐘,AI就可以複製本人的聲音了,大多數複製實際上都有捕捉到本人語調和情感的轉折。
深度學習技術幾乎沒有受到法規的監督
Kambhampati警告,目前深度學習技術幾乎沒有受到法規的監督,而且它越來越容易取得和使用。“這是一種新玩具,我認為它可以應用在好的一方面,但是肯定也有非常令人擔憂的用途。”他補充說。
FBI鳳凰城辦公室的助理特務梅奧/Dan Mayo表示,使用語音複製技術的騙子經常會在社交媒體上找到獵物。為了避免成為此類騙局的受害者,梅奧呼籲每個人都將個人資料保持在私人模式,不要向大眾公開。
“你必須把那些東西鎖起來。問題是,如果你把個資公開,會讓自己被騙子詐欺,因為他們會盡可能從你公開檔案找出你更多個人資料,他們會深入了解你。”梅奧說明。
只要錢一旦匯出,想要取回幾乎是不可能的。
聯邦貿易委員會指出,詐騙份子通常會要求受害者電匯款項、發送加密貨幣或使用禮品卡,來支付贖金,只要金錢一旦匯出,想要取回幾乎是不可能的。梅奧指出,需要注意的危險信號包括來自你不熟悉的區號電話號碼、電話號碼是國際號碼,以及打電話的人不允許你向其他家人尋求幫助。
“接到詐騙電話時,想想電影情節吧。放慢速度,對方慢下來,問對方一堆問題,如果他們有你感興趣的人,你就會知道很多關於他們的細節,但是這個騙子不會知道。等你開始質問他是誰,以及他們不公開的背景細節,你很快就會發現他是一個騙子。”梅奧解說自保之道。
每天都有詐騙電話
目前不清楚有多少人收到過類似的家人緊急情況或AI複製語音謊報假綁架的詐騙電話,但是梅奧表示這種情況每天都在發生,但不是每一個人都向警方報案。梅奧說,他相信有些人知道家人安全,鬆了一口氣,以至於忘記通報騙局。然而,另外有些人真的被騙了,他們最後匯錢給詐騙集團,“相信我,聯邦調查局正在調查這些詐騙犯,我們有捉到詐騙犯。”梅奧透露。
至於德斯特凡諾,她很慶幸自己沒有給騙子寄錢,但這沒有阻止她受到傷害,“我接到電話時真的哭了起來,為詐欺犯的假話流淚,這一場騙局顯得那麼真實。”她說。
觀點1
AI科技帶來了技朮上的進步,同樣也成為了很多不法分子的犯罪“快捷”最新手段。對於公共職能部門而言,政府和執法機搆應該加大對這種行為的打擊力度,釆取更加嚴厲的措施,制定更多的法律法規來約束和監管AI技朮的應用。例如,加強對AI技朮的知識產權保護,加強對AI技朮在網絡安全、金融詐騙、侵犯隱私等領域的監管,從而加大對騙子的處罰力度,讓他們付出應有的代價。
同時,我們也需要加強對人工智能技朮的研究和應用,開發出更加安全和可靠的技朮,為人們的生活帶來更多的便利和安全。總之,騙子利用AI聲音冒充親人進行詐騙的行為給社會帶來了不小的影響,我們需要加強對這種行為的打擊和處罰,加強對人工智能技朮的監管和研究,同時也需要加強人們的安全意識和信息保護意識,這樣才能更好地保護我們的利益和安全。
如果你發現自己遭遇了AI聲音詐騙,或者有人試圖用這種方式騙你,你應該立即向警方報案,提供相關的證據和信息,幫助警方追蹤和抓捕犯罪分子。
觀點2
作為個體,我們也需要增強自我保護意識,避免輕信陌生電話、短信、郵件等形式的信息。若接到可疑電話,應該通過設法放慢速度、詢問對方身邊人的細節等方式來確認對方的身份和信息是否真實。
除了Ai詐騙外,AI還被不法分子利用,帶來的大量“垃圾內容”也需要引起大眾的重視。我們最近訪談節目上,也和AI專家提及到AI對於內容的負面影響,大量快速生成的Ai內容,不僅無法辨別真偽,而且產生的大量“垃圾信息”,讓觀眾對信息的真實度更難求證了。
AI趨勢下,內容簡單創作變得特別容易,將導致內容的生產者出現劣幣驅逐良幣的過程。長此以往,除了少數純非盈利的且不在乎被洗稿抄襲的作者以外,大部分都不再會認真創作有價值的內容,而由於內容質量的快速降低,且垃圾內容越來越多,惡性循環下,令觀眾更無法把握內容的真實性。
針對不同的信息,我們應該提高自我的判斷能力,對於信息的真偽要多加注意,預防自己卷入錯誤信息中卻不自知,可以針對同一個資訊查詢不同的官方網站,全面了解后再作定段,而不是因其中一兩篇就以偏概全,全相信當中提及的信息點。