文/大壯編輯/大壯現(xiàn)如今隨著網絡的高速發(fā)展,各種新型詐騙手段也越來越高級,各種花樣手段層出不窮,通過一些科技手段,讓不少人損失慘重。為了杜絕更多的人上當受騙,國家對于電信詐騙的打擊力度也在逐漸加大,國家反詐APP的上線,也讓很多人對電信詐騙有了更深的了解,更加懂得從各個方面保護自己的切身利益。 可就在最近,全國各地出現(xiàn)了一種新型詐騙方式讓人防不勝防,而這種詐騙方式的成功率幾乎接近100%,全國各地國家公安機關人員,都先后在社交媒體上發(fā)布了預警,提醒人們一定要加強防騙意識,以免上當受騙。 那這種詐騙方式究竟是什么呢?為何會有這么高的成功率?我們又該從哪幾個方面去避免上當受騙? 一、AI換臉術近幾年 AI技術在網絡上可算的上是一個大熱門,好像什么東西加上一個AI都會顯得十分高級,尤其是AI換臉技術,在年輕人的圈子里更加受到追捧,不少人都會將各種影視作品主角的臉,換成自己的,過了一把演戲的癮。 隨著技術的不斷升級, AI換臉后的人物表情也變得更加生動,不僅可以做出生氣微笑的表情,就連皺眉眨眼撅嘴這樣的精細動作,也同樣可以表現(xiàn)的淋漓盡致,甚至可以達到一種“以假亂真”的效果。 本來是一項利民的新型技術,但在有心人的利用下,AI換臉技術變成了電信詐騙的“好幫手”,現(xiàn)在在很多地方,已經發(fā)生了多起因AI換臉技術上當受騙的的案例。 在今年,在福州工作的李先生就經歷了這一場騙局,被自己的“上司”騙走了5萬元。 經警方調查結果顯示,在幾天前,李先生的上司曾經通過微信添加他為好友,在看到頭像與名字均和領導本人一致后,李先生沒有思考便通過了申請,隨后上司給李先生發(fā)了視頻邀請,在視頻通話中,李先生明確的看到上司正處在會議室中,在與員工開會,所以更加對領導的真?zhèn)紊钚挪灰伞?/p> 短暫的視頻后,領導以正在開會不太方便視頻為由,掛斷了通話,又稱自己有重要的事情要交代,讓李先生添加他的QQ號碼聯(lián)系,李先生自然不疑有他,果斷注冊了個QQ號,與上司取得聯(lián)系。 通過后,領導表示自己現(xiàn)在老家親戚急需用錢,可他手邊的錢一時拿不出來,所以希望李某可以給自己轉5萬元用來應急,過一段時間就會準時還他。 在網絡上借錢是一個很敏感的事情,但是先前的視頻通話,讓李先生對于領導的身份不疑有他,是果斷的給領導轉去了48000元。 次日,李先生來到公司再見到上司后,隨口問了一句老家親戚的錢湊夠了嗎,可換來的卻是領導的一頭霧水,在李先生的追問之下,領導表示自己昨天從來沒有聯(lián)系過他,更不要提借錢一說,這時李先生才意識到自己應該是被騙了! 回過神來的李先生連忙去警局報案,這才得知原來有一種新型詐騙方式,通過AI換臉技術實施的,而李先生很有可能就是因此上當受騙的。 同樣的事情,在我國常州也有發(fā)現(xiàn)。一天,某大學生小王突然接到了朋友的信息,稱自己貸款快要到期,急需2000元用于還貸,希望小王可以先借給自己2000元應急。 由于與這個朋友許久未曾聯(lián)系,突然接到短信的小王也感覺有些稀奇,擔心朋友被盜號遇到騙子了,小王便提出了要與朋友視頻的要求,沒一會兒朋友的視頻電話就發(fā)了過來,看到朋友的臉出現(xiàn)在手機屏幕中,小王也打消了疑慮,將2000元轉給了朋友。 但那小王沒想到的是,朋友在拿到錢之后,竟然就消失無蹤了!任憑小王發(fā)多少條消息都石沉大海,以為朋友是想賴賬,小王便給朋友打去了電話,但沒想到朋友根本不知道這碼事兒,多次保證說自己從沒有借過小王任何一筆錢,而且也沒有貸款。 那既然不是朋友借的錢,那這筆錢又去了哪兒呢? “你是不是遇到騙子了,最近網上用AI換臉行騙的人特別多,你真的確定是我借的錢嗎?” 等到小王仔細回憶一下當天的情形后,發(fā)現(xiàn)確實是有蹊蹺,首先在視頻時對方一直沒有直視鏡頭,眼神飄忽不定十分機械,并且沒有任何的寒暄,只通話了幾秒鐘就匆匆掛斷了視頻,聲稱自己這邊有事,不方便視頻。 越想越覺得蹊蹺,小王立刻前去警局報了案,經過警方調查,小王與李先生一樣都是遭受到了電信詐騙,采用的方式也都是通過AI換臉技術進行的。 二、聲音AI 臉部可以AI,那聲音也可以 AI嗎? 當然可以!據網絡安全公司McAfee發(fā)布的最新報告顯示,現(xiàn)在越來越多的人都被人工智能語音鎖詐騙過,其中10%有接到過類似的電話,還有20%身邊出現(xiàn)過被語音詐騙的例子。 McAfee 首席技術官 Steve Grobman 稱:
一般來說騙子不會漫無目的的廣撒網,凡是會在鎖定了詐騙對象之后,進行一個全面的研究,根據該對象在各個網絡平臺上發(fā)布的個人信息,從而制定一套完整的詐騙計劃。 2022年3月,一名網游愛好者小林在玩游戲時,看到了一則游戲通告,“交友,近期奔現(xiàn)”,抱著想撩妹的心態(tài),小林與這位發(fā)布通告的“輕舞飛揚”取得聯(lián)系,經過一段時間的相處后,倆人變成了游戲中的情侶,彼此也交換了聯(lián)系方式。 在之后的日子里,小林與這位網絡女友走的越來越近,共同話題也變得越來越多,在看到對方的照片后,小林便徹底淪陷在這位網絡女友的石榴裙擺下。 從那時起,倆人便開始每天語音通話,對方都屬于女生嬌俏的聲音,讓小林充滿了幻想,一度認為自己遇到了真愛,在想與對方進一步接觸時,“輕舞飛揚”提出了要和小林在現(xiàn)實中見面,甚至提出要前往小林所居住的城市,與他一起“同居”。 對此,小林當然非常愿意,可女友卻在此時提出了自己的困境,稱因為路途太過遙遠,自己手邊并沒有那么多的路費。想到馬上就能和日思夜想的女友見面,小林毫不吝嗇立馬給對方轉去了1萬多元的紅包,而對方在留下一句謝謝之后,就再也消失無蹤了。 直到這時小林才猛然驚醒,意識到自己可能是被騙了,于是趕緊報警。經過警方的調查后,得知于小林一直網戀的對象竟然是一名22歲的男子白某,白某通過AI變聲技術,將自己包裝成各種類型的女孩,同時與許多人進行“交往”,從中詐騙了幾萬元,小林不過是其中一位而已。 俗話說的好:眼見為實,耳聽為虛,而在如今的社會中,眼見不一定為實,耳聽也不一定為真,將聲音變換性別,只不過是AI變聲最簡單的功能,更嚴重的是,這種技術竟然還能完全的去“模仿”你的聲音! 2021年住在武漢的趙女士,突然接到了兒子的電話,接通后,聽筒內傳來了兒子的慘叫:“媽,快救我,我被綁架了!” 聽到兒子慘叫,趙女士頓時慌了神,詢問兒子到底怎么了?發(fā)生了什么事,但他沒能再等到兒子的回聲,一個兇狠的聲音傳了出來:“想救你兒子就拿30萬來贖人!” 難道兒子是被綁架了嗎?想到這兒趙女士大吃一驚,連忙求對方一定不要傷害兒子,自己一定會抓緊時間湊錢,趙女士求饒的態(tài)度讓“綁匪”十分開心,恐嚇了幾句便掛斷了電話。 坐在沙發(fā)的趙女士連忙將家中所有的存折翻了出來,思緒也逐漸穩(wěn)定下來,想到網上近年來典型詐騙特別多,趙女士又給兒子撥打去了電話,聽到話筒中傳來陣陣忙音,此時的趙女士更加確信兒子一定是遭遇了不測。 與此同時綁匪的電話再一次打了過來,伴隨著“兒子”的慘叫聲,綁匪兇狠的聲音再一次傳來:“不要想著報警,快點把錢湊齊,如果讓我知道你有其他心思,就等著給你兒子收尸吧!” 這下趙女士徹底崩潰,連忙給丈夫打去了電話,要他快點湊夠30萬元,丈夫接到王女士的話也是一頭霧水,因為早在30分鐘前,他剛跟自己的兒子通了電話,兒子還說晚上要回來吃飯,沒理由轉頭就遭到了綁架! 安撫好妻子的情緒后,丈夫再一次給兒子打去了電話,取得聯(lián)系后得知兒子此時正在上班,并無遭遇不測,才徹底放心,將事情告給兒子,讓他趕快給母親打個電話報平安。 聽到兒子的聲音后,趙女士這才把心放回肚子里,但她奇怪的是,為何兒子的聲音會出現(xiàn)在電話內頭呢? 原來這是因為兒子在之前接過幾個陌生電話,對面打通之后一直稱自己是某某客服,想對他做一個問卷調查,而趙女士的兒子因為閑來無事,便配合對方進行了兩分鐘的通話,很有可能就是因為這次的通話,讓對方獲得了他的聲音樣本,從而經過特殊處理技術,通過AI模仿他的聲音進行詐騙。 二、以假亂真的AI近年來因為科技發(fā)展的十分迅速,該換臉技術也變得越發(fā)成熟,僅僅只需要一張照片,就能給人完成換臉,甚至五官也能十分生動,毫無違和感。 而且現(xiàn)在目前的技術,不僅可以完成人臉 AI,就連身體、聲音同樣可以通過AI技術達到以假亂真的地步。 最開始AI技術應用于影視行業(yè),為了解決演員在面對高難度動作時的特殊需求,或者為了解決更換角色誕生的新技術,之前有一部電視劇《三千鴉殺》,因其中飾演青青大人的女演員應在火車站大鬧,而引發(fā)眾怒。 隨后片方也將該演員做換角處理,可由于戲份已經拍完,片方只能將另一位女演員的臉用AI換臉技術,更換到該女演員身上。 隨著這項技術越發(fā)成熟,越來越多的人都可以自如的掌握這項技術,技術本身沒有好壞,但關鍵在于人們會如何使用它。 由于這項技術逐漸便利,一些不法分子便開始利用這項技術滿足自己的“私欲”!將女明星的臉更換到島國成人色情電影演員上,在網絡上大肆售賣,許多不知情的人還真的認為吃到了瓜,也使得這些視頻在網絡上開始流傳,造成了極其負面的影響。 2023年3月,一位網友在社交平臺曬出了自己搭乘地鐵的照片,在照片中清晰可見女孩身材較好,面容精致,讓人看起來十分賞心悅目,可卻有一些別有用心的人利用網友的這張照片,利用AI技術“一鍵脫衣”,還無恥的將照片大肆廣為傳播,進行造謠稱:有人在地鐵上拍攝裸照! 因為AI功能的強大,對背景完全沒有影響,甚至還處理了色差問題,所以有許多不知情的網友在看到這張照片時便信以為真,所以這張不屬于博主的“裸體照”便在市面上廣為流傳,對博主造成了嚴重的負面影響。 而這種所謂的“一鍵脫衣” AI技術,其實早在四五年前就已經在網絡上出現(xiàn)了,由于使用門檻較低,所以基本人人都可以進行操作,有些不法分子便鉆了漏洞,用人在社交平臺上發(fā)布的美女照片,制造不雅視頻以及照片,在網絡上售賣,以此達到牟利的效果。 前段時間一位百萬粉絲的女網紅賴賴,在社交平臺發(fā)文,稱自己的臉被人盜用了! 如果不是朋友給賴賴發(fā)去了視頻為證,那賴賴可能永遠都不會知道,自己的臉竟然會被當做成人電影,大肆傳播售賣。在該網紅的調查下,他發(fā)現(xiàn)“ AI盜臉”體系已經非常完整了,假視頻只需要30~50元不等就可以觀看,花200元就可以進群,享受“私人定制服務”,而且還能打折。 技術本身沒有善惡,但如果被不法分子惡意使用,那就會造成非常嚴重的后果,用他人的痛苦,來澆灌自身的貪婪與猥瑣。 隨著科技的發(fā)展,騙子的手段也在不斷升級,但歸根結底都是為了“錢財”,所以在我們的日常生活中,一定要提高警惕,不要輕易相信他人,對于陌生的電話,也不要輕易接聽,更不要輕易的在公眾平臺透露自己的個人信息。 如果遇到了有人侵犯自身權利,惡意造謠,那我們就一定要學會拿起法律的武器,合理的保護自己! |
|