S判
2 days ago
#視訊 #詐騙 #AI
https://images.plurk.com/39ImXUKDTxWFmOUtmwCzkV.png
雖然以前就有Deepfake了,不過現在AI換臉換聲音的技術又更提升了,大家注意以後視訊的詐騙可能會變多,請傳給長輩們告知他們有這件事,不然你們帳號哪天被盜了,你們的長輩可能就會被騙錢了芸芸教室 Ai-PS.ART (@ai_ps.art) on Threads
latest #8
掰噗~
2 days ago
哭哭 (p-tears)
S判
2 days ago
現在就有一堆盜帳號亂借錢的詐騙了,這種視訊AI橫行之後,我比較快聯想到的是詐騙親友借錢,或者投資詐騙(信任度更高),或者換臉換聲音的感情詐騙

其實都是現在已經有的詐騙方法,但是多了視訊的combo,更讓人難以確定自己談話對象的真偽,這真的很麻煩
S判
2 days ago
如果有什麼重要的事情還是約出來見面會比較實在
比方說要是小孩跟長輩借錢,要借可以但要當面確認真的是自己的小孩之類的
立即下載
現在就有藉由錄對方聲音讓ai學習模仿再去騙人要借錢的案例了,我都跟家人說如果有人要借錢最好還是用手機門號去互相聯絡不要在社群平台上,以後ai越來越盛行這種詐騙只會多不會少
S判
2 days ago
cba444: 要驗證越來越難了
S判
2 days ago
仔細想想這東西用在特殊用途更可怕

比方說偽裝自己是某個政黨的人發言,拍片放到社群網路上,就能夠偽造消息,造成對立立場

以偽造消息的角度來看,如果有人假裝自己是川普,就可以操控大量影響世界財經的消息,能夠左右股票的走勢

相關可能被利用的恐怖地方還有很多,上面只舉出我反射性想到的
S判
2 days ago
總之這東西並不普及,剛登場並剛被用來做壞事的這段期間,因為大多數民眾不會意識到可能有這種以假亂真的假消息,肯定會亂成一團

明年2025的紛亂可能這東西也會參一腳,光想就覺得亂是合理的
S判
2 days ago
詐騙還算小兒科了,這個技術用來偽裝成名人帶風向才是最恐怖的,擊敗
back to top