《AI仿聲太相近,機警反查莫輕信》
某婦人接獲其「兒子」來電並互加Line,因「兒子」說需要現金投資,婦人認為是「兒子」的聲音,就前往郵局提領88萬元,郵局人員發覺有異通報警方,員警到場後判斷應該是AI深偽模仿的詐騙手法,婦人聽聞後聯繫兒子才驚覺遭騙。
透過AI (人工智慧)技術,可以複製人的聲音,而且跟真人非常相近,讓人很容易信以為真而上當,因此成為詐騙集團用來行騙的工具。
接到親友打電話來借款或要求匯款,一定要再以自己留存的資訊跟本人確認,切記詐騙手法五花八門,接獲各種來電或訊息,在未經查證真實性前,千萬不可提供個資、帳戶或金錢,以免落入詐騙陷阱損失慘重。


文章回應

目前尚無回應,成為第一個回應的人吧!

回應本篇文章! (以下回應不會連結到FaceBook)(言責自負,請勿涉及人身攻擊,以免挨告!)

尚未 登入會員 ,無法回應!

gotop