【AI技術也可能淪為犯罪工具!】

2023-08-21

隨著AI技術發展愈來愈成熟,許多變臉、擬聲等深偽技術,也逐漸淪為犯罪集團的詐騙工具,在今年新聞上已經有多起大陸人民遭AI技術詐騙的案例,近期在台灣也逐漸開始有幾起案例開始興起,廖律近期也受委任幾起相關案件。


現行的AI技術,已經可以透過幾張圖檔、音軌,就能夠輕鬆模擬出這些檔案個人的外觀、聲音,更可以同步跟著講話、做出表情,甚至是換性別、年齡等等,若不仔細觀察與你視訊的人,根本無法分辨是不是本人從而受指示遭詐騙,令人防不勝防。


而詐騙集團的手法,除了可以透過模擬出家屬的長相、聲音,進而向被害人要求匯款、贖金外,更可以假冒政府官員、公司人員而以機關名義向你進行詐騙,也可以直接換臉成帥哥美女對你進行感情詐騙。實際跟你講話的人究竟是男是女、哪國人民,根本無從分辨。


那要如何防範AI的詐騙模式呢?

由於現行AI技術還未臻完美,大多只能從正臉進行變臉,且臉部前面不可有任何物品遮擋住,因此,可以請與您視訊的對象頭部左右轉動,或是請他在臉部前面揮手,仔細觀察臉部是否有不正常跳動、變成另外一張臉的現象;又或是,跟身邊親友約定一些只有你們彼此知道的秘密,透過確認這些秘密來驗證是否為本人,也不失為一種方法。


最後,由於詐騙集團是利用網路上可蒐集到的圖片、音軌來進行深偽技術,因此除非必要,否則請不要隨便上傳相關圖檔、音軌到公開的網路上,要不然恐怕會淪為詐騙集團的利用資料,進而對你身邊親友進行詐騙,請務必小心注意。