2022/02/17
記者
Cemedas Dumalalrath(江子芊)/Iku lo'oh(張治平) 台北市/新北市

人工智慧換臉新型犯罪 警方籲民留意偷拍風險

去年警方偵破,有網紅透過AI Deepfake變臉技術,將色情影片女主角臉部替換為藝人或網紅臉部圖像,甚至連總統蔡英文都是受害者,造成社會一片譁然。就在昨天(16),警方發表聲明,各部會正在針對網路性別暴力議題研擬因應對策,並呼籲民眾,務必多留意周遭環境,降低有心人士特意架設攝影工具偷拍影像的風險,更不要將不法影片轉傳,以免觸犯法律。

(記者 Cemedas Dumalalrath(江子芊) 魯凱族:
你認為這是真的我嗎,這是最新的Deepfake換臉技術,隨著科技日新月異,數位犯罪手法也跟著精進,Deepfake換臉技術,也有可能成為犯罪的手法之一,但不諳3C的長輩們,他們有辦法了解嗎)

去年警方偵獲,有網紅利用人工智慧Deepfake換臉技術,將不雅影片的臉部替換為藝人或是網紅,讓大眾誤會這些影片原本就是這些藝人和網紅所拍攝的,並且販售得利,甚至連總統蔡英文都遭殃,令社會譁然。

(長輩 林英妹 阿美族:
這個問題真的非常的大,如果說 沒有你們的宣導的話,我們這一群老人, 根本就不知道有這一種的詐騙的手法,所以 我感覺,這個是非常危害社會的一種事情)

(長輩 田國榮 阿美族:
我們都不知道 這種訊息,我要宣導我們的家人,還是(有)親戚朋友,來 預防這種 詐騙集團的事情)

對於不熟悉3C產品的長輩,只能夠過文健站的宣導或是家人的提醒,才會得知這樣的消息。然而現在不只有照片能夠仿造,影片、聲音都可以被有心人士利用人工智慧技術,做出非法行為。

(刑事警察局預防科股長 張睿瑜:
我們考量這一類案件,對被害人的身心影響非常地大,包括由法務部來檢討,現行的法規 是否罰則過輕,以及 衛生福利部,檢討目前的被害人保護措施,是否有不足的地方,,那各部會都在積極推動當中)

刑事警察局也呼籲民眾,務必多留意周遭環境,降低有心人士特意架設攝影工具偷拍影像的風險,避免發生惡意流傳或檔案資料遭侵入、盜取等情事發生。另外,若收到來源不明的照片、影片時,更不要轉傳,以免觸犯法律。