:::

Rti 中央廣播電臺 眼見不為憑!深偽影片流竄 人人都可能是受害者

  • 時間:2019-01-30 09:47
  • 新聞引據:中央社
  • 撰稿編輯:新聞編輯
眼見不為憑!深偽影片流竄 人人都可能是受害者
「深偽」(Deepfake)AI科技可偽造前美國總統歐巴馬的談話影像,擬真程度極高,宛如真的歐巴馬現身說話。(美聯社/達志影像)

如果你在一段影片中,看到一名政治人物講過他從沒說過的話,或是一名好萊塢巨星出現在一部廉價成人色情電影中,請不要切換電視頻道,因為你可能正在目睹「假新聞」的未來。

法新社報導,由於人工智慧的進步,操縱事實的「深偽」(Deepfake)影片變得越來越精緻,創造新型態錯誤訊息的可能性,帶來極大的破壞力。隨著科技進步,各界越來越擔心,駭客或任一國家以不正當目的使用深偽影片。

小檔案:Deepfake,是英文「deep learning」(深度學習)和「fake」(偽造)的混成詞,專指用基於人工智慧的人體圖像合成技術。此技術可將已有的圖像和影片疊加至目標圖像或影片上。Deepfake亦可用來製作虛假的名人性愛影片和報復性色情媒體。Deepfake也可以用以製造假新聞及惡意惡作劇。


「深偽」(Deepfake)AI科技可偽造政治人物的談話影像,擬真程度極高。(AFP)

研究這個主題的美國德州大學法學教授薛士尼(Robert Chesney)告訴法新社:「雖然我們尚未到達深偽影片武器化階段,但那一刻即將到來。」薛士尼認為,深偽影片可能會加劇當今虛假訊息和影響性行動帶來的混亂。

薛士尼和馬里蘭大學(University of Maryland)教授席特隆(Danielle Citron)在美國智庫外交關係協會(CFR)一則部落格貼文說:「一段適時且精心策劃的深偽影片或一連串深偽影片,可能會左右一場選舉結果,在一座充滿混亂城市激起暴力事件、支持叛亂分子有關敵人殘暴行為的說詞,或是誇大社會中的政治分歧。」


「深偽」(Deepfake)AI科技可偽造政治人物的談話影像,擬真程度極高。(AFP)

新美國安全中心(Center for a New American Security)高級研究員謝瑞(Paul Scharre)表示,在未來選舉中,使用深偽影片幾乎是不可避免的事。新美國安全中心是專門研究人工智慧和安全議題的智庫。

謝瑞表示,可以使用假影片來抹黑候選人,或是讓人們否認真實影片捕捉到的真實事件。他並說,隨著容易讓人相信的假影片在外流通,「人們可以選擇相信他們想要的任何版本或描述,那才是真正值得擔心的」。


「深偽」(Deepfake)AI科技可偽造政治人物的談話影像,擬真程度極高。(AFP)

相關留言

本分類最新更多