虛假和神經渲染–俄羅斯會在2020年大選中使用它嗎?

  • 深度偽造將威脅到法庭證據的提交。
  • 俄羅斯,中國和朝鮮可以利用它來增強其軍事能力。
  • 神經渲染可用於強制偽造圖像使用任何人的聲音發出腳本化語音。

現在,西方世界的每個人都可以使用高速互聯網和4G網絡。 在全球範圍內,大多數國家也可以使用它。 不斷發展的技術可以提供高質量的高清(HD)視頻和圖像。 社交媒體是許多應用程序中最大的新聞來源之一,也是最強大的社會工程工具之一。

有人認為神經渲染將是最危險的技術。

這項技術的最大威脅是“深度偽造”(以深度學習和偽造命名),它可以模擬視頻中任何生物的行為。 該技術的基礎是 生成對抗網絡 (GAN)是Ian Goodfellow及其同事於2014年發明的一類機器學習系統。兩個神經網絡在遊戲中相互競爭。 在給定訓練集的情況下,該技術將學習生成具有與訓練集相同的統計數據的新數據。

程序中的算法通過從圖像中學習來創建真實的面孔並進行多次復制,從而不斷地相互競爭,直到機器對真實的圖像與假的圖像混淆為止。 最近,採用了深層的偽造技術,利用褻瀆針對現任美國總統唐納德·特朗普的行為,製作了美國前總統巴拉克·奧巴馬的偽造視頻。

最初,深造假貨通常被用來模仿名人,但如今,它可被用於為社會工程目的進行宣傳。 可以相信,在下次美國大選期間,深度假冒技術將是我們面臨的問題之一。 俄羅斯可能被認為是有興趣部署該技術的國家之一,也許是通過先前暴露於聖彼得堡之外的巨魔農場來確定的。 此外,烏克蘭最近也成為新聞焦點,那裡有利益集團與某些知名人士建立了密切的聯繫,這些人士準備進行選舉干預。

最近,採用了深層的偽造技術,利用褻瀆針對現任美國總統唐納德·特朗普的行為,製作了美國前總統巴拉克·奧巴馬的偽造視頻。

下一技術水平是神經渲染。 它是由普林斯頓大學,斯坦福大學和馬克斯·普朗克研究所共同設計的。 它允許您強製圖像使用任何人的聲音朗讀任何文本。 它所需要的只是該人錄製的語音的40分鐘視頻。 該技術將復制舉止和聲音,並將其轉換為說話所需文本的人的圖像。

有人可能會建議這項技術將是最危險的.

這些假冒技術的發展將使我們面臨的最大挑戰之一就是法庭。 從法律的角度來看,這將給雙方帶來麻煩。 檢察官將面臨是否可以依靠視頻監視的重大問題。 但是,辯方也可能會嘗試提交假視頻。

俄羅斯,中國和朝鮮可以使用這種技術通過編排的視頻和機器來宣傳其軍事力量,這些視頻和機器不存在,或者通過宣傳渠道分發的功率比預計的少得多。

可以肯定的是,這種技術將在許多領域對我們構成最大的威脅,並將永遠改變證據和公眾懷疑的規範。

每次$ 1美元

在這裡提交廣告

克里斯蒂娜·基托娃(Christina Kitova)

我一生的大部分時間都在從事金融,保險風險管理訴訟。

發表評論