隨著生成式人工智能係統的激增,以及各公司努力將自己的產品與競爭對手的產品區分開來,互聯網上的聊天機器人正在獲得編輯圖像以及創建圖像的能力,其中Shutterstock和Adobe等公司處於領先地位。但這些新的人工智能功能也帶來了常見的陷阱,例如未經授權操縱或公然盜竊現有的在線藝術品和圖像。水印技術可以幫助緩解後者,而麻省理工學院 CSAIL 開發的新「PhotoGuard」技術可以幫助防止前者。
PhotoGuard 的工作原理是改變圖像中的選定像素,從而破壞人工智能理解圖像內容的能力。研究小組稱這些「擾動」是人眼看不見的,但機器很容易讀取。引入這些偽影的「編碼器」攻擊方法針對目標圖像的算法模型的潛在表示(描述圖像中每個像素的位置和顏色的複雜數學),從本質上阻止人工智能理解它所看到的內容。
更先進、計算量更大的「擴散」攻擊方法將圖像偽裝成人工智能眼中的不同圖像。它將定義目標圖像並優化其圖像中的擾動以與其目標相似。人工智能嘗試對這些「免疫」圖像進行的任何編輯都將應用於假「目標」圖像,從而導致生成的圖像看起來不真實。
麻省理工學院博士生、論文的主要作者Hadi Salman稱編碼器攻擊使模型認為輸入圖像(要編輯的)是其他圖像(例如灰色圖像),而擴散攻擊迫使擴散模型對某些目標圖像(也可以是某些灰色或隨機圖像)進行編輯。該技術並非萬無一失,惡意行為者可能通過添加數字噪聲、裁剪或翻轉圖片。
Hadi Salman在一份新聞稿中表示涉及模型開發人員、社交媒體平台和政策制定者的協作方法可以有效防禦未經授權的圖像操縱。解決這一緊迫問題在今天至關重要。雖然Hadi Salman很高興為這一解決方案做出貢獻,但要使這種保護切實可行還需要做很多工作。開發這些模型的公司需要投資設計強大的免疫系統,以應對這些人工智能工具可能帶來的威脅。
文字:編輯部
~~
CoolJobz 正在提供全備的招聘服務(包括獵頭服務),
若你是求職者,
1. 請按 Sing Up 登記成為會員並填妥你的個人履歷
2. 將你的履歷 WhatsApp 至 63550329 或 電郵至 recruit@cooljobz.com
我們將有專人為你配對工作。
若你是僱主,
請致電 31884978、WhatsApp 63550329 或電郵至 cs@cooljobz.com 與我們聯絡。
熱門文章:
【搵工新志向】大眾財務注重培育IT新人 招聘程式員無需工作經驗
-
Grow Your Business 能做大你公司生意
立即登記 免費試用 Free Trial for Registration
Only Knowledge-based & Innovative Careers Prevail in Our Risk Society
Join Us to Make a Difference~
只有知識型及創新工作事業能在風險社會存活
加入我們一起改變吧 ~