💥 Gate廣場活動: #FST创作大赛# 💥
在 Gate廣場 發布 CandyDrop 第71期:CandyDrop x FreeStyle Classic Token (FST) 相關原創內容,即有機會瓜分 3,000 FST 獎勵!
📅 活動時間:2025年8月27日 – 9月2日
📌 參與方式:
發布原創內容,主題需與 FST 或 CandyDrop 活動相關
內容不少於 80 字
帖子添加話題: #FST创作大赛#
附上 CandyDrop 參與截圖
🏆 獎勵設置:
一等獎(1名):1,000 FST
二等獎(3名):500 FST/人
三等獎(5名):200 FST/人
📄 注意事項:
內容必須原創,禁止抄襲或刷量
獲獎者需完成 Gate 廣場身分認證
活動最終解釋權歸 Gate 所有
活動詳情連結: https://www.gate.com/announcements/article/46757
麻省理工推出PhotoGuard 技術,可保護圖像免受惡意AI 編輯
撰文:Andrew Tarantola
來源:Engadget
Dall-E 和Stable Diffusion 只是開始。隨著人工智能生成系統的普及,以及各公司努力將自己的產品與競爭對手的產品區分開來,互聯網上的聊天機器人正在獲得編輯和創建圖片的能力,Shutterstock 和Adobe 等公司就是其中的佼佼者。但是,這些新的AI 功能也帶來了我們熟悉的問題,比如未經授權篡改或直接盜用現有的在線作品和圖片。水印技術可以幫助減少後者問題,而麻省理工學院CSAIL 開發的新型“PhotoGuard”技術則可以幫助我們防止前者的出現。
據悉,PhotoGuard 的工作原理是改變圖像中的部分像素,從而破壞AI 理解圖像內容的能力。研究團隊所說的這些“擾動”,人眼是看不見的,但機器很容易讀懂。引入這些偽影的“編碼”攻擊方法針對的是算法模型對目標圖像的潛在表示-- 描述圖像中每個像素的位置和顏色的複雜數學-- 從根本上阻止了人工智能理解它正在看什麼。 (注:偽影(Artifacts) 是指原本被掃描物體並不存在而在圖像上卻出現的各種形態的影像。)
“編碼器攻擊會讓模型認為(要編輯的)輸入圖像是其他圖像(如灰度圖像),”麻省理工學院博士生、論文第一作者Hadi Salman 告訴Engadget。 “而擴散攻擊則迫使擴散模型對一些目標圖像(也可以是一些灰色或隨機圖像)進行編輯。”這種技術並非萬無一失,惡意行為者可能會通過添加數字噪音、裁剪或翻轉圖片等方式,對受保護的圖像進行逆向工程。
“涉及模型開發人員、社交媒體平台和政策制定者的協作方法可以有效防禦未經授權的圖像操縱。解決這一緊迫問題在今天至關重要。”Salman 在一份新聞稿中表示。 “雖然我很高興能夠為這一解決方案做出貢獻,但要使這一保護措施切實可行,還有很多工作要做。開發這些模型的公司需要投入資金,針對這些AI 工具可能帶來的威脅進行強大的免疫工程設計。”