關閉廣告

上週末,我們向您介紹了一個相當有趣的新奇事物,這是一個用於檢測描繪虐待兒童的圖像的新系統。具體來說,蘋果將掃描 iCloud 上儲存的所有照片,一旦發現,將向相關當局報告這些情況。儘管該系統在設備內「安全」運行,但該巨頭仍然因侵犯隱私而受到批評,受歡迎的舉報人愛德華·斯諾登也宣布了這一點。

問題在於,蘋果到目前為止一直依賴用戶的隱私,它希望在任何情況下都保護用戶的隱私。但這個消息直接顛覆了他們原本的態度。蘋果種植者實際上面臨既成事實,必須在兩種選擇之間做出選擇。他們要么讓一個特殊的系統掃描 iCloud 上儲存的所有圖片,要么他們將停止使用 iCloud 照片。然後整件事情就會變得非常簡單。 iPhone 將下載哈希資料庫,然後將其與照片進行比較。同時,也會介入新聞,保護孩子,及時告知家長危險行為。人們的擔憂源於這樣一個事實:有人可能濫用資料庫本身,甚至更糟的是,系統不僅可能掃描照片,還可能掃描訊息和所有活動。

蘋果CSAM
這一切是如何運作的

當然,蘋果必須盡快回應批評。為此,例如,它發布了一份常見問題解答文檔,現在確認該系統只會掃描照片,而不會掃描影片。他們還將其描述為比其他科技巨頭正在使用的版本更加保護隱私的版本。同時,蘋果公司更準確地描述了整個事情的實際運作方式。如果將資料庫與 iCloud 上的映像進行比較時出現匹配,則會為此建立加密安全憑證。

正如上面已經提到的,該系統也將相對容易被繞過,這一點得到了蘋果的直接證實。在這種情況下,只需停用 iCloud 上的「照片」即可輕鬆繞過驗證過程。但有一個問題出現了。這值得麼?無論如何,好消息仍然是該系統僅在美國實施,至少目前是如此。您如何看待這個制度?您是否贊成將其引入歐盟國家,或者這是否過於侵犯隱私?

.