關閉廣告

蘋果作業系統的最大優勢之一是安全性和對隱私的重視。至少蘋果公司在承諾為用戶提供最大程度的保護時是這樣表現的。另一方面,事實是,在這些系統中,我們可以找到許多方便的功能,例如「使用 Apple 登入」、「應用程式追蹤透明度」、iCloud+、封鎖 Safari 中的追蹤器、安全儲存密碼等。例如這樣的iOS系統,也太好了,蘋果自己也無法破解它的保護。

畢竟,自 2015 年 5 月以來,蘋果粉絲就知道了這一點,當時美國聯邦調查局 (FBI) 要求蘋果開發一款在不知道密碼的情況下解鎖任何 iPhone 的工具。當時,警方沒收了參與加州聖貝納迪諾市恐怖攻擊的一名槍手的 iPhone XNUMXC。但問題是他們沒有辦法進入手機,蘋果拒絕開發這樣的工具。該公司表示,創建後門會創造許多破壞保護的不友善機會,從而有效地使每部 iPhone 都容易受到攻擊。蘋果因此拒絕了。

蘋果會解鎖 iPhone 的後門嗎?

無論如何,多年前,蘋果就向我們證實,它不會掉以輕心地對待用戶的隱私。這一事件因此增強了整個公司在隱私方面的聲譽。但蘋果做得對嗎?事實是,這並不是那麼容易的事。一方面,我們可能對犯罪調查有幫助,另一方面,也可能對整個 iOS 作業系統構成威脅。不過,正如我們上面提到的,庫比蒂諾巨頭在這方面已經採取了堅定的立場,並且沒有改變。畢竟,上述擔憂在這方面確實有道理。如果該公司本身有能力解鎖幾乎任何 iPhone,無論使用的密碼強度或生物識別身份驗證(Face/Touch ID)的設定如何,它將真正解鎖類似的東西被輕易濫用的可能性。只需要一個小錯誤,這些選擇就可能落入壞人手中。

這就是為什麼系統中沒有後門很重要。但有個小問題。許多蘋果種植者抱怨說,所謂的後門即將推出。 CSAM 保護的引入表明了這一點。 CSAM(兒童性虐待材料)是描述虐待兒童的材料。去年,蘋果公佈了推出一項功能的計劃,該功能可以掃描每個訊息並比較是否捕獲了與該主題相關的內容。以同樣的方式,應掃描儲存在 iCloud(在「照片」應用程式中)上的影像。如果系統在年幼兒童的訊息或照片中發現露骨的色情資料,蘋果就會警告家長,以防孩子們試圖進一步發送這些資料。該功能已在美國運作。

蘋果追蹤
這項保護措施的推出引起了蘋果種植者的強烈反應

保護兒童還是違反規則?

正是這項改變引發了關於安全話題的熱議。乍一看,這樣的東西似乎是一個很棒的小工具,可以真正幫助處於危險中的兒童並及時發現潛在的問題。在這種情況下,對上述照片的掃描由「經過訓練的」系統處理,該系統可以檢測上述色情內容。但如果有人直接濫用這個系統怎麼辦?然後他得到了一個強大的武器來迫害幾乎任何人。在最壞的情況下,它將成為細分特定群體的合適工具。

無論如何,蘋果辯稱,在發布這項消息時,它最關心的是用戶的隱私。因此,照片不是在雲端進行比較,而是透過加密雜湊直接在裝置上進行比較。但這不是目前的重點。如上所述,雖然這個想法可能是正確的,但它很容易被濫用。那麼,幾年後隱私是否有可能不再成為優先考慮的問題呢?目前,我們只能希望這樣的事情永遠不會發生。

.