close

為此FBI找到瞭蘋果公司,希望能獲得蘋果公司的幫助來查看手機當中的內容,但是蘋果公司卻表示,我們不能讓你們(FBI)查看死掉的恐怖分子手機當中的詳細內容,我們要保護每一位用戶的隱私。

並且蘋果也一直把用戶隱私保護作為自己宣傳時的一個重點內容。在2020年9月份的時候,蘋果甚至還發佈瞭一個廣告——Over Sharing(過度分享),來向廣大消費者介紹iPhone的隱私保護是多麼的厲害,視頻描述瞭人們尷尬地與陌生人分享他們的個人信息,例如信用卡號,登錄詳細信息和網絡瀏覽歷史記錄。蘋果表示:“有些事情不應該共享。”“這就是為什麼 iPhone 旨在幫助您控制信息並保護隱私的原因。”


蘋果一再認為用戶隱私是一項“基本人權”,是公司的“核心價值觀”,在2019年CES展的時候,蘋果甚至包下來瞭一個酒店的巨幅廣告位置,在廣告上寫著“What happens on your iPhone stays on your iPhone”(在你iPhone上面發生的事情隻會留在你的iPhone上面),以此巨幅的廣告表達蘋果公司對用戶隱私的重視。


你看到這裡是不是就會感覺到蘋果對於每一位用戶隱私的重視程度是非常高的,比某些Android手機不知道好到哪裡去瞭,下載一個簡單的點外賣APP就會向你索要38項用戶權限,甚至還要識別你的身體活動,看到這裡我一個Android用戶實名羨慕蘋果對於用戶隱私的重視程度瞭。但是這樣的重視程度會一直持續下去嗎?


權限之多,一頁放不下

答案是不會的,就在前幾天蘋果公佈瞭一項新的技術,這項技術打破瞭其一直在堅持的所謂的重視用戶隱私。蘋果於近日發佈瞭一項全新的用於掃描檢測“兒童性虐內容(Child Sexual Abuse Material)”的端側工具,那什麼是端側掃描呢,意思就是掃描工作將在用戶設備上完成。為瞭完成“兒童性虐內容”的檢測,iOS與iPadOS將搭載一項最新技術,這項技術可以使蘋果檢測在各類蘋果設備上面接收、保存或者發送的照片提取哈希值,然後蘋果會用提取到的哈希值和“全國失蹤和受剝削兒童中心(NCMEC)”和其他兒童安防組織提供的已知兒童性虐圖像的哈希(散列)數據庫進行比對,以此來驗證某些照片或者圖片是不是屬於兒童性虐內容,蘋果表示這個數據庫將被轉為一組不可讀的散列,安全地存儲在用戶的設備裡,之後在用戶設備之中進行比對。並且,當用戶在iMessage 上收到或者發送照片時,系統也會對照片完成監測工作,如果系統認為這張照片屬於露骨性照片時則會模糊處理,iMessage會警告兒童,並再次確認兒童是不是想繼續瀏覽或者發送露骨性照片。除此之外,兒童再次預覽或者發送露骨性照片,APP還會自動通知傢長。



你看到這裡是不是會覺得,嗯!這些檢測都是為瞭孩子的身心健康著想啊,而且檢測工作都是在本地完成的,這跟用戶隱私有什麼關系呢?上面這些內容看起來還算是正常,不急,我們繼續往下看。同時在蘋果的介紹中還可以發現,蘋果也會使用類似的算法對用戶發送到iCloud上面的照片進行檢測,在上傳到服務器之前,會給文件進行一連串的加密工作。如果上傳到iCloud照片完成哈希值的比對之後,認為照片存在兒童性虐內容的話,蘋果的服務器就會對照片進行解密,並且由人工進行查驗。

有專傢認為,盡管蘋果提議CSAM方案的初心是好的,且針對此類違法行為的打擊是絕對正義的。但是這一整套方案繞過瞭原本旨在加強用戶隱私的端到端加密方案,並且在方案之中還是引入瞭一個後門,可能會存在嚴重的安全和隱私風險。雖說最近蘋果相關負責人多次聲明,CSAM方案不會導致其軟硬件留下後門,並且會防止政府過度幹預和濫用,但是對於用戶來說隻要這項技術實裝,多少都會讓自己不放心。

蘋果將在不遠的將來偷偷的“欣賞”你系統裡面存儲著的照片,並且最近有關於這項新技術的討論越來越多,但是絕大多數的討論都是圍繞著用戶隱私還是不是蘋果最重視的事情。之前說的什麼“What happens on your iPhone stays on your iPhone”恐怕將會成為廣大蘋果用戶心中最美好的願景。

arrow
arrow
    全站熱搜
    創作者介紹
    創作者 Ken641228 的頭像
    Ken641228

    Ken641228的部落格

    Ken641228 發表在 痞客邦 留言(0) 人氣()