一位父親對他孩子照片的谷歌禁令如何暴露了矽谷破碎的審查系統

一位父親對他孩子照片的谷歌禁令如何暴露了矽谷破碎的審查系統

矽谷公司上演了一場關於用戶隱私和空間的大秀,但他們中的大多數往往並不關心滿足一些基本的監管標準。紐約時報最近報導了一個故事,其中谷歌因為他們自己蹣跚學步的照片備份在雲端而終身禁止蹣跚學步的父母。

 馬克在舊金山的家中遠程工作,他注意到他兒子的腹股溝區域感染了。在諮詢醫生之前,他的妻子用他的手機拍攝了一些高質量的照片,並將它們上傳到醫療保健提供者的消息系統中。幸運的是,這是一種常見的感染,在服用了幾劑處方抗生素後就痊癒了。 

不幸的是,谷歌將他手機上的圖片標記為潛在的兒童性虐待材料 (CSAM),並暫停了他的帳戶。這是在照片拍攝兩天后完成的,谷歌表示該賬戶因惡意內容而被暫停,根據谷歌政策,這些內容可能是非法的。 

此時,一旦該帳戶被標記為 CSAM 內容,就沒有人可以尋求幫助。這些事件會立即報告給國家失踪和受虐兒童中心 (NCMEC),然後由後者檢查材料。與此同時,Mark 一直處於艱難時期,因為他無法訪問他的所有 Google 服務,包括 Gmail、他的 Google Fi 移動服務等。 

如今,一個人的在線個人資料是其身份的重要組成部分。通常人們將所有數據、所有聯繫人和照片都保存在雲中。封鎖賬戶對這些公司來說是件苦差事,但它極大地影響了一個人的生活。馬克希望這個人會在某個地方參與驗證過程,並且當有人查看他的表單要求審查谷歌的解決方案時,他們的帳戶將被解鎖,他在其中解釋了所有測試。 

破碎的大科技審查系統

Apple CSAM 系統概述

Apple 檢測已知 CSAM 的方法在設計時考慮了用戶隱私。該系統不是在雲中掃描圖像,而是使用 NCMEC 和其他兒童保護組織提供的已知 CSAM 圖像哈希數據庫執行設備上匹配。接下來,Apple 將此數據庫轉換為一組不可讀的哈希值,並安全地存儲在用戶的設備上。一種稱為 NeuralHash 的散列技術分析圖像並將其轉換為特定於該圖像的唯一數字。只有另一個看起來幾乎相同的圖像才能給出相同的數字;例如,大小或轉碼質量不同的圖像仍將具有相同的 NeuralHash 值。

蘋果 CSAM 技術總結 

正如您在 Apple 關於 CSAM 的白皮書中看到的那樣,該系統依賴於 NCMEC 提供的數據庫,並且任何匹配都會立即報告。但該系統還可以使用 AI 和不屬於數據庫的剝削內容檢測數據庫外潛在的攻擊性圖像。它們通常會升級,因為它們可能意味著尚未確定身份的新受害者。 

但是,正如紐約時報正確指出的那樣,並非所有裸體兒童的照片都是色情、剝削或冒犯性的。這裡也有很多背景,禁止推出快樂的科技公司並不能真正幫助解決問題。儘管如此,CSAM 是一個出色的工具,它可能使成千上萬的兒童免遭潛在的虐待。問題出在矽谷的巨頭身上,他們的驗證過程自動化程度高,效率低,即使證明你的清白,也很難找回你的賬戶。  

至於馬克,他面臨著類似的事情。2021 年 12 月,他收到了舊金山警察局寄來的一個信封。信封包含調查的所有細節,包括谷歌提供給執法部門的所有數據的細節。然而,調查員在研究了所有數據後,免除了馬克的犯罪行為,案件結案。但這對谷歌來說還不夠,因為馬克仍然無法訪問他的任何谷歌賬戶。有一次,他甚至考慮起訴谷歌,但認為這不值得 7,000 美元的法律費用。 

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *