圖片來源:ShutterStock

【為什麼我們要編譯這篇文章】現在的小孩幾乎是從有記憶以來,就開始接觸網路,在身心發展不健全的狀況下,更容易遇到各種網路霸凌,在這種資訊混亂的大環境下,我們又該如何去保護他們呢?(責任編輯:陳宜伶)

社群網站的發達,以及網路的匿名性與便利,讓網路霸凌事件層出不窮,色情網站更缺乏守門員控管,為了解決這些問題,蘋果推出用於審查兒童安全的功能,但問題是,我們真能相信蘋果在審查的過程,不侵犯我們隱私嗎?

蘋果 「兒童安全」新功能潛藏重大缺失

蘋果於 2021 年八月宣布,將推出 3 項安全隱私政策,目的是為了遏止色情照片在聊天室裡肆意流傳,以捍衛兒童網路使用安全。

然而隨著計畫細節逐漸明朗,社會大眾開始針對個人隱私、資訊安全,拋出各種輿論壓力。

甚至有研究學者指出,由於設計思考不夠周全,蘋果的隱私安全設定更新後,不僅幫助不大,或許還可能造成反效果──部分行為心理學實驗結果顯示,當系統跳出違反他人隱私的警示,對於原先無意轉傳照片的使用者而言,反而可能變相鼓勵這種行為,為抵制網路霸凌開倒車。

自動偵測兒童色情影像,用戶隱私爭議大

蘋果預計從三個層面更新兒童安全政策:首先是關於兼具搜尋、智慧助手功能的 Siri,日後當使用者上網搜尋關於兒童性暴力的主題,蘋果將自動導向相關宣導資源,勸退兒童不要點色情網站。

TO 推薦閱讀:兒童 Youtube 頻道暗藏「髒東西」,恐怖虛擬角色 Momo 捲土重來!

另一項隱私爭議性頗高的新政策,是未來蘋果將主動掃描儲存於 iCloud 雲端上的圖片,並且與多家兒童安全組織的資料庫進行比對。若為兒童性虐待內容,系統將警告蘋果審查人員,人工審查後,再決定是否向美國國家兒童失蹤與受虐兒童援助中心 (National Center for Missing and Exploited Children, NCMEC) 舉報。

而其中引發最多爭議的新措施,是蘋果打算在訊息(Messages)功能裡加上監護人控制選項,監護人啟用後,只要使用者未滿 18 歲所接收與傳送的每張圖片,都會經過守門員般的圖像分類機制。

這套功能受過色情片的機器學習訓練,能過濾出具明顯性意味的色情內容。當孩子試圖加以檢視,系統將會模糊化該圖片,同時向年幼使用者提出警告與協助資源;而若使用者未滿 13 歲,選擇略過系統提醒、觀看或轉傳色情圖片,父母就會收到通知訊息。

「越被禁止就越想要」,蘋果隱私警告根本無效?

提到這項安全政策的反方立場,心理學與電腦科學專家認為,蘋果的新措施可能引發所謂的抗拒效應(reactance)。

也就是當個人接收到貌似不合理、不必要的規矩或提示,這種受限的感受可能點燃抗拒心理,做出反其道而行的舉止,就像伊甸園的禁忌之果顯得格外誘人。

對於喜歡冒險、好奇的年輕使用者而言,接連跳出的隱私安全提醒,當然可能帶給他們不妨姑且一試的念頭,低估轉傳分享的風險,淪為網路色情霸凌趨勢下另一名受害者。

「性短訊」危害青少年心理健康,目前業界如何預防?

這種網路「性短訊」文化(sexting)是指透過手機或電腦等數位裝置,發送、接收和轉發性曝露訊息、照片或影像的行為。

由於現代這些裝置的使用者年齡層不斷降低,兒童與青少年很早便開始接觸各種應用程式、社群媒體、聊天室訊息,情色短訊氾濫情形也因此變得更加明顯。

TO 推薦閱讀:台灣反同團體,正在針對兒童投放誤導性的性別教育廣告

情色短訊可能是無意或有意的玩笑,或爭取異性注意力的工具、無傷大雅的調情,卻也能演變成網路霸凌、性騷擾、人身攻擊,進而導致嚴重的心理健康與社會問題

蘋果並非第一間著手遏止兒少性虐待內容(child sexual abuse material, CSAM)的科技巨頭,像是臉書、推特、Reddit 論壇等企業,也都有內建機制掃描使用者檔案,並與散列數據庫(hash library)進行比對,其中以微軟的圖片辨識技術 PhotoDNA 最為常見,而法律也要求這些公司將 CSAM 內容舉報給 NCMEC。

參考資料:VerywellfamilyFastcompanyThe Verge,首圖來源:ShutterStock