未來,蘋果手機內的 Messages app 將會裝上新的工具「Helping with Communication Safety」,當 AI 偵測到使用者收到、發送色情等敏感內容的照片時,警告兒童和他們的監護人。而這些敏感內容的照片與圖像,也將會自動進行模糊處理。
如此一來,若未成年使用者遭遇到惡意騷擾,就能有相關的保護措施。除此之外,蘋果也會提供資源與建議,告訴孩子遇到這樣的事情不是你的錯,不想查看或發送也沒關係,並鼓勵他們進一步尋求協助。
但若未成年使用者還是想要查看或是發送敏感內容,此時系統就會發送提醒給家長。
蘋果也特別表示,這項新功能是透過手機設備上的 AI 去分析、辨別圖片內容,並強調蘋果公司不會、也無法去查看這些內容。
圖片來源:蘋果官網。
兒童色情照上雲端?人工智慧來守門
雲端硬碟是現今常見的儲存資料方式,將個人照片備份在雲端,也能夠避免因為手機或電腦的損壞或遺失,導致相片和回憶一起不見。
然而,亦有有心人士藉由將違法的兒童色情內容存放在雲端硬碟中,並加以散播傳閱。
為了解決這個問題,蘋果將在 iOS 和 iPadOS 中新增一個新的系統,命名為「neuralMatch」。
這個系統將會允許蘋果檢測使用者儲存在 iCloud 當中的照片,並且與美國失蹤兒童及童工保護中心(NCMEC)的資料庫進行比對,確認其中是否有涉及兒童性虐待的內容(Child Sexual Abuse Material,CSAM)。
為避免使用者有隱私上的疑慮,蘋果說明將不會直接在雲端上掃描,而是將資料庫的圖片經過演算法轉換為雜湊值(Hash Value),這些真人無法辨識的資料數值會儲存在使用者的設備上。
每當使用者上傳相片至雲端硬碟,便會啟動 AI 來評估配對,這段過程將會以私有集交集加密技術(Private Set Intersection)進行加密,而比對結果與加密憑證會一起儲存在 iCloud 中。
最後要如何決定使用者是否有違規,則是由一項名為「閾值秘密共享」的技術來處理。
若是使用者的檔案中,有超過一定數量的圖像被 AI 判斷為符合 CSAM 內容,蘋果系統就會把所有可疑的照片解密後,交由相關人員進行人工審核。
一旦審查屬實,蘋果將會停用該使用者的 iCloud 功能,並向有關單位進行通報。
Photo by niu niu on Unsplash 蘋果好意開發的兒童色情守門員 AI,竟引發隱私權方面的爭議!相關內容請看下篇連結
想成為前端工程師?那CSS中最基本的逗號.空格再搞錯,豈不是太不專業了! 有時在 HTML 中, 前端工程師 們會對同一個標籤給予兩個以上的 Class 名稱,如以下所示: < div class = " first second " > </ div > 對於這類有兩個以上的 Class 名稱的 HTML,其 CSS 選擇器可能會用以下的三種情況顯示。而聰明的你,分辨得出這些 CSS 有什麼不同嗎? /*1. 兩個 class 中有空格*/ .first .second /*2. 兩個 class 中沒有空格*/ .first.second /*3. 兩個 class 中出現逗號*/ .first,.second 對於 CSS 及前端工程師的初學者來說,上述三種 CSS 因為長得很像,所以經常傻傻分不清楚。究竟兩個 class 中間空格、沒空格、有逗號,到底差在哪裡? 別擔心,立刻講解給你聽: 1. 兩個 class 中有空格的例子:五個區塊中,階層必須是要在 first 區塊之下的 second 區塊,才會顯示黑底白字的 CSS 設定 See the Pen .first與 .second中間有空格的例子 by Tedutw ( @Tedutw ) on CodePen . 2. 兩個 class 中沒有空格的例子:五個區塊中, div class 名稱必須同時出現 first 與 second 才會顯示黑底白字的 CSS 設定 See the Pen .first與 .second中間無空格的例子 by Tedutw ( @Tedutw ) on CodePen . 3. 兩個 class 中有逗號的例子:五個區塊中,只要 div class 名稱中有出現 first 或是 second 的區塊,就會顯示黑底白字的 CSS 設定 See the Pen .first與 .second中間有逗號的例子 by Tedutw ( @Tedutw ) on CodePen . 註 : 以上三個範例的 HTML 碼都一樣 延伸閱讀: 前端工程師入門款小常識-CSS碼特性一下就上手! ...
留言
張貼留言