未來,蘋果手機內的 Messages app 將會裝上新的工具「Helping with Communication Safety」,當 AI 偵測到使用者收到、發送色情等敏感內容的照片時,警告兒童和他們的監護人。而這些敏感內容的照片與圖像,也將會自動進行模糊處理。
如此一來,若未成年使用者遭遇到惡意騷擾,就能有相關的保護措施。除此之外,蘋果也會提供資源與建議,告訴孩子遇到這樣的事情不是你的錯,不想查看或發送也沒關係,並鼓勵他們進一步尋求協助。
但若未成年使用者還是想要查看或是發送敏感內容,此時系統就會發送提醒給家長。
蘋果也特別表示,這項新功能是透過手機設備上的 AI 去分析、辨別圖片內容,並強調蘋果公司不會、也無法去查看這些內容。
圖片來源:蘋果官網。
兒童色情照上雲端?人工智慧來守門
雲端硬碟是現今常見的儲存資料方式,將個人照片備份在雲端,也能夠避免因為手機或電腦的損壞或遺失,導致相片和回憶一起不見。
然而,亦有有心人士藉由將違法的兒童色情內容存放在雲端硬碟中,並加以散播傳閱。
為了解決這個問題,蘋果將在 iOS 和 iPadOS 中新增一個新的系統,命名為「neuralMatch」。
這個系統將會允許蘋果檢測使用者儲存在 iCloud 當中的照片,並且與美國失蹤兒童及童工保護中心(NCMEC)的資料庫進行比對,確認其中是否有涉及兒童性虐待的內容(Child Sexual Abuse Material,CSAM)。
為避免使用者有隱私上的疑慮,蘋果說明將不會直接在雲端上掃描,而是將資料庫的圖片經過演算法轉換為雜湊值(Hash Value),這些真人無法辨識的資料數值會儲存在使用者的設備上。
每當使用者上傳相片至雲端硬碟,便會啟動 AI 來評估配對,這段過程將會以私有集交集加密技術(Private Set Intersection)進行加密,而比對結果與加密憑證會一起儲存在 iCloud 中。
最後要如何決定使用者是否有違規,則是由一項名為「閾值秘密共享」的技術來處理。
若是使用者的檔案中,有超過一定數量的圖像被 AI 判斷為符合 CSAM 內容,蘋果系統就會把所有可疑的照片解密後,交由相關人員進行人工審核。
一旦審查屬實,蘋果將會停用該使用者的 iCloud 功能,並向有關單位進行通報。
Photo by niu niu on Unsplash 蘋果好意開發的兒童色情守門員 AI,竟引發隱私權方面的爭議!相關內容請看下篇連結
機器學習和AI人工智慧發展三階段,分別是哪些?現在就一一介紹給你!也別忘了follow現在的發展進度! 人工智慧 (AI)和機器學習(ML)已是 IT 科技業的未來趨勢。雖然開發 AI 的安全性依然備受爭議,但開發人員仍持續開發人工智能的技術與能力。 如今, 人工智慧 已不再只是科幻的一部分,它成了我們生活中不可或缺的一部分。 在今日,各種資料數據不斷大幅增加,已超越人類可以承受的量與密度, 也因此, AI 被廣泛用於大數據的處理與分析。 .你愛用IG嗎?其實你正在幫FB的AI做機器學習 .幫百度AI做機器學習的老師們薪水多少? 答案讓你跌破眼鏡 另外,像是 AI人工智慧 也被應用於資料分析、建構預測模型,並幫助人們建立強而有力的策略、找出有效的解決方案。FinTech(金融科技)便是應用 AI 在投資平台中進行市調,並預測在何處投入資金以獲取更大的利潤。連旅遊業也開始使用 人工智慧 ,提供客製化建議或是啟動聊天機器人,增強整體用戶體驗。 以上例子證明了,AI 人工智慧和 ML 機器學習可藉著處理、分析大量的資料,來提供更好、更客製化與更精準的用戶體驗。 .2018年度AI人工智慧公司Top10排行榜 AI人工智慧 與機器學習的發展三階段 今天,隨著數據的量和複雜性大幅增加,AI 人工智慧與 ML 機器學習,皆被用於處理和分析這些大數據。儘管人類的大腦擁有分析大數據的能力,但它吸收的量會受到當下的個人狀況(如體力、情緒等)所限制。但 人工智慧 不受此限制,所以能提供我們更精準的預測、洞察來提高業務效率、降低生產成本並提高生產率。這也難怪許多行業都採用 AI 和機器學習來提高性能並推動產品開發。 德勤分析高級顧問 Thomas H. Davenport 在其新書「人工智慧優勢」中提出了公司智慧化轉型三階段理論,以幫助企業更好地發揮AI潛能。 (圖片出處:https://twitter.com/Fisher85M) 如上圖,德勤(Deloitte,國際四大會計事務所之一)高級分析顧問 Thomas H. Davenport 在其新書「 人工智慧 優勢」中提出了:幫助企業更好發揮 AI 潛能的「公司智慧化轉型三階段」理論: 第一階段:輔助智慧 (Assisted Intellige...
留言
張貼留言