基于機器學習框架TensorFlow的谷歌最新模塊,可以讓開發(fā)者只添加幾行額外代碼就能改善AI模型中的隱私。TensorFlow是目前用于構建機器學習應用程序最流行的工具之一,它被世界各地的開發(fā)人員用于創(chuàng)建文本、音頻和圖像識別算法等程序。而伴隨著 TensorFlow Privacy 的引入,這些開發(fā)人員能夠使用“差異隱私”的統(tǒng)計數據來保護用戶的數據。
谷歌產品經理Carey Radebaugh向外媒The Verge透露,發(fā)布這款工具是谷歌履行對人工智能的承諾和愿景。他說道:“如果我們沒有為TensorFlow引入差異化隱私技術,那么無論是團隊內部還是Google外部用戶在使用過程中就會發(fā)現(xiàn)有些不太簡單。因此對于我們來說將其引入TensorFlow是非常重要的,我們還將會對其進行開源,并開始圍繞著它創(chuàng)建新的社區(qū)?!?/p>
差異隱私的機制有點復雜,但它本質上是一種數學方法,這意味著用于培訓AI模型的用戶數據并不能編碼個人可識別信息。這是在AI模型中保護個人信息的常用方法:蘋果在iOS 10上引入了自家的AI服務的,而Google在Gmail的Smart Reply等部分AI功能中也使用到了這項技術。
已經在的數據隱私領域工作了20年的谷歌研究科學家lfarErlingsson表示:差異化隱私技術以“數學確定性”消除了編碼個人數據的可能性,他表示這是一種從數據集中刪除可識別的異常值而不改變數據的聚合含義的技術。
谷歌的研究科學家lfarErlingsson說,他已經在數據隱私領域工作了20年。 Erlingsson告訴The Verge,這是一種從數據集中刪除可識別的異常值而不改變數據的聚合含義的技術, “你的結果獨立于任何一個人的[數據],但這仍然是一個很好的結果?!?/p>
【來源:cnBeta.COM】