侵權投訴
訂閱
糾錯
加入自媒體

谷歌AI學習系統存嚴重安全漏洞

近日騰訊安全平臺部預研團隊發(fā)現谷歌人工智能學習系統TensorFlow存在嚴重安全風險,可被黑客利用帶來安全威脅,團隊已向谷歌報告這一風險并獲得致謝,其官方負責人稱,考慮到TensorFlow在AI的廣泛使用,TensorFlow官網將會像大多數重要軟件一樣在網站創(chuàng)建安全公告頁面,及時披露和修復安全漏洞。

目前,Google的TensorFlow作為開源框架被互聯網廣泛使用,據官方介紹,谷歌、ebay、airbnb、twitter、uber、小米、中興等公司均有使用。在TensorFlow中,AI研究者可以復用他人建好的模型來進行AI訓練,或直接提供AI服務,大大提高開發(fā)效率。

據了解,這些公開的模型通常以文件形式提供,也普遍被認為是無害的。但騰訊安全平臺部預研團隊發(fā)現,攻擊者可以生成Tensorflow的惡意模型文件,對AI研究者進行攻擊,對受害者自身的AI應用進行竊取或篡改、破壞。

該風險危害面非常大,一方面攻擊成本低,普通攻擊者即可實施攻擊;另一方面迷惑性強,大部分AI研究者可能毫無防備;同時因為利用了TensorFlow自身的機制,其在PC端和移動端的最新版本均會受到影響。AI模型被竊取,損失的是開發(fā)者的心血;而一旦被篡改,造成AI失控,后果更難以想象。

此前,AI已有不少實際應用案例,例如深圳試運行的無人駕駛公交、國際會議的AI同聲傳譯;未來更會滲透到社會的方方面面:交通、醫(yī)療、安防、金融……在不遠的未來,AI安全會直接影響人們的生命財產安全,甚至整個世界的秩序。如電影《復仇者聯盟:奧創(chuàng)世紀》那樣,終極人工智能奧創(chuàng)為人們的生活提供了無數便利,但當他站到人類的對立面時,也會帶來無數災難甚至毀滅。

據悉,騰訊安全平臺部安全預研團隊已就此次發(fā)現的安全風險向谷歌提交報告,協助風險早日收斂。該團隊不僅聚焦AI、移動及IoT前沿領域的安全問題研究,同時也向google,apple,微軟,adobe等公司報告多個安全漏洞并多次獲得官方致謝。此外,他們對無人機、無線電、物聯網、智能樓宇的安全問題也有研究。


聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    安防 獵頭職位 更多
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號