發布源:深圳維創信息技術發布時間:2020-09-30 瀏覽次數: 次
當前,AI醫療、智慧家庭、自動駕駛、智能交易等人工智能的發展不斷顛覆企業的商業模式,也在改變我們的生活方式。
中國科學院院士、上海交通大學副校長毛軍發表示,人工智能作為“加速器”已涉及醫療、金融、交通、新聞等各行各業,可以有效解決傳統行業面臨的問題,發揮大量數據的價值,賦能傳統產業發展。
人工智能發展的本質是通過算法、算力和數據去解決完全信息和結構化環境下的確定性問題。
毛軍發認為,隨著算法、算力和數據的進一步發展,勢必加速萬物智能時代到來,為人工智能賦能各種場景打通重要通道,實現萬物互聯。
但不可否認的是,人工智能在服務和賦能人類生產生活同時,也帶來了難以忽視的安全風險。
【人工智能安全問題分類】一、數據風險1. “數據投毒”所謂的“數據投毒”指人工智能訓練數據污染導致人工智能決策錯誤。
通過在訓練數據里加入偽裝數據、惡意樣本等,破壞數據的完整性,進而導致訓練的算法模型決策出現偏差。
“數據投毒”主要有兩種攻擊方式:· 一種是采用模型偏斜方式,攻擊目標是訓練數據樣本,通過污染訓練數據達到改變分類器分類邊界的目的;· 另一種則是采用反饋誤導方式,攻擊目標是人工智能的學習模型本身,利用模型的用戶反饋機制發起攻擊,直接向模型“注入”偽裝的數據或信息,誤導人工智能做出錯誤判斷。
“數據投毒”危害性十分巨大,特別是在自動駕駛領域,可導致車輛違反交通規則甚至造成交通事故。
2. 數據泄露一方面逆向攻擊可導致算法模型內部的數據泄露;另一方面,人工智能技術可加強數據挖掘分析能力,加大隱私泄露風險。
比如各類智能設備(如智能手環、智能音箱)和智能系統(如生物特征識別系統、智能醫療系統),人工智能設備和系統對個人信息采集更加直接與全面。
人工智能應用采集的信息包括了人臉、指紋、聲紋、虹膜、心跳、基因等,具有很強的個人屬性。
這些信息具有唯一性和不變性,一旦泄露或者濫用將產生嚴重后果。
3. 數據異常運行階段的數據異常可導致智能系統運行錯誤,同時模型竊取攻擊可對算法模型的數據進行逆向還原。
此外,開源學習框架存在安全風險,也可導致人工智能系統數據泄露。
二、算法風險· 圖像識別、圖像欺騙等會導致算法出問題,比如自動駕駛,谷歌也做了一些研究,如果模型文件被黑客控制惡意修改,并且給它學習,會產生完全不一樣的結果;· 算法設計或實施有誤可產生與預期不符甚至傷害性結果;· 算法潛藏偏見和歧視,導致決策結果可能存在不公;· 算法黑箱導致人工智能決策不可解釋,引發監督審查困境;· 含有噪聲或偏差的訓練數據可影響算法模型準確性。
三、網絡風險· 人工智能不可避免的會引入網絡連接,網絡本身的安全風險也會將AI帶入風險的深坑;· 人工智能技術本身也能夠提升網絡攻擊的智能化水平,進而進行數據智能竊取;· 人工智能可用來自動鎖定目標,進行數據勒索攻擊。
人工智能技術通過對特征庫學習自動查找系統漏洞和識別關鍵目標,提高攻擊效率;· 人工智能可自動生成大量虛假威脅情報,對分析系統實施攻擊。
人工智能通過使用機器學習、數據挖掘和自然語言處理等技術處理安全大數據,能自動生產威脅性情報,攻擊者也可利用相關技術生成大量錯誤情報以混淆判斷;· 人工智能可自動識別圖像驗證碼,竊取系統數據。
圖像驗證碼是一種防止機器人賬戶濫用網站或服務的常用驗證措施,但人工智能通過學習可以讓這一驗證措施失效。
四、其他風險第三方組件問題也會存在問題,包括對文件、網絡協議、各種外部輸入協議的處理都會出問題。
被黑客利用,帶來的是災難性的毀滅。
【通俗來講就是:再牛逼的安全驗證,最終也不過是一串數據!】我們要清楚的認識到,人工智能的時代數據安全也面臨了很多新的挑戰。
保護數據安全保護算法安全,對于企業來說變為了重中之重。
Copyright © 2021 深圳市維創信息技術有限公司 版權所有