當前 AI(人工智能)正炙手可熱。每天都有新的軟件即服務(SaaS)AI 程序問世,企業也紛紛采用新的 AI 解決方案,個人消費者則利用 AI 來解決從作業輔導到制定飲食計劃等各個方面的問題。
然而,AI 看似功能強大,但它也給個人、企業和數據中心帶來了諸多安全問題。你可能聽說過一些無良開發者利用竊取的用戶數據訓練 AI 的故事,或者 AI 算法抓取個人圖片和私人對話的情況。此外,員工在請 AI 模型校對電子郵件、修復代碼錯誤或分析文檔時,也常常不小心泄露公司機密,這已成為常態。
由于這些安全漏洞頻繁曝光且性質惡劣,人們對此類問題的認識有所提高。然而,很多人并未意識到 AI 對數據中心構成的威脅。
如果你的數據中心為客戶運行 AI 應用程序、使用機器學習算法分析數據,或在任何戰略、規劃或管理環節中使用 AI,那么它就可能成為運營風險的目標。AI 數據中心的安全風險不勝枚舉,但以下六個是較為常見的風險點。
1. 數據投毒
無論 AI 算法多么強大或復雜,無論在其開發上投入了多少資金和研究,AI 模型的好壞完全取決于它所接收的數據。換句話說,即使開發出了非常復雜且直觀的算法,但如果提供給它的數據有誤,該算法也會產生錯誤的結果。
有時,這些“不良”數據集是意外造成的。如果大型語言模型從不準確的源頭(如人們堅信地球是平的互聯網論壇)抓取數據,它將反復吸收這些錯誤知識,直到算法認為它們是事實。
然而,不良數據集往往是蓄意數據投毒攻擊的結果。數據投毒發生在惡意行為者用帶有偏見、誤導性或故意不誠實的信息污染數據時,目的是訓練 AI 模型向可能毫不知情的用戶返回這些錯誤的“事實”。
攻擊者會向 AI 算法引入大量證據來證明地球是平的,而使用該 AI 獲取結果的用戶可能無法辨別真偽。他們會閱讀 AI 關于地球為什么是平的的解釋,然后接受這些信息,并將其納入自己的信仰體系,然后向他人重復。因此,數據投毒可能是一種非常微妙且危險的破壞手段。
這個例子很簡單,但數據投毒往往非常復雜且難以檢測。有時,除了向算法提供不良數據外,攻擊者還會教 AI 模型改變其分析信息和做出決策的方式。無論攻擊者使用其中一種還是兩種方法,結果都是相同的:輸出被歪曲、篡改甚至完全偽造。
數據投毒攻擊可能產生毀滅性的后果。數據投毒攻擊代價高昂,需要修復被污染的數據并顯著提高網絡安全水平。此外,一旦消費者的信任被破壞,往往很難或無法恢復。一次成功的數據投毒攻擊就可能嚴重損害組織的聲譽,使其永遠無法恢復。最后,組織通常有必要在問題解決之前完全停止運營,這可能意味著數天、數周或數月的收入損失以及客戶的永久流失。
2. 基礎設施漏洞
AI 系統建立在三種類型的基礎設施之上。
第一層是基礎設施層。這包括硬件、在該硬件上運行的軟件以及任何與原生軟件相鄰或在其內部運行的云計算服務。第二層是模型層,通常包括一般、特定和高度本地的 AI 模型。這一層負責 AI 的“思考”過程。第三層是應用層。這一層幫助人類以雙方都能理解的方式與 AI 模型進行交互。應用程序為人類與計算機算法之間的溝通提供界面,反之亦然。
沒有這三層,AI 模型就無法構建、訓練或部署。每一層基礎設施都有其獨特的安全漏洞。
基礎層容易受到人們可能在家庭計算機系統上看到的相同類型的攻擊,但規模要大得多。數據泄露就是此類問題之一。模型層容易受到黑客入侵并竊取代碼、敏感數據或對整個 AI 模型的攻擊。攻擊者還可能修改該層上的模型,以改變其計算數據的方式或破壞其決策過程。最后一層的應用程序容易受到旨在惡意利用系統的攻擊。例如,攻擊者可能會試圖操縱 AI 提示用戶輸入的方式,從而引發各種問題。
3. 數據泄露
與數據投毒相反,數據泄露是指攻擊者試圖將數據集中的不良信息注入其中。與試圖添加數據不同,數據泄露的攻擊者通常試圖訪問并竊取敏感信息以供自己使用。
攻擊者成功竊取數據后的行為可能各不相同。身份欺詐和金融盜竊是常見的行為。個人和敏感數據可能會被用于企業或名人的勒索和敲詐。最復雜的團隊可能會利用這些數據來構建成功 AI 模型的復制品。
與數據投毒一樣,數據泄露也會給組織帶來毀滅性的打擊。AI 客戶會失去信任,組織必須實施昂貴的網絡安全措施,并且在加強安全性的同時停止運營。
4. 操控結果
惡意行為者有多種方式可以操控 AI 的輸出結果。數據投毒是一個主要例子,但它并不是常用的唯一方法。
有時,黑客所需要做的僅僅是識別出某個特定算法處理數據方式中的弱點,并多次利用這一漏洞。向算法中添加足夠多的操控數據,最終 AI 將開始輸出不準確的結果。
然而,惡意攻擊者并非總是存在的。隨著 AI 的普及,當前的模型經常將虛假信息作為事實輸出,或編造出違背現實的聲明。
這些錯誤的發生可能是由于 AI 模型開發中的不一致性或缺陷。例如,當 AI 系統更加關注于獲取獎勵而不是提供有用的信息時,它就會“學習”到可以通過操控系統來獲得獎勵,而無需真正回答用戶的問題或執行用戶要求的任務。
在其他情況下, AI 模型會根據用戶輸入的微妙線索進行解釋,并對本應具有相似答案的問題生成截然不同的答案。一個特別典型的例子是,用戶詢問是什么讓 AI 系統容易受到攻擊(可能是出于實施更強大的網絡安全系統的良好意圖),卻收到了關于如何黑入 AI 系統的分步指南。
5. 資源過載
許多數據中心都面臨的一個問題是 AI 應用所帶來的巨大資源消耗——AI 消耗大量電力和計算能力。數據中心必須不斷確保冷卻系統能夠應對保持硬件最佳運行并避免中斷和停機時間的巨大挑戰。
6. 法律和監管合規問題
由于 AI 算法處理大量數據——包括個人數據、企業數據,有時甚至包括機密數據,因此,法律和監管機構對計劃使用 AI 的數據中心實施了嚴格的合規要求。
不遵守這些要求的處罰通常包括巨額罰款、聲譽損害,有時甚至會導致服務中斷。
數據中心應該如何降低這些風險?
以下是一些關鍵方法:
優先保障網絡安全。實施數據加密、訪問控制、網絡升級,以及對算法和數據集的持續監控。
規劃可擴展性。隨著 AI 應用的增加,電力、冷卻和安全需求將呈滾雪球式增長。
了解并遵守道德和法律指導原則。如果數據中心在法律規定內運營,并堅持用戶數據的既定道德使用原則,那么它們就可以避免許多法律問題。
雖然數據中心管理者無法為每一個可能的運營風險制定計劃,但細致的規劃可以應對最常見的問題。
