生成式AI催生了一系列新興網路威脅。黑客獲得了更多的機會來利用漏洞,也可以透過更多的方式來執行惡意活動。
幸運的是,反之亦然:生成式AI可以加強企業的防禦能力。在短期內,生成式AI將讓曾經一度繁重的安全流程變得更加高效。透過分析海量數據並辨識模式和異常,生成式AI可以及時發生新出現的威脅。
隨著惡意行為者不斷采用新的攻擊方式,網路安全團隊也需要與時俱進,並保持領先一步的關鍵。
生成式AI和大語言模型會帶來風險。但如何同時讓AI也成為保護數據安全的措施呢?我認為,我們可能會看到更多的AI相互對抗,讓生態系保持平衡。
幾乎所有受訪高管(96%)表示,采用生成式AI可能會在未來三年內導致其組織出現安全漏洞。
生成式AI引入全新的風險與威脅。
生成式AI為網路攻擊者提供了全新的武器庫。當今的黑客不再僅僅是偽造電子信件,而是可以模仿聲音、面孔,甚至個性來誘騙受害者。而這還只是開始。
隨著生成式AI在未來半年到一年內持續普及,專家們預計新型入侵攻擊將達到前所未有的規模、速度、復雜性和精密性,各種新的威脅形式也會不斷湧現。從可能性和潛在影響的角度來看,大規模發起的自主攻擊將成為最重大的風險。不過,受訪高管們預計,黑客偽造或冒充可信使用者將對業務產生最大的影響,其次是建立惡意程式碼。
組織實施生成式AI的方式也可能會帶來新的風險。事實上,47%的受訪高管擔心在營運中采用生成式AI會引發針對其組織自主AI模型、數據或服務的新型攻擊。幾乎所有受訪高管(96%)表示,采用生成式AI可能會在未來三年內導致其組織出現安全漏洞。
全球數據泄露的平均成本為445萬美元,美國更是高達948萬美元。在此形勢下,許多企業正在加大投資力度,以應對新興網路安全風險。受訪高管表示,其組織2023年的AI網路安全預算相比2021年增加了51%。而且,他們預計到2025年,這一預算將再增加43%。
將生成式AI視為迫切需要加以保護的重要平台。
敦促網路安全領導者緊急行動,即刻著手應對生成式AI的風險,而不是采取分步措施。
理解當前的AI風險狀況。舉辦董事會級會議,召集網路安全、技術、數據和營運領導者共同討論不斷演化的風險,包括生成式AI的哪些使用方式有可能暴露敏感數據,並允許以未經授權的形式存取系統。讓每個人都了解新興的「對抗性」人工智慧——即便是在核心數據集中引入幾乎察覺不到的細微變化也可能會導致惡意結果。
確保整個AI管道安全無虞。專註於對用於訓練和調優AI模型的數據進行保護和加密。在模型開發過程中持續掃描漏洞、惡意軟體和損壞。在模型部署後監控特定於AI的攻擊(例如數據汙染和模型盜竊)。
投資部署專為保護AI而設計的新型防禦措施。盡管可以透過擴充套件現有的安全控制和專業知識來保護支持AI系統的基礎架構和數據,但檢測和阻止針對AI的對抗性攻擊就需要采用全新的方法。
如果缺乏安全的數據,實作值得信賴的生成式AI就無從談起。
數據是生成式AI的命脈。所有模型都依靠數據來回答查詢並提供見解,也正是因此,訓練數據成為了網路攻擊的主要目標。
黑客仍然希望竊取數據並高價出售,但數據滲透提供了一條獲取非法利潤的新途徑。如果黑客可以更改驅動組織生成式AI模型的數據,就可以透過有針對性的操縱或錯誤資訊來影響業務決策。這種不斷演變的威脅帶來了一系列新的法律、安全和私密問題,而CEO則需要在整個企業範圍內管理這些問題。
高管們看到了問題的嚴重性。在采用生成式AI方面,受訪高管預計會出現各種各樣的風險——84%的受訪高管擔心廣泛或災難性的網路安全攻擊有可能會引發新的漏洞。三分之一的受訪高管表示,如果沒有全新的治理形式,例如全面的監管框架和獨立的第三方審計,就無法管理這些風險。
總體而言,94%的受訪高管表示,在部署之前確保AI解決方案的安全性至關重要。不過,只有24%的生成式AI計畫將在未來六個月內納入網路安全元件。而且,69%的受訪高管表示,在部署生成式AI方面,創新優先於網路安全。
這表明對生成式AI網路安全需求的理解與網路安全措施的實施之間存在明顯脫節。為了規避代價高昂且不必要的後果,CEO需要采取有力舉措來應對數據網路安全和數據溯源問題,包括投資部署數據保護措施(如加密和匿名化)。數據跟蹤和溯源系統可以為生成式AI模型所使用的數據提供更好的完整性保障。
讓可信數據成為組織的支柱。
持續叠代網路安全實踐,全面考慮多種生成式AI模型和數據服務的要求。
在AI套用中建立信任與安全性。優先實施以安全、私密、治理和合規性為中心的數據策略與控制。傳達透明度和問責制對於在管理風險方面對於防止偏見、幻覺和其他問題的重要性。
保護為AI提供動力的數據。讓首席資訊保安官負責發現訓練或調優中使用的敏感數據並對其進行分類。實施數據遺失預防技術,以防止透過提示發生數據泄漏。圍繞機器學習數據集實施存取策略與控制。擴充套件威脅建模以涵蓋生成式人工智慧特定的威脅,例如數據汙染、包含敏感數據以及輸出不適當的內容。
將網路安全視為一種產品,並將利益相關方視為客戶。網路安全對於保障AI計劃順利推進並推動收入增長至關重要。為了確保在產品中安全地使用AI,請讓您的團隊了解生成式AI帶來的網路安全威脅。強調改變行為以改善數據和安全衛生的價值。確保網路安全成效與業務成效相一致,從而鼓勵采用。
生成式AI將成為網路安全的「倍增器」。
如果套用於網路安全領域,生成式AI可以成為業務加速器。生成式AI可以自動執行重復且耗時的任務,讓團隊專註於處理更復雜、更具戰略性的安全事務。生成式AI還可以檢測和調查威脅,並從過往事件中學習,以即時調整組織的應對策略。
由於收益顯著,CEO面臨著迅速廣泛引入生成式AI的壓力。但為了避免增長結構倒塌,企業高管迫切需要利用生成式AI來增強韌性。這樣一來,高管們不僅可以規避生成式AI的風險,還可以借生成式AI之力,讓組織變得更強大。
超過一半的受訪高管(52%)表示,生成式AI將幫助他們更好地分配資源、能力、人才或技能;而92%的受訪高管表示,在采用生成式AI之後,這項技術更有可能增強或提升而不是取代其網路安全人員。
這些新興技術工具可以幫助團隊降低復雜性並專註於最重要的任務,或許也正是因此,84%的受訪高管計劃優先部署生成式AI 網路安全解決方案,而不是傳統的網路安全解決方案。
在網路安全領域使用生成式AI有助於在整個企業生態系中實作「倍增效應」。84%的受訪高管表示,開放創新的生態系對於其組織未來的增長戰略非常重要。由於企業高管希望建立支持創新和增長的合作關系,大多數受訪高管預計生成式AI功能將影響其組織在未來兩年內對雲端運算(59%)和整個業務(62%)的生態系合作夥伴的選擇。
圍繞速度和規模重新調整網路安全投資。
讓AI成為加強安全防禦的重要工具。鼓勵網路安全領導者將生成式AI和自動化嵌入到其工具包中,以便快速、大規模地應對安全風險與事件。這將大幅提高生產力,並讓網路安全成為業務增長的推動力。
運用AI加速實作安全成效。自動處理不需要人類專業知識和判斷力的日常任務。運用生成式AI簡化人類與技術協同合作的任務,例如安全策略生成、威脅搜尋和事件響應。
部署AI來檢測新威脅。更新工具和技術,使您的團隊在速度、規模、精度和復雜性上能夠跟上攻擊者的步伐。運用生成式AI更迅速地辨識模式和異常,讓團隊能夠及時發現新的威脅向量,從而防患於未然。
發揮合作的力量。與值得信賴的合作夥伴攜手合作,共同定義AI安全成熟度,並實施全面的生成式AI戰略,以推動整個組織創造價值。