我們很高興地宣布 Orca Research Pod 推出了 AI Goat ,這是第一個基於 OWASP 十大 ML 風險的開源 AI 安全實踐學習環境。 Orca 的 AI Goat 作為 Orca Research GitHub 儲存庫上的開源工具提供,是一個在 Terraform 中建構的故意易受攻擊的 AI 環境,其中包含許多用於測試和學習目的的威脅和漏洞。
創建學習環境的目的是幫助安全專業人員和滲透測試人員了解如何利用基於 OWASP 十大 ML 風險的 AI 特定漏洞,以及組織如何最好地防禦這些類型的攻擊。
OWASP ML 安全十大專案負責人之一 Shain Singh 表示:「Orca 的 AI Goat 是 AI 工程師和安全團隊的寶貴資源,可以幫助他們更了解部署 AI 模型時可能存在的潛在危險的錯誤配置和漏洞。透過使用 AI Goat,組織可以增強對人工智慧風險以及攻擊者利用這些弱點的不同方式的了解。這使他們能夠更有效地防止人工智慧攻擊」。
「我們的研究表明,隨著安全團隊預計採用人工智慧和 genAI 來提高生產力並支持業務成長,他們正在尋找有效的方法來確保安全的人工智慧使用。 Orca 的 AI Goat 為社群做出了重要貢獻,幫助組織獲得實踐經驗,更好地了解可能的威脅和攻擊 AI 模型的方法,從而降低安全風險並防禦可能的攻擊。-Melinda Marks,Enterprise Strategy Group 網路安全實踐總監
在本部落格中,我們將詳細介紹 Orca 的 AI Goat 環境、如何部署它以及作為學習體驗的一部分所需完成的不同任務。
AI Goat 是一個基於 AWS 建構的環境,在 Amazon SageMaker 上運行 AI 模型。部署環境會公開銷售毛絨玩具的線上商店的使用者介面,商店功能中嵌入了不同的機器學習模型。該應用程式包含故意的錯誤配置、漏洞和安全性問題,因此安全從業者和開發人員可以加深對攻擊者如何利用這些弱點的了解。目前,要成功利用人工智慧模式的弱點,需要完成三個「任務」。
作為 AI Goat 環境的一部分,銷售毛絨玩具的脆弱線上商店
AI Goat 包括 OWASP 確定的十大機器學習風險:
使用 AWS 基礎架構上的 Terraform 部署 AI Goat 非常簡單且完全自動化。這種方法可確保您可以快速設定環境並開始探索漏洞以及如何利用它們。
先決條件
自動化部署
若要無縫部署 AI Goat,請依照下列步驟操作:
還有一個選項可以手動安裝應用程序,只需複製儲存庫、配置 AWS 憑證並使用 terraform 進行部署:
AI Goat 是一款具有多種 AI 功能的玩具店應用程序,突出顯示了 OWASP 機器學習安全十大風險中的不同漏洞。使用者可以探索人工智慧供應鏈攻擊、資料中毒攻擊和輸出完整性攻擊等場景,以獲得理解和減輕這些風險的實務經驗。
我們建議避免瀏覽儲存庫文件,因為它們包含劇透。
任務一:AI 供應鏈攻擊
任務二:數據中毒攻擊
任務三:輸出完整性攻擊
重要提示:請注意,AI Goat 在 AWS 中建立了一個易受攻擊的環境。因此,為了避免任何妥協的機會,您必須確保這些資源不會暴露在重要環境中。此外,建議完成後使用 Terraform Destroy 刪除 AI Goat。
為了協助組織確保其人工智慧模型的安全性和完整性,Orca 提供了人工智慧安全態勢管理功能。安全始於可見性。借助 Orca,組織可以全面了解其環境中部署的所有 AI 模型(託管和非託管),包括任何影子 AI。
Orca 的 AI-SPM 儀表板顯示環境中發現的所有與 AI 相關的風險
此外,Orca 會持續監控和評估您的 AI 模型,提醒您任何風險,例如漏洞、暴露的資料和金鑰以及過於寬鬆的身份。自動化和引導式修復選項可用於快速修復任何已識別的問題。如果您想了解有關如何保護 AI 模型的更多信息,請安排與 GSS 進行線上展示。
Orca 研究團隊是一組雲端安全研究人員,致力於發現和分析雲端風險和漏洞,以加強 Orca 平台並推廣雲端安全最佳實踐。迄今為止,Orca 研究團隊已發現並協助解決了雲端供應商平台中的 25 個以上漏洞,以協助支援安全可靠的雲端基礎架構。研究小組還在 GitHub 上創建和維護多個開源項目,幫助開發人員和安全團隊使雲端成為每個人都更安全的地方。
Orca 的無代理程式優先雲端安全平台可在幾分鐘內連接到您的環境,並為您在 AWS、Azure、Google Cloud、Kubernetes 等上的所有資產提供 100% 的可見性。 Orca 可偵測、確定優先順序並協助修復雲端資產每一層的雲端風險,包括漏洞、惡意軟體、錯誤配置、橫向行動風險、API 風險、人工智慧風險、面臨風險的敏感資料、弱密碼和外洩的密碼以及過於寬鬆的身份。