資訊中心管理
確保 AI 模型安全不可忽視的關鍵指南
建置、訓練和調整 AI 並非易事,尤其當你想要保護成果免受盜竊、拒絕服務攻擊(DoS)、惡意使用或其他威脅時,更需要格外謹慎。在這篇文章中,我們將介紹確保 AI 模型免受法律風險與惡意攻擊的基本概念。

Q1:我可以申請AI模型的版權嗎?

只要 AI 模型是由人類編寫的程式原始碼和技術製作的,它就可以像其他應用程式一樣受到版權、專利權和智慧財產權的保護。如果你的模型是基於現有模型構建的,就必須確保符合這些模型使用的開源授權條款,是否能對衍生模型主張版權,將取決於這些條款的規範。

生成式 AI 的輸出,包括文字、照片或聲音,目前在美國法院被認定為非人類創作,因此無法獲得版權保護。也就是說,如果你使用 AI 模型來幫助另一個 AI 模型進行訓練、生成原始碼或驗證功能性,那麼該衍生 AI 模型無法完全確保可以受到版權法的保護。如果一項作業結合了人力和 AI 的參與,則只有人類創作的部分有資格獲得版權保護。雖然我們不是法律專家,但由於 AI 需要一定程度的人類智慧和創造力,因此出現了 AI 輸出是否應受版權保護的新法律議題。這個議題目前處於初期討論階段,尚未被廣泛驗證。

Q2:AI模型有哪些風險?

AI 模型從不同角度來看,可能會為組織帶來許多風險。從攻擊者的角度來說,滲透或攻擊 AI 模型可以帶來許多利益。 攻擊者可以通過勒索 AI 模型,竊取底層資源並將其重新定向為挖掘加密貨幣,或竊取商業機密、敏感的個人資料,甚至模型本身。AI 模型的大量元件使用可能會為攻擊者留下更多漏洞,而其設計上的安全性不足,則使其難以得到充分保護。

AI 模型還可能帶來法律風險,如果模型對某些群體產生偏見、洩漏敏感資訊或表現不佳,組織可能因此面臨法律訴訟。 正如先前所提到的,AI 模型的底層元件,包括訓練模型、開放源碼庫和訓練資料, 如果沒有仔細考慮每種元件的授權和版權限制,都可能為組織帶來風險。

建議可以多了解大型語言模型的主要威脅,這些威脅中許多都同樣適用於各類 AI 模型。

Q3:如何讓我的AI更安全?

AI 安全是一個廣泛的主題,每種模型都有其對應的風險問題,但許多適用於應用程式的安全設計理念同樣適用於 AI 模型, 你可以採取以下幾種措施來提升 AI 模型的安全性:

• 消毒與驗證輸入和輸出,特別是大型語言模型(LLM)

• 限制處理時可以使用的資源量及執行步驟的數量

• 監控 AI 的行為以及周邊的網路活動

• 將 AI 模型的使用者和許可權限制為僅與其互動的人員和元件所需的最小許可權

• 定期進行威脅建模和滲透測試,以加強 AI 模型的安全性

Q4:如何安全地儲存AI模型?

AI 模型通常體積龐大,並且需要跨多個伺服器運行。如果你使用雲端儲存,選擇一個重視安全性的服務提供者至關重要,以下是幾個確保 AI 儲存安全的考量因素:

• 加密:加密 AI 模型和訓練資料,以防止盜竊和篡改

• 存取控制:限制對模型的存取權限,僅授予工作需要的人員

• 強化硬體:確保存放 AI 模型的實體位置以及伺服器的硬體和韌體是安全的

保護傳輸中的 AI 數據:使用 HTTPS 和 VPN 等安全通信協議,來保護需要透過網路存取的 AI 模型

• 保持最新狀態:嚴格管理任何需要存取或儲存 AI 的軟體或系統,確保它們始終保持最新狀態並安裝最新的安全修補程式

如同其他有價值的資產一樣,AI 模型也需要受到保護。從設計和建置階段開始,乃至整個開發過程中,都必須早期考慮安全性,這將會是成功的關鍵。