建置、訓練和調整 AI 並非易事,尤其當你想要保護成果免受盜竊、拒絕服務攻擊(DoS)、惡意使用或其他威脅時,更需要格外謹慎。在這篇文章中,我們將介紹幾個確保 AI 模型免受法律風險與惡意攻擊的基本知識。
只要 AI 是由人類編寫的程式原始碼和技術製作的,它就可以像其他應用程式一樣受到版權、專利權和智慧財產權的保護。如果你的模型是基於現有模型構建的,你必須確保符合這些模型使用的開源授權條款。是否能對衍生模型主張版權,將取決於這些條款的規範。
生成式 AI 的輸出,包括文字、照片或聲音,目前在美國法院被認定為非人類創作,因此無法獲得版權保護。也就是說,如果你使用 AI 模型來幫助另一個 AI 模型進行訓練、生成原始碼或驗證功能性,那麼該衍生 AI 模型無法完全確保可以受到版權法的保護。如果一項作業結合了人力和 AI 的參與,則只有人類創作的部分有資格獲得版權保護。雖然我們不是法律專家,但由於 AI 需要一定程度的人類智慧和創造力,因此出現了 AI 輸出應否受版權保護的新法律議題。這一議題目前處於初期討論階段,尚未被廣泛驗證。
AI 模型從不同角度來看,可能會為組織帶來許多風險。從攻擊者的角度來說,滲透或攻擊 AI 模型可以帶來許多利益。攻擊者可能通過勒索 AI 模型,竊取底層資源並將其重新定向為挖掘加密貨幣,或竊取商業機密、敏感的個人資料,甚至模型本身。AI 模型的大量元件使用可能會為攻擊者留下更多漏洞,而其設計上的安全性不足,則使其難以得到充分保護。
AI 模型還可能帶來法律風險。如果模型對某些群體產生偏見、洩漏敏感資訊或表現不佳,組織可能因此面臨法律訴訟。正如先前所提到的,AI 模型的底層元件,包括訓練模型、開放源碼庫和訓練資料,如果沒有仔細考慮每種成分的授權和版權限制,都可能為組織帶來風險。
你可以在此了解大型語言模型的主要威脅,這些威脅中許多都適用於各類 AI 模型。
AI 安全是一個廣泛的主題,每種模型都有其獨特的風險,但許多適用於所有應用程式的安全設計理念同樣適用於 AI 模型。你可以採取以下幾種措施來提升 AI 的安全性:
AI 模型通常體積龐大,並且需要跨多個伺服器運行。如果你使用雲端儲存,選擇一個重視安全性的服務提供者至關重要。以下是幾個確保 AI 儲存安全的考量因素:
如同其他有價值的資產一樣,AI 模型需要受到保護。從設計和建置階段開始,乃至整個開發過程中,都必須早期考慮安全性,以獲得最大的成功機會。