智能AI安全盾:企業如何駕馭創造性AI的風險與挑戰?

Featured Image
AI生成痕跡已被去除

Generative AI 能夠捏造事物,但可能存在偏見。有時它會生成有害的文本。不過,Rick Caccia認為它可以“安全”。他是 WitnessAI 的CEO,曾在Palo Alto Networks擔任市場營銷高級副總裁。在接受TechCrunch的採訪時,他表示:“保護AI模型是一個真正的問題,對於AI研究人員來說尤其引人注目,但與保護使用方式不同。”他解釋道:“我把它想成一個比較強大的引擎的體育車,如果沒有好的制動和轉向系統,引擎也無補於事。對於快速駕駛來說,控制系統和引擎同樣重要。”企業界對於這種控制系統的需求顯然很大。根據IBM的一項調查,有51%的CEO正在招聘今年才出現的與生成AI相關的角色。然而,只有9%的公司表示他們有能力應對由於使用生成AI而帶來的威脅,包括隱私和知識產權方面的威脅。Riskonnect的WitnessAI平台截取了員工與所使用的定制生成AI模型之間的活動,這與OpenAI的GPT-4等API後面的模型不同,更像是Meta的Llama 3。WitnessAI平台應用風險緩解政策和保護措施。Caccia解釋道:“企業AI的一個承諾是解鎖和民主化企業數據,讓員工能夠更好地完成工作。但是,解鎖所有敏感數據,或者泄露或被竊取,這就成為一個問題。” WitnessAI提供多個模塊,專門處理不同形式的生成AI風險。其中一個模塊允許組織制定規則,防止特定團隊的員工以不合規的方式使用生成AI工具(例如,詢問未發布的盈利報告或粘貼內部代碼庫)。另一個模塊則從發送給模型的提示中刪除專有和敏感信息,實施技術來保護模型免受可能迫使其離題的攻擊。Caccia表示:“我們認為幫助企業的最佳方式是以有意義的方式定義問題,例如安全採用AI,然後提供解決方案來解決問題。”他解釋道:“CISO希望保護業務,WitnessAI可以通過確保數據保護、防止提示注入和執行基於身份的政策來幫助他們。首席隱私官希望確保遵守現有和即將出台的法規,我們提供他們可見性和報告活動和風險的方式。”但是,WitnessAI的隱私問題也是個麻煩。所有數據在到達模型之前都會通過WitnessAI平台。公司對此非常透明,甚至提供了工具來監控員工訪問的模型、他們向模型提出的問題以及他們得到的回答。但這可能會帶來自身的隱私風險。對於有關WitnessAI隱私政策的問題,Caccia表示,該平台是“獨立的”並且加密,以防止客戶機密外泄。他說:“我們建立了一個毫秒級延遲的平台,其中內置了規定的分離設計,從而以根本不同於通常的多租戶軟件即服務服務的方式來保護企業AI活動。我們為每個客戶創建了一個獨立的平台實例,並使用他們的密鑰進行了加密。他們的AI活動數據對他們來說是隔離的,我們無法看到它。”也許這能夠消除客戶的擔憂。至於員工對於WitnessAI平台監視潛力的擔憂,這就比較棘手了。調查顯示,人們通常不喜歡他們的工作場所活動受到監視,無論這是出於什麼目的。

Share this content: