人工智能安全防護:WitnessAI如何守護企業數據與隱私

Featured Image
生成式AI會編造東西,可能存在偏見。有時候它會生成有害的文字。但是,創辦人兼首席執行官Rick Caccia相信,AI可以“安全”。他在接受TechCrunch的採訪時表示:“保護AI模型是個真正的問題,特別吸引AI研究人員,但這與保護使用方式不同。”他說:“我把它比作一輛跑車,擁有更強大的引擎(即模型)並不能為你帶來任何好處,除非你也有良好的剎車和操控系統。在高速行駛時,操控系統和引擎同樣重要。”企業確實對此類控制需求很大,儘管對生成式AI提升生產力的潛力持保守樂觀態度,但對技術的局限性也有所擔憂。據IBM的一項調查顯示,51%的首席執行官正在招聘今年才出現的與生成式AI相關的職位。然而,只有9%的公司表示他們準備應對由於使用生成式AI而產生的威脅,包括隱私和知識產權方面的威脅。Riskonnect的WitnessAI平台攔截員工與其雇主使用的定制生成式AI模型之間的活動,而不是像OpenAI的GPT-4那樣在API後面的模型,而更類似於Meta的Llama 3,並應用風險減緩政策和保護措施。他們之所以這樣做,是因為企業AI的一個承諾是解鎖和使企業數據民主化,讓員工能夠更好地履行職責。但是,過度解鎖所有敏感數據,或者數據泄露或被盜,都是一個問題。”WitnessAI銷售多個模塊的訪問權限,每個模塊都專注於應對不同形式的生成式AI風險。其中一個模塊允許組織制定規則,防止特定團隊的員工以不應有的方式使用生成式AI工具(例如,詢問未發布的盈利報告或粘貼內部程式碼庫)。另一個模塊則從發送給模型的提示中隱藏專有和敏感信息,並實施技術來保護模型免受可能迫使其背離腳本的攻擊。Caccia表示:“我們認為幫助企業的最佳方式是以有意義的方式定義問題,例如安全採用AI,然後銷售解決方案來解決問題。”他說:“首席信息安全官希望保護業務,WitnessAI通過確保數據保護、防止提示注入和執行基於身份的政策來幫助他們實現這一目標。首席隱私官希望確保遵守現有和即將推出的法規,我們為他們提供了可見性和報告活動和風險的方式。”但是,WitnessAI在隱私方面有一個棘手的問題。所有數據在到達模型之前都要通過其平台。該公司對此非常透明,甚至提供了工具來監視員工訪問的模型、他們向模型提出的問題以及他們得到的回答。但這可能會帶來自身的隱私風險。對於有關WitnessAI隱私政策的問題,Caccia表示,該平台是“隔離的”並且加密,以防止客戶的機密信息外泄。他說:“我們構建了一個毫秒級延遲的平台,內部具有法規隔離設計,這是一種與通常的多租戶軟件即服務服務截然不同的獨特隔離設計,可以保護企業AI活動。我們為每個客戶創建了一個單獨的平台實例,並使用他們的密鑰進行加密。他們的AI活動數據被隔離在他們自己的平台中,我們無法看到。”也許這可以消除客戶的擔憂。至於員工對WitnessAI平台監控潛力的擔憂,這是一個更棘手的問題。調查顯示,人們通常不喜歡監控他們的工作場所活動,無論是不是用於正當目的。

Share this content: