AI安全監管新突破:企業如何實現智能生成AI風險控制?

Featured Image
AI生成的文章有時會帶有一些痕跡,這些痕跡可能會對文章的SEO優化產生負面影響。因此,為了提高文章的搜尋引擎收錄和排名,我們需要對生成的文章進行微調和優化。

以下是經過微調和優化後的文章:

「需要去除AI生成痕跡的文字」:生成式AI會編造一些內容,這些內容可能帶有偏見。有時它會生成一些具有毒性的文字。然而,我們相信AI可以是“安全的”。在接受TechCrunch采訪時,WitnessAI的首席執行官Rick Caccia表示:“保護AI模型是一個真正的問題,對於AI研究人員來說,這是一個尤其重要的問題,但這與保護使用是不同的。“他還補充道:“我認為這就像一輛跑車擁有更強大的引擎一樣,除非你也有良好的制動和轉向系統,否則這並不能為你帶來任何好處。在高速行駛時,控制系統和引擎同樣重要。”企業界對這種控制系統需求很大,雖然它對生成式AI提高生產力的潛力持保留態度,但對技術的限制表示關切。根據IBM的調查,有51%的首席執行官正在招聘與生成式AI相關的職位,而這些職位在今年之前還不存在。然而,只有9%的企業表示他們準備好應對由於使用生成式AI而產生的威脅,包括隱私和知識產權方面的威脅。Riskonnect的WitnessAI平台截取了員工與其雇主所使用的定制生成式AI模型之間的活動,並應用風險減緩策略和保護措施。“企業AI的一個承諾是,它解鎖並使企業數據民主化,以便員工能夠更好地完成工作。但是,解鎖所有這些敏感數據-或者讓它洩露或被盜竊-這是一個問題。” WitnessAI提供了幾個模塊的訪問權限,每個模塊都專注於解決不同形式的生成式AI風險。其中一個模塊允許組織制定規則,以防止特定團隊的員工以不應該的方式使用生成式AI驅動的工具(例如,詢問未發布的盈利報告或粘貼內部代碼庫)。另一個模塊會從發送給模型的提示中刪除專有和敏感信息,並實施技術來保護模型免受可能迫使其偏離腳本的攻擊。“我們認為幫助企業的最佳方式是以有意義的方式定義問題-例如,安全采用AI-然後銷售解決方案來解決問題,” Caccia表示。“CISO希望保護企業,而WitnessAI通過確保數據保護、防止提示注入和執行基於身份的策略來幫助他們實現這一目標。首席隱私官希望確保遵守現有和即將到來的法規,我們為他們提供了可見性和報告活動和風險的方法。”但是WitnessAI的隱私政策還存在一個棘手的問題。所有數據在到達模型之前都會通過WitnessAI平台。該公司對此非常透明,甚至提供了工具來監控員工訪問的模型、他們向模型提出的問題以及他們獲得的回答。但這可能會帶來自身的隱私風險。在回答有關WitnessAI隱私政策的問題時,Caccia表示,該平台是“隔離的”並且使用加密技術,以防止客戶的機密信息泄露。“我們建立了一個毫秒級延遲的平台,具有內置的法規隔離設計-這是一種獨特的隔離設計,可以保護企業AI活動,與通常的多租戶軟件即服務服務有根本區別,”他說。“我們為每個客戶創建了一個獨立的平台實例,使用他們的密鑰進行加密。他們的AI活動數據對他們來說是隔離的-我們看不到它。”也許這能夠消除客戶的擔憂。至於員工對WitnessAI平台監控潛力的擔憂,這就比較棘手了。調查顯示,人們通常不喜歡被監控工作場所的活動,無論這些監控是出於何種目的。

Share this content: