創新企業Lamini募資2500萬美元,推動產業級生成AI技術落地

Featured Image
一家位於帕羅奧圖的初創公司Lamini,正在建立一個平台,幫助企業部署生成式人工智能技術,從包括斯坦福大學計算機科學教授安德魯·吳在內的投資者那裡籌集了2500萬美元的資金。由Sharon Zhou和Greg Diamos幾年前共同創辦的Lamini有一個有趣的銷售口號。Zhou和Diamos認為,許多生成式人工智能平台過於通用,並沒有針對企業的需求提供解決方案和基礎設施。相比之下,Lamini從一開始就針對企業建立,致力於提供高度生成式人工智能準確性和可擴展性。Lamini的首席執行官Zhou告訴TechCrunch:“幾乎每位CEO、CIO和CTO的首要任務都是在其組織中充分利用生成式人工智能,以獲得最大的投資回報。”“但是,儘管個人開發者可以很容易地在筆記本電腦上獲得工作演示,但將其投入生產的道路上卻步履蹣跚。”對於Zhou的觀點,許多公司對於在其業務功能中有效地採用生成式人工智能而感到沮喪。根據MIT Insights的一份三月報告,儘管有75%的組織進行了生成式人工智能的實驗,但只有9%的組織廣泛採用了生成式人工智能。最大的障礙涵蓋了從缺乏IT基礎設施和能力,到不完善的治理結構,不足的技能和高昂的實施成本。安全性也是一個重要因素——在Insight Enterprises最近的一份報告中,有38%的公司表示安全性影響了他們利用生成式人工智能技術的能力。那麼Lamini的答案是什麼?Zhou表示,Lamini的技術堆棧的“每一個部分”都經過了針對企業規模的生成式人工智能工作負載的優化,從硬件到軟件,包括用於支持模型管控、微調、運行和訓練的引擎。“優化”是一個模糊的詞語,不過Lamini正在開創一個被Zhou稱為“記憶調整”的步驟,這是一種通過對數據進行模型訓練,以便模型能夠確切記住該數據的一部分的技術。Zhou聲稱,記憶調整可以減少模型在回應請求時編造事實的情況。“記憶調整是一種訓練範式——與微調一樣高效,但更進一步——它通過對包含關鍵事實、數字和數據的專有數據進行模型訓練,使模型具有高精度,”Lamini的AI設計師Nina Wei在電子郵件中告訴我,“可以記住並回憶起任何關鍵信息的確切匹配,而不是泛化或幻想。”我不確定這一點。“記憶調整”似乎更像是一個市場術語,而不是一個學術術語;至少我沒有找到任何相關的研究論文。我將讓Lamini展示他們的“記憶調整”比其他減少幻覺的技術更好的證據。對於Lamini來說,幸運的是,記憶調整並不是它唯一的差異化因素。Zhou表示,該平台可以在高度安全的環境中運行,包括空隔離的環境。Lamini允許企業在各種配置上運行、微調和訓練模型,從本地數據中心到公共和私有雲,並實現“彈性”工作負載,如果應用程序或用例需要,可達到超過1000個GPU。“目前市場上的激勵措施與封閉式模型背道而馳,”Zhou說。“我們的目標是將控制權交回更多人的手中,而不僅僅是少數人,首先從最關心控制權且最易因其專有數據被他人擁有而損失最大的企業開始。”值得一提的是,Lamini的聯合創始人在人工智能領域都非常有造詣。他們也分別與吳有過接觸,這無疑解釋了他的投資。Zhou曾在斯坦福擔任教職,領導一個研究生成式人工智能的小組。在在吳的指導下獲得計算機科學博士學位之前,她曾在Google Cloud擔任機器學習產品經理。至於Diamos,他也是MLCommon的共同創辦人。

Share this content: