tradingkey.logo

Liquid AI 在 AMD 領投的一輪融資中籌集了 2.5 億美元

Cryptopolitan2024年12月14日 00:16

Liquid AI 希望開發更高效的模型

繼 OpenAI 的 ChatGPT 於 2022 年 11 月推出後,消費者生成 AI 引起了全球關注,並立即獲得成功,刺激了全球的發展。該技術現在是快速發展的人工智能領域的核心,投資者已向生成式人工智能初創公司投入了數十億美元。

對於 Liquid 來說,這家初創公司的新模型被稱爲Liquid Foundation Models (LFM),該公司表示,該模型可以提供與 OpenAI、Google Cloud 和 AWS 等傳統大型語言模型 (LLM) 相當或更好的性能。

LFM 是輕量級通用人工智能模型,需要較少的數據和計算能力。據 Crunchbase 報道,這些模型奇怪地使用了通過研究蠕蟲大腦發現的matic方法

SiliconAngle介紹,Liquid 的模型基於“液體神經網絡”的概念。這種分類不同於基於 Transformer 的生成式預訓練模型或支持流行聊天機器人(如 ChatGPT 和 Google LLC 的 Gemini)的 GPT。

“在 Liquid,我們的使命是在各個規模上構建最強大、最高效的人工智能系統。”

Liquid 首席執行官拉明·哈薩尼。

Hasani 補充道:“自成立以來,我們通過發佈基於文本的模型、推出多模式 LFM 以及與主要合作伙伴合作展示現實世界的影響,展示了我們技術的可擴展性。”

AMD 合作伙伴關係將使 Liquid AI 能夠優化其 LFM

據SiliconAngle介紹,這家AI初創公司提供三種模型尺寸,分別是LFM-1B(針對手機等設備端的密集13億參數模型)、LFM-3B(針對邊緣開發優化的31億參數模型)和LFM -40B 專家組合,旨在解決複雜的任務。

Liquid AI 表示,與 GPT 架構相比,LFM 的內存佔用量減少了,而 GPT 架構對於較長的輸入來說更爲重要,例如在處理極長的文檔或視頻時。

據 Liquid AI 稱,與 Google LLC 的 Gemma 2 2B-it 或 Meta 的 Llama3.2 3B 等模型相比,LFM-3.1B 模型在部署時使用的內存明顯少於其他小型模型。

現在,藉助這筆資金,Liquid AI 與 AMD 建立了戰略合作伙伴關係,增強了其利用芯片製造商的圖形、中央和神經處理單元優化其基礎模型的能力。

這筆資金還將幫助這家位於馬薩諸塞州劍橋的初創公司爲消費tron、生物技術、電信、金融服務和電子商務等行業開發定製的 LFM。

Liquid AI 成立於 2023 年。

90 天內開啓您的 Web3 職業生涯並獲得高薪加密工作的分步系統

免責聲明:僅供參考。過去的表現並不預示未來的結果。