單模型性能的邊際提升,正在快速遞減。”
近期我們和一些大模型(LLM)研發者溝通時,不少人都有類似的感受。
過去幾年,AI模型性能的提升主要來自兩個方向:模型參數規模擴大,訓練數據與算力的增長。
根據OpenAI、Anthropic、DeepMind等團隊的研究,模型性能與參數規模之間呈冪律關系(Power Law),即性能隨參數增加而提升,但提升幅度逐漸減小,表現出邊際收益遞減的趨勢。
這也和我們的觀察所吻合,今年以來,我們看到的模型改進主要來自“上下文記憶增強”“多模態融合”“推理鏈優化”等方向,這些都不是純粹靠“變大”實現的,而是靠“變巧”。單一模型的“性能天花板”已悄然出現。
在海外,OpenAI、Anthropic、Google等大模型公司的最新模型,在性能上的差距越來越小。用戶大體的感知是:GPT系列在創造性和邏輯推理方面略勝,Claude系列在編碼和文本理解方面略優,Gemini系列在多模態方面略強。但對C端用戶來說,這種差異不再能直接轉化為新的付費理由。
「甲子光年」發現,市場的競爭焦點從“模型誰更聰明”轉向“誰能更好地用這些模型”,從“模型競爭”過渡到“系統競爭”。AI大模型參數規模不再是關鍵,AI系統工程架構的創新才是新的突破點。
在這種背景下,AI Agent(智能體)的成為了AI行業新的敘事主體。甲子光年智庫在《中國AI Agent行業研究報告》中,將AI Agent定義為具有自主性、反應性、交互性等特征的智能“代理” ,用公式表示就是:大模型時代的AI Agent=LLM x(規劃+記憶+工具+行動)。
而在眾多AI Agent公司之中,一家幾乎沒有投放廣告、僅24人規模的公司卻被頻頻提起——Genspark。
很多人對Genspark的印象還停留在華人硅谷創業公司、不斷更新的產品功能以及45天3600萬美元ARR(年度經常性收入)的商業成績,但更有價值的是,這家從AI搜索起家的公司,用一套Mixture-of-Agents(多智能體混合,簡稱MoA)架構,把多模型融合成一個完整系統。
Genspark代表了從“做出更聰明的模型”到“讓模型們協作”的范式轉變,這也是一個關于工程哲學的故事。
1.在AI Agent領域率先引入MoA的概念
Genspark是由小度前CEO景鯤(Eric Jing)與小度前CTO朱凱華(Kay Zhu)聯合創立的MainFunc公司推出的AI Agent產品,2024年6月Beta版上線,初期定位為AI搜索引擎,通過生成無偏見的Sparkpages頁面提供可信信息,主要面向美國市場。
景鯤前下屬、AI從業者劉佳(化名)告訴「甲子光年」,景鯤還在小度工作的時候,就多次提到要“重構搜索背后的內容生態”。
后來,Genspark陸續加入Multi-Agent、Deep Research等功能,并于2025年4月升級為Super Agent產品,上線9天實現了1000萬美元的ARR,上線45天就實現了3600萬美元的ARR。對比來看,AI Coding領域的明星企業Cursor,實現1000萬美元ARR,用了21個月。
在眾多AI Agent產品中,Genspark去年底引入了MoA的概念并將其工程化。可以說,Genspark是全球最早將MoA這一概念落地到消費級AI Agent產品中的團隊之一。而Genspark在2024年12月的宣傳視頻中則稱其為“world's first Mixture-of-Agents (MoA) system(世界首個MoA系統)”
簡單來說,MoA系統會讓多個專長不同的模型組成一個多腦協作體:比如,OpenAI模型負責創造性與自然語言任務,Claude負責邏輯推理與結構化生成,Gemini負責視覺與多模態感知。當然,實際工作中MoA的機制會更復雜。