在人工智能领域,端侧模型与小模型的兴起正引领一场技术革新。
近年来,科技巨头如meta、微软和苹果等纷纷推出了一系列小模型,如Llama-3、Phi-3和OpenELM等,这些模型以其小巧的体积和高效的性能吸引了业界的广泛关注。然而,在这场技术浪潮中,一家名为Multiverse Computing的初创公司凭借其独特的“量子瘦身”技术脱颖而出。
Multiverse Computing成立于2019年,起初专注于量子计算软件在金融领域的应用。凭借其深厚的技术积累,Multiverse很快便在量子计算领域崭露头角,被Gartner评为“Cool Vendor”,并获得了欧盟加速器EIC的资金支持。然而,真正的转折点出现在2023年,当生成式AI爆发,大模型参数规模激增,算力成本飙升成为行业痛点时,Multiverse凭借其量子张量网络技术,找到了破解这一困局的关键。
Multiverse的核心技术CompactifAI,是一种基于量子物理张量网络方法的模型压缩技术。不同于传统的量化、蒸馏技术,CompactifAI通过融合张量分解、矩阵低秩近似等复杂数学技巧,从模型底层重构参数逻辑,实现了模型体积的大幅压缩,同时几乎不损失性能。据Multiverse介绍,CompactifAI通常能将模型体积缩小80-95%,而准确率只下降2-3个百分点。
凭借CompactifAI技术,Multiverse迅速在AI效率赛道上崭露头角。2024年3月,Multiverse完成了2500万欧元的A轮融资,一年多后B轮融资更是直接冲到1.89亿欧元,估值飙升至5亿美元,一跃成为西班牙最大的AI初创公司之一。2025年8月,Multiverse更是发布了两款号称“史上最小且高性能”的模型——SuperFly(苍蝇脑)和ChickBrain(小鸡脑)。这两款模型分别以动物大脑体积命名,SuperFly基于开源SmolLM模型压缩而成,仅含9400万参数;ChickBrain则由meta的Llama 3.1系列8B模型压缩成3.2B参数,却具备一定推理能力。
CompactifAI技术的商业价值显而易见。它不仅能够大幅降低模型推理成本,提高推理速度,还能让此前只能在昂贵服务器上运行的AI模型进入“平民设备”时代。Multiverse声称,其部分精简模型“小到可以在PC、手机、汽车上运行”。这一特性迅速吸引了全球硬件巨头的关注,据透露,Multiverse目前正与苹果、三星、Sony、HP等洽谈合作,计划将这类超小模型嵌入下一代终端设备。
然而,尽管Multiverse在AI效率赛道上取得了显著成果,但竞争也在日益加剧。自2024年起,科技巨头纷纷下场小模型领域,推出了一系列高性能的小模型。初创公司如Neural Magic、Deci等也在争抢这一市场,聚焦模型加速、自动选型等方向。面对如此激烈的竞争环境,Multiverse需要不断巩固其技术壁垒,以在市场中保持领先地位。
尽管Multiverse目前主要围绕已有模型进行压缩,而非自己训练小模型,但其在模型压缩领域的技术积累仍然值得肯定。然而,未来Multiverse若想在端侧模型上建立自己的生态壁垒,或许需要与硬件厂商建立更紧密的合作。同时,如何在保持模型压缩效果的同时,提升模型本身的能力,也是Multiverse需要面对的挑战。