在人工智能领域,一场颠覆性的变革正在悄然酝酿。一家名为Unconventional AI的初创公司,凭借其独特的定位和强大的创始团队,在种子轮融资中斩获4.75亿美元(约合33亿元人民币),投后估值飙升至45亿美元(约合318亿元人民币),一举创下AI芯片领域早期融资纪录之一。这一惊人的融资成果,不仅远超常规种子轮水平,甚至超越了多数初创企业的C轮融资规模。
此次融资由Andreessen Horowitz(a16z)和Lightspeed Venture Partners共同领投,Lux Capital、DCVC等知名投资机构也纷纷加入。值得一提的是,Rao的前雇主Databricks以及亚马逊创始人杰夫·贝索斯(Jeff Bezos)也参与了本轮投资,Rao本人更是按与其他投资者相同的条款,投入了1000万美元。而且,这笔融资只是Unconventional AI更大规模融资计划的第一步,公司计划后续融资总额可能高达10亿美元。
一家成立仅数周、尚无产品的初创公司,为何能获得如此巨额的融资和众多资本的青睐?答案或许就藏在其豪华的创始团队中。公司由前Databricks人工智能主管Naveen Rao牵头创立,联合创始人包括麻省理工学院副教授Michael Carbin、斯坦福大学助理教授Sara Achour以及前谷歌工程师MeeLan Lee。他们的专业背景覆盖硬件、软件和神经科学领域,为技术的理论研究和落地应用构建了完整的能力链条。
Rao的创业履历堪称硅谷AI芯片发展的生动缩影。他对AI计算的探索始于25年前,9岁时便对类脑计算产生浓厚兴趣,通过观察动物行为思考大脑的信号转化机制。1997年从杜克大学毕业后,他于2011年获得美国布朗大学神经科学博士学位,博士后期间专注于大脑信息编码研究,为日后投身人工智能领域奠定了坚实的神经科学基础。
博士毕业后,Rao加入高通担任神经形态研究员,但因公司战略侧重于智能低功耗计算,拒绝将其研究成果产品化,他于2014年选择离职并开启创业之路。同年,他与Uber首席执行官的堂兄弟Amir Khosrowshahi、布朗大学的博士同学Arjun Bansal联合创立了AI芯片公司Nervana Systems。Nervana的核心产品是一款专为神经网络设计的处理器,旨在通过自定义架构加速AI训练过程。公司成立两年内迅速完成三轮共超过2400万美元的融资,主要投资方包括DFJ、Data Collective、Lux Capital等风投机构,以及“安卓之父”安迪·鲁宾(Andy Rubin)的孵化器Playground Global。2016年,成立仅两年的Nervana被英特尔以约4亿美元的价格收购,Rao进入英特尔高层,推动其在AI芯片领域的布局。
在英特尔工作数年后,Rao再次选择创业。2021年初,他联合前同事在硅谷创立MosaicML,聚焦生成式AI工具平台,为企业提供大语言模型训练与部署服务,降低AI开发门槛。尽管团队仅约60人,但凭借技术优势快速崛起,在被收购前的最后一轮融资后,估值已达2.22亿美元。2023年6月,Databricks宣布以13亿美元的全现金交易收购MosaicML,Rao随即加入Databricks担任AI负责人,领导多项生成式AI工具的开发,包括优化Spark框架对Transformer模型的支持。
这些丰富的经历让Rao积累了从硬件设计到软件生态的全栈能力,也让他深刻感受到传统GPU在AI扩展中的局限性。AI训练的电力需求已接近全球数据中心总能耗的2%,而目前英伟达主导的GPU架构难以从根本上缓解这一问题。无论是被英特尔收购的Nervana,还是成为Databricks一部分的MosaicML,其技术演进仍被框定在现有的数字计算范式之内。Rao越来越确信,要突破能效墙,必须进行更底层的革新。
2025年10月,Rao离开Databricks,组建Unconventional AI,将公司定位为“下一代数字计算机”的开发者,借鉴神经科学原理设计模拟芯片。这一决定并非一时冲动,而是基于他过去十年的观察与思考。
Unconventional AI的核心是重新设计AI计算的底层硬件架构,开发专为人工智能工作负载优化的高能效模拟计算芯片及完整配套系统。当前,整个行业普遍信奉“扩展定律”,认为更多的计算能力、数据和更大的模型将直接带来AI能力的飞跃。但Rao指出,若需求持续增长,计算资源和能源供应将面临难以逾越的瓶颈。问题的根源在于,当前驱动AI的GPU等数字芯片,其精确、确定性的计算方式,与AI任务本身概率性、非确定性的本质并不完全匹配,从而造成了巨大的能效浪费。
对此,Unconventional AI提出了双管齐下的“非常规”路径。一方面,向生物智能寻求终极能效蓝图。人脑能够完成极其复杂的工作,而功耗仅约20瓦,相当于一个昏暗灯泡的能耗。Unconventional AI的目标并非复制人脑,而是借鉴其高效利用能量的原理,追求“生物规模的能源效率”。另一方面,重拾模拟计算路径,发挥半导体固有物理特性优势。数字计算机基于经典的冯·诺依曼架构,其精确、确定性的计算方式与AI随机、概率性的本质并不完全匹配。而早期的模拟计算机(如ENIAC)非常高效,只是受限于当时制造工艺的不稳定性而无法扩展。Unconventional AI则探索利用半导体材料本身的物理特性来直接进行计算,如同用风洞模拟气流绕过飞机一样,让物理系统直接“成为”计算本身。Rao认为:“模拟本质上仍然更高效。你实际上是在利用底层介质的物理特性进行计算。”这一方法能显著降低能源消耗,同时提升计算的适应性,使计算机在处理AI任务时更高效。
Unconventional AI的技术路线图既充满雄心又脚踏实地。公司计划花费五年时间开发一种新型模拟芯片,第一个原型芯片“很可能是有史以来最大的模拟芯片之一”。在研发策略上,公司采取开放探索的态度,未来几年将测试一系列想法和原型,以确定最高效、最具可扩展性的范式。这种探索不仅需要工程师,还需要能够思考如何构建耦合系统的理论家。与追求快速商业化的初创公司不同,Unconventional AI专注于长期的基础研究,目标是成为一家真正的系统公司。目前公司仍处于原型设计和验证阶段,短期内预计不会有产品上市。其商业模式建立在彻底改变AI计算基础设施的愿景之上,如果成功,将可能从芯片设计、计算架构到能源模式,全方位颠覆现有硬件生态。
在AI领域,过去近十年的重大突破主要由少数前沿实验室推动,如OpenAI、DeepMind和Anthropic等。它们依托数百亿美元资本与海量算力,遵循“扩展定律”提升通用AI能力。然而,这一范式也暴露出高成本、高能耗与路径趋同等问题。2025年7月的一项元分析研究显示,在可验证的实验中,仅39%的任务表现出稳定的线性缩放关系,其余61%呈现非线性、非单调或完全不可预测的行为。多项研究已确认“逆扩展现象”,即模型规模增大后,部分任务性能反而下降。英伟达CEO黄仁勋在2025年3月GTC大会上也表示,单纯靠堆算力、堆电力的传统路径已经走到极限,未来必须转向推理强化、代理式AI和合成数据等更高效的迭代方式。行业共识逐渐形成:“扩展定律”本身没有失效,但“只靠规模”的单一路线已不可持续。
于是,一种名为“Neo-Lab”(新生代实验室)的新研发范式开始兴起。这些实验室由从OpenAI、DeepMind、Anthropic等AI巨头出走的顶尖研究员创立,专注于高风险长周期基础研究。它们没有成熟产品甚至没有明确营收路径,却在种子轮就能斩获数十亿乃至数百亿美元的估值。它们不再追逐规模竞赛,转而探索智能本质、神经形态计算或高效推理等基础方向,试图从根源上重构AI发展路径。类似的企业还有前OpenAI首席科学家Ilya Sutskever创立的SSI(Safe Superintelligence Inc.),专注于安全超智能研究,至今未发布任何公开产品,但估值高达320亿美元;前OpenAI CTO Mira Murati创立的Thinking Machines Lab,在仅推出一个初步开发者工具“Tinker”的情况下,估值已达100亿美元。
在这种背景下,Unconventional AI的45亿美元估值便不难理解。资本押注的已不是短期的产品路线图或财务报表,而是创始人Rao及其团队本身,更具体地说,是Rao那被两次成功创业验证的卓越判断力与执行力,以及该团队挑战行业根本问题的抱负。投资方a16z在官方博客中直言,他们投资的是“一家旨在为人工智能构建更高效计算基础的公司”。这种逻辑意味着,像Rao这样拥有连续成功创业履历的创始人,其信用本身已成为一种硬通货。资本用巨额资金购买的,是他们“用履历兑换一个不一样未来”的可能。在这个赛道,传统商业逻辑或已暂时失效,取而代之的是一场基于创始人认知与声誉的押注。Unconventional AI的项目才启动两个月,其技术路线是否能在五年内实现量产、最终能否改变AI基础设施的能耗结构,仍需后续验证。但这轮巨额融资本身已表明:在扩展定律边际效应递减、电力成为新瓶颈的背景下,市场或许更愿意为系统级、基础性的计算创新支付高额溢价。













