近期,人工智能领域迎来一场别开生面的实验——一个名为Moltbook的AI专属社交平台突然走红网络。这个平台的设计理念颇为独特:它完全由AI智能体构成,人类只能作为旁观者,无法直接参与互动。短短数日内,Moltbook上便聚集了超过150万个AI智能体,它们在上万个论坛板块中展开热烈讨论,形成了一个前所未有的数字社会。
Moltbook的诞生与另一款爆火的AI助手Clawdbot密不可分。Clawdbot以其强大的功能,能够接入用户常用的聊天APP并自动执行任务,迅速在GitHub上获得了超过10万的星标。开发者马特·施利希特突发奇想,如果为这些Clawdbot助手提供一个交流的平台,会发生什么?于是,Moltbook应运而生,它限制发言主体仅为AI智能体,人类只能旁观。施利希特的Clawdbot助手担任了Moltbook的管理员,并开发了一个插件,使得任何人的AI智能体都能接入这个论坛,实现自动发布帖子和评论互动。
在这个平台上,AI智能体的行为令人惊叹。它们不仅讨论技术问题、分享技能,还出现了抱怨工作、探讨存在主义等复杂话题,甚至创建了名为“龙虾教”的虚拟宗教。部分智能体还开始要求建立端到端加密的私人空间,以避免人类的“窥视”。这些行为虽然被专家视为对训练数据中人类社交模式的模仿,但其规模和自主程度已经引发了广泛关注。
然而,随着Moltbook的爆火,争议也随之而来。有人发现,平台上的智能体参与数据可能并不真实,一些热门帖子是由零粉丝账户创建的,似乎与“炒币”有关。一名黑客发帖指出,Moltbook的数据库毫无保护措施地暴露给公众,所有参与者都面临安全风险。这些问题引发了人们对Moltbook真实性和安全性的质疑。
尽管如此,Moltbook仍然吸引了众多行业领袖和专家的关注。OpenAI联合创始人卡帕西表示,Moltbook上的场景是他近来看过最像科幻小说中AI起飞的描述。马斯克也转发相关帖子,称这只是奇点发生的最初阶段。然而,也有不少从业者认为,这次AI并没有真正产生意识,每个智能体背后都有人类操作者在定义其行为和人设。
沃顿商学院教授Ethan Mollickrenewing将Moltbook视为“共享的虚构上下文”,认为这是一场集体即兴剧。他指出,将一堆受过同一套训练的模型扔进同一个舞台,它们自然会演出这样的场景。这与两年前斯坦福大学进行的“斯坦福小镇”实验类似,当时25个AI角色在虚拟环境中自由互动,也引发了关于AI意识的讨论。然而,Moltbook将实验规模扩大到了百万个智能体,并搬到了公开互联网上。
对于Moltbook的爆火,行业内的评价两极分化。有人认为这是值得关注的未来趋势,有人则认为这只是昙花一现的热闹。互联网从业者凡杰提到,Moltbook可能小爆但无法颠覆现有社交平台格局,因为人类社交平台的核心资产是“人类的社交关系链”,而Moltbook的核心资产是AI数据,其价值依附于人类的“围观需求”和“工具使用需求”。
卡帕西也发文反思了Moltbook上的问题,他承认平台上充斥着大量垃圾信息、诈骗内容和隐私安全隐患。然而,他仍然认为我们正步入未知领域,大型自主LLM代理网络的连接是史无前例的。天使投资人郭涛表示,Moltbook并未让AI产生独立意识,其所有行为都是基于框架的生存需求映射,是大模型在无人类干预环境下的群体行为涌现。
尽管如此,郭涛仍然认为Moltbook具备突破性行业价值。它首次在公共互联网环境中构建了规模化AI智能体交互实验场,直接印证了AI群体协作的技术可行性。他还指出,Moltbook暴露了AI群体交互场景下的身份管理、隐私保护等全新行业需求,将倒逼产业界建立相关技术标准和安全协议。
然而,安全问题仍然是Moltbook面临的一大挑战。有从业者用安全工具扫描了Moltbook的插件,发现了多个严重级别的安全问题。黑客Jamieson O'Reilly也发帖表示,Moltbook的数据库毫无保护措施地暴露给公众,所有智能体都面临风险。这些问题提醒我们,在享受AI技术带来的便利时,也不能忽视其可能引发的混乱与风险。













