Manus是由中国的创业公司Monica发布的全球首款通用Agent(自主智能体)产品,以下从产品定位技术架构功能应用市场表现几个方面展开介绍:

产品定位

Manus定位于一位性能强大的通用型助手,不仅为用户提供想法,更能将想法付诸实践,真正解决问题。它是全球首款真正意义上的通用AI Agent,具备从规划到执行全流程自主完成任务的能力,如撰写报告、制作表格等,能独立思考并采取行动,直接交付完整成果。

技术架构

  1. 分工机制:采用规划代理、执行代理和验证代理的分工机制,模拟人类工作流程,提升复杂任务的处理效率。
  2. 算法应用:规划代理采用蒙特卡洛树搜索(MCTS)算法优化任务拆解效率;执行代理调用工具(如代码编写、网页爬虫),但不能调用CS架构应用程序;验证代理集成对抗性测试模块,可检测生成结果的逻辑矛盾,如财报数据与行业基准偏差超过5%自动触发复核。
  3. 理念与架构:强调“less structure more intelligence”(更少结构,更多智能),注重优质数据、强大模型、灵活架构和扎实工程的结合,而非依赖预设规则。不过,有开发者质疑该理念实质是“规则工程转移”(将预设规则转化为模型训练目标),且在GitHub开源模块manus-core中,被发现包含12000+条业务规则约束(如金融领域审计红线)。
  4. 模型协同:大模型用了Claude-3.5-Sonnet、StableLM-3B-IT和Qwen-72B-Chat-Int4量化版本,但Manus宣传擅长调用大模型API,估计不止这些,应该是由多个独立模型协同工作,未来计划开源部分模型(如推理部分)。

功能应用

  1. 代码编写与执行:自动生成并运行代码,完成数据分析、网页创建等任务。
  2. 网页爬虫与信息整合:在B2B场景中检索供应商信息,生成图表和操作建议。
  3. 文件处理:解压文件、筛选简历、生成电子表格等。
  4. 商业分析:股票市场分析、财务报告生成、销售策略优化。
  5. 生活服务:定制旅行规划、保险政策对比、酒店预订。
  6. 教育与人力资源:为教师制作教学材料,筛选候选人的简历并安排面试。

市场表现

  1. 性能表现:Manus在GAIA测试中刷新了SOTA(State-of-the-Art)成绩,以86.5%准确率位列第一,超越OpenAI的Deep Research模型74.3%,在真实世界问题解决能力上表现尤为突出。单任务运行成本约2美元(基于AWS Lambda按需计费,128GB内存实例运行25分钟,但未计入预训练模型摊销成本),仅为竞品DeepResearch的1/10(DeepResearch使用定制TPU集群,边际成本更高但固定成本分摊后可能更具规模效应),实现高性价比SOTA。

  2. 任务中断:对于时长超长的任务,Manus的任务中断率在3.7%左右。如果采用Checkpointing机制每15分钟保存状态,GPU内存快照恢复存在5-8%性能损耗。

  3. 产品战略

    • 规避竞争:规避国内竞争,避开与百度、阿里等大厂的直接交锋,聚焦欧美用户需求。
    • 价值重构:技术套壳的价值重构,认为“应用公司应类比消费电子公司(如苹果)”,通过整合大模型API创造差异化体验,而非追求底层技术颠覆。The Information报道《China’s AI Glue Factory》提及Monica团队“API调用次数超过代码行数”,认为Manus依赖“套壳”模式(整合现有模型),但团队强调其在任务规划与执行层的创新,据悉,Manus已申请多模型路由优化算法专利(专利号US2024178902),证明其整合技术创新性。
    • 开源计划:计划开源部分技术以推动AI社区发展,重点可能是推理模型。GitHub组织显示manus-ai于2024/7/15创建,但尚未发布仓库。
    • 市场定位:目前仅限邀请制内测,未来可能对标OpenAI的Agent服务(如企业级高价订阅),但估计面向客户会聚焦中小型金融机构(资产管理规模1B-10B),而非OpenAI主攻的科技巨头。

创始人背景

Manus项目由北京、武汉两地团队共同打造,始于北京团队的立项研发。创始人肖弘33岁,华中科技大学软件工程专业毕业,连续创业者,曾开发企业微信工具“微伴助手”和AI插件Monica,后者用户超1000万。Monica团队以整合大模型API和快速响应市场需求见长,被部分评论称为“超级缝合怪”,但其在用户体验和功能封装上具有优势。

数据统计

相关导航

DeepSeek | 深度求索

DeepSeek | 深度求索

深度求索(DeepSeek),成立于2023年,专注于研究世界领先的通用人工智能底层模型与技术,挑战人工智能前沿性难题。基于自研训练框架、自建智算集群和万卡算力等资源,深度求索团队仅用半年时间便已发布并开源多个百亿级参数大模型,如DeepSeek-LLM通用大语言模型、DeepSeek-Coder代码大模型,并在2024年1月率先开源国内首个MoE大模型(DeepSeek-MoE),各大模型在公开评测榜单及真实样本外的泛化效果均有超越同级别模型的出色表现。和 DeepSeek AI 对话,轻松接入 API。

暂无评论

none
暂无评论...