Lazy loaded image
独家对话Manus肖弘:世界不是线性外推,做博弈中的重要变量
Words 3846Read Time 10 min
2025-3-12
2025-3-13
type
status
date
slug
summary
tags
category
icon
password
💡
反刍系列,即对他人输出内容的理解
把那些匆忙剪藏的内容拿出来再嚼吧两下,或许能品尝到不同滋味

1 关于 AI 产品变化的思考,模型应该会普通商品化

  1. Jasper :你要写一个marketing的文章,你要填空——听众是谁,主题是什么——填完之后帮你输出
  1. ChatGPT:把代码再复制粘贴到一个比如Python脚本再去运行,如果有bug还要再把报错报给ChatGPT
  1. Cursor: 本质上还是 chatbot,因为大部分人不会真的去关注代码写什么,但相较 chatbot 自带上下文 一个主线,它当然越来越符合人的习惯,而且能力越来越强大,而这种能力的强大是随着LLM能力外溢出来。 模型能力在快速进化,但是“那个壳”也需要进化。每一代模型能力进化之后,甚至不一定是原厂,是一个第三方厂商把它的用户可感知价值给呈现出来。 如果没有 Cursor,我相信 Claude 3.5 Sonnet,可能在 Claude 里面也能写代码,但就不会那么流畅。 我自己总结出来的定律叫做:“新时代的安迪比尔定律”,无论底座模型怎么提升,应用层都可以把他吃掉
    1. 安迪比尔定律 来源于安迪和比尔盖茨的一次对话,原文:Andy gives, Bill takes away 不管Andy Grove造了什么,他是Intel代表,Bill Gates就会吃掉它——Intel因为摩尔定律在,可能18月之后成本下降了、算力上升了,但18月之后Windows也会把它的能力吃掉。可能Windows更图形化,或者提供了更强大能力。
  1. 当然对于有模型的公司,我们是非常尊敬的。这一波主要进步是他们的创新和努力带来的。但这不是冲突的或者零和的,叫做“做应用”还是“做模型”的问题。 而是,即便是有模型公司在发展,也需要一些主要围绕用户视角、产品视角的公司去做一些工作。不是非此即彼的。

2 预判方向,提前布局

  1. 模型厂商自己很难做提前准备,原厂像ChatGPT,我感觉它在发布时不觉得自己会那么火;包括DeepSeek在发布时,我相信,这一切不是它预料的——原厂基本准备不足。
  1. 专业的或者应用厂商,总是在模型先发出来之后,PMF可能才完成。比如Cursor。它这个产品更早有,当时用的可能是OpenAI模型。
  1. 相当于是先在那里等着模型能力变强
  1. 可以开源一个创业idea:你预判下一个能力是什么,先把这部分应用给好好做好
[!NOTE] 小红做微信工具的时候已经验证了这个方法论,在微信封禁外挂广告之前提前做好布局,等待这一刻到来然后先发优势吃掉市场 但这一点其实很困难,尤其考验决策者,最近看《大空头》也可以感受到;你坚信自己对未来的判断没有错,但无法确定到来的时间点,在这个过程中你需要持续不断的投入,这不仅折磨自己,也折磨团队

3 模型厂商和应用层是否存在竞争

3.1 现状

  1. 今天我们看到所有国内、国外模型公司,都有自己的应用和开放平台的——基本都做了Chatbot和一个开放平台,第三方可以通过API调用它,这里有个事情是:我们对AGI的理解是什么?它应该还是有公共产品属性的,原厂应该不会什么事都做。
  1. 有巨多的事,它不会每个事都做。比如说特定行业的事,一般不会做
  1. 特别辛苦的事,它可能也不会做,或者说需要很多工程师的
  1. 有些当然可能有窗口期——比如长期看它会做,短期还没顾得上——这种事情在今天很考验创业者。有些人选择做,有些人选择不做
  1. 所谓窗口期复杂就复杂在——也许你做得很好,它就不做了——这不是逻辑推导出来的。你假定它一定会做,或者它一定不会做,都不一定。有可能真的在生态里面,有一个领头羊做得很好,可能原厂也就不会做了。
[!NOTE]
  1. 具体的业务不会参与,例如模型一般都会做翻译文本功能,但不会做具体的本地化工具,因为这还涉及到项目管理,权限管理,数据管理等其他工作
  1. 需要很多人力的不会做:绝大多数模型公司追求的是高尖团队,让这些人才去做具体产品太浪费了,但招募大量工程师也会影响公司管理,二者不兼容

3.2 用博弈的方式思考,而不是逻辑推断

  1. 第一,模型公司自己也会做应用。应用公司应该非常尊重模型公司。因为,大部分的能力或者说进展都是模型公司提供的。
  1. DeepSeek的出现,开源的出现,对大家冲击这么大,对应用公司来说应该更乐观。你真的是关注你的应用,关注use case、关注用户、关注增长,而不用担心哪一天模型厂商要一个很高的毛利,哪一天模型厂商决定要做你要做的事情,跟你形成竞争关系。
  1. 好好做技术,好好做产品,市场会奖励。
  1. 我觉得founder还有一个思考模型叫做“用博弈的方式思考”,博弈不是说零和或竞争,而不是“用逻辑推理的方式思考”。逻辑推理就是,比如,百度有最好的算法工程师,百度一定会把推荐这件事做掉,这叫逻辑推导。博弈的方式思考就是,因为你的出现和其他player的出现,可能使得整个环境不一样了。
[!NOTE]
  1. 如果真的要入局,那么就要把自己当做变量的一环
  1. 很多 timing 只能等待,但竞争格局是可以靠个人来博一个变化的

4 DS 相关思考

  1. By the way,在所有人中,我感觉DeepSeek对要不要做Chatbot,反而是最佛的,它是在12月份才有自己的App,更早有网页版。你看它的App,会觉得真的“套壳”——只是把模型能力用一个最简单的基础的“壳”展示出来。
  1. 另一个角度:如果(DeepSeek)没有做这件事,这次影响和传播不会那么大。因为很多用户是用上了、看到了它的App,看到思考过程,有巨大用户体验提升,又导致大量传播——但这一切是意料之外。
  1. 今天大家可能也会想,开源火了,要不要开源?要不要构建技术品牌?各种各样的思考。但最重要的是,DeepSeek一直按自己的节奏在做——Be Yourself!
  1. Perplexity的CEO发了一条推特说,在AI时代有两个巨大体验创新:一是,Perplexity把这句话从引用哪个网页标注出来,增加结果可信度。二是,把LLM思考过程展示出来。
  1. 它把技术上的创新点,以一个用户可感知的方式展示了出来,而且这个展示不仅是产品层面展示,比如免费,可能一般你不会把它当做一个产品策略,而是一个商业化或经营策略。OpenAI不放出o1思考过程,可能没有那么用户导向——它在想别人拿到这个就可以去训模型了——会有一点竞争(思维)。
[!NOTE]
  1. 模型厂商做Chatbot 主要目的不是为了盈利,而是能展示自己模型能力
  1. 不要应激,按自己节奏来
  1. 开源的影响力远超人们想象,不只是让其他人能用,更重要的是产品心态上,坦坦荡荡,一往无前

5 产品形态思考

5.1 我们应该有个虚拟机

  1. 我们在开发Monica的过程,就是给它做了一大堆API,把各种各样API都往上接。但你有没有发现——这个事情很像做功能机——功能机就是,诶,用户需要这个?好!当时的手机厂商就专门做一个feature phone。Feature phone的感觉就是,一个一个feature加起来的phone。
  1. 但真正的Agent,应该是自己能写代码,调用API并执行。它能搞定很多长尾任务,而且不需要开发者自己写,这才是符合大家对Agent的想象。
  1. Red,极致是不够的,个性化才够——做到极致你就是hao123,做到个性化你才是Google。这是非常具有启发意义的一句话,我们花了很多时间研究。
  1. 有一天我在用Windsurf的类似YOLO模式,我发现,我给它说一个问题,它说,好,我现在去Github上下这个代码去搞一个什么事情,然后再去写——那一瞬间我就被闪电击中一样的感觉!——它居然在用工具,而且会用人类工具。
  1. 所谓Agent应该是,能解决长尾需求,能调用各种各样工具。最好被调用的工具,当然就是存量代码和它自己编写代码,通过API去搞定事情
  1. 有个人问比尔盖茨:为什么Windows跟我谈,说这个东西打开可能会危害电脑,yes or no?靠!你微软都不知道,我一个普通用户怎么会知道?
  1. 所以我自己觉得,那个架构叫做一个虚拟服务器、一个浏览器,能够自己写代码去调用API,它就能胜任各种各样长尾任务——这是我们在做的事情。
[!NOTE]
  1. Hao 123 是一个静态网站,能解决的事情很多,但始终有限;google 是一个动态的搜索引擎,不仅能帮你找到常用网站,还能根据你的搜索词提供全球范围内的信息,甚至包括你从未想到的资源。它的算法会根据你的历史行为推荐个性化结果
  1. 长尾需求之所以被称为长尾,是因为这种“需求”是动态的,比如,你搜索“如何修理自行车轮胎”,Google会给你教程、视频和附近修车店的信息。
  1. 因此 Manus 采用了自主编码的形式,而不是 MCP 接入 api 的形式
  1. 如果需要编码那就需要一台虚拟机,保证服务稳定性的同时,降低对用户的干扰
  1. 结合上述:满足用户主流+长尾需求,有一台虚拟机,进而达成对用户真正的解放

5.2 应该是异步的

  • 所以今天的 Chatbot,都是同步的。还有一些朋友会用一个描述叫“瀑布式的”,就是 A-B-A-B。但人类聊天不这样。你发一条消息给我,可能我过很久才回,在过很久回的过程中,你又给我发两三条消息,我一起回你几个 topic。或者某位同事说要做一件事,做到一半我发现搞错了,我跟他说搞错了我重来。
  • 它会告诉你它要干哪几个事,接下来就是干那几个事,有进度会告诉你——这是我们对最美好实习生的幻想
  • 如果你刚才说去搞定这个事,他说:好,我会这么做,每一步有结果之后都同步给你。而且中途你可以跟他说:哦,我当时的需求错了,你能不能再这样?他说:好,我改变一下,最终要完成产出我再给你;这是我们在做的,会更像人类。
[!NOTE]
  1. 这点很像之前谈到的社交类产品,发布朋友圈的形式,AI 给你不定期回复
  1. 异步很像人类,但像人类就一定是好的吗?暂时还没有想通这点
  1. 其实这里的关键不在于像不像人类,而是在于有些复杂工作就是需要时间,就行模型要变聪明就得要输出思考内容
  1. 时间拉长,从产品体验上就必然要做成异步,不能让用户一直等在这里
  1. 换个思路,人类之所以会是异步,会不会是因为人类效率太低了呢?如果真的有个全知全能的上帝可以瞬时解决问题,那还需要异步吗?(笑)

5.3 模型的长程规划能力

  • 今天我们测试全世界只有Claude Sonnet 3.5,能够把我们刚刚所说的架构跑起来——我们内部管这个叫Agentic(独立行动并自由做出选择的能力)的能力。
  • 传统Chatbot的对齐方式,在训的过程中,就是假设一轮对话要尽可能解决你的问题。所以大家训模型都是按这样教它。但我们测试下来只有Anthropic的Claude Sonnet 3.5,有长程规划能力和逐步解决问题的能力。
[!NOTE]
  1. 感觉这是模型训练的一个通病,只关注本轮中用户提出的问题,然后作出回答;但人的思考方式会更长远一些,推测你背后的意思,猜你后面要说什么,然后提前处理
  1. 但反过来想,如果把做计划当做一项工作,长期和短期的差别到底在哪呢?
 
上一篇
虚幻的手:Manus评测与分析
下一篇
DS-R1技术原理介绍