李志飞的 AI 实验:1 个人,2 天做出 AI 时代的「飞书」,重拾 AGI 信仰(6) / BTC123 | 区块链信息行情第一站

李志飞的 AI 实验:1 个人,2 天做出 AI 时代的「飞书」,重拾 AGI 信仰(6)

06-29 , 14:27 分享新闻

智能的第二个本质,我认为是递归。

递归是一种「分而治之」的思想:一个复杂问题被拆解成更小的、相同类型的问题,直到它们可以被直接解决(即「基本情况」)。

例如,计算斐波那契数列的第 99 个数,就是依赖于第 98 个和第 97 个数,直至追溯到初始的 F0 和 F1。

若 Agent 要实现真正的智能,它也应具备递归架构。例如,一个接收「赚 500 万」这样宏大任务的 Agent,会逐步将其分解为具体的子任务:分析商业机会、搭建网站、制作视频、集成支付、社交媒体推广等。每个子任务最终都能追溯到可执行的「原子 Agent」。

这种递归架构的关键在于实现自我繁衍。就像人类文明的传承依赖于一代代人的探索与知识积累,Agent 亦应如此。更重要的是,Agent 必须具备修改自身源代码的能力。

这与当前 Agent 仅仅调整计划不同,它意味着 Agent 能够像修改自身基因一样,根本性地改变自身运行逻辑。

我相信,如果一个 Agent 能够:

  1. 持续执行并优化其计划。

  2. 在遇到无法解决的问题时,自主修改其核心源代码。

  3. 最终通过这种机制形成知识库,甚至能够反向修改大型模型本身。

那么,这将是通向通用人工智能(AGI)至关重要的一步。

这并非科幻。以前我特别不喜欢讨论什么超级智能之类的东西,而是我在与大模型的深入探讨后,我突然觉得这完全是有可能实现的。

另外,真正的 AI 源代码可能极其简洁,核心代码也许不超过百行,但其中蕴含着多层递归,使其能在不同环境中探索、学习反馈并自我迭代。

我曾有过信仰崩塌。2023 年我有了 AI 信仰,但做了一段时间,主要是因为没有资金支持,觉得烧不起,所以就放弃了。去年,别人跟我讲 AI,我都不想听。

但最近我重新找到了对 AI 的信仰,甚至信仰了 AGI,信仰了超级智能。这是一个难以想象的转变。我希望我对这份信仰能够这次持续更久一点。

个性化环境与上下文的重要性

那么,除了大模型之外,最重要的是什么?最重要的是你要有个性化的环境和 Context(上下文)。

以我的创业为例,我之前做了一个智能硬件,结果小米把价格拉到我们十分之一。我做大模型,结果所有大厂都进来了。你每次获得这种反馈之后,就让你放弃这种东西,或者你就不停地调整你的 Plan。

如果在美国,我做了一个大模型,我可能就被 Google 收购了,赚了很多钱。或者我做了一个硬件,我可能被苹果收购了,赚了很多钱。所以这种反馈一定会造就你这个人的行为是完全不一样的。同样一个创业者,同样的智商,在中国和美国不一样的创业环境下,得到的反馈不一样。最后你的行为,你的思考模式就会完全不一样。这就是我想说的,什么是个性化的环境,个性化的上下文。