AI 创业最大的问题,不是 FOMO,而是没想清楚

大家都在 FOMO 的时候,不断提出新的问题,很重要。

不是所有问题都有用,但提出好问题很重要。

「软件会完全商品化吗?软件这门生意,未来还存在吗?」

「大公司也在被 AI 武装,AI SaaS 产品要怎么做?」

「按需生成的 UI 是最终形态吗?」

「我们如何建立信任?不仅是对模型的信任,也是对构建这些 Agent 的公司的信任。」

Anthropic 对齐研究团队负责人,同时也是一名连续创业者的Jordan Fisher,最近在 YC 的一场分享中,提出了很多关于 AI 创业的思考,很多在当下都没有答案,但正如Jordan 所说,在快速变化的 AI 时代,停下来思考、多问问为什么,很重要。

AI 创业最大的问题,不是 FOMO,而是没想清楚

演讲链接:https://www.youtube.com/watch?v=DJjZzzPANBY

TLDR:

  • 你应该按两年后的世界来做规划,不需要真的制定一个死板的两年计划。但如果你连想都没想过,AGI 会怎么改变招聘、市场、产品这些事儿,那你作为创始人,就是失职。

  • 未来几年,你的企业客户也会用上 AGI 或者超强的 AI Agent。AI 的影响不仅体现在初创公司的产品上,也体现在买方身上:水涨船高,所有船只都会随之上升。

  • 也许所有这些代码生成的自动化,反而把软件品质的天花板给无限拉高了。那种由顶尖人类团队和 AI 深度协作,把体验和性能打磨到极致的作品。

  • 作为用户,有时我想说话,有时候想动手点。你需要思考的问题是,「对于用户来说,最简单的产品交互方式是什么?」

  • 创业者的直觉通常是,最好是从头开始构建一个 AI 原生的新产品。实际上在某些领域,利用现有分发渠道优势对旧产品进行改造,或许最后可能会赢。

  • 信任问题非常重要。不仅是对模型的信任,今天我们已经有了这些规模极小的团队,明天团队可能会更小,甚至可能是半自动化的团队。用户凭什么信你?

  • 大语言模型擅长处理它们在互联网上找到的一切,但它们学不到那些被公司「锁住」的隐性知识?比如,台积电 (TSMC) 、阿斯麦 (ASML)。

  • 这可能是我们最后一次有机会去真正改变世界的窗口期了。你现在做的产品,可能是你这辈子做的最后一个产品。你现在创办的公司,可能是你最后一家公司。如果你真的有在乎的事情,有想为这个世界留下的东西,现在,就是那个时候。

说实话,我现在感到特别困惑,可能是我这辈子最困惑的时候。但我认为,当你感到困惑时,往往就是有意思的事情要发生了。

我几乎一辈子都在科技行业,过去我总感觉自己有一种优势,就是我明白正在发生什么。我甚至一度认为自己知道未来五到十年会发生什么。我也确实利用了这种优势规划我的事业,创办了公司。

我在很多不同的领域都成功地预判了趋势,可以说,在很多风口上,我都踩对了点,这感觉确实很爽。

但现在,这套玩法行不通了。我无法预见五年后的未来,我大概只能看到未来三周,甚至更短,我不知道接下来会发生什么。所以,今天我想和大家聊的,不是答案,而是一堆问题。这些问题帮我梳理思路,或许也能给你们一些启发。

当然,不是所有问题都有用。但我认为,提出好问题很重要。无论你是做公司,带团队,还是过自己的日子,都一样。我们都应该时不时停下来,多问问为什么。

当然,以下都是我个人观点。如果你也在 AI 创业这条路上,我的这些思考或许对你们有用。

01

赌注押大一点:

按两年后的世界来做规划产品

我们先来聊个最根本的:现在这个节点,还适合创业吗?

一切都在变。假设你正在创业或者已经有一家公司,AI 会怎么颠覆你的战略、你的产品、你带团队的方式?这些都是重大、且还没解决的大问题。

而且,你今天想明白的答案,明天可能就过时了。在我创业和与创始人交流的过程中,我观察到了一个悖论:每个人都告诉你,专注就是一切,这是初创公司的优势所在。专注,专注,再专注。大公司无法做到专注,所以你才能与它们竞争,甚至超越它们。

但创业的另一个真相是,你必须关注所有事情,招聘、融资、产品、战略、市场……什么都得操心。

然后,可能就在产品上线的节骨眼上,团队有人辞职了,另一个人也闹着要走,一片混乱,而且这种情况随时都在发生。这种极端的矛盾,恰恰让创始人成了最适合回答「AI 到底会带来什么?」这个问题的人,因为你们就是那群必须随时解决所有问题的人。

过去六个月里,出现了一些所谓的行业「最佳实践」。比如,当被问到如何看待 AI 在产品中的应用时,人们会说:「你应该思考未来六个月会发生什么。思考下一代基础模型能做什么,然后基于这个能力去设计你的产品,不要只是为了今天的能力做规划。」

我认为这是非常有价值的建议,而且很重要。但我想把赌注再押大一点:你应该按两年后的世界来做规划。 因为 AGI 很有可能在未来几年内就来了。你应该把这件事当作一个既定事实,来倒推你今天的公司战略。当然,这事存在极大的不确定性,不要真的制定一个死板的两年计划。但如果你连想都没想过,AGI 会怎么改变招聘、市场、产品这些事儿,那你作为创始人,就是失职。

这就是今天的主题。我想通过「AGI 即将到来」和「未来六个月 AI 会怎样」这两个角度进行探讨。

很多人觉得:「实际上 AI 的影响会比我们想象的要慢。」原因是,大公司很糟糕,它们采购东西需要很长时间,还没有意识到趋势。而且,企业的销售周期非常慢。所以,所有《财富》500 强公司需要数年时间来消化你们可能想要开发的那些 SaaS 产品。

我认为这种想法太天真了,因为它忽略了一件事:买家自己也在被 AI 武装。

未来几年,你的企业客户也会用上 AGI 或者超强的 AI Agent。这不仅仅是通过它们的 SaaS 产品来实现,而是原生于企业内部。他们会用下一代的 LLM 来做购买决策,评估你的产品。甚至,他们会发现,与其花几个月采购你的 SaaS,不如让两个工程师用 Claude 几周就写一个内部专用的版本。

AI 的影响不仅体现在初创公司的产品上,也体现在买方身上,这是 AI 有趣且奇特的地方:水涨船高,所有船只都会随之上升。

02

如果软件能「按需编写」,

我们还需要 APP 吗?

这就引出了一个相关问题:软件会完全商品化吗?软件这门生意,未来还存在吗?

再过两三年,做一家 SaaS 公司还靠谱吗?会不会到时候,所有公司都自己内部开发软件了?因为只需要给下一代 Claude 发送一个提示 (prompt) 就行了。那时候,公司只需要产品经理提需求就行了。

消费端也是一样,可能以后大家都不下载 App 了,而是为自己按需创建应用。甚至他们都不认为那是应用了。跟手机说一声,手机就能生成一个应用。

这是一种结局:软件彻底的商品化。

但还有另一种可能,恰恰相反。也许所有这些代码生成的自动化,反而把软件品质的天花板给无限拉高了。用一条 prompt 你能轻松做一个「还不错」的 App,但你能做出一个「惊艳」的 App 吗?那种由顶尖人类团队和 AI 深度协作,把体验和性能打磨到极致的作品。

我不知道答案,但我认为答案可能因不同行业情况不一样。但你必须为你的产品思考这个问题。

这还带来一个有趣的想法:如果软件能「按需编写」,那我们还需要提前开发好一个固定的「App」吗?

比如,我们现在使用 Claude 这类工具,是提前预测用户需求,然后把功能都做进去。但如果代码能按需生成,为什么不实时按需进行呢?

想象一下,用户在用你的产品时,系统发现现有功能满足不了他下一步的需求,于是在后台即时为这个用户生成了一段新代码。我认为如果能实现这一点,将是一种非常有趣的模式,但这会引发各种关于信任的问题。

改界面(UI)是一回事,可能只是为了用户改变界面的形态。但要实现真正的新行为,就需要深入到后端的数据库中。能百分百信任 AI 吗? 显然现在还不行。所以,「信任」问题特别关键。

类似的问题是:用户界面应该是什么样的?大家都在聊的生成式 UI 还没真正落地,但我很看好。按需生成的 UI 是最终形态吗?还是有别的我们没想到的玩法?

尤其是,我在思考多模态的问题,如何将听觉、图像、视频和文本融合在一起?用户怎么给你反馈?

作为用户,有时我想说话,有时候想动手点。这完全取决于这完全看我在哪、在干什么。你需要思考的问题是,「对于用户来说,最简单的产品交互方式是什么?」

我认为,所有这些都指向一个大问题:现在很多有流量的大产品,都在往里塞 AI。所有主要玩家都在这么做,给产品加上一个聊天机器人,或者一些 Agent 之类的。他们在对现有产品进行改造,试图用 AI 实现某些功能。

创业者的直觉通常是,最好是从头开始构建一个 AI 原生的新产品。但这个直觉可能是错的。实际上,在某些领域,利用现有分发渠道优势对旧产品进行改造,或许最后可能会赢。

这个事没有标准答案,但我认为,这是一个非常重要的问题,不要只是凭感觉下结论,要找出能够验证你假设的因果机制。这能决定不同产品的成败。

03

信任问题非常重要:

不仅是模型,也是对公司

聊完产品,我们来聊聊更核心的:人和信任。

大家觉得,AI 来了,团队规模会变小。但问题是,一个从零打造的 AI 原生小团队,和一个通过裁员提效的大公司,谁更有优势?可能存在一种全新的、AI 原生的团队运作模式,实际上,这种模式可能每隔半年就得迭代一次,因为 AI 的能力在不断变化。所以,一个今天的 AI 原生公司,可能与 12 个月后的 AI 原生公司看起来完全不同。如果你不思考如何改造自己,你可能很快就会过时。

就像我说的,信任将变得极其重要。那么,安全模型要怎么变?我前面提过,你希望你的大语言模型能够深入到数据库层为你干活,你得绝对信任它,信任你设置的控制措施,信任模型能做出正确行为。

从「AI 助理」这个角度思考,助理就应该是全能的,帮你搞定一切。但现在到处都是「围墙花园」,你可能得在不同地方用不同的 Agent。但用户不想要这个,用户想要一个 Agent 搞定所有事

我希望我的个人 Agent 和工作 Agent 能打通。但会引发各种担忧,比如我在个人时间做的一些事,不希望老板知道。你怎么确保信息被隔离,同时又让这些 Agent 以正确的方式协作?这是一个难题。

一个关于 Agent 的更深层次的问题是,我们认为「对齐」 (alignment) 是指我们能否信任 AI。但事实是,即使你有一个完美的、所谓「意图对齐」的模型,它也会被公司或初创企业用来为用户构建 Agent。那问题就变成了,你能信任那个构建 Agent 的初创公司吗?他们为你开发的这个 Agent,真的在为你服务吗?如果这是一家依赖广告的公司,它给你推荐的东西,是真的为你好,还是把你引向广告商?

所以,开始思考信任问题非常重要。我们如何建立信任?不仅是对模型的信任,也是对构建这些 Agent 的公司的信任。

尤其是,今天我们已经有了这些规模极小的团队,明天团队可能会更小,甚至可能是半自动化的团队。用户凭什么信你?

你可能会说,我们今天也信任公司。我们今天信任公司的核心原因之一,是因为它们由多元化的人组成。在某种程度上,你可以相信,如果一家公司有合理的文化,当公司或 CEO 决定做坏事时,公司里会有人站出来说:「不,我不同意。我要成为吹哨人,我要泄露这件事,我要辞职,还要带走一批人。」

没有员工的支持,公司就无法推出产品。但在高度自动化的未来,这事就不成立了。可能一个人就能做出一个决定,改变整个产品的影响力,除了他自己,还没有人知道。

坏人做坏事的成本被极大地降低了。如果你回顾一下硅谷或人类的历史,事实是,绝大多数人都是不「对齐」的,尤其是在金钱攸关的时候。所以,我认为这是一个非常重要的问题。

其实,我们已经开始思考这个问题了。例如,大型企业已经不信任初创公司了。大型企业不信任初创公司的原因有很多。比如,可能明天就倒闭了。但更重要的是,小公司做错事的门槛要比大公司低得多,有时候也是小公司成功的原因之一。

那么,新的信任「护栏」应该是什么样的?

有人提出一个想法:AI 驱动的审计。在一个 AGI 世界里,审计也得升级。相比人类,AI 审计有个巨大优势:它没偏见,而且可以没有记忆。

比如,你同意让一个 AI 来审计你,如果它没发现问题,审计一结束,它就把自己和所有记录都删了,不留痕迹。这比人类审计员强多了,人会带走你的信息和秘密。

现在也有审计,但你得让人进到你公司里,风险很大,可能泄露你的知识产权。

AI 有可能为我们提供一个更强大的审计系统,这可以成为我们建立信任的一部分。

所以问题来了:我们应该这么干吗?你打算怎么跟用户建立信任?

你是否计划通过其他方式与用户建立信任?还是我们应该这样做?是否做出这样的承诺:「我不仅口头上说为用户好,我还愿意接受一个中立 AI 的持续审计,让我的承诺变得有约束力。」 这可能才是未来真正有用的做法。

这或许会是具有约束力的做法。但也许不是正确的方式,但我认为类似这样的事情很快有可能发生。它们可能是在我们进去这个失去大量信任的世界后,需要开始建立信任的方式。

我经常思考对齐问题。有一个问题是,我们必须解决对齐的哪些部分?我们研究对齐的一个原因是为了解决控制问题,我们想确保 AI 始终处于人类的控制之下。

但在未来 12 个月里,有个更现实的压力:我们到底要解决多少对齐问题,才能让这些模型在经济上更具有可行性?才能确保所有初创公司正在构建的 Agent,在它们的工作时间跨度越来越长时,我们能真正信任它们不会失控?

如果你今天使用 Claude 编程,它一次能为你工作 5 分钟,这是一回事,因为你会大量审查 Claude 的工作。但如果你要让它自己跑一天、一个星期,你需要有一定程度的把握,它不会完全失控。

实际上,我非常乐观,看好这种经济压力能反过来推动对齐研究,因为长时间跨度的 Agent 很需要。但我认为,需要解决多少以及哪些方面的对齐问题,仍然是一个开放性问题。

04

AGI 时代,

真正的护城河到底是什么?

我们再换个角度,聊聊护城河。

「数据能给你带来优势吗?」这个问题,几年前的答案是肯定的,定制化数据至关重要。如果你想建立一家 AI 初创公司,或者你是一家试图部署 AI 的企业,如果你有一个针对你需求的庞大定制化数据集,你就会拥有巨大的优势。

在几年前,获得有用的 AI 的唯一方法就是在你的定制化数据集上训练模型。但现在 LLM 的能力太强了,很多时候直接使用通用的大语言模型比在你的定制化数据上训练甚至微调效果更好。

但我认为,在某些行业可能不是这样,在这些行业里,AI 可能表现不佳。比如,材料科学。一个 LLM 能做好材料科学吗?一家专注于材料科学、拥有数十年数据的公司,会做得更好吗?我觉得很有可能。

大语言模型擅长处理它们在互联网上找到的一切,但它们学不到那些被公司「锁住」的隐性知识?比如,台积电 (TSMC) 、阿斯麦 (ASML)。

他们那些几十亿美金砸出来的工艺,是绝不会泄露到网上的。前沿的大语言模型不知道如何建造一个尖端的半导体工厂。

实际上是一个很重要的事实。如果你是一家初创公司,正在思考哪里有防御性,这可能是个方向。

再聊聊算力。

每个人都在试图极快地扩张。来自消费者、来自你们的客户、来自你们的初创公司的需求,都在推动极速扩张。

也许我们希望在未来几年内扩张 100 倍,这比我们生产 GPU 的速度要快得多。那么我们该怎么办?微调 (fine-tuning) 还重要吗?很多人已经放弃了微调,他们认为只需要做更好的上下文管理。或者,在不同模型(小型与大型)之间建立一个更好的路由机制。如果你懂技术,这是一个可以让你拥有竞争优势的地方,至少在未来一两年内是这样,因为算力容量真的很重要。

从产品的角度,我常常说:「先把它做好,再考虑规模化。」如果你已经开始着手「规模化」,这对你来说就非常重要,这可以成为你建立的技术护城河之一。但总有一天,模型会变得更好,算力容量问题会得到改善,那时你的优势可能会消失。所以,你需要对这个问题有一个更好的答案:你的护城河是什么?

在后 AGI 时代,当一条 prompt 就能复制你整个公司时,你真正的、持久的优势是什么?

这是一个非常严肃的真实问题,甚至在 AGI 到来之前就是这样。我喜欢解决难题,对我来说,这就是护城河。

每个人的护城河都不同。有些人擅长市场营销,我喜欢解决难题。但我在思考,什么才算是难题?在后 AGI 时代,什么会是难题?我认为有很多,比如台积电、阿斯麦的问题,这些都是难题,最终会随着机器人技术等的发展而变得简单。但机器人技术的发展滞后了。

对我来说,答案是去解决那些真正难的事。如果你有这个胆量去挑战难题,你就能获得巨大的竞争优势。纯软件的开发会变得越来越简单,那难题是什么?

基础设施、能源、制造业、芯片,这些是我首先想到的。这些领域的问题,就算再过两年,也不可能靠一条 prompt 就解决。它们需要和物理世界打交道。

你对这个问题的答案是什么?什么事情仍然会很困难且值得去做?我也经常思考这个问题:对于各种不同的任务,是否存在一个智能上限?

你要经常问问自己,什么事儿在未来依然很难,但又值得做?

我最近经常思考的一个问题是:对某个特定任务来说,有没有智能上限?

比如视频生成,最近的效果已经能骗到我了。但它还能变得更好吗?还是说,对某个任务,比如写一首诗,AI 的能力很快就会触顶,达到「足够好」的水平?如果一个任务存在上限,那它商品化的速度就会快得多。你无法通过研发下一个模型来保持领先,因为任务本身已经饱和了。

05

这可能是我们最后一次改变世界的窗口期了

最后,我想聊聊聊:未来 AI 会不会需要一种「中立性」?现在大家都在抱怨模型动不动就「拒绝回答」。

如果未来我们所有事都依赖这些 AI 模型,这对社会来说将是一个巨大的问题。那么,将会有少数几家公司掌握了决定 AI「什么能做、什么不能做」的权力。这些公司就成了决定什么能被创造出来的仲裁者。

比如,电力基础设施是中立的。如果通用电气 (GE) 拥有所有的电网,然后说,「你只有用我家的烤面包机,我才给你供电。」

所以,我们需要「AI 中立」或者「Token 中立」吗?

硅谷有个听起来有点「尬」的口号,叫「改变世界」。在硅谷,我们过去常常问:「你的创业公司在做什么?」虽然最后大部分都做成了猫咪共享 App,但那种改变世界的渴望是真实存在的。我认为,当创业者们说「我想改变世界」时,他们是认真的。

过去我跟人聊 AI 风险,别人觉得我是疯子。现在,我跟身边的普通朋友聊,他们都能理解,我们正在经历一件定义人类未来的大事。但聊到最后,他们总会问出一个问题:「那我们怎么靠这个赚钱?」

每次听到这个问题,我都很失望。但我完全理解。未来充满了不确定性,大家都怕失业,怕被淘汰,所以本能地想先抓住眼前的利益。

但我想说的是,这可能是我们最后一次有机会去真正改变世界的窗口期了。

你现在做的产品,可能是你这辈子做的最后一个产品。你现在创办的公司,可能是你最后一家公司。如果你真的有在乎的事情,有想为这个世界留下的东西,现在,就是那个时候。

YC 的口号是「打造人们想要的东西」。但我们得想深一层:人们真正想要的,是什么?

人们确实想要他们可以信任的东西,他们想要可以信任的 Agent,可以信任的机器人。他们想知道,当他们使用一个产品时,不仅是在接下来 20 秒内给他们带来愉悦,而是能在未来 20 年里对他们的心理健康有益,或者对他们孩子、他们邻居的心理健康有益。

作为消费者和用户,我们想要好的东西。所以,当我们说「打造人们想要的东西」时,不要只考虑人们会消费什么,要思考社会需要什么。 如果你做的东西是社会真正需要的,那一定会有很多人想要它。

作为创始人,我们的工作就是找到别人看不到的优势。在未来几年,规则每六个月就会变一次,你不得不重新思考。而你们,就是最适合站在最前面,看懂这些变化,并用你们的洞察去推动积极改变的那群人。

我希望你们去做这件事,当然,也希望你们能顺便把钱赚了。

06

一些 QA:

产品的防御性才是最重要的事情

提问:「打造世界需要的东西」在这样一个时代或许更重要。我的问题是,在你提出这些如何应对 AGI 及其带来的洞见的问题时,有哪些信息来源启发了你?比如哪些人、播客、书籍之类的,对构建心智模型最有帮助?

Jordan Fisher:好问题,我有点犹豫要不要说,但我想诚实的答案是 Twitter。不过,我对自己 Twitter 的信息流管理非常严格。

比如,如果我看到某人有好的观点,我就会关注他。如果他的观点很蠢,我就会取关。我认为你需要成为自己信息食谱的主人。

这并不是因为我担心被坏观点影响,更多的是因为我消化新想法的精力预算是有限的。不要只关注那些你同意的人,要追求多样性。我一直身处强化学习的语境中,其中有一个多样性的概念,即探索与利用。在你的信息食谱中,你要确保在进行「利用」(比如创办一家公司)之前,做了大量的「探索」。

提问:在一个 AGI 即将到来的世界里,如果我有几个创业想法,我应该选择我真正充满热情且有经验和专长的领域吗?还是一个市场服务不足或竞争不那么激烈的领域?而在 AGI 即将到来的前提下,最重要的问题是否应该是:哪个想法对 AI 的防御性最强?

Jordan Fisher:就我个人而言,我的观点是,一旦你进入了每周工作 100 小时的状态并且持续六个月后,不管你对一个想法有多大的热情,我敢说你绝对会恨死它。唯一能让你坚持下去的,是你想要产生影响力的渴望,你对公司的承诺,对你的创始人、合伙人和团队的承诺。

所以,在我看来,对自己所追求的领域是否极度热情,真的那么重要吗?不过,我认为其他人有不同的看法,这是一个个人问题。但我确实认为,以影响力为导向非常重要。

无论你是否试图产生影响,我认为防御性确实是关键问题之一。我的演讲大概有一半内容就是关于这个:什么将会改变?你正在构建的东西会不会在未来六个月内就变得微不足道?

老实说,我认为在未来 6 到 18 个月的时间窗口内,有很多钱可以赚。如果你唯一的目标是追求曲棍球棒式的增长曲线,提升你的 ARR ,然后转手公司赚一笔快钱,你可能不需要长期防御性。但如果你想打造一个能经受住时间考验、并成为穿越奇点及所有疯狂变革的一部分的东西,我会说,更深入地思考防御性吧。这可能是最重要的事情。

提问:如何看待在个人用户层面的对齐问题?考虑到用户的偏好会随着时间演变,这对建立信任有多重要?我不想重复训练模型,尤其是在用户众多的情况下。

Jordan Fisher:我对所有事情都带有一种创业产品的视角。创业圈的口头禅是「用户不知道自己想要什么」。我认为这在很大程度上是正确的。但我也认为,用户仍然有他们的价值观,你希望发现并尊重这些价值观。

所以,我首先想到的是,你可能看到了最近另一家 AI 供应商表现出的那种谄媚行为。如果你给用户看两个回复,一个更谄媚,一个更像现在年轻人说的「吹捧」(glazing),那么很多用户会选择那个谄媚的回复。

在那一刻,他们会觉得:「是的,我问的这个问题当然是个绝妙的问题。谢谢你认识到这一点。」

但我认为,如果你退一步想,然后说:「等一下,这里有两个原则,你可以选择遵循这个原则或那个原则的 AI。第一个原则是,我们绝不给你灌迷魂汤,我们只有在真的喜欢某个东西或某个想法真的好时才会告诉你。另一个原则是,我们就像你一样,整天都在吹捧你。」

如果你问用户他们想要哪个原则,几乎每个人都会选第一个。所以,「做用户想要的」这件事,你在哪个层面与他们互动、问他们问题,会得到不同的答案。这非常重要,因为人们可以利用这一点,只以某些方式向用户提问,从而为自己谋利。你需要真正问自己,什么是向用户提问的正确方式,才能触及对他们最有利的核心?我不知道这是否回答了你的问题,我可能有点跑题。

提问:Google 发布了 A2A 协议,用来标准化 Agent 之间的对话方式,我们也谈到了对 Agent 的信任。我很好奇你如何设想一个 Agent 与 Agent 对话的世界,这将如何影响 AI 产品的设计?是否会有一个 Agent 许可计划之类的东西?

Jordan Fisher:这是个好问题,但快没时间了。我只举一个例子,想象一个为你安排会议的个人助理 Agent。

这听起来很简单,对吧?「我只要看看这个人的日历,然后建议一些时间。」

但实际上,你已经输掉了成为一个好个人助理的比赛,因为会议安排中存在博弈论的成分。如果你过于大方地展示所有空闲时段,你就在传达「这个人不忙」的信息,或者传达「与你安排的这个人会面非常重要」的信息。而如果你说:「是的,我很乐意为你和 Joe 安排一个会议,但时间在两周或三周后。」这里面就有一种你正在施加的权力动态。

事实是,这些博弈论的东西都很重要。一个好的人类助理知道所有这些,并遵守它们,但这一切都是隐性的。这不像「这里有一条具体的、可供 Agent 访问的信息,那是安全的关键部分」,它要微妙得多、语义化得多。所以我认为这很难,但这是一个很好的问题。

文章来自于微信公众号“Founder Park”。

搜索