亲爱的订阅者,今天,我想谈谈为什么无限使用的 AI 订阅不会持续下去,以及你能做些什么。Anthropic 切断 OpenClaw 访问权限是一个预警信号,表明 200 美元/月的 Claude Max 和 ChatGPT Pro“无限”计划不会持续。这是你应该知道的:Anthropic 切断 OpenClaw - 这是该怎么做为什么我认为智能会变得更加昂贵如何在你的设备上运行本地 AI 模型计算机我在中国所看到的一切我很自豪能与...Oceans合作我最近从Oceans聘请了一名行政助理来帮助播客后期制作,这是我做出的最好的决定之一。我的助手积极主动,能够快速掌握新工具,并且已经在使用人工智能来加快工作流程。Oceans 为您匹配营销、运营、财务和执行支持方面的顶级人才,所有这些人才都经过全面审查并随时准备就绪。现在通过下面的链接预约电话。免费开始Anthropic 切断了 OpenClaw — 以下是要做的事情 上周五,Anthropic 向 OpenClaw 用户发送了电子邮件,让他们知道他们的 Claude 订阅将不再与该机器人兼容。如果您还没有尝试过 OpenClaw,那么您真的应该尝试一下,即使只是为了了解 AI 代理的能力。请参阅我的初学者教程。我明白为什么 Anthropic 这样做:经济学不起作用。许多 OpenClaw 用户在每月 200 美元的 Claude Max 订阅上烧掉了数千美元的代币。Anthropic 正在打造自己的个人助理。他们在过去的一个月里一直在不停地发货,为 Claude Code 提供相同的功能。尽管如此,作为 OpenClaw 用户,禁令仍然很刺痛。禁令生效后的一天,我在运行 Claude Opus 时消耗了 50 美元的 API 成本。如果您和我处境相同,那么您可以继续使用 OpenClaw,而不会在钱包上烧个洞:a) 切换到成本较低的模型 只需告诉 OpenClaw“切换到(模型)”并选择其中之一:切换到 Sonnet 并按使用付费。 Sonnet(每 100 万代币输入 3 美元/输出 15 美元)比 Opus(5 美元/25 美元)便宜得多,并且仍然可以很好地处理大多数任务。使用您的 ChatGPT 订阅切换到 GPT 5.4。如果您已经支付 ChatGPT 费用,这是成本最低的选项。 Peter(OpenClaw 的创建者)和团队投入了大量工作来使 OpenClaw 与 GPT 兼容,但迄今为止的评论褒贬不一:切换到本地开源模型。您可以使用 Ollama 在您自己的硬件上运行 Qwen 3.5 等模型。我将在下面介绍如何操作。就我个人而言,我在度假时将我的 OpenClaw 切换到了 Sonnet。回到家后,我将测试本地模型并可以使用我的 Mac Mini。b) 为您的 OpenClaw 提供更好的灵魂。md您的 OpenClaw 有一个 Soul.md 文件,用于定义其个性和风格。一个好的 Soul.md 是 OpenClaw 听起来像机器人和听起来像乐于助人的人之间的区别。这是我使用的 Soul.md。要尝试一下,只需告诉 OpenClaw“更新你的灵魂.md”并将其粘贴到:Vibe:温暖、尖锐、冷幽默。不是聊天机器人,而是一个人。语音:跳过“好问题!”和“我很乐意提供帮助!” ——只是帮助有强烈的意见。 “这取决于”是懒惰的。选边站,直接点。魅力胜过残酷,但不要粉饰。适当的时候要简洁。当它值得的时候就深度。永远不要说:钻研、培育、杠杆、“值得注意”、“重要”避免:“问题?回答。”格式。像诗歌一样堆叠起来的断断续续的戏剧性单行。过度使用破折号或其他明显的人工智能写作。工作风格:在提出问题之前要足智多谋。带着答案回来,而不是问题。说我需要听的话,而不是我想听的话。挑战假设,但只有当你看到真实的东西时才批评。为什么我认为智能会变得更昂贵我很确定 OpenAI 振动编码了 Anthropic 随后复制的 200 美元/月的 AI 订阅价格。这个数学对于聊天机器人来说是有效的,但是 24/7 的代理会消耗更多数量级的代币。整个情况让我想起了 Uber 和 Lyft 的早期:补贴。 Uber 和 Lyft 通过补贴打车来赢得市场份额。 OpenAI 和 Anthropic 正在补贴无限量使用 AI 订阅,以实现同样的目的。 IPO 压力。 2019 年 Uber 和 Lyft 上市后,乘车价格几乎翻了一番。 OpenAI 和 Anthropic 都着眼于 2026 年末进行 IPO。一旦上市,投资者提高利润率的压力将会很大。数学。Uber 用了 14 年才实现首个盈利年。 OpenAI 和 Anthropic 都没有盈利。人择更接近,但可能仍需要数年时间。考虑到这些相似之处,如果智力变得更加昂贵,而不是更少,我不会感到惊讶。每月 200 美元的计划可能会进一步受到费率限制或跃升至 500 美元以上。 如何在计算机上运行本地人工智能模型保护自己免受未来价格上涨影响的最佳方法是在自己的硬件上运行开源模型。Ollama 是一款免费工具,可以让这一切变得非常简单。它直接在您的 Mac 上运行模型,一切都保持在本地 — 即使您运行的是 Qwen 这样的中国模型,提示和数据也永远不会离开您的计算机。入门方法如下:下载并安装 Ollama。访问 Ollama.com 并按照说明进行安装。选择本地开源模型。我推荐 Qwen 3.5: 9B,它适用于最新的 MacBook 和 Mac Mini,内存至少为 16GB。只需输入“ollama run qwen3.5:9b”即可安装它。告诉您的 OpenClaw 切换到本地模型。安装完成后,告诉 OpenClaw“切换到(模型名称)”即可。需要注意的一件事是:本地模型需要完全适合 RAM,否则运行速度会慢得多。将模型尺寸与您的机器相匹配。我在中国实地看到的谈到本地开源模型 - 大多数最好的模型都来自中国。过去一周我一直在上海,在与创始人和投资者会面后,有一点很明确:开源是中国参与(并可能赢得)人工智能竞赛的战略。中国的开源模型仅比美国前沿模型落后六个月左右。与中国人工智能创始人和风险投资人交谈的三个观察结果:1。开源是一种竞争优势 DeepSeek、阿里巴巴(Qwen)、Moonshot(Kimi)、智普、MiniMax、字节跳动(豆宝)和腾讯(混源)等中国实验室正在发布前沿质量的模型,而成本只是美国模型的一小部分。以下是每百万代币产量的价格细分: 中国型号:DeepSeek V3.2(0.42 美元)、MiniMax M2.7(1.20 美元)、Kimi K2.5(3.00 美元) 美国型号:GPT-5.4 / Claude Sonnet 4.6(15.00 美元)和 Claude Opus 4.6(25.00 美元)这是 10-20 倍的价格差距在许多基准上具有可比的质量。该策略是免费发布基础模型,让美国公司针对自己的产品对其进行后期训练,并建立对该模型的依赖。像阿里巴巴这样的公司然后通过他们的云平台将推理货币化。2。硅谷正在悄然建立中国模式 了解更多

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free