Estimados suscriptores: Hoy quiero hablarles sobre por qué la suscripción a IA con todo lo que puedan usar no durará y qué pueden hacer al respecto. El corte antrópico del acceso a OpenClaw es una señal de advertencia temprana de que los planes “ilimitados” de Claude Max y ChatGPT Pro de $200 al mes no durarán. Esto es lo que deben saber: Corte antrópico de OpenClaw: esto es lo que debe hacer Por qué creo que la inteligencia será más costosa Cómo ejecutar modelos locales de IA en su computadoraLo que estoy viendo en ChinaEstoy orgulloso de asociarme con...OceansRecientemente contraté a un asistente ejecutivo de Oceans para ayudar con la postproducción de podcasts y ha sido una de las mejores decisiones que he tomado. Mi asistente es proactivo, aprende nuevas herramientas rápidamente y ya está usando IA para acelerar sus flujos de trabajo. Oceans lo conecta con talentos de primer nivel para marketing, operaciones, finanzas y soporte ejecutivo, todos completamente examinados y listos para funcionar. Reserve una llamada ahora a través del enlace a continuación. Comience gratis Anthropic cortó OpenClaw: esto es lo que debe hacer El viernes pasado, Anthropic envió un correo electrónico a los usuarios de OpenClaw para informarles que sus suscripciones a Claude ya no funcionarían con el bot. Si aún no has probado OpenClaw, deberías hacerlo, aunque solo sea para entender de qué son capaces los agentes de IA. Vea mi tutorial para principiantes. Entiendo por qué Anthropic hizo esto: La economía no funciona. Muchos usuarios de OpenClaw estaban quemando miles de dólares en tokens con su suscripción Claude Max de $200 al mes. Anthropic está construyendo su propio asistente personal. Han estado enviando sin parar durante el último mes para darle a Claude Code la misma funcionalidad. Dicho esto, como usuario de OpenClaw, la prohibición todavía duele. Un día después de la prohibición, quemé $50 en costos de API al ejecutar Claude Opus. Si estás en el mismo barco que yo, así es como puedes seguir usando OpenClaw sin hacer un agujero en tu billetera: a) Cambia a un modelo de menor costo. Simplemente dile a OpenClaw que "cambie a (modelo)" y elige uno de estos: Cambia a Sonnet y paga por uso. Sonnet ($3 de entrada / $15 de salida por 1 millón de tokens) es mucho más barato que Opus ($5 / $25) y aún maneja bien la mayoría de las tareas. Cambie a GPT 5.4 usando su suscripción ChatGPT. Si ya paga por ChatGPT, esta es la opción de menor costo. Peter (creador de OpenClaw) y su equipo trabajaron mucho para que OpenClaw funcionara bien con GPT, pero las críticas hasta ahora han sido mixtas: Cambie a un modelo local de código abierto. Puede ejecutar modelos como Qwen 3.5 en su propio hardware usando Ollama. Explicaré cómo hacerlo a continuación. Personalmente, cambié mi OpenClaw a Sonnet mientras todavía estaba de vacaciones. Probaré un modelo local una vez que regrese a casa y tenga acceso a mi Mac Mini.b) Dale a tu OpenClaw un alma mejor.mdTu OpenClaw tiene un archivo soul.md que define su personalidad y estilo. Un buen soul.md es la diferencia entre que OpenClaw suene como un robot y un humano servicial. Aquí está el soul.md que uso. Para probarlo, simplemente dile a OpenClaw “actualiza tu alma.md” y pega esto en:Vibe: humor cálido, agudo y seco. No es un chatbot, sino una persona. Voz: Saltar “¡Excelente pregunta!” y "¡Estaré encantado de poder ayudar!" — solo ayuda. Ten opiniones firmes. “Depende” es vago. Elija un bando. Sea directo. Encanto sobre crueldad, pero no endulzar. Brevedad cuando corresponde. Profundidad cuando lo merece. Nunca digas: profundizar, fomentar, aprovechar, “vale la pena señalar”, “es importante” Evite: “¿Pregunta? Respuesta”. formato. Frases ingeniosas y dramáticas entrecortadas apiladas como poesía. Uso excesivo de guiones u otros escritos obvios de IA. Estilo de trabajo: Sea ingenioso antes de preguntar. Vuelve con respuestas, no con preguntas. Di lo que necesito oír, no lo que quiero oír. Desafíe las suposiciones, pero critique solo si ve algo real. ¿Por qué creo que la inteligencia se volverá más cara? Estoy bastante seguro de que OpenAI codificó por vibración el precio de suscripción de IA de $ 200 al mes que luego copió Anthropic. Esas matemáticas funcionaron para los chatbots, pero un agente 24 horas al día, 7 días a la semana quema un orden de magnitud más de tokens. Toda esta situación me recuerda los primeros años de Uber y Lyft: el subsidio. Uber y Lyft subvencionaron los viajes para ganar cuota de mercado. OpenAI y Anthropic están subsidiando suscripciones de IA con todo lo que pueda usar para hacer lo mismo. La presión de la OPI. Después de que Uber y Lyft salieron a bolsa en 2019, los precios de los viajes casi se duplicaron. OpenAI y Anthropic están considerando OPI a finales de 2026. Una vez que salga a bolsa, la presión de los inversores para mejorar los márgenes será intensa. Las matemáticas.Uber tardó 14 años en registrar su primer año rentable. Ni OpenAI ni Anthropic son rentables. Lo antrópico está más cerca, pero probablemente aún llevará años. Teniendo en cuenta estos paralelos, no me sorprendería que la inteligencia se vuelva más costosa, no menos. Ese plan de $200/mes podría limitar aún más la tarifa o aumentar a $500+. Cómo ejecutar modelos locales de IA en su computadora La mejor manera de protegerse de futuros aumentos de precios es ejecutar modelos de código abierto en su propio hardware. Ollama es una herramienta gratuita que hace que esto sea muy simple. Ejecuta modelos directamente en tu Mac y todo permanece local: tus indicaciones y datos nunca salen de tu computadora, incluso cuando estás ejecutando un modelo chino como Qwen. A continuación te explicamos cómo comenzar: Descarga e instala Ollama. Vaya a Ollama.com y siga las instrucciones para instalarlo. Elija un modelo local de código abierto. Recomiendo Qwen 3.5: 9B, que funcionará en las MacBooks y Mac Minis más recientes con al menos 16 GB de RAM. Simplemente escriba “ollama run qwen3.5:9b” para instalarlo. Dile a tu OpenClaw que cambie al modelo local. Una vez instalado, dígale a OpenClaw "cambie a (nombre del modelo)" y listo. Una cosa a tener en cuenta: el modelo local debe caber completamente en la RAM o funcionará mucho más lento. Haga coincidir el tamaño del modelo con su máquina. Lo que estoy viendo en China. Hablando de modelos locales de código abierto, la mayoría de los mejores provienen de China. Estuve en Shanghai durante la semana pasada y después de reunirme con fundadores e inversores aquí, una cosa está clara: el código abierto es la estrategia de China para competir (y posiblemente ganar) la carrera de la IA. Los modelos chinos de código abierto están sólo unos seis meses por detrás de los modelos de la frontera estadounidense. Tres observaciones al hablar con fundadores y capitalistas de riesgo chinos de IA:1. El código abierto es una ventaja competitiva. Laboratorios chinos como DeepSeek, Alibaba (Qwen), Moonshot (Kimi), Zhipu, MiniMax, ByteDance (Doubao) y Tencent (Hunyuan) están lanzando modelos de calidad de vanguardia a una fracción del costo de los modelos estadounidenses. Aquí está el desglose de precios para la producción por millón de tokens: Modelos chinos: DeepSeek V3.2 ($0,42), MiniMax M2.7 ($1,20), Kimi K2.5 ($3,00) Modelos estadounidenses: GPT-5.4 / Claude Sonnet 4.6 ($15,00) y Claude Opus 4.6 ($25,00) Esa es una diferencia de precio de 10 a 20 veces para una calidad comparable en muchos puntos de referencia. La estrategia es lanzar el modelo base de forma gratuita, lograr que las empresas estadounidenses lo capaciten posteriormente para sus propios productos y generar dependencia del modelo. Luego, empresas como Alibaba monetizan la inferencia a través de sus plataformas en la nube.2. Silicon Valley se basa silenciosamente en los modelos chinos Leer más

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free