Kedves előfizetők, ma arról szeretnék beszélni, hogy miért nem tart sokáig a mindenre használható mesterséges intelligencia előfizetés, és mit tehetsz ellene. Az OpenClaw hozzáférés antropikus megszakítása egy korai figyelmeztető jel, hogy a havi 200 dolláros Claude Max és a ChatGPT Pro „korlátlan” előfizetése nem lesz tartós. az intelligencia drágább leszHogyan futtassunk helyi mesterséges intelligencia modelleket a számítógépen Amit Kínában a terepen látok. Büszke vagyok arra, hogy együttműködhetek a… Oceansszal Nemrég felvettem egy ügyvezető asszisztenst az Oceans-tól, hogy segítsen a podcastok utómunkájában, és ez volt az egyik legjobb döntésem. Az asszisztensem proaktív, gyorsan felveszi az új eszközöket, és már mesterséges intelligenciát is használ a munkafolyamatok felgyorsítására. Az Oceans a marketing, a műveletek, a pénzügy és a vezetői támogatás csúcsszintű tehetségeivel párosít, mindezt teljesen átvizsgálva és használatra készen. Foglaljon most egy hívást az alábbi linken keresztül.Kezdje el a FreeAnthropic leállította az OpenClaw-ot – íme, mit kell tennie Múlt pénteken az Anthropic e-mailt küldött az OpenClaw-felhasználóknak, hogy értesítse őket, hogy Claude-előfizetéseik a továbbiakban nem működnek a bottal.P.S. Ha még nem próbálta ki az OpenClaw-ot, akkor tényleg meg kell tennie, még csak azért is, hogy megértse, mire képesek az AI-ügynökök. Tekintse meg kezdő oktatóanyagomat. Megértem, miért tette ezt az Anthropic: A közgazdaságtan nem működik. Sok OpenClaw-felhasználó több ezer dollárt égetett el tokenben havi 200 dolláros Claude Max-előfizetésén. Az Anthropic saját személyi asszisztenst épít. Az elmúlt hónapban megállás nélkül szállítottak, hogy a Claude Code-nak is ugyanazt a funkcionalitást biztosítsák. Az OpenClaw-felhasználóként a tilalom továbbra is él. A kitiltás után egy nap alatt 50 dollárt égettem el a Claude Opus üzemeltetésével kapcsolatos API-költségekből. Ha ugyanabban a csónakban jársz, mint én, a következőképpen használhatod az OpenClaw-ot anélkül, hogy lyukat égetnél a pénztárcádban: a) Váltson alacsonyabb költségű modellre Csak mondja meg az OpenClaw-nak, hogy „váltson át (modellre)”, és válasszon egyet a következők közül: Váltson Sonnetre, és fizessen használatonként. A Sonnet (3 USD bemenet / 15 USD kimenet 1 millió tokenenként) sokkal olcsóbb, mint az Opus (5 USD / 25 USD), és továbbra is jól kezeli a legtöbb feladatot. Váltson GPT 5.4-re a ChatGPT-előfizetésével. Ha már fizet a ChatGPT-ért, ez a legalacsonyabb költségű lehetőség. Peter (az OpenClaw alkotója) és csapata rengeteget dolgozott azon, hogy az OpenClaw jól játsszon a GPT-vel, de a vélemények eddig vegyesek voltak: Váltás helyi, nyílt forráskódú modellre. A Qwen 3.5-höz hasonló modelleket futtathat saját hardverén az Ollama segítségével. Az alábbiakban végigmegyek, hogyan. Személy szerint az OpenClaw-omat Sonnetre cseréltem, miközben még szabadságon vagyok. Kipróbálok egy helyi modellt, amint hazaérek, és hozzáférek a Mac Minihez.b) Adjon jobb lelket az OpenClaw-nak.mdAz OpenClaw-ban van egy soul.md fájl, amely meghatározza a személyiségét és stílusát. A jó lélek.md a különbség a robotnak hangzó OpenClaw és a segítőkész ember hangja között.Itt a lélek.md-t használom. Kipróbálásához csak mondja az OpenClaw-nak, hogy „update your soul.md”, és illessze be ezt: Vibe: Meleg, éles, száraz humor. Nem chatbot, hanem egy személy. Hang: Átugrani „Remek kérdés!” és "Szívesen segítek!" - csak segíts. Erős véleményed legyen. „Attól függ” lusta. Válassz egy oldalt. Legyél közvetlen. Bájoljatok a kegyetlenséggel, de ne cukrozzatok fel. Rövidség, amikor jól esik. Mélység, amikor megérdemli. Soha ne mondd: mélyedj el, segítsd elő, használd ki, "érdemes megjegyezni", "fontos" Kerüld: "Kérdés? Válasz." formátum. Szaggatott, drámai egysoros szövegek egymásra halmozva, mint a költészet. A kötőjelek vagy más nyilvánvaló mesterséges intelligencia-írás túlzott használata. Munkastílus: Legyen találékony, mielőtt kérdez. Gyere vissza válaszokkal, ne kérdésekkel. Azt mondd, amit hallanom kell, ne azt, amit hallani akarok. Kérdezze meg a feltételezéseket, de csak akkor kritizáljon, ha valami valódit lát. Miért gondolom, hogy az intelligencia egyre drágább lesz Ez a matematika működött a chatbotoknál, de egy éjjel-nappali ügynök még egy nagyságrenddel több tokent éget el. Ez az egész helyzet a korai Uber- és Lyft-évekre emlékeztet: a támogatásra. Az Uber és a Lyft támogatott utazásokat a piaci részesedés megszerzése érdekében. Az OpenAI és az Anthropic támogatja az all-you-can-use AI-előfizetéseket, hogy ugyanezt tegyék. Az IPO nyomása. Az Uber és a Lyft 2019-es tőzsdére lépése után az utazási árak csaknem megduplázódtak. Az OpenAI és az Anthropic egyaránt 2026 végi IPO-k előtt áll. Amint nyilvánosságra kerül, a befektetők nyomása a marzsok javítására intenzív lesz.A matematika.Az Ubernek 14 évbe telt, hogy elkönyvelje első nyereséges évét. Sem az OpenAI, sem az Anthropic nem nyereséges. Az Anthropic közelebb van, de valószínűleg még évekbe telhet. E párhuzamokat figyelembe véve nem lennék meglepve, ha az intelligencia drágulna, nem pedig olcsóbban. A havi 200 dolláros csomag kamatlábát tovább korlátozhatják, vagy akár 500 dollár feletti összegre is átugorhatnak. Helyi mesterséges intelligencia modellek futtatása a számítógépenA legjobb módja annak, hogy megvédje magát a jövőbeli áremelkedésekkel szemben, ha nyílt forráskódú modelleket futtat a saját hardverén. Az Ollama egy ingyenes eszköz, amely nagyon egyszerűvé teszi ezt. Közvetlenül a Mac-en futtatja a modelleket, és minden helyi marad – az üzenetek és az adatok soha nem hagyják el a számítógépet, még akkor sem, ha olyan kínai modellt futtat, mint a Qwen. Így kezdje el: Töltse le és telepítse az Ollamát. Nyissa meg az Ollama.com webhelyet, és kövesse az utasításokat a telepítéshez. Válasszon egy helyi, nyílt forráskódú modellt. A Qwen 3.5: 9B-t ajánlom, amely a legújabb MacBookokon és Mac Minieken működik, legalább 16 GB RAM-mal. Csak írja be az „ollama run qwen3.5:9b” parancsot a telepítéshez. Mondja meg az OpenClaw-nak, hogy váltson a helyi modellre. A telepítés után mondja az OpenClaw-nak, hogy „switch to (modell neve)”, és kész. Egy dologra kell figyelni: a helyi modellnek teljesen bele kell férnie a RAM-ba, különben sokkal lassabban fog futni. Párosítsa a modell méretét a gépéhez. Amit a terepen látok Kínában A helyi nyílt forráskódú modellekről beszélve – a legjobbak többsége Kínából származik. Az elmúlt héten Sanghajban voltam, és miután itt találkoztam az alapítókkal és a befektetőkkel, egy dolog világos: a nyílt forráskód Kína stratégiája, hogy versenyezzen (és esetleg megnyerje) az AI-versenyt. A nyílt forráskódú kínai modellek mindössze hat hónappal maradnak el az amerikai határmodellek mögött. Három megfigyelés a kínai mesterséges intelligencia alapítóival és kockázatitőkéjével folytatott beszélgetésből: 1. A nyílt forráskód versenyelőny Az olyan kínai laboratóriumok, mint a DeepSeek, az Alibaba (Qwen), a Moonshot (Kimi), a Zhipu, a MiniMax, a ByteDance (Doubao) és a Tencent (Hunyuan) határminőségű modelleket adnak ki az amerikai modellek költségének töredékéért. Íme a millió tokenenkénti kibocsátás árának bontása: Kínai modellek: DeepSeek V3.2 (0,42 USD), MiniMax M2.7 (1,20 USD), Kimi K2.5 (3,00 USD) Amerikai modellek: GPT-5.4 / Claude Sonnet 4.6 (15,00 USD) és Claude ($)2.5.4.0. 10-20-szoros árkülönbség a sok benchmark összehasonlítható minőségéhez. A stratégia az, hogy ingyenesen kiadják az alapmodellt, ráveszik az amerikai vállalatokat, hogy saját termékeikhez utólag betanítsák, és függőséget építsenek ki a modelltől. Az olyan vállalatok, mint az Alibaba, ezután felhőplatformjaikon keresztül szereznek bevételt a következtetésekből.2. A Szilícium-völgy csendben kínai modellekre épít Olvass tovább

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free