AWS siekia paskatinti dirbtinio intelekto verslą su „Cerebras Chip“ sandoriu „Amazon Web Services“ (AWS) imasi strateginio žingsnio, siekdama papildyti savo dirbtinio intelekto galimybes, bendradarbiaudama su dirbtinio intelekto lusto startuoliu „Cerebras Systems“. Šiuo bendradarbiavimu siekiama žymiai padidinti sudėtingų dirbtinio intelekto programų, veikiančių debesyje, našumą. Būsima paslauga, kuri bus pristatyta per kelis mėnesius, integruos „Cerebras“ unikalią aparatinę įrangą į AWS „Bedrock“ programų kūrimo platformą, o tai pažymės lemiamą momentą debesų AI infrastruktūros lenktynėse. Šis sandoris pabrėžia intensyvią debesų paslaugų teikėjų konkurenciją siekiant pasiūlyti galingiausias ir efektyviausias AI mokymo ir išvadų aplinkas. Naudodama novatorišką „Cerebras“ plokštelių skalės lustų technologiją, AWS siekia pritraukti įmones ir kūrėjus, dirbančius su naujos kartos didelių kalbų modeliais ir generuojamuoju AI.
AWS ir Cerebras partnerystės dekodavimas Šio pranešimo esmė – nauja debesies paslauga, kurią teikia specializuota Cerebras aparatinė įranga. Tai ne tik dar vienas virtualios mašinos pavyzdys; tai yra giliai integruotas sprendimas, sukurtas nuo pat pradžių didelio masto AI darbo krūviams. Paslauga bus pasiekiama tiesiogiai per „Amazon Bedrock“, bendrovės valdomą paslaugą, skirtą kurti generatyvias AI programas. Ši integracija reiškia, kad kūrėjai gali pasiekti „Cerebras“ skaičiavimo galią nevaldydami pagrindinės infrastruktūros. Tai supaprastina sudėtingų modelių mokymo procesą ir gali sutrumpinti dirbtinio intelekto produktų ir paslaugų pateikimo į rinką laiką. Partnerystė rodo AWS įsipareigojimą teikti pasirinkimą ir pažangiausią našumą, ne tik savo viduje naudojamą silicį, kaip „Trainium“ ir „Inferentia“.
Kodėl cerebros? Vaflių skalės variklio pranašumas „Cerebras Systems“ AI lustų rinkoje išsiskyrė radikalia dizaino filosofija. Užuot naudojęs daug mažų lustų, Cerebras sukuria vieną milžinišką procesorių, kurio dydis prilygsta visos silicio plokštelės. Šis Wafer-Scale Engine (WSE) yra didžiausias kada nors pagamintas lustas ir yra architektūriškai unikalus. Pagrindiniai šio metodo pranašumai AI verslo programoms yra didžiuliai:
Didžiulė lustinė atmintis: WSE turi didžiulį kiekį didelės spartos atminties tiesiai ant procesoriaus. Tai labai svarbu mokant didelių kalbų modelius, nes sumažina lėtą duomenų judėjimą tarp lusto ir išorinės atminties. Neregėtas dažnių juostos plotis: Ryšys tarp vienos plokštelės branduolių yra eksponentiškai greitesnis nei tarp atskirų tinkle sujungtų lustų. Tai pašalina pagrindinę paskirstyto AI mokymo kliūtį. Supaprastintas programavimas: kūrėjai gali užprogramuoti šį didžiulį įrenginį kaip vieną, vieningą sistemą, o ne sudėtingą tūkstančių GPU grupę, supaprastindami modelio kūrimą ir diegimą.
Poveikis debesies AI našumui ir prieinamumui Pagrindinis šios AWS-Cerebras paslaugos pažadas yra dramatiškas treniruočių ir dirbtinio intelekto modelių našumo padidėjimas. Įmonėms tai reiškia greitesnius inovacijų ciklus ir mažesnes skaičiavimo išlaidas. Užduotys, kurios anksčiau užtrukdavo savaites naudojant įprastinę aparatinę įrangą, gali būti atliktos per kelias dienas ar net valandas. Dėl šio našumo šuolio pažangūs AI tyrimai ir plėtra tampa prieinamesni. Pradedantieji ir akademinės institucijos, kurios negalėjo sau leisti sukurti savo superkompiuterių, dabar gali išsinuomoti laiką pasaulinės klasės dirbtinio intelekto aparatinei įrangai per pažįstamą debesies sąsają. Tai demokratizuoja prieigą prie skaičiavimo galios, reikalingos konkuruoti AI arenoje. Matėme, kad panašios strateginės partnerystės paspartina naujovių diegimą kituose technologijų sektoriuose. Pavyzdžiui, „NanoClaw“ kūrėjo laukinės šešios savaitės, dėl kurių buvo sudarytas sandoris su „Docker“, parodo, kaip suderinimas su platformos milžinu gali suteikti didžiulį svertą specializuotai technologijai.
Integracija su „Amazon Bedrock“: strateginis žaidimas „Cerebras“ paslaugos priegloba „Amazon Bedrock“ yra puikus žingsnis. „Bedrock“ yra AWS valdoma pamatų modelių paslauga, teikianti vieningą įrankių rinkinį kuriant generatyvias AI programas. Pridėjus Cerebras kaip pagrindinę parinktį, AWS pasiekia kelis strateginius tikslus:
Didesnės vertės pasiūlymas: Bedrock tampa patrauklesniu „vieno langelio“ principu, siūlančiu tiek pirmaujančius dirbtinio intelekto modelius, tiek dabar – elitinę mokymo aparatinę įrangą. Ekosistemos užraktas: jis skatina kūrėjus kurti, mokyti ir įdiegti savo modelius tik AWS ekosistemoje, nuo duomenų saugojimo iki galutinio programos prieglobos. Konkurencinė diferenciacija: ji tiesiogiai atsveria panašius judesiuskonkurentai, tokie kaip „Microsoft Azure“ ir „Google Cloud“, kurie taip pat agresyviai bendradarbiauja su mikroschemų kūrėjais.
Platesnis poveikis AI ir technologijų pramonei Šis sandoris yra AI infrastruktūros ateities varpas. Tai patvirtina, kad jokia įmonė, net ir debesų titanas, kaip „Amazon“, negali turėti viso paketo. Specializuoti aparatūros novatoriai, tokie kaip Cerebras, atliks esminį vaidmenį peržengiant to, kas įmanoma, ribas. Varžybos dėl AI viršenybės vyksta įvairiais frontais, nuo lustų dizaino iki modelių architektūros. Ši partnerystė pabrėžia, kad debesų platformos judrumas – galimybė greitai integruoti geriausias savo klasėje technologijas – yra toks pat svarbus kaip ir neapdorotos MTTP išlaidos. Laimės tos platformos, kurios gali pasiūlyti plačiausią galingų, lengvai naudojamų įrankių asortimentą. Ši tendencija panaudoti specializuotas technologijas siekiant konkurencinio pranašumo neapsiriboja debesų kompiuterija. Tai matome pramogų duomenų analizėje, kaip išnagrinėta straipsnyje „Kaip užsidirbti pinigų numatant „Oskarų“ laimėjimus ir „Box Office“ hitus naudojant naują „MoviePass“ produktą, ir net sporte, kaip matyti iš sparčiai augančios karalių lygos, kuri siekia užkariauti Ameriką, taikydamas liekną požiūrį į profesionalų sportą.
Ko tikėtis ateinančiais mėnesiais Netrukus tikimasi pristatymo, todėl pramonė stebės pagrindines detales. Kainodaros modeliai, konkretūs egzempliorių tipai ir etaloniniai našumo duomenys bus labai svarbūs priimant. Ankstyvosios prieigos klientai greičiausiai bus AI tyrimų laboratorijos ir didelės įmonės, turinčios patentuotus duomenų rinkinius. Sėkmė bus vertinama pagal tai, kaip sklandžiai paslauga bus integruota į esamas AI darbo eigas ir ar ji ištesės savo pažadą dėl precedento neturinčio greičio ir masto. Jei taip atsitiks, tai gali paskatinti naują AI naujovių bangą, leidžiančią sukurti modelius, kurie šiuo metu yra nepraktiški dėl skaičiavimo apribojimų.
Išvada: naujas „Cloud-Native AI“ skyrius AWS ir Cerebras lusto sandoris yra daugiau nei naujo produkto pristatymas; tai strateginis posūkio taškas. Tai atspindi debesų AI rinkos brendimą, kur našumo optimizavimas naudojant specializuotą aparatinę įrangą tampa pagrindiniu mūšio lauku. Įmonėms tai reiškia greitesnius ir ekonomiškesnius būdus diegti galingus AI sprendimus. Norint išlikti priekyje sparčiai besikeičiančioje technologijų srityje, reikia įžvalgų apie šias esmines partnerystes ir rinkos pokyčius. Norėdami gauti daugiau analizės apie strategijas, formuojančias technologijų ir verslo ateitį, peržiūrėkite ekspertų komentarus ir išsamias ataskaitas, kurias galite rasti svetainėje Seemless.