AWS-ը նպատակ ունի խթանել AI բիզնեսը Cerebras Chip-ի գործարքով Amazon Web Services-ը (AWS) ռազմավարական քայլ է կատարում արհեստական ինտելեկտի իր հնարավորությունները լիցքավորելու ուղղությամբ՝ նոր համագործակցության միջոցով AI չիպերի Cerebras Systems ստարտափի հետ: Այս համագործակցությունը նպատակ ունի էապես բարձրացնել ամպի մեջ աշխատող բարդ AI հավելվածների աշխատանքը: Առաջիկա ծառայությունը, որը պետք է գործարկվի մի քանի ամիսների ընթացքում, ինտեգրելու է Cerebras-ի եզակի ապարատը AWS-ի Bedrock հավելվածների կառուցման հարթակում՝ նշելով առանցքային պահը ամպային AI ենթակառուցվածքի մրցավազքում: Այս գործարքը ընդգծում է ամպային մատակարարների միջև ինտենսիվ մրցակցությունը՝ առաջարկելու AI-ի ուսուցման և եզրակացությունների ամենահզոր և արդյունավետ միջավայրերը: Օգտագործելով Cerebras-ի նորարարական վաֆլի մասշտաբի չիպերի տեխնոլոգիան՝ AWS-ը դիրքավորվում է գրավելու ձեռնարկություններին և մշակողներին, որոնք աշխատում են հաջորդ սերնդի խոշոր լեզվական մոդելների և գեներացնող AI-ի վրա:
AWS և Cerebras Partnership-ի վերծանում Այս հայտարարության առանցքը նոր ամպային ծառայությունն է, որն աշխատում է Cerebras-ի մասնագիտացված ապարատով: Սա պարզապես վիրտուալ մեքենայի ևս մեկ օրինակ չէ. այն ներկայացնում է խորը ինտեգրված լուծում, որը նախագծված է ի սկզբանե լայնածավալ արհեստական ինտելեկտի ծանրաբեռնվածության համար: Ծառայությունը հասանելի կլինի անմիջապես Amazon Bedrock-ի միջոցով՝ ընկերության կառավարվող ծառայության՝ գեներատիվ AI հավելվածներ ստեղծելու համար: Այս ինտեգրումը նշանակում է, որ մշակողները կարող են մուտք գործել Cerebras-ի հաշվողական հզորություն՝ առանց հիմքում ընկած ենթակառուցվածքը կառավարելու: Այն հեշտացնում է բարդ մոդելների ուսուցման գործընթացը՝ պոտենցիալ նվազեցնելով արհեստական ինտելեկտով աշխատող ապրանքների և ծառայությունների շուկա դուրս գալու ժամանակը: Համագործակցությունն ազդարարում է AWS-ի հանձնառությունը՝ ապահովելու ընտրություն և առաջադեմ կատարողականություն իր ներքին սիլիկոնից դուրս, ինչպիսիք են Trainium-ը և Inferentia-ն:
Ինչու՞ ուղեղներ: Վաֆլի կշեռքի շարժիչի առավելությունը Cerebras Systems-ը աչքի է ընկել AI չիպերի շուկայում իր արմատական դիզայնի փիլիսոփայությամբ: Շատ փոքր չիպեր օգտագործելու փոխարեն, Cerebras-ը կառուցում է մեկ, հսկա պրոցեսոր՝ ամբողջ սիլիկոնային վաֆլի չափով: Այս Wafer-Scale Engine-ը (WSE) երբևէ ստեղծված ամենամեծ չիպն է և ճարտարապետապես եզակի է: AI բիզնես հավելվածների համար այս մոտեցման հիմնական առավելությունները խորն են.
Զանգվածային հիշողություն On-Chip. WSE-ն ունի հսկայական քանակությամբ գերարագ հիշողություն անմիջապես պրոցեսորի վրա: Սա չափազանց կարևոր է մեծ լեզուների մոդելներ պատրաստելու համար, քանի որ նվազագույնի է հասցնում տվյալների դանդաղ շարժումը չիպի և արտաքին հիշողության միջև: Աննախադեպ թողունակություն. մեկ վաֆլի վրա միջուկների միջև հաղորդակցությունը էքսպոնենցիալ ավելի արագ է, քան ցանցի միջոցով միացված դիսկրետ չիպերի միջև: Սա վերացնում է AI-ի բաշխված ուսուցման հիմնական խոչընդոտը: Պարզեցված ծրագրավորում. մշակողները կարող են ծրագրավորել այս հսկայական սարքը որպես մեկ միասնական համակարգ, այլ ոչ թե հազարավոր GPU-ների բարդ կլաստեր՝ պարզեցնելով մոդելի մշակումն ու տեղակայումը:
Ազդեցությունը Cloud AI-ի կատարողականի և մատչելիության վրա Այս AWS-Cerebras ծառայության հիմնական խոստումը կատարողականի կտրուկ խթանումն է AI մոդելների մարզման և գործարկման համար: Բիզնեսների համար դա նշանակում է ավելի արագ նորարարության ցիկլեր և ավելի ցածր հաշվողական ծախսեր: Առաջադրանքները, որոնք նախկինում սովորական սարքավորումների վրա տևում էին շաբաթներ, կարող էին ավարտվել օրերի կամ նույնիսկ ժամերի ընթացքում: Այս կատարողական թռիչքը ավելի մատչելի է դարձնում AI-ի առաջադեմ հետազոտությունն ու զարգացումը: Ստարտափները և ակադեմիական հաստատությունները, որոնք չեն կարող իրենց թույլ տալ սեփական սուպերհամակարգիչները կառուցել, այժմ կարող են ժամանակ վարձել համաշխարհային կարգի AI ապարատով` ծանոթ ամպային ինտերֆեյսի միջոցով: Այն ժողովրդավարացնում է մուտքը դեպի հաշվողական կրակային ուժ, որն անհրաժեշտ է AI-ի ասպարեզում մրցելու համար: Մենք տեսել ենք, որ նմանատիպ ռազմավարական գործընկերությունները արագացնում են նորարարությունը այլ տեխնոլոգիական ոլորտներում: Օրինակ, NanoClaw-ի ստեղծողի վայրի վեց շաբաթը, որը հանգեցրեց Docker-ի հետ գործարքի, ցույց է տալիս, թե ինչպես հարթակային հսկայի հետ համապատասխանեցումը կարող է հսկայական լծակներ ապահովել մասնագիտացված տեխնոլոգիայի համար:
Ինտեգրում Amazon Bedrock-ի հետ. ռազմավարական խաղ Cerebras ծառայության հյուրընկալումը Amazon Bedrock-ում վարպետության հարված է: Bedrock-ը AWS-ի կառավարվող ծառայությունն է հիմքի մոդելների համար, որը տրամադրում է միասնական գործիքակազմ՝ գեներատիվ AI հավելվածներ ստեղծելու համար: Ավելացնելով Cerebras որպես backend տարբերակ, AWS-ը հասնում է մի քանի ռազմավարական նպատակների.
Ընդլայնված արժեքի առաջարկ. այն Bedrock-ին դարձնում է ավելի գրավիչ միակողմանի խանութ՝ առաջարկելով ինչպես AI-ի առաջատար մոդելներ, այնպես էլ այժմ՝ էլիտար մակարդակի ուսուցման սարքավորումներ: Էկոհամակարգի արգելափակում. Այն խրախուսում է ծրագրավորողներին կառուցել, վերապատրաստել և տեղակայել իրենց մոդելները ամբողջությամբ AWS էկոհամակարգի ներսում՝ տվյալների պահեստավորումից մինչև հավելվածի վերջնական հոսթինգ: Մրցակցային տարբերակում. այն ուղղակիորեն հակազդում է նմանատիպ քայլերինմրցակիցներ, ինչպիսիք են Microsoft Azure-ը և Google Cloud-ը, որոնք նույնպես ագրեսիվ համագործակցում են չիպերի նորարարների հետ:
Ավելի լայն ազդեցություն AI-ի և տեխնոլոգիական արդյունաբերության համար Այս գործարքը նշան է AI ենթակառուցվածքի ապագայի համար: Այն հաստատում է, որ ոչ մի ընկերություն, նույնիսկ այնպիսի ամպային տիտան, ինչպիսին Amazon-ն է, չի կարող ունենալ ամբողջ փաթեթը: Մասնագիտացված ապարատային նորարարները, ինչպիսին է Cerebras-ը, վճռորոշ դեր կխաղան հնարավորի սահմանները առաջ մղելու հարցում: Արհեստական ինտելեկտի գերակայության համար մրցավազքը մղվում է բազմաթիվ ճակատներում՝ չիպերի դիզայնից մինչև մոդելային ճարտարապետություն: Այս համագործակցությունը ընդգծում է, որ ամպային հարթակի արագաշարժությունը՝ դասի լավագույն տեխնոլոգիաները արագ ինտեգրելու ունակությունը, նույնքան կարևոր է, որքան չմշակված R&D ծախսերը: Հաղթող հարթակները կլինեն այն հարթակները, որոնք կարող են առաջարկել հզոր, հեշտ օգտագործման գործիքների ամենալայն տեսականի: Մրցակցային առավելությունների համար մասնագիտացված տեխնոլոգիաների օգտագործման այս միտումը չի սահմանափակվում ամպային հաշվարկով: Մենք դա տեսնում ենք ժամանցի տվյալների վերլուծության մեջ, ինչպես ուսումնասիրված է «Ինչպես գումար վաստակել՝ կանխատեսելով «Օսկար»-ի շահումները և «Box Office Hits With MoviePass»-ի նոր արտադրանքը, և նույնիսկ սպորտում, ինչպես երևում է արագ աճող Kings League-ի կողմից, որը ցանկանում է նվաճել Ամերիկան՝ Pro Sports-ի նիհար մոտեցմամբ:
Ինչ սպասել առաջիկա ամիսներին Շուտով սպասվում է մեկնարկը, արդյունաբերությունը կհետևի հիմնական մանրամասներին: Գնագոյացման մոդելները, կոնկրետ օրինակների տեսակները և հենանիշի կատարողականի տվյալները չափազանց կարևոր կլինեն ընդունման համար: Վաղ մուտքի հաճախորդները հավանաբար կներառեն AI հետազոտական լաբորատորիաներ և խոշոր ձեռնարկություններ՝ սեփական տվյալների հավաքածուներով: Հաջողությունը չափվելու է նրանով, թե որքանով է ծառայությունը անխափան կերպով ինտեգրվում արհեստական ինտելեկտի առկա աշխատանքային հոսքերին և արդյոք այն կատարում է աննախադեպ արագության և մասշտաբի խոստումը: Եթե դա տեղի ունենա, ապա այն կարող է կատալիզացնել արհեստական ինտելեկտի նորարարության նոր ալիքը՝ հնարավորություն տալով մոդելներին, որոնք ներկայումս անիրագործելի են հաշվողական սահմանափակումների պատճառով:
Եզրակացություն. Նոր գլուխ Cloud-Native AI-ի համար AWS-ի և Cerebras չիպերի գործարքը ավելին է, քան նոր արտադրանքի թողարկումը. դա ռազմավարական շեղման կետ է: Այն ներկայացնում է ամպային արհեստական ինտելեկտի շուկայի հասունացումը, որտեղ աշխատանքի օպտիմիզացումը մասնագիտացված սարքավորումների միջոցով դառնում է առաջնային մարտադաշտ: Բիզնեսների համար դա նշանակում է ավելի արագ, ավելի ծախսարդյունավետ ճանապարհներ դեպի հզոր AI լուծումներ տեղակայելու համար: Արագ զարգացող տեխնոլոգիական լանդշաֆտում առաջ մնալը պահանջում է պատկերացումներ այս առանցքային գործընկերությունների և շուկայի տեղաշարժերի վերաբերյալ: Տեխնոլոգիաների և բիզնեսի ապագան կերտող ռազմավարությունների վերաբերյալ լրացուցիչ վերլուծության համար ուսումնասիրեք փորձագիտական մեկնաբանությունները և խորը զեկույցները, որոնք հասանելի են Seemless-ում: