AWS імкнецца пашырыць бізнес у сферы штучнага інтэлекту з дапамогай здзелкі з чыпамі Cerebras Amazon Web Services (AWS) робіць стратэгічны крок, каб павялічыць свае магчымасці штучнага інтэлекту праз новае партнёрства са стартапам Cerebras Systems, які займаецца стварэннем чыпаў штучнага інтэлекту. Гэта супрацоўніцтва накіравана на значнае павышэнне прадукцыйнасці складаных прыкладанняў AI, якія працуюць у воблаку. Будучы сэрвіс, які плануецца запусціць на працягу некалькіх месяцаў, будзе інтэграваць унікальнае абсталяванне Cerebras у платформу для стварэння прыкладанняў Bedrock ад AWS, што стане ключавым момантам у гонцы воблачнай інфраструктуры штучнага інтэлекту. Гэтая здзелка падкрэслівае інтэнсіўную канкурэнцыю паміж пастаўшчыкамі воблачных паслуг за прапанову найбольш магутных і эфектыўных асяроддзяў для навучання і вываду AI. Выкарыстоўваючы інавацыйную тэхналогію чыпаў Cerebras у вафельным маштабе, AWS пазіцыянуе сябе, каб прыцягнуць прадпрыемствы і распрацоўшчыкаў, якія працуюць над наступным пакаленнем вялікіх моўных мадэляў і генератыўнага штучнага інтэлекту.

Расшыфроўка партнёрства AWS і Cerebras Ядром гэтага аб'явы з'яўляецца новая воблачная служба на базе спецыялізаванага абсталявання Cerebras. Гэта не проста яшчэ адзін асобнік віртуальнай машыны; ён уяўляе сабой глыбока інтэграванае рашэнне, распрацаванае з нуля для масавых нагрузак штучнага інтэлекту. Сэрвіс будзе даступны непасрэдна праз Amazon Bedrock, кіраваны сэрвіс кампаніі для стварэння генератыўных прыкладанняў штучнага інтэлекту. Гэтая інтэграцыя азначае, што распрацоўшчыкі могуць атрымаць доступ да вылічальнай магутнасці Cerebras без кіравання асноўнай інфраструктурай. Гэта спрашчае працэс навучання складаных мадэляў, патэнцыйна скарачаючы час выхаду на рынак прадуктаў і паслуг на базе AI. Партнёрства сведчыць аб прыхільнасці AWS прадастаўляць выбар і перадавую прадукцыйнасць за межамі ўласнага крэмнію, напрыклад Trainium і Inferentia.

Чаму Cerebras? Перавага Wafer-Scale Engine Кампанія Cerebras Systems вызначылася на рынку мікрасхем AI сваёй радыкальнай філасофіяй дызайну. Замест таго, каб выкарыстоўваць мноства маленькіх чыпаў, Cerebras стварае адзіны гіганцкі працэсар памерам з цэлую крэмніевую пласціну. Гэты механізм Wafer-Scale Engine (WSE) з'яўляецца самым вялікім чыпам, які калі-небудзь вырабляўся, і з'яўляецца унікальным па архітэктуры. Ключавыя перавагі гэтага падыходу для бізнес-праграм AI значныя:

Вялікая памяць на чыпе: WSE мае велізарную колькасць высакахуткаснай памяці непасрэдна на працэсары. Гэта вельмі важна для навучання вялікім моўным мадэлям, паколькі мінімізуе павольнае перамяшчэнне даных паміж чыпам і знешняй памяццю. Беспрэцэдэнтная прапускная здольнасць: сувязь паміж ядрамі на адной пласціне экспанентна хутчэй, чым паміж дыскрэтнымі чыпамі, падлучанымі па сетцы. Гэта ліквідуе асноўнае вузкае месца ў размеркаваным навучанні AI. Спрошчанае праграмаванне: Распрацоўшчыкі могуць запраграмаваць гэтую каласальную прыладу як адзіную ўніфікаваную сістэму, а не як складаны кластар з тысяч графічных працэсараў, што спрашчае распрацоўку і разгортванне мадэлі.

Уплыў на прадукцыйнасць і даступнасць Cloud AI Асноўнае абяцанне гэтага сэрвісу AWS-Cerebras - рэзкае павышэнне прадукцыйнасці для навучання і запуску мадэляў штучнага інтэлекту. Для прадпрыемстваў гэта азначае больш хуткія цыклы інавацый і меншыя вылічальныя выдаткі. Задачы, якія раней займалі некалькі тыдняў на звычайным абсталяванні, можна было выканаць за некалькі дзён ці нават гадзін. Гэты скачок прадукцыйнасці робіць перадавыя даследаванні і распрацоўкі штучнага інтэлекту больш даступнымі. Стартапы і акадэмічныя ўстановы, якія не маглі дазволіць сабе стварэнне ўласных суперкампутараў, цяпер могуць арандаваць час на абсталяванні штучнага інтэлекту сусветнага класа праз знаёмы воблачны інтэрфейс. Гэта дэмакратызуе доступ да вылічальнай агнявой моцы, неабходнай для канкурэнцыі на арэне штучнага інтэлекту. Мы бачылі, што падобнае стратэгічнае партнёрства паскарае інавацыі ў іншых тэхналагічных сектарах. Напрыклад, «Шэсць дзікіх тыдняў для стваральніка NanoClaw, якія прывялі да здзелкі з Docker», паказвае, як узгадненне з гігантам платформы можа даць велізарныя рычагі для спецыялізаванай тэхналогіі.

Інтэграцыя з Amazon Bedrock: стратэгічная гульня Размяшчэнне сэрвісу Cerebras у Amazon Bedrock - гэта майстэрства. Bedrock - гэта кіраваны сэрвіс AWS для базавых мадэляў, які забяспечвае адзіны набор інструментаў для стварэння генератыўных праграм штучнага інтэлекту. Дадаючы Cerebras у якасці бэкэнд-опцыі, AWS дасягае некалькіх стратэгічных мэтаў:

Палепшаная прапанова: гэта робіць Bedrock больш прывабным універсальным магазінам, які прапануе як вядучыя мадэлі штучнага інтэлекту, так і навучальнае абсталяванне элітнага ўзроўню. Блакаванне экасістэмы: гэта заахвочвае распрацоўшчыкаў ствараць, навучаць і разгортваць свае мадэлі цалкам у экасістэме AWS, ад захоўвання даных да канчатковага хостынгу прыкладанняў. Канкурэнтная дыферэнцыяцыя: гэта непасрэдна супрацьстаіць падобным крокамтакіх канкурэнтаў, як Microsoft Azure і Google Cloud, якія таксама актыўна супрацоўнічаюць з наватарамі чыпаў.

Больш шырокія наступствы для ІІ і індустрыі тэхналогій Гэтая здзелка з'яўляецца вядомым для будучыні інфраструктуры штучнага інтэлекту. Гэта пацвярджае, што ні адна кампанія, нават такі хмарны тытан, як Amazon, не можа валодаць усім стэкам. Наватары спецыялізаванага апаратнага забеспячэння, такія як Cerebras, адыграюць вырашальную ролю ў рассоўванні межаў магчымага. Барацьба за перавагу ІІ вядзецца на некалькіх франтах, ад дызайну мікрасхем да архітэктуры мадэляў. Гэта партнёрства падкрэслівае, што манеўранасць воблачнай платформы — здольнасць хутка інтэграваць найлепшыя ў сваім класе тэхналогіі — такая ж важная, як і выдаткі на даследаванні і распрацоўкі. Выйграюць платформы, якія могуць прапанаваць самы шырокі спектр магутных, простых у выкарыстанні інструментаў. Гэтая тэндэнцыя выкарыстання спецыялізаваных тэхналогій для атрымання канкурэнтнай перавагі не абмяжоўваецца хмарнымі вылічэннямі. Мы бачым гэта ў аналітыцы забаўляльных даных, пра што распавядаецца ў артыкуле «Як зарабіць грошы, прадказваючы перамогі на Оскар і касавых зборах з дапамогай новага прадукту MoviePass», і нават у спорце, як гэта відаць з хуткарослай Лігі каралёў, якая імкнецца заваяваць Амерыку з беражлівым падыходам да прафесійнага спорту.

Чаго чакаць у бліжэйшыя месяцы Паколькі запуск чакаецца ў бліжэйшы час, галіна будзе сачыць за ключавымі дэталямі. Мадэлі цэнаўтварэння, канкрэтныя тыпы асобнікаў і эталонныя даныя прадукцыйнасці будуць мець вырашальнае значэнне для прыняцця. Кліенты ранняга доступу, верагодна, будуць уключаць даследчыя лабараторыі штучнага інтэлекту і буйныя прадпрыемствы з уласнымі наборамі даных. Поспех будзе вымярацца тым, наколькі бесперашкодна сэрвіс інтэгруецца ў існуючыя працоўныя працэсы штучнага інтэлекту і ці выконвае ён абяцанне беспрэцэдэнтнай хуткасці і маштабу. Калі гэта адбудзецца, гэта можа стаць каталізатарам новай хвалі інавацый штучнага інтэлекту, уключыўшы мадэлі, якія ў цяперашні час непрактычныя з-за вылічальных абмежаванняў.

Выснова: новая глава для воблачнага AI Здзелка з чыпамі AWS і Cerebras - гэта больш, чым запуск новага прадукту; гэта стратэгічны пункт пералому. Ён уяўляе сабой сталенне воблачнага рынку штучнага інтэлекту, дзе аптымізацыя прадукцыйнасці з дапамогай спецыялізаванага абсталявання становіцца галоўным полем бітвы. Для прадпрыемстваў гэта азначае больш хуткія і эканамічна эфектыўныя шляхі разгортвання магутных рашэнняў штучнага інтэлекту. Каб заставацца наперадзе ў тэхналагічным ландшафце, які хутка развіваецца, неабходна разуменне гэтых ключавых партнёрстваў і зрухаў на рынку. Каб атрымаць дадатковы аналіз стратэгій, якія вызначаюць будучыню тэхналогій і бізнесу, вывучыце каментарыі экспертаў і падрабязныя справаздачы, даступныя на Seemless.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free