AWS ມີຈຸດປະສົງເພື່ອຊຸກຍູ້ທຸລະກິດ AI ດ້ວຍ Cerebras Chip Deal Amazon Web Services (AWS) ກໍາລັງດໍາເນີນການຍຸດທະສາດເພື່ອເພີ່ມຄວາມສາມາດທາງດ້ານປັນຍາທຽມຂອງຕົນໂດຍຜ່ານການຮ່ວມມືໃຫມ່ກັບ AI chip startup Cerebras Systems. ການຮ່ວມມືນີ້ມີຈຸດປະສົງເພື່ອເພີ່ມປະສິດທິພາບຢ່າງຫຼວງຫຼາຍຂອງແອັບພລິເຄຊັນ AI ທີ່ສັບສົນທີ່ແລ່ນຢູ່ໃນຄລາວ. ການບໍລິການທີ່ຈະມາເຖິງ, ກໍານົດຈະເປີດຕົວພາຍໃນຫຼາຍເດືອນ, ຈະລວມເອົາຮາດແວທີ່ເປັນເອກະລັກຂອງ Cerebras ເຂົ້າໄປໃນເວທີການສ້າງແອັບພລິເຄຊັນ Bedrock ຂອງ AWS, ເຊິ່ງເປັນຈຸດສໍາຄັນໃນການແຂ່ງຂັນໂຄງສ້າງພື້ນຖານຂອງ cloud AI. ຂໍ້ຕົກລົງນີ້ຊີ້ໃຫ້ເຫັນການແຂ່ງຂັນທີ່ຮຸນແຮງລະຫວ່າງຜູ້ໃຫ້ບໍລິການຟັງເພື່ອສະເຫນີການຝຶກອົບຮົມ AI ທີ່ມີປະສິດທິພາບແລະປະສິດທິພາບທີ່ສຸດແລະສະພາບແວດລ້ອມ inference. ໂດຍການໃຊ້ເທັກໂນໂລຍີ chip wafer-scale ທີ່ເປັນນະວັດຕະກໍາຂອງ Cerebras, AWS ກໍາລັງຕັ້ງຕົວມັນເອງເພື່ອດຶງດູດວິສາຫະກິດແລະຜູ້ພັດທະນາທີ່ເຮັດວຽກຢູ່ໃນຮູບແບບພາສາຂະຫນາດໃຫຍ່ແລະ AI ການຜະລິດຕໍ່ໄປ.
ການຖອດລະຫັດ AWS ແລະ Cerebras Partnership ຫຼັກຂອງການປະກາດນີ້ແມ່ນການບໍລິການຄລາວໃໝ່ທີ່ຂັບເຄື່ອນໂດຍຮາດແວພິເສດຂອງ Cerebras. ນີ້ບໍ່ແມ່ນພຽງແຕ່ຕົວຢ່າງເຄື່ອງ virtual ອື່ນເທົ່ານັ້ນ; ມັນສະແດງເຖິງການແກ້ໄຂປະສົມປະສານຢ່າງເລິກເຊິ່ງທີ່ອອກແບບມາຈາກພື້ນຖານສໍາລັບວຽກງານ AI ຂະຫນາດໃຫຍ່. ການບໍລິການຈະສາມາດໃຊ້ໄດ້ໂດຍກົງຜ່ານ Amazon Bedrock, ການບໍລິການທີ່ຄຸ້ມຄອງຂອງບໍລິສັດສໍາລັບການກໍ່ສ້າງຄໍາຮ້ອງສະຫມັກ AI ທົ່ວໄປ. ການເຊື່ອມໂຍງນີ້ຫມາຍຄວາມວ່ານັກພັດທະນາສາມາດເຂົ້າເຖິງພະລັງງານຄອມພິວເຕີ້ຂອງ Cerebras ໂດຍບໍ່ຕ້ອງຈັດການໂຄງສ້າງພື້ນຖານ. ມັນເຮັດໃຫ້ຂະບວນການເຝິກອົບຮົມແບບຈຳລອງທີ່ຊັບຊ້ອນໄດ້ງ່າຍຂຶ້ນ, ອາດຈະຫຼຸດເວລາອອກສູ່ຕະຫຼາດສຳລັບຜະລິດຕະພັນ ແລະການບໍລິການທີ່ໃຊ້ AI. ການຮ່ວມມືດັ່ງກ່າວເປັນສັນຍານເຖິງຄວາມມຸ່ງໝັ້ນຂອງ AWS ໃນການສະໜອງທາງເລືອກ ແລະປະສິດທິພາບທີ່ທັນສະໄໝເກີນກວ່າຊິລິຄອນພາຍໃນຂອງຕົນເອງ ເຊັ່ນ: Trainium ແລະ Inferentia.
ເປັນຫຍັງ Cerebras? ຄວາມໄດ້ປຽບຂອງເຄື່ອງຈັກ Wafer-Scale Cerebras Systems ໄດ້ແຍກຕົວມັນເອງໃນຕະຫຼາດຊິບ AI ດ້ວຍປັດຊະຍາການອອກແບບຮາກຂອງມັນ. ແທນທີ່ຈະໃຊ້ຊິບນ້ອຍໆຫຼາຍອັນ, Cerebras ກໍ່ສ້າງໂຮງງານຜະລິດອັນດຽວ, ຂະໜາດໃຫຍ່ຂະໜາດຂອງຊິລິຄອນ wafer ທັງໝົດ. Wafer-Scale Engine (WSE) ນີ້ແມ່ນຊິບໃຫຍ່ທີ່ສຸດເທົ່າທີ່ເຄີຍສ້າງມາ ແລະເປັນສະຖາປັດຕະຍະກຳທີ່ເປັນເອກະລັກ. ຂໍ້ໄດ້ປຽບທີ່ສໍາຄັນຂອງວິທີການນີ້ສໍາລັບຄໍາຮ້ອງສະຫມັກທຸລະກິດ AI ແມ່ນເລິກເຊິ່ງ:
Massive Memory On-Chip: WSE ປະກອບດ້ວຍຫນ່ວຍຄວາມຈໍາຄວາມໄວສູງທີ່ມີຈໍານວນມະຫາສານໂດຍກົງຢູ່ໃນໂປເຊດເຊີ. ນີ້ແມ່ນສິ່ງສໍາຄັນສໍາລັບການຝຶກອົບຮົມຮູບແບບພາສາຂະຫນາດໃຫຍ່, ຍ້ອນວ່າມັນຫຼຸດຜ່ອນການເຄື່ອນໄຫວຂອງຂໍ້ມູນຊ້າລົງລະຫວ່າງຊິບແລະຫນ່ວຍຄວາມຈໍາພາຍນອກ. ແບນວິດທີ່ບໍ່ເຄີຍມີມາກ່ອນ: ການສື່ສານລະຫວ່າງແກນໃນ wafer ດຽວແມ່ນໄວກວ່າຕົວເລກທີ່ໄວກວ່າລະຫວ່າງຊິບແຍກທີ່ເຊື່ອມຕໍ່ຜ່ານເຄືອຂ່າຍ. ນີ້ຈະລົບລ້າງການຂອດທີ່ສໍາຄັນໃນການຝຶກອົບຮົມ AI ທີ່ແຈກຢາຍ. ການຂຽນໂປລແກລມແບບງ່າຍໆ: ນັກພັດທະນາສາມາດຕັ້ງໂປຣແກມອຸປະກອນອັນໃຫຍ່ຫຼວງນີ້ເປັນລະບົບດຽວ, ເອກະພາບແທນທີ່ຈະເປັນກຸ່ມທີ່ຊັບຊ້ອນຂອງ GPU ຫຼາຍພັນໂຕ, ເຮັດໃຫ້ການພັດທະນາແບບຈໍາລອງ ແລະ ການນຳໃຊ້ງ່າຍ.
ຜົນກະທົບຕໍ່ປະສິດທິພາບ Cloud AI ແລະການເຂົ້າເຖິງ ຄໍາສັນຍາຕົ້ນຕໍຂອງການບໍລິການ AWS-Cerebras ນີ້ແມ່ນການເພີ່ມປະສິດທິພາບຢ່າງຫຼວງຫຼາຍໃນການປະຕິບັດສໍາລັບການຝຶກອົບຮົມແລະການແລ່ນແບບ AI. ສໍາລັບທຸລະກິດ, ນີ້ແປວ່າວົງຈອນການປະດິດສ້າງໄວຂຶ້ນແລະຄ່າໃຊ້ຈ່າຍໃນຄອມພິວເຕີ້ຕ່ໍາ. ວຽກງານທີ່ເຄີຍໃຊ້ເວລາຫຼາຍອາທິດໃນຮາດແວແບບດັ້ງເດີມສາມາດສໍາເລັດໃນມື້ຫຼືແມ້ກະທັ້ງຊົ່ວໂມງ. ການກ້າວກະໂດດດ້ານປະສິດທິພາບນີ້ເຮັດໃຫ້ການຄົ້ນຄວ້າ ແລະການພັດທະນາ AI ຂັ້ນສູງສາມາດເຂົ້າເຖິງໄດ້ຫຼາຍຂຶ້ນ. ການເລີ່ມຕົ້ນ ແລະສະຖາບັນການສຶກສາທີ່ບໍ່ສາມາດທີ່ຈະສ້າງຄອມພິວເຕີຊຸບເປີຄອມພິວເຕີຂອງຕົນເອງໄດ້ໃນປັດຈຸບັນສາມາດເຊົ່າເວລາໃນຮາດແວ AI ລະດັບໂລກໄດ້ຜ່ານການໂຕ້ຕອບຄລາວທີ່ຄຸ້ນເຄີຍ. ມັນ democratizes ການເຂົ້າເຖິງ firepower ຄອມພິວເຕີທີ່ຈໍາເປັນເພື່ອແຂ່ງຂັນໃນສະຫນາມກິລາ AI. ພວກເຮົາໄດ້ເຫັນການຮ່ວມມືຍຸດທະສາດທີ່ຄ້າຍຄືກັນເລັ່ງນະວັດຕະກໍາໃນຂະແຫນງເຕັກໂນໂລຊີອື່ນໆ. ຕົວຢ່າງເຊັ່ນ, The wild ຫົກອາທິດສໍາລັບຜູ້ສ້າງ NanoClaw ທີ່ນໍາໄປສູ່ການຕົກລົງກັບ Docker ສະແດງໃຫ້ເຫັນວ່າການສອດຄ່ອງກັບຍັກໃຫຍ່ຂອງເວທີສາມາດສະຫນອງພະລັງງານຢ່າງຫຼວງຫຼາຍສໍາລັບເຕັກໂນໂລຢີພິເສດ.
ການປະສົມປະສານກັບ Amazon Bedrock: ການຫຼິ້ນຍຸດທະສາດ ການເປັນເຈົ້າພາບການບໍລິການ Cerebras ພາຍໃນ Amazon Bedrock ແມ່ນ masterstroke. Bedrock ແມ່ນການບໍລິການຄຸ້ມຄອງຂອງ AWS ສໍາລັບຮູບແບບພື້ນຖານ, ສະຫນອງຊຸດເຄື່ອງມືທີ່ປະສົມປະສານສໍາລັບການກໍ່ສ້າງແອັບຯ AI ທົ່ວໄປ. ໂດຍການເພີ່ມ Cerebras ເປັນທາງເລືອກ backend, AWS ບັນລຸເປົ້າຫມາຍຍຸດທະສາດຫຼາຍຢ່າງ:
ການສະເຫນີມູນຄ່າທີ່ປັບປຸງໃຫ້ດີຂຶ້ນ: ມັນເຮັດໃຫ້ Bedrock ເປັນຮ້ານດຽວທີ່ດຶງດູດໃຈຫຼາຍຂຶ້ນ, ສະເຫນີໃຫ້ທັງສອງຮູບແບບ AI ຊັ້ນນໍາແລະໃນປັດຈຸບັນ, ຮາດແວການຝຶກອົບຮົມຊັ້ນສູງ. ລະບົບນິເວດ Lock-in: ມັນຊຸກຍູ້ໃຫ້ນັກພັດທະນາສ້າງ, ຝຶກອົບຮົມ, ແລະນໍາໃຊ້ຕົວແບບຂອງພວກເຂົາທັງຫມົດພາຍໃນລະບົບນິເວດ AWS, ຈາກການເກັບຮັກສາຂໍ້ມູນຈົນເຖິງຄໍາຮ້ອງສະຫມັກສຸດທ້າຍ. ຄວາມແຕກຕ່າງທາງດ້ານການແຂ່ງຂັນ: ມັນກົງກັບການເຄື່ອນໄຫວທີ່ຄ້າຍຄືກັນໂດຍກົງຄູ່ແຂ່ງເຊັ່ນ Microsoft Azure ແລະ Google Cloud, ຜູ້ທີ່ເປັນຄູ່ຮ່ວມງານຢ່າງຮຸກຮານກັບຜູ້ປະດິດສ້າງຊິບ.
ຜົນກະທົບທີ່ກວ້າງຂວາງສໍາລັບອຸດສາຫະກໍາ AI ແລະເຕັກໂນໂລຢີ ຂໍ້ຕົກລົງນີ້ແມ່ນເປັນຄວາມຫຍຸ້ງຍາກສໍາລັບອະນາຄົດຂອງໂຄງລ່າງ AI. ມັນຢືນຢັນວ່າບໍ່ມີບໍລິສັດດຽວ, ບໍ່ແມ່ນແຕ່ cloud titan ເຊັ່ນ Amazon, ສາມາດເປັນເຈົ້າຂອງ stack ທັງຫມົດ. ຜູ້ປະດິດສ້າງຮາດແວພິເສດເຊັ່ນ Cerebras ຈະມີບົດບາດສໍາຄັນໃນການຊຸກຍູ້ຂອບເຂດຂອງສິ່ງທີ່ເປັນໄປໄດ້. ການແຂ່ງຂັນເພື່ອຄວາມສູງສຸດຂອງ AI ກໍາລັງຖືກຕໍ່ສູ້ຢູ່ໃນຫຼາຍດ້ານ, ຈາກການອອກແບບຊິບຈົນເຖິງສະຖາປັດຕະຍະກໍາແບບຈໍາລອງ. ການຮ່ວມມືນີ້ເນັ້ນໃຫ້ເຫັນເຖິງຄວາມວ່ອງໄວຂອງແພລດຟອມຄລາວ—ຄວາມສາມາດໃນການລວມເອົາເທັກໂນໂລຍີທີ່ດີທີ່ສຸດໃນຫ້ອງຮຽນຢ່າງວ່ອງໄວ—ແມ່ນມີຄວາມສຳຄັນເທົ່າກັບການໃຊ້ຈ່າຍ R&D ດິບ. ເວທີທີ່ຊະນະຈະເປັນຜູ້ທີ່ສາມາດສະເຫນີໃຫ້ກວ້າງຂວາງທີ່ສຸດຂອງເຄື່ອງມືທີ່ມີປະສິດທິພາບ, ງ່າຍຕໍ່ການນໍາໃຊ້. ທ່າອ່ຽງຂອງການໃຊ້ເທກໂນໂລຍີສະເພາະດ້ານການແຂ່ງຂັນນີ້ບໍ່ຈຳກັດພຽງແຕ່ການຄອມພິວເຕີຄລາວເທົ່ານັ້ນ. ພວກເຮົາເຫັນມັນຢູ່ໃນການວິເຄາະຂໍ້ມູນຄວາມບັນເທີງ, ດັ່ງທີ່ຄົ້ນພົບໃນວິທີການຫາເງິນທີ່ຄາດຄະເນການຊະນະຂອງ Oscar ແລະ Box Office Hits ກັບຜະລິດຕະພັນໃຫມ່ຂອງ MoviePass, ແລະແມ້ແຕ່ຢູ່ໃນກິລາ, ດັ່ງທີ່ເຫັນກັບ Kings League ທີ່ເຕີບໂຕໄວທີ່ກໍາລັງຈະເອົາຊະນະອາເມລິກາດ້ວຍວິທີການ Lean ກັບ Pro Sports.
ສິ່ງທີ່ຄາດຫວັງໃນເດືອນຂ້າງຫນ້າ ດ້ວຍການເປີດຕົວຄາດວ່າຈະໄວໆນີ້, ອຸດສາຫະກໍາຈະໄດ້ຮັບການສັງເກດເບິ່ງສໍາລັບລາຍລະອຽດທີ່ສໍາຄັນ. ຮູບແບບລາຄາ, ປະເພດຕົວຢ່າງສະເພາະ, ແລະຂໍ້ມູນການປະຕິບັດມາດຕະຖານຈະເປັນສິ່ງສໍາຄັນສໍາລັບການຮັບຮອງເອົາ. ລູກຄ້າທີ່ເຂົ້າເຖິງກ່ອນໄວອັນຄວນມີຫ້ອງທົດລອງຄົ້ນຄວ້າ AI ແລະວິສາຫະກິດຂະໜາດໃຫຍ່ທີ່ມີຊຸດຂໍ້ມູນທີ່ເປັນເຈົ້າຂອງ. ຄວາມສໍາເລັດຈະຖືກວັດແທກໂດຍວິທີການທີ່ການບໍລິການປະສົມປະສານເຂົ້າໄປໃນຂະບວນການເຮັດວຽກຂອງ AI ທີ່ມີຢູ່ຢ່າງບໍ່ຢຸດຢັ້ງແລະວ່າມັນສະຫນອງການສັນຍາຂອງຄວາມໄວແລະຂະຫນາດທີ່ບໍ່ເຄີຍມີມາກ່ອນ. ຖ້າມັນເຮັດໄດ້, ມັນສາມາດກະຕຸ້ນຄື້ນໃຫມ່ຂອງນະວັດຕະກໍາ AI, ເຊິ່ງເຮັດໃຫ້ຕົວແບບທີ່ບໍ່ສາມາດປະຕິບັດໄດ້ເນື່ອງຈາກຂໍ້ຈໍາກັດດ້ານຄອມພິວເຕີ້.
ສະຫຼຸບ: ບົດໃຫມ່ສໍາລັບ Cloud-Native AI ຂໍ້ຕົກລົງຊິບ AWS ແລະ Cerebras ແມ່ນຫຼາຍກ່ວາການເປີດຕົວຜະລິດຕະພັນໃຫມ່; ມັນເປັນຈຸດ inflection ຍຸດທະສາດ. ມັນສະແດງເຖິງການເຕີບໃຫຍ່ຂອງຕະຫຼາດ cloud AI, ບ່ອນທີ່ການເພີ່ມປະສິດທິພາບການເຮັດວຽກຜ່ານຮາດແວພິເສດກາຍເປັນສະຫນາມຮົບຕົ້ນຕໍ. ສໍາລັບທຸລະກິດ, ນີ້ຫມາຍເຖິງເສັ້ນທາງທີ່ໄວກວ່າ, ປະຫຍັດຄ່າໃຊ້ຈ່າຍຫຼາຍໃນການນໍາໃຊ້ວິທີແກ້ໄຂ AI ທີ່ມີປະສິດທິພາບ. ການສືບຕໍ່ເດີນໜ້າໃນພູມສັນຖານດ້ານເທັກໂນໂລຍີທີ່ພັດທະນາໄວນັ້ນ ຕ້ອງການຄວາມເຂົ້າໃຈກ່ຽວກັບການຮ່ວມມືທີ່ສຳຄັນເຫຼົ່ານີ້ ແລະການປ່ຽນແປງຂອງຕະຫຼາດ. ສໍາລັບການວິເຄາະເພີ່ມເຕີມກ່ຽວກັບຍຸດທະສາດການສ້າງອະນາຄົດຂອງເຕັກໂນໂລຢີແລະທຸລະກິດ, ຄົ້ນຫາຄໍາຄິດຄໍາເຫັນຂອງຜູ້ຊ່ຽວຊານແລະບົດລາຍງານໃນຄວາມເລິກທີ່ມີຢູ່ໃນ Seemless.