Ano ang Compute Express Link (CXL)? Ang pandaigdigang AI boom ay lumikha ng isang matinding kakulangan ng memory chip. Pinapabilis na ngayon ng mga higanteng tech tulad ng Google at Nvidia ang kanilang pamumuhunan sa Compute Express Link (CXL) bilang isang pangunahing alternatibong teknolohiya ng memorya. Ang pagbabagong ito ay nagbibigay-daan sa mga server na mag-pool at magbahagi ng mga mapagkukunan ng memorya sa isang buong data center. Ang pag-ampon ng CXL ay nakakatulong na maibsan ang mga hadlang sa supply na nagpapalaki ng mga gastos sa memorya. Ito ay kumakatawan sa isang pangunahing pagbabago sa arkitektura ng data center, na lumalampas sa tradisyonal, nakahiwalay na mga pagsasaayos ng memorya.
Bakit Pinabilis ang Pag-ampon ng CXL Pagkatapos ng Mabagal na Pagsisimula Ang CXL ay hindi isang bagong teknolohiya; ito ay nasa pag-unlad nang humigit-kumulang pitong taon. Mabagal ang paunang paggamit nito, pangunahin dahil sa isang makabuluhang trade-off: maaari itong magpakilala ng latency, o maliliit na pagkaantala, sa mga paglilipat ng data. Sa mga workload ng AI, patuloy na kumukuha ang mga processor ng bagong data mula sa memorya para magsagawa ng mga kalkulasyon. Ang anumang pagkaantala sa prosesong ito ay maaaring makapagpabagal sa buong AI system. Sa loob ng maraming taon, ang parusa sa pagganap na ito ay lumampas sa mga potensyal na benepisyo para sa maraming kumpanya. Gayunpaman, ang pang-ekonomiyang tanawin ay lubhang nagbago. Ang tumataas na halaga at limitadong supply ng tradisyonal na memory chips ay nagpilit ng muling pagsusuri. Ang pagsusuri sa cost-benefit ngayon ay pinapaboran ang paggalugad ng mga teknolohiya tulad ng CXL, sa kabila ng mga kakulangan.
Ang Teknikal na Mekanika ng CXL Sa kaibuturan nito, ang Compute Express Link ay isang open-standard na interconnect na teknolohiya. Ito ay binuo sa pisikal at elektrikal na mga interface ng PCI Express (PCIe), na malawakang ginagamit sa mga modernong computer. Pinapanatili ng CXL ang pagkakaugnay ng memorya sa pagitan ng memorya ng CPU at ng memorya sa mga naka-attach na device. Nangangahulugan ito na maraming mga processor ang mahusay na makakapagbahagi ng mga mapagkukunan ng memorya, na nakikita ang isang pinag-isang, pare-parehong pagtingin sa data. Ang teknolohiya ay nagpapatakbo sa pamamagitan ng tatlong pangunahing protocol:
I/O Protocol: Gumagamit ng karaniwang PCIe para sa compatibility. Memory Protocol: Nagbibigay-daan sa host processor na ma-access ang memory sa mga CXL device. Coherency Protocol: Nagbibigay-daan sa mga device na mag-cache ng memorya, pinapanatiling naka-synchronize ang lahat.
Ang arkitektura na ito ay nagbibigay-daan sa isang "memory disaggregation" na modelo. Sa halip na pisikal na nakatali ang memorya sa bawat server, maaari itong isama sa isang sentral na mapagkukunan na maaaring i-tap ng maraming server kung kinakailangan.
Pagtugon sa Latency Challenge Ang pangunahing teknikal na hamon para sa CXL ay ang karagdagang latency mula sa data na naglalakbay sa isang network patungo sa nakabahaging memorya. Ang mga inhinyero ay tinatalakay ito sa maraming paraan. Ang mga bagong CXL controller at switch ay idinisenyo upang mabawasan ang pagkaantala. Ang mga pag-optimize ng software ay kritikal din, na tinitiyak na ang madalas na ina-access na "mainit" na data ay nananatiling malapit sa processor hangga't maaari. Para sa maraming hindi real-time na analytical at pagsasanay na mga workload, ang latency ay isang katanggap-tanggap na trade-off para sa pagkakaroon ng access sa mas malalaking memory pool. Ito ay partikular na totoo para sa malalaking modelo ng wika at kumplikadong set ng data.
Pag-ampon sa Industriya: Google, Nvidia, at Higit pa Ang pagbabago sa industriya ay pinamumunuan ng mga pangunahing manlalaro na may sukat na higit na makinabang. Ayon sa mga ulat mula sa mga empleyado, sinimulan ng Google na i-deploy ang teknolohiya ng CXL sa loob ng napakalaking data center nito. Kapag ang isang kumpanya na may katayuan sa Google ay nagpatibay ng isang bagong pamantayan, ito ay nagpapahiwatig ng kumpiyansa at kadalasang nag-uudyok ng mas malawak na paggamit ng industriya. Ang iba pang mga cloud provider at negosyo ay malamang na sumunod sa suit upang manatiling mapagkumpitensya. Ang Nvidia, isang pinuno sa hardware ng AI, ay isa ring malakas na tagapagtaguyod ng CXL. Ang teknolohiya ay umaakma sa kanilang mga GPU sa pamamagitan ng pagbibigay ng mga nasusukat na solusyon sa memorya para sa paghingi ng mga gawain sa pagsasanay sa AI. Ang madiskarteng hakbang na ito ay bahagi ng mas malawak na mga uso sa industriya, katulad ng mga tinalakay sa aming artikulo sa Nvidia Sprays the Cash; Ang SpaceX Defense ng FCC Chair. Ang mga pangunahing chipmaker tulad ng Intel, AMD, at Samsung ay isinasama rin ang suporta ng CXL sa kanilang mga pinakabagong processor at mga produkto ng memorya, na tinitiyak ang isang matatag na ecosystem.
Gamitin ang Mga Kaso Higit pa sa AI Habang ang AI ay isang pangunahing driver, ang mga aplikasyon ng CXL ay mas malawak. Ito ay transformative para sa mga in-memory database, na nangangailangan ng napakalaking, mabilis na access na memory pool. Malaki ang pakinabang ng cloud computing mula sa disaggregation ng memory. Binibigyang-daan nito ang mga provider na mag-alok ng flexible na mapagkukunan ng memory, tulad ng pag-aalok nila ng scalable compute at storage, na humahantong sa mas mahusay at cost-effective na mga serbisyo. Ang diskarte na ito sa pag-optimize ng mapagkukunan ay sumasalamin sa kakayahang umangkop na nakikita sa mga platform tulad ng Alternative app store AltStore PAL ay sumali sa fediverse. Pinahuhusay din ng CXL ang data resilience. Sa pamamagitan ng pagsentro sa memorya, mas mapoprotektahan ito ng advanced na pagwawasto ng error at redundancy, isang konsepto na nakahanay sa The Game-Changing Technology HelpingPinipigilan ng Mga Negosyo ang Sakuna na Pagkawala ng Data.
Ang Hinaharap ng Memorya ng Data Center Ang CXL ay nakahanda na maging isang pundasyong teknolohiya para sa mga susunod na henerasyong sentro ng data. Habang nagbabago ang pamantayan, nangangako ang mga bersyon sa hinaharap na bawasan pa ang latency at tataas ang bandwidth. Maaari naming asahan ang mas mahigpit na pagsasama sa mga umuusbong na teknolohiya tulad ng computational storage at advanced networking. Ito ay lilikha ng mas mahusay at malakas na magkakaibang mga kapaligiran sa pag-compute. Ang layunin ay isang tunay na composable na imprastraktura, kung saan ang compute, memory, at mga mapagkukunan ng storage ay maaaring dynamic na ilaan kapag hinihiling. Ang data center na ito para sa hinaharap na patunay ay para sa patuloy na pagtaas ng mga pangangailangan ng AI at malaking data.
Konklusyon Kinakatawan ng Compute Express Link ang isang pragmatic at kinakailangang ebolusyon sa disenyo ng data center. Hinimok ng mga hadlang sa supply at mga hinihingi ng AI, nag-aalok ang CXL ng isang mabubuhay na landas patungo sa nasusukat, mahusay na memorya. Habang nagpapatuloy ang mga hamon sa latency, patuloy na nalalampasan ng patuloy na pagbabago ang mga hadlang na ito. Ang pagyakap ng mga pinuno ng industriya tulad ng Google at Nvidia ay nagpapatunay sa potensyal ng CXL na muling hubugin kung paano tayo bumuo at mamamahala ng mga mapagkukunan ng computational. Habang nag-e-explore ang iyong negosyo ng mga bagong teknolohiya para sa paglago, isaalang-alang ang mga tool na nagpapasimple sa iyong digital presence. Para sa isang walang putol na paraan upang pamahalaan ang iyong mga online na link, subukan ang Seemless bilang isang libreng alternatibong Linktree.