Ua ʻōlelo ʻia e ʻimi nei nā ʻoihana ʻenehana no GPU a i ʻole ma ke ala e loaʻa ai iā lākou. I ʻApelila, kūʻai ʻo Tesla CEO Elon Musk i 10,000 GPU a ʻōlelo ʻo ia e hoʻomau ka ʻoihana e kūʻai i ka nui o nā GPU mai NVIDIA. Ma ka ʻaoʻao ʻoihana, ke koi ikaika nei nā limahana IT e hōʻoia e hoʻohana mau ʻia nā GPU e hoʻonui i ka hoʻihoʻi ʻana i ka hoʻopukapuka. Eia nō naʻe, ʻike paha kekahi mau ʻoihana i ka piʻi ʻana o ka helu o nā GPU, ʻoi aku ka paʻakikī o ka hana ʻole o GPU.
Inā ua aʻo mai ka mōʻaukala iā mākou i kekahi mea e pili ana i ka helu helu kiʻekiʻe (HPC), ʻaʻole pono e mōhai ʻia ka mālama ʻana a me ka ʻoihana pūnaewele ma ka lilo o ka nānā nui ʻana i ka helu. Inā ʻaʻole hiki i ka waihona ke hoʻololi maikaʻi i ka ʻikepili i nā ʻāpana computing, ʻoiai inā loaʻa iā ʻoe ka nui o nā GPU o ka honua, ʻaʻole ʻoe e loaʻa i ka pono kūpono.
Wahi a Mike Matchett, he mea loiloi ma Small World Big Data, hiki ke hoʻokō ʻia nā hiʻohiʻona liʻiliʻi i ka hoʻomanaʻo (RAM), e ʻae i ka nānā ʻana i ka helu. Eia nō naʻe, ʻaʻole hiki ke mālama ʻia nā hiʻohiʻona nui e like me ChatGPT me nā piliona nodes i ka hoʻomanaʻo ma muli o ke kumukūʻai kiʻekiʻe.
"ʻAʻole hiki iā ʻoe ke hoʻokomo i nā piliona o nā nodes i ka hoʻomanaʻo, no laila e ʻoi aku ka nui o ka mālama ʻana," wahi a Matchett. ʻO ka mea pōʻino, ʻike pinepine ʻia ka mālama ʻana i ka ʻikepili i ka wā o ka hoʻolālā ʻana.
Ma keʻano laulā, me ka nānā ʻole i ka hihia hoʻohana, ʻehā mau wahi maʻamau i ke kaʻina aʻo kumu hoʻohālike:
1. Aʻo Hoʻohālike
2. Hoʻopili Hoʻohālikelike
3. Waihona ʻIkepili
4. Hoʻopili i ka hoʻokē ʻai
I ka hana ʻana a me ka hoʻohana ʻana i nā hiʻohiʻona, ʻoi aku ka nui o nā koi i ka hōʻoia wikiwiki o ka manaʻo (POC) a i ʻole ka hoʻāʻo ʻana i nā wahi e hoʻomaka ai i ka hoʻomaʻamaʻa ʻana, me ka mālama ʻana i ka ʻikepili ʻaʻole pono e noʻonoʻo nui ʻia.
Eia nō naʻe, aia ka paʻakikī i ka ʻoiaʻiʻo o ka hoʻomaʻamaʻa ʻana a i ʻole ka hoʻolālā inference hiki ke mau no nā mahina a i ʻole mau makahiki. Hoʻonui wikiwiki nā ʻoihana he nui i kā lākou mau hiʻohiʻona i kēia manawa, a pono e hoʻonui ka ʻoihana e hoʻokō i nā kumu hoʻohālike e ulu nei a me nā waihona.
Hōʻike ka noiʻi mai Google ma nā miliona o nā haʻawina hoʻomaʻamaʻa ML he awelika o 30% o ka manawa hoʻomaʻamaʻa e hoʻopau ʻia ma ka pipeline data komo. ʻOiai ua kālele ka noiʻi i hala i ka hoʻonui ʻana i nā GPU no ka wikiwiki ʻana i ka hoʻomaʻamaʻa ʻana, e mau ana nā pilikia he nui i ka ʻimi ʻana i nā ʻāpana like ʻole o ka pipeline data. Ke loaʻa iā ʻoe ka mana helu helu koʻikoʻi, lilo ka bottleneck maoli i ka wikiwiki e hiki ai iā ʻoe ke hānai i ka ʻikepili i loko o nā helu helu e loaʻa ai nā hopena.
Pono nā pilikia i ka mālama ʻana i ka ʻikepili a me ka hoʻokele ʻana i ka hoʻolālā ʻana no ka ulu ʻana o ka ʻikepili, e ʻae iā ʻoe e hoʻomau mau i ka waiwai o ka ʻikepili i kou holomua ʻana, ʻoiai ke ʻimi nei ʻoe i nā hihia hoʻohana ʻoi aʻe e like me ke aʻo hohonu a me nā neural network, kahi e koi ai i nā koi kiʻekiʻe. ka waiho ʻana ma ke ʻano o ka hiki, ka hana, a me ka scalability.
I ke ʻano wae:
Scalability
Pono ke aʻo ʻana i ka mīkini e mālama i ka nui o ka ʻikepili, a i ka piʻi ʻana o ka nui o ka ʻikepili, hoʻomaikaʻi pū ka pololei o nā kumu hoʻohālike. ʻO ia hoʻi, pono nā ʻoihana e hōʻiliʻili a mālama i nā ʻikepili hou aʻe i kēlā me kēia lā. Ke hiki ʻole ke hoʻonui ʻia ka waiho ʻana, hana nā haʻahaʻa hana koʻikoʻi o ka ʻikepili i nā bottlenecks, e kaupalena ana i ka hana a me ka hopena i ka manawa hoʻolimalima GPU.
ʻoluʻolu
ʻO ke kākoʻo maʻalahi no nā protocols he nui (me ka NFS, SMB, HTTP, FTP, HDFS, a me S3) pono e hoʻokō i nā pono o nā ʻōnaehana like ʻole, ma mua o ka palena ʻana i kahi ʻano o ke kaiapuni.
Latency
He mea koʻikoʻi ka latency I/O no ke kūkulu ʻana a me ka hoʻohana ʻana i nā hiʻohiʻona ke heluhelu ʻia ka ʻikepili a heluhelu hou i nā manawa he nui. Hiki ke hōʻemi i ka manawa hoʻomaʻamaʻa o nā kumu hoʻohālike i nā lā a i ʻole mahina. ʻO ka hoʻomohala ʻana i nā kumu hoʻohālike wikiwiki e unuhi pololei i nā pono ʻoihana ʻoi aku ka nui.
Ka holo ana
He mea koʻikoʻi ka loaʻa ʻana o nā ʻōnaehana mālama no ka hoʻomaʻamaʻa kumu hoʻohālike kūpono. ʻO nā kaʻina hana hoʻomaʻamaʻa e pili ana i ka nui o ka ʻikepili, maʻamau i nā terabytes i kēlā me kēia hola.
Komo Parallel
No ka loaʻa ʻana o ka hana kiʻekiʻe, ua hoʻokaʻawale nā kumu hoʻomaʻamaʻa i nā hana i mau hana like. ʻO ke ʻano pinepine kēia e komo nā algorithm aʻo mīkini i nā faila like mai nā kaʻina hana he nui (hiki paha ma nā kikowaena kino lehulehu) i ka manawa like. Pono ka ʻōnaehana mālama e mālama i nā koi like ʻole me ka ʻole o ka hoʻokō ʻana.
Me kona mau mana koʻikoʻi i ka latency haʻahaʻa, ka puka kiʻekiʻe, a me ka nui like I/O, Dell PowerScale kahi waihona waihona kūpono i ka GPU-accelerated computing. Hoʻemi maikaʻi ʻo PowerScale i ka manawa i koi ʻia no nā kumu hoʻohālike e hoʻomaʻamaʻa a hoʻāʻo i nā ʻikepili multi-terabyte. I ka PowerScale all-flash storage, piʻi ka bandwidth i nā manawa 18, e hoʻopau ana i nā bottlenecks I/O, a hiki ke hoʻohui ʻia i nā pūʻulu Isilon e loaʻa nei e hoʻolalelale a wehe i ka waiwai o ka nui o nā ʻikepili i kūkulu ʻole ʻia.
Eia kekahi, hiki i ka PowerScale's multi-protocol access hiki ke hāʻawi i ka maʻalahi palena ʻole no ka holo ʻana i nā haʻahaʻa hana, e ʻae ana e mālama i ka ʻikepili me ka hoʻohana ʻana i hoʻokahi protocol a loaʻa me ka hoʻohana ʻana i kekahi. Ma ke ʻano kikoʻī, ʻo nā hiʻohiʻona ikaika, ka maʻalahi, ka scalability, a me ka hana ʻoihana o ka platform PowerScale e kōkua i ka hoʻoponopono ʻana i kēia mau pilikia:
- E hoʻolōʻihi i ka hana hou a hiki i 2.7 mau manawa, e hōʻemi ana i ke kaʻina hoʻomaʻamaʻa hoʻohālike.
- Hoʻopau i nā bottlenecks I/O a hāʻawi i ka hoʻomaʻamaʻa hoʻohālike wikiwiki a me ka hōʻoia ʻana, hoʻomaikaʻi i ka pololei o ke kumu hoʻohālike, hoʻonui i ka huahana ʻepekema ʻikepili, a hoʻonui i ka hoʻihoʻi ʻana i nā hoʻopukapuka helu helu ma o ka hoʻohana ʻana i nā hiʻohiʻona ʻoihana, hana kiʻekiʻe, concurrency, a me ka scalability. E hoʻonui i ka pololei o ke kumu hoʻohālike me nā ʻikepili hoʻonā hohonu a me ka hoʻonā kiʻekiʻe ma o ka hoʻohana ʻana i ka 119 PB o ka hiki ke mālama pono i loko o kahi puʻupuʻu hoʻokahi.
- E hoʻokō i ka hoʻolālā ʻana ma ka hoʻomaka ʻana i ka helu liʻiliʻi a kūʻokoʻa i ka helu a me ka mālama ʻana, e hāʻawi ana i nā koho palekana a me nā koho palekana.
- E hoʻomaikaʻi i ka ʻike ʻepekema ʻikepili me nā ʻikepili ma kahi a me nā hopena i hōʻoia mua ʻia no ka hoʻolaha ʻana i ka wikiwiki, haʻahaʻa haʻahaʻa.
- Ke hoʻohana nei i nā hoʻolālā i hōʻoia ʻia e pili ana i nā ʻenehana maikaʻi loa, me ka NVIDIA GPU acceleration a me nā papa kuhikuhi kuhikuhi me nā ʻōnaehana NVIDIA DGX. Hoʻokō ka hana kiʻekiʻe a me ka concurrency o PowerScale i nā koi o ka mālama ʻana i kēlā me kēia pae o ke aʻo ʻana i ka mīkini, mai ka loaʻa ʻana o ka ʻikepili a me ka hoʻomākaukau ʻana i ke aʻo ʻana a me ka hoʻohālikelike. Me ka ʻōnaehana hana OneFS, hiki i nā node a pau ke hana maʻalahi i loko o ka pūʻulu hoʻokahi i alakaʻi ʻia e OneFS, me nā hiʻohiʻona pae ʻoihana e like me ka hoʻokele hana, hoʻokele ʻikepili, palekana, a me ka pale ʻikepili, hiki ke hoʻopau wikiwiki i ka hoʻomaʻamaʻa kumu hoʻohālike a me ka hōʻoia no nā ʻoihana.
Ka manawa hoʻouna: Jul-03-2023