Mai ʻae i ka waiho ʻana e lilo i kī kī i ka hoʻomaʻamaʻa kumu hoʻohālike

Ua ʻōlelo ʻia e ʻimi nei nā ʻoihana ʻenehana no GPU a i ʻole ma ke ala e loaʻa ai iā lākou.I ʻApelila, kūʻai ʻo Tesla CEO Elon Musk i 10,000 GPU a ʻōlelo ʻo ia e hoʻomau ka ʻoihana e kūʻai i ka nui o nā GPU mai NVIDIA.Ma ka ʻaoʻao ʻoihana, ke koi ikaika nei nā limahana IT e hōʻoia e hoʻohana mau ʻia nā GPU e hoʻonui i ka hoʻihoʻi ʻana i ka hoʻopukapuka.Eia nō naʻe, ʻike paha kekahi mau ʻoihana i ka piʻi ʻana o ka helu o nā GPU, ʻoi aku ka paʻakikī o ka hana ʻole o GPU.

Inā ua aʻo mai ka mōʻaukala iā mākou i kekahi mea e pili ana i ka helu helu kiʻekiʻe (HPC), ʻaʻole pono e mōhai ʻia ka mālama ʻana a me ka ʻoihana pūnaewele ma ka lilo o ka nānā nui ʻana i ka helu.Inā ʻaʻole hiki i ka waihona ke hoʻololi maikaʻi i ka ʻikepili i nā ʻāpana computing, ʻoiai inā loaʻa iā ʻoe ka nui o nā GPU o ka honua, ʻaʻole ʻoe e loaʻa i ka pono kūpono.

Wahi a Mike Matchett, he mea loiloi ma Small World Big Data, hiki ke hoʻokō ʻia nā hiʻohiʻona liʻiliʻi i ka hoʻomanaʻo (RAM), e ʻae i ka nānā ʻana i ka helu.Eia nō naʻe, ʻaʻole hiki ke mālama ʻia nā hiʻohiʻona nui e like me ChatGPT me nā piliona nodes i ka hoʻomanaʻo ma muli o ke kumukūʻai kiʻekiʻe.

"ʻAʻole hiki iā ʻoe ke hoʻokomo i nā piliona o nā nodes i ka hoʻomanaʻo, no laila e ʻoi aku ka nui o ka mālama ʻana," wahi a Matchett.ʻO ka mea pōʻino, ʻike pinepine ʻia ka mālama ʻana i ka ʻikepili i ka wā o ka hoʻolālā ʻana.

Ma keʻano laulā, me ka nānā ʻole i ka hihia hoʻohana, ʻehā mau wahi maʻamau i ke kaʻina aʻo kumu hoʻohālike:

1. Aʻo Hoʻohālike
2. Hoʻopili Hoʻohālikelike
3. Waihona ʻIkepili
4. Hoʻopili i ka hoʻokē ʻai

I ka hana ʻana a me ka hoʻohana ʻana i nā hiʻohiʻona, ʻoi aku ka nui o nā koi i ka hōʻoia wikiwiki o ka manaʻo (POC) a i ʻole ka hoʻāʻo ʻana i nā wahi e hoʻomaka ai i ka hoʻomaʻamaʻa ʻana, me ka mālama ʻana i ka ʻikepili ʻaʻole pono e noʻonoʻo nui ʻia.

Eia nō naʻe, aia ka paʻakikī i ka ʻoiaʻiʻo o ka hoʻomaʻamaʻa ʻana a i ʻole ka hoʻolālā inference hiki ke mau no nā mahina a i ʻole mau makahiki.Hoʻonui wikiwiki nā ʻoihana he nui i kā lākou mau hiʻohiʻona i kēia manawa, a pono e hoʻonui ka ʻoihana e hoʻokō i nā kumu hoʻohālike e ulu nei a me nā waihona.

Hōʻike ka noiʻi mai Google ma nā miliona o nā haʻawina hoʻomaʻamaʻa ML he awelika o 30% o ka manawa hoʻomaʻamaʻa e hoʻopau ʻia ma ka pipeline data komo.ʻOiai ua kālele ka noiʻi i hala i ka hoʻonui ʻana i nā GPU no ka wikiwiki ʻana i ka hoʻomaʻamaʻa ʻana, e mau ana nā pilikia he nui i ka ʻimi ʻana i nā ʻāpana like ʻole o ka pipeline data.Ke loaʻa iā ʻoe ka mana helu helu koʻikoʻi, lilo ka bottleneck maoli i ka wikiwiki e hiki ai iā ʻoe ke hānai i ka ʻikepili i loko o nā helu helu e loaʻa ai nā hopena.

Pono nā pilikia i ka mālama ʻana i ka ʻikepili a me ka hoʻokele ʻana i ka hoʻolālā ʻana no ka ulu ʻana o ka ʻikepili, e ʻae iā ʻoe e hoʻomau mau i ka waiwai o ka ʻikepili i kou holomua ʻana, ʻoiai ke ʻimi nei ʻoe i nā hihia hoʻohana ʻoi aʻe e like me ke aʻo hohonu a me nā neural network, kahi e koi ai i nā koi kiʻekiʻe. ka waiho ʻana ma ke ʻano o ka hiki, ka hana, a me ka scalability.

I ke ʻano wae:

Scalability
Pono ke aʻo ʻana i ka mīkini i ka mālama ʻana i ka nui o ka ʻikepili, a i ka piʻi ʻana o ka nui o ka ʻikepili, hoʻomaikaʻi pū ka pololei o nā kumu hoʻohālike.ʻO ia ke ʻano o nā ʻoihana e hōʻiliʻili a mālama i nā ʻikepili hou aʻe i kēlā me kēia lā.Ke hiki ʻole ke hoʻonui ʻia ka waiho ʻana, hana nā haʻahaʻa hana koʻikoʻi o ka ʻikepili i nā bottlenecks, e kaupalena ana i ka hana a me ka hopena i ka manawa hoʻolimalima GPU.

ʻoluʻolu
ʻO ke kākoʻo maʻalahi no nā protocols he nui (me ka NFS, SMB, HTTP, FTP, HDFS, a me S3) pono e hoʻokō i nā pono o nā ʻōnaehana like ʻole, ma mua o ka palena ʻana i kahi ʻano o ke kaiapuni.

Latency
He mea koʻikoʻi ka latency I/O no ke kūkulu ʻana a me ka hoʻohana ʻana i nā hiʻohiʻona ke heluhelu ʻia ka ʻikepili a heluhelu hou i nā manawa he nui.Hiki ke hoʻopōkole i ka manawa hoʻomaʻamaʻa o nā kumu hoʻohālike ma o nā lā a i ʻole mahina.ʻO ka hoʻomohala ʻana i nā kumu hoʻohālike wikiwiki e unuhi pololei i nā pono ʻoihana ʻoi aku ka nui.

Ka holo ana
He mea koʻikoʻi ka loaʻa ʻana o nā ʻōnaehana mālama no ka hoʻomaʻamaʻa kumu hoʻohālike kūpono.ʻO nā kaʻina hana hoʻomaʻamaʻa e pili ana i ka nui o ka ʻikepili, maʻamau i nā terabytes i kēlā me kēia hola.

Komo Parallel
No ka loaʻa ʻana o ka hana kiʻekiʻe, ua hoʻokaʻawale nā ​​kumu hoʻomaʻamaʻa i nā hana i mau hana like.ʻO kēia ke ʻano pinepine e komo nā algorithm aʻo mīkini i nā faila like mai nā kaʻina hana he nui (hiki paha ma nā kikowaena kino lehulehu) i ka manawa like.Pono ka ʻōnaehana mālama i nā koi like ʻole me ka ʻole o ka hoʻokō ʻana.

Me kona mau mana koʻikoʻi i ka latency haʻahaʻa, ka puka kiʻekiʻe, a me ka nui like I/O, Dell PowerScale kahi waihona mālama kūpono i ka GPU-accelerated computing.Hoʻemi maikaʻi ʻo PowerScale i ka manawa i koi ʻia no nā kumu hoʻohālike e hoʻomaʻamaʻa a hoʻāʻo i nā ʻikepili multi-terabyte.I ka PowerScale all-flash storage, piʻi ka bandwidth i nā manawa 18, e hoʻopau ana i nā bottlenecks I/O, a hiki ke hoʻohui ʻia i nā pūʻulu Isilon e loaʻa nei e hoʻolalelale a wehe i ka waiwai o ka nui o nā ʻikepili i kūkulu ʻole ʻia.

Eia kekahi, hiki i ka PowerScale's multi-protocol access hiki ke hāʻawi i ka maʻalahi palena ʻole no ka holo ʻana i nā haʻahaʻa hana, e ʻae ana e mālama i ka ʻikepili me ka hoʻohana ʻana i hoʻokahi protocol a loaʻa me ka hoʻohana ʻana i kekahi.Ma ke ʻano kikoʻī, ʻo nā hiʻohiʻona ikaika, ka maʻalahi, ka scalability, a me ka hana ʻoihana o ka platform PowerScale e kōkua i ka hoʻoponopono ʻana i kēia mau pilikia:

- E hoʻolōʻihi i ka hana hou a hiki i 2.7 mau manawa, e hōʻemi ana i ke kaʻina hoʻomaʻamaʻa hoʻohālike.

- Hoʻopau i nā bottlenecks I/O a hāʻawi i ka hoʻomaʻamaʻa hoʻohālike wikiwiki a me ka hōʻoia ʻana, hoʻomaikaʻi i ka pololei o ke kumu hoʻohālike, hoʻonui i ka huahana ʻepekema data, a hoʻonui i ka hoʻihoʻi ʻana i nā hoʻopukapuka helu helu ma o ka hoʻohana ʻana i nā hiʻohiʻona ʻoihana, hana kiʻekiʻe, concurrency, a me ka scalability.E hoʻonui i ka pololei o ke kŘkohu me ka hohonu a me ka hoʻonā kiʻekiʻe ma o ka hoʻohana ʻana i ka 119 PB o ka hiki ke mālama pono i loko o kahi puʻupuʻu hoʻokahi.

- E hoʻokō i ka hoʻolālā ʻana ma ka hoʻomaka ʻana i ka helu liʻiliʻi a kūʻokoʻa i ka helu a me ka mālama ʻana, e hāʻawi ana i nā koho palekana a me nā koho palekana.

- E hoʻomaikaʻi i ka ʻike ʻepekema ʻikepili me nā ʻikepili ma kahi a me nā hopena i hōʻoia mua ʻia no ka hoʻolaha ʻana i ka wikiwiki, haʻahaʻa haʻahaʻa.

- Ke hoʻohana nei i nā hoʻolālā i hōʻoia ʻia e pili ana i nā ʻenehana maikaʻi loa, me ka NVIDIA GPU acceleration a me nā papa kuhikuhi kuhikuhi me nā ʻōnaehana NVIDIA DGX.Hoʻokō ka hana kiʻekiʻe a me ka concurrency o PowerScale i nā koi o ka mālama ʻana i kēlā me kēia pae o ke aʻo ʻana i ka mīkini, mai ka loaʻa ʻana o ka ʻikepili a me ka hoʻomākaukau ʻana i ke aʻo ʻana a me ka hoʻohālikelike.Me ka ʻōnaehana hana OneFS, hiki i nā node a pau ke hana maʻalahi i loko o ka pūʻulu hoʻokahi i alakaʻi ʻia e OneFS, me nā hiʻohiʻona pae ʻoihana e like me ka hoʻokele hana, hoʻokele ʻikepili, palekana, a me ka pale ʻikepili, hiki ke hoʻopau wikiwiki i ka hoʻomaʻamaʻa kumu hoʻohālike a me ka hōʻoia no nā ʻoihana.


Ka manawa hoʻouna: Jul-03-2023