[Kina, Shenzhen, Iulai 14, 2023] I kēia lā, ua hōʻike ʻo Huawei i kāna ʻōnaehana mālama AI hou no ka wā o nā hiʻohiʻona nui, e hāʻawi ana i nā ʻōnaehana mālama maikaʻi loa no ka hoʻomaʻamaʻa kumu kumu, ka hoʻomaʻamaʻa ʻana i nā hiʻohiʻona ʻoihana, a me ka inference i nā hiʻohiʻona ʻāpana, no laila ka hoʻokuʻu ʻana i nā mana AI hou.
I ka hoʻomohala ʻana a me ka hoʻokō ʻana i nā noi hoʻohālike nui, ke kū nei nā ʻoihana i ʻehā mau pilikia nui:
ʻO ka mea mua, lōʻihi ka manawa e pono ai no ka hoʻomākaukau ʻana i ka ʻikepili, hoʻopuehu ʻia nā kumu ʻikepili, a lohi ka hōʻuluʻulu ʻana, e lawe ana ma kahi o 10 mau lā no ka hana mua ʻana i nā haneli terabytes o ka ʻikepili. ʻO ka lua, no nā hiʻohiʻona nui multi-modal me ka nui o nā kikokikona a me nā ʻikepili kiʻi, ʻoi aku ka wikiwiki o ka hoʻouka ʻana no nā faila liʻiliʻi nui ma mua o 100MB/s, e hopena i ka haʻahaʻa haʻahaʻa no ka hoʻouka hoʻonohonoho hoʻomaʻamaʻa. ʻO ke kolu, ʻo ka hoʻololi pinepine ʻana i nā ʻāpana no nā kumu hoʻohālike nui, me nā kahua hoʻomaʻamaʻa paʻa ʻole, e hoʻopau i ka hoʻomaʻamaʻa ʻana ma kahi o kēlā me kēia 2 lā, pono ke ʻano Checkpoint e hoʻomaka hou i ke aʻo ʻana, me ka hoʻihoʻi ʻana i kahi lā. ʻO ka mea hope loa, nā paepae hoʻokō kiʻekiʻe no nā hiʻohiʻona nui, ka hoʻonohonoho ʻōnaehana paʻakikī, nā pilikia hoʻonohonoho waiwai, a me ka hoʻohana ʻana i nā kumuwaiwai GPU ma lalo o 40%.
Hoʻopili ʻo Huawei me ke ʻano o ka hoʻomohala ʻana o AI i ka wā o nā hiʻohiʻona nui, e hāʻawi ana i nā hoʻonā i hoʻohālikelike ʻia no nā ʻoihana like ʻole a me nā hiʻohiʻona. Hoʻopuka ia i ka OceanStor A310 Deep Learning Data Lake Storage a me ka FusionCube A3000 Training/Inference Super-Converged Appliance. ʻO OceanStor A310 Deep Learning Data Lake Storage e hoʻopaʻa i nā hiʻohiʻona nui o ka loko ʻikepili kumu a me ka pae ʻoihana, e hoʻokō i ka hoʻokele ʻikepili AI piha mai ka hōʻuluʻulu ʻikepili, ka hoʻomaʻamaʻa mua ʻana i ka hoʻomaʻamaʻa hoʻohālike, a me nā noi inference. Kākoʻo ʻo OceanStor A310, i loko o kahi pahu 5U hoʻokahi, e kākoʻo ana i ka bandwidth alakaʻi ʻoihana 400GB/s a hiki i 12 miliona IOPS, me ka scalability linear a hiki i 4096 nodes, e hiki ai ke kamaʻilio cross-protocol. Mālama ka Global File System (GFS) i ka ulana ʻikepili naʻauao ma nā ʻāpana, e hoʻomāmā i nā kaʻina hana hōʻuluʻulu ʻikepili. Hoʻomaopopo ka ʻikepili kokoke i ka preprocessing kokoke i ka ʻikepili, hōʻemi i ka neʻe ʻana o ka ʻikepili, a me ka hoʻomaikaʻi ʻana i ka pono preprocessing e 30%.
ʻO ka FusionCube A3000 Training/Inference Super-Converged Appliance, i hoʻolālā ʻia no ka hoʻomaʻamaʻa ʻana i nā hiʻohiʻona kiʻekiʻe kiʻekiʻe o ka ʻoihana. Hoʻohui ia i nā nodes mālama kiʻekiʻe ʻo OceanStor A300, nā node hoʻomaʻamaʻa/inference, nā lako hoʻololi, AI platform software, a me ka hoʻokele a me ka polokalamu hana, e hāʻawi ana i nā hoa hoʻohālike nui me kahi ʻike hoʻolālā plug-a-pāʻani no kahi hoʻouna hoʻokahi. Mākaukau e hoʻohana, hiki ke kau ʻia i loko o 2 mau hola. Hiki ke hoʻonui kūʻokoʻa a hoʻonui ʻia ʻelua no ka hoʻomaʻamaʻa ʻana/inference a me ka waiho ʻana e like me nā koi kumu hoʻohālike like ʻole. Eia nō naʻe, hoʻohana ʻo FusionCube A3000 i nā pahu hana kiʻekiʻe e hiki ai i ka hoʻomaʻamaʻa ʻana i nā kumu hoʻohālike he nui a me nā hana inference e kaʻana like i nā GPU, e hoʻonui ana i ka hoʻohana waiwai mai 40% a ma luna o 70%. Kākoʻo ʻo FusionCube A3000 i ʻelua mau hiʻohiʻona pāʻoihana maʻalahi: Huawei Ascend One-Stop Solution a me ke kolu o ka ʻaoʻao ʻekolu o ka hoʻonā hoʻokahi hoʻokahi me ka hoʻohana ʻana i ka computer open computing, networking, a me AI platform software.
Ua ʻōlelo ʻo Huawei Pelekikena o ka Data Storage Product Line, Zhou Yuefeng, "I ke au o nā hiʻohiʻona nui, ʻike ka ʻikepili i ke kiʻekiʻe o ka naʻauao AI. Ma ke ʻano he mea lawe i ka ʻikepili, lilo ka mālama ʻana i ka ʻikepili i kumu kumu kumu nui no nā kumu hoʻohālike AI. E hoʻomau ka Huawei Data Storage, e hāʻawi ana i nā hopena like ʻole a me nā huahana no ke au o nā hiʻohiʻona nui AI, e hui pū ana me nā hoa hana e hoʻoikaika i ka mana AI ma waena o nā ʻano ʻoihana.
Ka manawa hoʻouna: ʻAukake-01-2023