HPE Открийте EMEA HPE – подобно на много технологични компании – залага много на AI с надеждата, че клиентите ще се възползват от парите за обучение или фини тунинг модели и други области, които представляват интерес, вместо да рискуват да изостанат от връстниците си.
На годишното събитие Discover, което тази година се проведе в Барселона, HPE вдигна капака на втора генеративна AI платформа, съвместно разработена с производителя на GPU Nvidia само седмици след първата, и също така потвърди, че HPE Machine Learning Development Environment вече е достъпна като управлявана услуга на публични облаци, като се започне с AWS и Google Cloud.
Прозаично нареченото от HPE „предприемаческо компютърно решение за генеративен AI“ е предварително конфигурирана платформа, включваща комбинация от хардуер и софтуер на HPE плюс GPU на Nvidia, мрежови и AI софтуер.
Двойката наскоро обяви суперкомпютърна система за AI това следва подобна тема, но тя е създадена, за да обучи генеративни AI модели. Тази най-нова платформа вместо това е по-скромна, предназначена за корпоративни клиенти, за да настроят съществуващите модели на техните изисквания и след това да ги оперират за инференцова работа.
HPE описва корпоративното компютърно решение за генеративен AI като архитектура с мащаб на багажник, което означава, че обединява множество компоненти, които ефективно запълват багажник на датацентър или повечето от тях. Изчислението в този случай е предоставено от 16 ПроЛигант DL380a Gen11 сървъри, базирани на Intel Xeon Scalable процесори, които могат да бъдат конфигурирани с до четири Nvidia L40 GPU.
Мрежата в тази платформа се осигурява от Спектърът на Nvidia-X превключватели и мрежови адаптери на базата на своя чип BlueField-3 DPU.
Тази конфигурация е оразмерена, за да му позволи да прецизира 70 милиарда параметърна версия на модела Llama-2 на Meta, според HPE.
Софтуерът за работа на тази инфраструктура е подобен на този, включен в суперкомпютърната AI платформа, а именно HPE Машинно обучение Развитие на околната среда, и пакета AI Enterprise на Nvidia и рамката на NeMo за разговорен AI.
HPE повтори, че AI призовава за нова компютърна архитектура, която HPE се надява да предостави, разбира се.
„AI изисква фундаментално различна архитектура, защото натоварването е фундаментално различно от класическото им обработване на транзакции и натоварванията на уеб услугите, които са станали толкова доминиращи в компютрите през последните няколко десетилетия,“ каза Евън Спаркс, главен продуктов директор на HPE за AI.
„Смятаме, че следващото десетилетие ще изисква цялостно мислене от хардуера до софтуерния слой, тъй като организациите се насочват към внедряването на AI приложения,“ той добави.
Въпреки това, за много предприятия, намирането на пътя им с AI означава да вземат съществуващи модели и да експериментират, за да видят дали добавят стойност в своите бизнес процеси.
„Много организации няма да изграждат свои собствени основополагащи модели, те ще вземат модел, който е разработен другаде, и те ще го внедрят в бизнеса си, за да трансформират своите бизнес процеси“, казва Нийл Макдоналд, EVP & генерален мениджър на бизнеса на HPE Compute.
„Едно от предизвикателствата е изграждането и разгръщането на инфраструктура, която позволява експериментиране и фина настройка и след това внедряване на тези модели“, твърди той. „Чувстваме, че предприятията или ще станат захранвани от AI, или ще станат остарели.“
Каква е вредата?
Подобно на суперкомпютъра за AI, HPE все още не е уточнила колко ще струва това на клиентите, но корпоративното компютърно решение за генеративен AI ще бъде на разположение за поръчка известно време през първото тримесечие на 2024 г.
HPE също така заяви, че нейната среда за развитие на машинно обучение вече е достъпна като управлявана услуга на обществени облаци. Това е платформа за обучение на генеративни AI модели и до голяма степен се основава на технологията HPE, получена от закупуването на определен AI през 2021 г.
„Това е напълно управлявана услуга, изцяло управлявана от HPE, което означава, че крайните потребители не трябва да се притесняват за управлението на инфраструктурата изобщо в своите облачни или облачни акаунти,“ твърдяха Спаркс. Той е достъпен първо на „популярни платформи“ като AWS и Google, добави той.
Напълно управляваният модел има за цел да намали сложността на обучението на AI/ML модели и по този начин да ускори процеса на разработване, каза HPE.
HPE също така увеличава предлагането си Greenlake за File Storage, за да се справи с изискванията за данни за натоварванията на AI.
„Започвайки от Q2, ние значително увеличаваме това за клиенти, които искат да мащабират до вас, някъде в сферата 250 петабайта данни“, казва Патрик Осбърн, SVP и GM на Облачната и Информационна Инфраструктура.
Също така идва подкрепата за мрежата на Nvidia Quantum-2, за да позволи на клиентите да се включат в тъканите на InfiniBand за по-висока производителност, каза Озбърн.
HPE заяви, че продуктите ще бъдат достъпни чрез канала и чрез своя базиран на абонамент модел за финансиране на Greenlake.
„Не всеки иска да похарчи един тон CapEx отпред, за да може да се възползва от тази възможност, така че да можем да ги предоставим чрез много гъвкави модели на потребление за нашите клиенти, и им осигурете гъвкавост както от технологична гледна точка, така и от финансова гледна точка“, каза Озбърн. ®