дом блог страница 18

Акциите на Mobileye се сринаха след предупреждение за пренасищането с чипове на автомобилните клиенти

0

Акциите на Mobileye се понижиха с до 27 процента вчера в предпазарната търговия, след като самоуправляващият се технологичен бизнес изненада Уолстрийт с предупреждението, че клиентите преяждат излишните запаси и съкращават поръчките.

Фирмата, листвана на NASDAQ, която все още е мажоритарна собственост на Intel , разочарова инвеститорите с публикуването на предварителните резултати за календарната 2023 г. , които съдържат значително по-ниски от очакваното прогнози за текущата календарна година.

Съгласно „стандартния процес на планиране“, включително дискусии с най-големите си клиенти, Mobileye каза, че е „узнало за излишък от наличности при нашите клиенти, които според нас са 6-7 милиона единици EyeQ SoC“.

„Ние разбираме, че голяма част от този излишен инвентар отразява решенията на клиентите от ниво 1 да създадат инвентар в категорията Basic ADAS поради ограниченията на веригата за доставки през 2021 г. и 2022 г. и желанието да се избегне недостиг на части, както и по-ниско от очакваното производство на определени производители на оригинално оборудване през 2023 г.“, добави компанията.

„Тъй като опасенията по веригата на доставки намаляха, ние очакваме, че нашите клиенти ще използват по-голямата част от тези излишни запаси през първото тримесечие на годината. В резултат на това очакваме, че приходите от първото тримесечие на 2024 г. ще бъдат значително под приходите от първото тримесечие на 2023 г. и че ще видим нормализиране на приходите през остатъка от 2024 г.“

„Понастоящем очакваме приходите за първото тримесечие да намалеят с приблизително 50 процента в сравнение с приходите от 458 милиона долара, генерирани през първото тримесечие на 2023 г. В момента също вярваме, че приходите през остатъка от годината ще бъдат повлияни от намаляването на инвентара в много по-малка степен степен.“

Mobileye не назова конкретни клиенти, но брои Porsche, Volkswagon, BMW и Nissan сред своята клиентска база.

Прогнозата за приходите за 2024 г. е 1,83 милиарда до 1,96 милиарда долара – много под консенсусните оценки на анализаторите от 2,58 милиарда долара. Това се основава на очакваните доставки на EyeQ от 31-33 милиона спрямо 37 милиона единици през предходната година и доставките на SuperVision между 175 000 и 195 000 в сравнение с около 100 000 през 2023 г.

„Очакваме, че по-ниските от очакваното обеми в бизнеса с EyeQ SoC ще имат временно въздействие върху нашата рентабилност“, добави компанията.

Оперативните загуби се очаква да бъдат между 378 милиона и 468 милиона долара в сравнение с между 33 и 39 милиона долара за 2023 г., според предварителните оценки. Това е доста движение в грешна посока.

Mobileye стиска палци в очакването нивата на клиентските запаси да се нормализират до края на тази година. Няма гаранция за това, но консенсусът е, че по-широкият пазар на чипове ще нарасне през 2024 г. ®

Сцената на полупроводниците е настроена за водено от AI възстановяване през 2024 г. и Китай ще бъде начело

0

Глобалният капацитет за полупроводници се очаква да нарасне през 2024 г., въпреки обречеността и мрака, като Китай се прогнозира да поведе пътя и да разшири своя дял в световното производство на чипове, докато се опитва да стане по-самостоятелен.

Това е перспективата на асоциацията на индустрията за микроелектроника SEMI , която включва цифри за тази година в последния си тримесечен доклад World Fab Forecast. Очаква се общият глобален капацитет на вафли да се увеличи с 6,4 процента през 2024 г. до най-високите 30 милиона вафли на месец (WPM) за първи път, след като се повиши с 5,5 процента до 29,6 милиона миналата година.

SEMI смята, че растежът тази година ще бъде движен от водещи логически леярни и приложения, включително генеративен AI и високопроизводителни изчисления (HPC), които смятат, че ще доведат до възстановяване на търсенето на чипове.

Разширяването на капацитета се забави през 2023 г. поради отслабването на търсенето на пазара на полупроводници и произтичащата от това корекция на запасите – т.е. компаниите обработват съществуващите си запаси, преди да направят нови поръчки.

SEMI не е единственият наблюдател на пазара, който прави тази прогноза. Gartner прогнозира през декември , че пазарът на полупроводници ще се върне към растеж тази година, цитирайки продължаващата вълна от интерес към AI като вероятно да повиши търсенето по-специално на чипове с памет.

SEMI предвижда DRAM секторът на пазара да увеличи капацитета си с 5 процента до 4 милиона WPM през 2024 г., докато 3D NAND флаш се очаква да нарасне с 2 процента до 3,7 милиона WPM.

Капацитетът на дискретните полупроводници се рекламира да нарасне със 7 процента до 4,4 милиона WPM, а аналоговият капацитет се очаква да нарасне с 10 процента до 2,4 милиона WPM.

Според SEMI Китай трябва да ръководи възстановяването на полупроводниците и да увеличи дела си в световното производство на полупроводници, въпреки опитите на САЩ да ограничат възможностите на Китай.

Производителите на чипове в Китай се очаква да започнат работа с не по-малко от 18 проекта за производство на пластини през 2024 г., се казва в него, което ще доведе до 13% ръст на капацитета до 8,6 милиона WPM през 2024 г., след 12% ръст на капацитета до 7,6 милиона миналата година.

Очаква се Тайван да запази втория по големина капацитет за полупроводници, като се очаква да осигури ръст от 4,2 процента до 5,7 милиона WPM през 2024 г. и пет нови завода за производство да започнат работа тази година.

Корея е класирана на трето място с 4,9 милиона WPM за 2023 г., като SEMI очаква да нарасне с 5,4 процента тази година до 5,1 милиона с една допълнителна фабрика, идваща онлайн. Очаква се Япония да бъде на четвърто място с увеличение на капацитета от 2 процента до 4,7 милиона WPM, тъй като се очаква да стартира четири допълнителни завода за производство тази година.

Като цяло, глобалната полупроводникова индустрия се очаква да започне работа на 42 проекта за заводи за производство през 2024 г., обхващащи размери на пластини, вариращи от 100 mm до 300 mm, каза SEMI.

На регионална основа се изчислява, че Северна и Южна Америка ще увеличи капацитета си за производство на чипове с 6 процента до 3,1 милиона WPM и ще види общо шест нови фабрики, докато SEMI очаква Европа и Близкия изток да увеличат капацитета си с 3,6 процента до 2,7 милиона WPM с четири нови fabs идват онлайн. ®

Съоснователят на CloudBees бръмчи за драма с отворен код и AI

0

Интервю „Това е експериментът, който отиде твърде далеч“, казва Sacha Labourey от CloudBees за промяната на лиценза на HashiCorp.

Регистърът се свърза с Labourey на лондонския етап от DevOps World Tour на CloudBees, за да говорим за отворения код, какво се случи с Jenkins-X и изкуствения интелект.

Labourey е съосновател на CloudBees през 2010 г. и след престой като главен изпълнителен директор става главен стратегически директор през 2021 г. Първоначално CloudBees се занимаваше изцяло с платформата за автоматизация Jenkins DevOps и през годините разшири своите услуги чрез придобиване и развитие.

Самият Дженкинс обаче остава твърдо с отворен код. Labourey няма планове да промени това, въпреки размириците, които се случиха другаде в индустрията с промени в лиценза.

Не е изненадващо, че Labourey смята, че CloudBees има много „по-чиста“ позиция. „Когато е отворено, наистина е отворено. Когато е затворено, значи е затворено“, казва ни той. „Ако погледнете общността на Дженкинс, тя е наистина отворена общност. Ние не притежаваме търговската марка. Ние не притежаваме достъп до дървото. Не можем да отхвърлим сътрудници.“

Той контрастира този подход с този на други компании, включително HashiCorp и GitLab. „Те не са отворена общност. Те притежават търговската марка. Те притежават IP. Те притежават достъп до дървото. Ако се опитате да прокарате някои приноси, които ще бъдат конкурентни с тяхната отворена основна собствена стойност, това ще се получи отхвърлен.“

Движението с отворен код обаче трябва да се развива, ако иска да оцелее. Ерата на просто наслагване на консултантски услуги върху проект с чист отворен код отмина. Абонаментите и концепцията за отворено ядро се превърнаха в популярни бизнес модели.

Както читателите на Reg знаят, отвореното ядро е модел, при който ядрото на проекта остава с отворен код, като частният софтуер се използва за добавяне на стойност. Доказано е, че е популярен начин за монетизиране на софтуер с отворен код, макар и донякъде противоречив .

CloudBees е облекло с отворено ядро. Въпреки това, други компании в света на отворения код са търсили различни начини за защита на приходите, както и за справяне с предизвикателствата, поставени от облачните гиганти, които просто прекарват код.

Labourey отбелязва промяната на лиценза , въведена от Elastic, за да предотврати заплахата, възприета от облачни доставчици, но ходът на HashiCorp е този , който предизвиква по-голяма загриженост.

„Ходът на HashiCorp е доста уникален, защото не че е по-лош от това, което направи Elastic – това е промяна на лиценза“, казва той. „Мисля, че това, което е уникално в това, което направи HashiCorp, е, че техният лиценз не посочва обективно какво имате право да правите или не. По същество той казва „ако не сте конкурентен на HashiCorp“.

„Кой може да го дефинира? Каква е точката на вземане на решение? Така че създава голям облак от неизвестност за това какво можете или не можете да направите. Според мен смятам, че експериментът е отишъл твърде далеч.“

CloudBees не са непознати за самите странни експерименти или два. Пример за това е Jenkins X , който беше представен през 2018 г. Някога голяма надежда за бъдещето, Labourey сега го нарича „изследователски проект“.

„Научихме много… можеше да е нещо различно. Но мисля, че осъзнахме, докато вървяхме, че [въпреки че] някои от концепциите бяха добри – бяха наистина добри – имате нужда от нещо повече от концепция. Нуждаете се от здрава основа. „

Labourey добавя: „Мисля, че Jenkins X в крайна сметка се оказа за нас по-скоро израз на идея, отколкото платформа, която наистина може да мащабира.“

Jenkins X имаше за цел да автоматизира настройката и управлението, за да предостави собствена облачна услуга, която разработчиците биха могли да използват за писане на код по-бързо и надеждно от наследените необлачни платформи.

Labourey казва, че много от уроците и идеите от опита на Jenkins X живеят в настоящата продуктова линия на компанията. „Наследихме много стойност от този експеримент. Но преминаването от експеримент към производство е различен звяр“, ни казва той.

И тогава има AI – нещо, което Labourey смята, че е част от живота му от пет години. Можем да разберем това, имайки предвид скоростта на промяната през последната година.

Относно DevOps, Labourey казва: „AI ще заеме доста голямо място в платформата. Има много неща, които могат да бъдат автоматизирани… DevOps винаги е бил за премахване на препятствия и опростяване и подобряване на живота на разработчиците.“

Labourey вижда бъдещето, разделено на фази на осиновяване, започвайки с днешните асистенти, предлагащи решения на проблемите. „Това е само временна стъпка, която ви кара да се чувствате добре, защото истината е, че можете да действате. Нямате нужда от човешки елемент. Създавате корекция. Създавате клон. Поставяте корекцията на клона. Преминавате през скенерите за сигурност отново преминавате през пакета от тестове и ако всичко е чисто… какво друго мислите, че ще направи човекът?“

Все още не сме там, като се имат предвид някои от ревовете, изплюти от генеративния AI, но Labourey е уверен, че моментът ще дойде, когато потребителите станат по-уверени с инструментите.

Той цитира първоначалното недоверие около облачните услуги, благодарение на някои неудачни сравнения. „Например, сравнявахме красив център за данни, управляван от банки на Уолстрийт с милиарди инвестиции срещу облаците… но това не е реалният живот. Реалният живот е среден център за данни от средностатистическа компания със средностатистически инженери срещу облака.

„Същото важи и за сигурността. Сравняваме най-добрите разработчици, коригиращи проблем със сигурността, с LLM.“

Не всеки има тези разработчици и не всеки разработчик и QA човек ще може да поддържа същото ниво на старание за всяка корекция. „Мога да ви уверя, че LLM ще вземе всеки случай и ще действа със същото усърдие за всеки. Така че всъщност смятам, че шансовете да имаме висококачествени поправки са много големи“, казва Labourey. „Въз основа на някои от тестовете, които направихме, резултатът е доста впечатляващ.“

Що се отнася до това кога това тестване се превръща в нещо осезаемо? „Мисля, че се движи с много по-бързи темпове, отколкото всеки от нас може да разбере.“ ®

Технологични гиганти с ласо в ЕС се опитват да овладеят Дивия запад с ИИ

0

Анализ С наближаването на края на 2023 г. годината на шума върху ИИ приключваше, както започна. Според данни от Pitchbook Big Tech е похарчил два пъти повече за сделки с Generative AI стартиращи фирми, отколкото групите за рисков капитал през годината.

Но през декември законодателите започнаха да контролират как системите могат да бъдат разработени и внедрени. Във временно споразумение Парламентът и Съветът на ЕС предложиха категорични забрани за някои приложения и задължения за разработчиците на ИИ, считани за високорискови.

Докато ЕС тръбеше за успеха си да се превърне в първата юрисдикция, която изготви планове за законодателство, Big Tech крещеше.

Главният учен по изкуствен интелект на Meta каза, че регулирането на моделите на основата е лоша идея, тъй като ефективно регулира научноизследователската и развойна дейност. „Няма абсолютно никаква причина за това, освен за силно спекулативни и невероятни сценарии. Регулирането на продукти е добре. Но [регулирането] на научноизследователската и развойна дейност е абсурдно“, написа той на уебсайта, известен преди като Twitter .

Правните експерти обаче посочват, че има много неща за решаване в хода на дискусиите и много ще зависи от подробностите на законодателния текст, който предстои да бъде публикуван.

Когато преговарящите от Парламента и Съвета постигнаха временно споразумение относно Закона за изкуствения интелект, те казаха, че ще забранят системите за биометрична категоризация, които твърдят, че сортират хората в групи въз основа на политика, религия, сексуална ориентация и раса. Нецеленасоченото изтриване на изображения на лица от интернет или видеонаблюдение, разпознаване на емоции на работното място и в образователни институции и социално оценяване въз основа на поведение или лични характеристики също бяха включени в списъка със забранени.

Предложенията налагат задължения и на високорисковите системи, включително задължението за извършване на оценка на въздействието върху основните права. Гражданите ще имат право да подават жалби относно системи с изкуствен интелект и да получават обяснения относно решения, базирани на високорискови системи с изкуствен интелект, които засягат техните права. Но предложенията за системи с изкуствен интелект с общо предназначение (GPAI) – или основополагащи модели – са тези, които раздразниха индустрията.

В споразумението с ЕС се казва, че разработчиците ще трябва да отчетат широкия набор от задачи, които AI системите могат да изпълнят, и бързото разширяване на техните възможности. Те ще трябва да се придържат към изискванията за прозрачност, както първоначално беше предложено от Парламента, включително изготвяне на техническа документация, спазване на закона за авторското право на ЕС и разпространение на подробни резюмета за съдържанието, използвано за обучение.

В същото време разработчиците ще трябва да извършват по-строги проверки на така наречените „модели на GPAI със силно въздействие със системен риск“. ЕС каза, че ако тези модели отговарят на определени критерии, те ще трябва да извършат оценки на моделите, да оценят и смекчат системните рискове, да проведат състезателни тестове, да докладват на Комисията за сериозни инциденти, да осигурят киберсигурност и да докладват за тяхната енергийна ефективност. Докато не бъдат публикувани хармонизирани стандарти на ЕС, GPAI със системен риск могат да разчитат на кодекси на практика, за да се съобразят с регламента.

Нилс Рауер, партньор в адвокатската кантора Pinsent Masons, специализирана в ИИ и интелектуалната собственост, ни каза, че има широко съгласие относно необходимостта от законодателство. „Фактът, че ще има регулация за ИИ, се възприема от повечето засегнати играчи на пазара. Илън Мъск, но и много други виждат едновременно опасността и ползите, които идват с ИИ, и мисля, че не можете да спорите по този въпрос : AI трябва да бъде насочен към разумна рамка, защото ако това се развихри, може да бъде доста опасно.“

Той обаче каза, че различната категоризация на моделите GPAI е доста сложна. „Те започнаха с тази високорискова категория AI и има всичко, което е под висок риск. Когато след това се появи ChatGPT, те се бореха с това дали е висок риск или не. Тези общи модели на AI, които са в основата на GPT 4.0, например , са най-мощните. [Законодателите] разбраха, че наистина зависи от това къде се използва, дали е висок риск или не.“

Друго приложение на AI, адресирано от предложените закони, е биометричната идентификация в реално време. ЕС планира забрана на практиката, която вече се прилага от полицията в Обединеното кралство, но ще позволи изключения. Потребителите – най-вероятно полицията или разузнавателните агенции – ще трябва да се обърнат към съдия или независим орган, но може да им бъде разрешено да използват биометрични системи в реално време за търсене на жертви на отвличане, трафик или сексуална експлоатация. Предотвратяването на конкретна и настояща терористична заплаха или локализирането или идентифицирането на лице, заподозряно в извършване на едно от списък с конкретни престъпления, също може да бъде освободено.

Гийом Кунесон, партньор в адвокатската кантора Linklaters, каза, че принципната забрана за биометрични данни на живо е „доста силно изявление“, но изключенията могат да бъдат потенциално доста широки. „Ако става дума за идентификация на жертви или предотвратяване на заплахи, това означава ли, че не можете да го правите непрекъснато? Или можете да направите аргумента, че на летището например винаги има риск за сигурността и следователно винаги ще прилагате този вид технология?

„Няма да знаем, без да прочетем действителния текст, докъде са стигнали по този въпрос. Текстът дори може да не е достатъчно ясен, за да се определи това, така че може да имаме допълнителни дискусии и потенциално дори дела, които ще стигнат до Съда на ЕС , в крайна сметка“, каза той пред The Reg .

Couneson добави, че правилата, наложени на разработчиците на AI с общо предназначение, може да не са толкова ограничителни, колкото се страхуват някои, защото има изключения за научноизследователска и развойна дейност. „До известна степен изследванията около AI все още биха били възможни и без да попадат в тези рискови категории. Основното предизвикателство ще бъде в прилагането на тези високорискови случаи на употреба, ако сте компания, обмисляща [система с AI, която би] отговаряла на изискванията при един от изброените сценарии. Това е моментът, когато гумата излиза на пътя.“

Той посочи, че ЕС също е обсъдил въвеждането на „ регулаторни пясъчни кутии “ за насърчаване на иновациите в ИИ.

„Използването на пясъчни кутии може да бъде добър начин да се помогне на компаниите да имат подходящ диалог със съответните власти, преди да пуснат нещо на пазара. Иновациите се върнаха много в преговорите. Това не е нещо, което беше пренебрегнато“, каза той.

Така или иначе, индустрията ще трябва да изчака, докато ЕС публикува пълния текст на законодателното предложение – очаква се в края на януари или началото на февруари – преди да научи повече подробности. ®

Изненадващо, Gentoo Linux започва да предлага двоични файлове

0

Gentoo вече предлага над 20 гигабайта предварително компилирани двоични файлове, от настолни компютри до офис пакети, за да ускори инсталациите и актуализациите.

В новини, толкова неочаквани, че бюрото на Reg FOSS първоначално сметна, че това е странна първоаприлска шега, проектът Gentoo разкри този ход точно преди края на декември в публикация, озаглавена Gentoo goes Binary!

Gentoo поддържа много широка гама от типове компютри в наши дни, включително 32-битови и 64-битови x86 и Arm, 32-битови и 64-битови big-endian и little-endian PowerPC и IBM POWER, заедно с девет други архитектури от Alpha до SPARC. Засега пълната гама от предварително компилирани двоични пакети се фокусира върху x86-64 и Arm64, за които проектът предлага, по собствените си думи, „>20 GByte пакети на нашите огледални сървъри, от LibreOffice до KDE Plasma и от Gnome до Docker. Gentoo стабилен, актуализиран ежедневно.“

Уикито на проекта също предлага както ръководство за бърз старт за това как да конфигурирате новите хранилища на двоични пакети, така и задълбочена документация . Двоичните файлове се разпространяват в съществуващия формат на двоичен пакет, наречен GPKG .

Многото други платформи не са пропуснати: за тях предварително компилираните пакети са ограничени до основната операционна система и получават седмични актуализации. Напълно разумно е да се съсредоточим върху двете CPU архитектури, които са най-широко използвани днес, но иронията на това е, че хората на по-стари, по-бавни машини, като PowerMac и x86-32 машини, ще страдат най-много от по-бавното време за инсталиране поради колко време отнема компилацията.

Въпреки че това е точно как работят всички други настоящи дистрибуции на Linux, това е значително отклонение за Gentoo, който преди това беше почти изцяло базирана на изходен код дистрибуция. Повечето дистрибуции са изградени от двоични файлове: хиляди предварително компилирани изпълними файлове, компилирани от съставния им изходен код на сървърни ферми, притежавани от доставчици на дистрибуции. Gentoo обаче е различен. Въпреки че инсталационният диск, който ви кара да започнете, трябва по дефиниция да бъде предварително компилиран, досега, когато инсталирате Gentoo, той извлича изходния код и го компилира на вашата машина за вашата машина, специално оптимизиран за конкретния процесор на вашия компютър и отделните функционалност и конфигурация по ваш избор.

И двата подхода имат плюсове и минуси. Обичайният начин, когато доставчикът прави компилацията, двоичните файлове се изграждат доста общо за хардуер с най-нисък общ знаменател. Както споменахме наскоро, това постави препятствия при внедряването на доставчиците на дистрибуции, изискващи различни иновативни решения . Това обаче прави софтуер, който се инсталира много по-бързо, опростява тестването и улеснява автоматизираното внедряване. Когато компонентите изискват актуализации, често срещано явление, тогава или се изпращат нови двоични файлове, или дори се изтегля само разликата между стари и нови двоични файлове.

Основното предимство на метода Gentoo е, че пакетите се компилират с предпочитаните от вас оптимизации за процесора на вашия компютър. Потребителите на други дистрибуции най-вече игнорират това или дори му се подиграват , като се има предвид, че като цяло сравнително скромните подобрения на производителността не си струват допълнителната работа – но подходът допринася за това Gentoo да бъде изключително адаптивна дистрибуция, позволяваща повече персонализиране от почти всяка друга операционна система.

В резултат на това има редица дистрибуции надолу по веригата, базирани на Gentoo, някои сред най-използваните форми на Linux. Например Gentoo е в основата на ChromeOS на Google, както и на късния CoreOS Container Linux. Последният беше придобит от Red Hat , възстановен на базата на Red Hat и предишната дистрибуция беше преустановена , но Kinvolk разклони оригиналната дистрибуция и я продължи като Flatcar Container Linux, само за да бъде закупена впоследствие от Microsoft .

Ако не друго, големи суми пари бяха платени за базирани на Gentoo продукти… И продължават да бъдат: Uniontech, една от водещите платени китайски дистрибуции, се гордее с три милиона потребители , което затвърждава статуса на ChromeOS като популярна десктоп дистрибуция .

За потребителите на Gentoo, обезпокоени от загубата на оптимизация, много ни хареса собственото полезно резюме на проекта:

®

Google парадира с паралелност, оптимизация, тъй като облачните съперници ремонтират платформите

0

Функция Миналата година беше голяма за анализа на данни и машинното обучение в облака. Двама от най-големите играчи, Microsoft и Databricks, преработиха основно своите платформи, като първият също успя да пусне продукти.

Google, който, както бихте очаквали, е голям играч на пазара за анализ на облачни данни, постигна победи за клиенти с Walmart, HSBC, Vodafone и Home Depot, наред с други през последните няколко години, като в някои случаи измести добре установените на- prem корпоративни системи за съхранение на данни от компании като Teradata.

По отношение на новите технологии, Google направи допълнения и промени в своята гама през 2023 г., вместо основните съобщения за платформа, които видяхме от Microsoft и Databricks . Складът за данни на Google BigQuery получи автоматично мащабиране и компресирано съхранение, заедно с повече избор и гъвкавост при настройване на функции за различни изисквания за натоварване. Клиентите могат също така да смесват издания Standard, Enterprise и Enterprise Plus, за да постигнат предпочитаната от тях цена според натоварването. BigQuery Data Clean Rooms позволи споделянето и съпоставянето на набори от данни между организации, като същевременно зачита поверителността на потребителите и защитава сигурността на данните.

слонове

Пионерът на Postgres Майкъл Стоунбрейкър обещава да преобърне базата данни още веднъж

ПРОЧЕТЕТЕ ОЩЕ

В AlloyDB Omni Google предлага услуги за база данни, съвместими с PostgreSQL, които работят в други облачни хиперскалери, локални и лаптопи за разработчици. Той включва набор от инструменти за автоматизация, които помагат при миграцията от по-стари, добре установени системи за бази данни като Oracle или IBM Db2.

Но по отношение на платформата за данни, където основните играчи обслужват структури и неструктурирани работни натоварвания за BI, анализи и машинно обучение от едно място, възприемайки подозрителната терминология на „езерната къща“, Google вече има това, от което се нуждае, за да се конкурира, Герит Казмайер, veep и генерален мениджър на Google за анализ на данни, разказва The Register .

„Имате големи аналитични системи, които изграждат тези обширни записи на данни. Много е важно те да бъдат не само преплетени, но всъщност безпроблемно интегрирани например, когато дори не репликирате данни направо от една система в друга: BigQuery говори с едни и същи данни на същото място, където базата данни ги записва. Има нулево забавяне, няма нулеви разходи, не е необходимо огледално копиране или репликация, защото по принцип имате достъп навсякъде“, казва Казмайер.

В архитектурата на Google унифициран слой за достъп за сигурност и управление свързва приложения като BI, складиране на данни и ML с бекенд, който се обслужва от BigQuery Managed Storage и Google Cloud Storage и мулти-облачно хранилище от AWS S3 и Azure Storage на Microsoft.

Архитектурата, поне като концепция, е подобна на предложението на Microsoft. Обявен през юни и станал общодостъпен през ноември, Microsoft Fabric също обещава да обслужва различни приложения и работни натоварвания от своята технология OneLake, която съхранява всичко в отворен код, управляван от Linux Foundation Delta табличен формат, който произхожда от Databricks.

Microsoft обяснява, че подходът позволява на приложения като Power BI да изпълняват работни натоварвания в хранилището на данни Synapse, без да изпращат SQL заявки. Вместо това в Onelake се създава виртуално хранилище за данни, което зарежда данните в паметта. Гигантът от Редмънд твърди, че подходът предлага ускорение на производителността, тъй като няма повече SQL ниво в средата на изпълнение на SQL заявки.

Въпреки че има прилики с подхода на Microsoft, архитектурата на Google разчита на табличния формат Iceberg , разработен в Netflix и сега с отворен код чрез Apache Foundation.

Kazmaier казва: „Взехме десетилетия на иновации в BigQuery, по-специално в производителността на заявките, времената за достъп, оптимизацията на заявките и ги доставихме от BigLake по начин, така че клиентите да могат да получат производителност, както и богатството на разработката от общността на Iceberg. По-конкретно имаме много оптимизации от начина, по който осъществяваме достъп и разбираме метаданните от начина, по който осъществяваме достъп до файловете, което води до превъзходна производителност с Iceberg и BigQuery на GCP“, казва той.

Въпреки че всички основни доставчици в пространството казват, че поддържат или ще поддържат всички формати на таблици – Iceberg, Delta и Hudi – изградени на файловия формат Apache Parquet, всеки има своя акцент върху това, което поддържа „изначално“. Тенденцията доведе до разделение в индустрията, като Databricks, Microsoft и SAP подкрепят Delta и Google, Cloudera, Snowflake, AWS и Netezza на IBM, наблягайки на Iceberg.

Казмайер казва, че подкрепата на Google за Iceberg се свежда до силен ангажимент към отворен код. „Айсберг е проект на Apache: управлява се много ясно, не е свързан с нито един доставчик и има широк принос от общността.“

Той казва, че Google реагира на търсенето на клиентите, като избра Iceberg като „основен формат на стратегия за данни“, но също така добави поддръжка за Delta и Hudi, тъй като някои клиенти вече са изградили стек, ориентиран към Databricks.

„Истинският отговор се крие в това колко гъвкави искате да бъдете като клиент. Ако изберете да бъдете най-гъвкави и отворени, Iceberg ви дава най-широкото от тези качества. Ако сте по-загрижени да имате архитектура на Lakehouse от Databricks -центрично разгръщане, Delta е чудесен избор. Виждаме много бързо и широко приемане на Iceberg,“ казва той.

Миналия месец Databricks, компанията за платформа за данни, израснала от езерата от данни на Apache Spark, също обяви основен ремонт на стека си. Обещава нов слой „разузнаване на данни“ върху концепцията „езерна къща“, която стартира в началото на 2020 г., за да комбинира структурирани BI и аналитични натоварвания на складиране на данни с объркания свят на езерата от данни. В съобщение, спестяващо подробности за продукта, компанията каза, че въвежда слоя „разузнаване на данни“ DatabricksIQ, за да „подхранва всички части на нашата платформа“.

Докато запазва унифицирания слой за управление на lakehouse в данни и AI и единна унифицирана машина за заявки, обхващаща ETL, SQL, машинно обучение и BI, компанията иска да продължи да използва технологията, придобита при закупуването на MosaicML за 1,3 милиарда долара, генеративен AI започвам. Идеята е да се използват „AI модели за дълбоко разбиране на семантиката на корпоративните данни“,казва Databricks .

Въпреки че lakehouse на Databricks поддържа SQL заявки, има някои критики относно способността му да поддържа BI работни натоварвания в мащаб на предприятието. През 2021 г. Gartner посочи, че базираните в облак езера от данни може да се борят със SQL заявки от повече от 10 едновременни потребители, въпреки че Databricks оспори твърдението. Миналия месец анализаторът на Ventana Research Матю Аслет каза, че все повече организации осъзнават трудностите, докато се опитват да мащабират езерата от данни и да поддържат корпоративните BI работни натоварвания.

Например Adidas изгради платформа за данни около Databricks, но също така създаде слой за ускоряване с базата данни Exasol в паметта, за да подобри производителността при едновременни работни натоварвания.

Казмайер обяснява, че подходът на Google към паралелността избягва завъртането на повече виртуални машини и вместо това подобрява производителността на единица на ниво подпроцесор. „Той премества тези единици капацитет безпроблемно, така че може да имате заявка, която завършва и освобождава ресурси, която може да бъде преместена незабавно към друга заявка, която може да се възползва от ускорението. Цялата тази микрооптимизация се извършва без системата да се оразмерява. Постоянно ви дава идеалната проекция на капацитета, който използвате за натоварванията, които изпълнявате,” казва той.

Доклад от Gartner по-рано миналата година одобри подхода. „Смесица от модели за резервиране на слотове при поискване и ценообразуване с фиксирана ставка осигурява средствата за разпределяне на капацитет в цялата организация. Въз основа на използвания модел ресурсите на слотове се разпределят на изпратени заявки. Когато търсенето на слот надвишава текущата наличност, допълнителни слотове се поставят на опашка и се задържа за обработка, след като капацитетът е наличен. Този модел на обработка позволява продължителна обработка на едновременни големи натоварвания на заявки“, се казва в него.

Докато Microsoft и Databricks може да са привлекли вниманието на пазара с техните съобщения за пакет от данни за 2023 г., Aslett от Ventana смята, че е имало малко за избор между основните играчи и всяка очевидна технологична преднина може да се дължи на ритъма на пускане.

Гледайки напред към следващата година, Google може да се надява да открадне част от светлината на прожекторите обратно от своите конкуренти. ®

NHS England публикува силно редактиран договор с Palantir, когато празненствата започнаха

0

NHS England избра последния работен ден преди Коледа, за да публикува силно редактиран договор за противоречивата Federated Data Platform, който възложи на американската шпионска фирма Palantir през ноември.

Големи раздели от трите договорни документа – публикувани в петък, 22 декември, когато работниците се опаковаха за празниците – бяха затъмнени, включително по-голямата част от раздела, описващ „защитата на личните данни“, според официална публикация на уебсайта на правителството за търгове.

palantir nyse

Palantir събира £330 милиона от NHS данни въпреки страховете за поверителността

ПРОЧЕТЕТЕ ОЩЕ

Критиците посочиха, че редактирането на значителна част от договора и публикуването му в навечерието на празничния сезон едва ли е изпълнило обещанието на NHS England да гарантира, „че са научени уроци по доверие и прозрачност“.

В брифинг , публикуван относно договора за FDP, правителственият здравен quango каза: „Бяха извлечени ключови поуки от предишни програми за данни, включително необходимостта от а) прозрачност и б) данните да се съхраняват в защитена среда с правилните проверки и баланси Ние гарантираме, че са извлечени уроци по доверие и прозрачност както по отношение на дизайна, така и в начина, по който действаме, например навременното публикуване на информация и документация, открито публикуване на случаи на използване и оценки на въздействието върху защитата на данните.“

NHS England — която започна връзката си с Palantir по време на пандемията с възлагането на договор от £1 — каза, че FDP ще предостави софтуер за свързване на тръстове на NHS и регионални системи и ще предложи последователно техническо средство за свързване на данни, които вече са събрани за грижи за пациенти .

„Клиницистите лесно ще имат достъп до информацията, от която се нуждаят, за да вършат работата си – на едно място – освобождавайки време, изразходвано за административни задачи, и им позволявайки да предоставят най-подходящите грижи за пациентите“, се казва в него.

Известието за възлагане на договор оценява договора на £182,2 милиона ($230 милиона) за четири години, завършващи през февруари 2027 г. По-ранното изявление от NHS England казва, че договорът може да продължи седем години и да струва до £330 милиона ($412 милиона).

Кампаниите за здравни данни се подготвят за правно оспорване на сделката с FDP, като твърдят, че няма правно основание за преместване на данните на пациентите към платформата в рамките на настоящите правни указания, които NHS Digital използва за получаване и споделяне на данни в рамките на NHS.

Говорител на NHS каза, че този ход „фундаментално погрешно разбира как ще работи платформата за обединени данни и е напълно неправилен както от гледна точка на закона, така и от гледна точка на фактите. Платформата ще използва само съществуващи данни, законно събрани от NHS, за да поддържа директна грижа за пациентите, което е законно съгласно всички съответни разпоредби за защита на данните.“

Palantir стана част от мисленето на NHS England по време на ранните етапи на пандемията COVID-19. Чрез предоставяне на технология в договор за £1, уреден без състезателен процес, той спечели бизнес на стойност £1 милион ($1,25 милиона), след което беше подписан договор за £23 милиона ($28,7 милиона) през декември 2020 г., отново без конкуренция. По-скорошни сделки за разширение означават, че компанията за аналитичен софтуер е спечелила общо £60 милиона ($75 милиона) от NHS, без да се конкурира с други компании, които предоставят подобен софтуер.

NHS England заяви, че състезанието на FDP е честна, открита и прозрачна поръчка в съответствие с Наредбите за обществените поръчки от 2015 г. ®

Съобщава се, че САЩ са настояли ASML да отмени рано комплекта за производство на чипове за Китай

0

Съобщава се, че Вашингтон е притиснал гиганта за оборудване за производство на чипове ASML да отмени някои доставки за Китай преди влизането в сила на актуализираните ограничения, но самата компания отказва да потвърди дали случаят е такъв.

Холандският производител е въвлечен във „войните за чипове“ между САЩ и Китай, тъй като произвежда някои от най-модерните фотолитографски съоръжения в света. Това е единственият източник на ток за екстремни ултравиолетови (EUV) системи за производство на чипове в най-малките производствени възли, например.

Те обаче вече са забранени за износ в Китай съгласно съществуващите ограничения за износ, а актуализираните правила, обявени миналата година, разшириха това, за да обхванат и някои от машините за дълбока ултравиолетова (DUV) литография на ASML.

Според Bloomberg , ASML е отменил доставките на някои от тези машини за Китай по нареждане на администрацията на Байдън, преди новите ограничения да влязат в сила този месец. Твърди се, че американски служители са поискали от компанията незабавно да спре вече планираните доставки, цитирайки анонимни източници, за които се твърди, че са запознати с въпроса.

ASML е малко хитър по този въпрос, както може да се очаква, тъй като Китай е доходоносен пазар за компанията. Според някои оценки Китай е бил най-големият пазар на ASML след Тайван и Южна Корея, но е съставлявал почти половината от продажбите на компанията през третото тримесечие на 2023 г., тъй като производителите на чипове в страната побързаха да получат ново оборудване, преди подвижният мост да бъде изтеглен.

В изявление ASML каза: „Лицензът за доставка на литографски системи NXT:2050i и NXT:2100i през 2023 г. наскоро беше частично отменен от холандското правителство, което засегна малък брой клиенти в Китай.“

По-рано компанията каза, че холандските власти са й издали лицензи да продължи да продава своите DUV машини в Китай до края на 2023 г., след което ще трябва да спре продажбите.

Но изглежда, че съответните лицензи за износ са били частично отменени от холандското правителство, „частично“, тъй като те вече са били използвани за доставка на някои пратки до Китай през 2023 г., ни каза компанията.

Най-близкото до пушещо оръжие е тази част от изявлението на ASML: „В последните дискусии с правителството на САЩ ASML получи допълнителни разяснения относно обхвата и въздействието на разпоредбите за контрол на износа на САЩ. Най-новите правила за износ на САЩ (публикувани на 17 октомври 2023 г. ) налагат ограничения върху някои средно критични DUV имерсионни литографски системи за ограничен брой усъвършенствани производствени съоръжения.“

Говорител на ASML ни каза, че „за 2024 г. е малко вероятно да получим лиценз за износ, за да изпратим NXT2000i (и следващите версии) на китайски клиенти.“

Компанията обаче заяви, че не очаква отмяната на лиценза за износ или последните ограничения на САЩ за контрол на износа да имат съществено въздействие върху финансовите й перспективи за 2023 г. Това е въпреки предишни оценки, които показват, че актуализираните ограничения за износ може да струват на ASML около пет процента от годишните си приходи.

Ограниченията за износ са насочени към това да попречат на Китай да се сдобие с най-модерната технология за чипове, поради опасения какво може да направи армията на Пекин с нея. Но въпреки тези мерки китайската Huawei успя да представи нов смартфон миналата година с домашна система върху чип, изградена от 7nm процес, а също така се говори, че има 5nm чип за лаптоп. ®

BT пропуска крайния срок за премахване на Huawei от ядрото на мрежата

0

Крайният срок за телекомите в Обединеното кралство да премахнат оборудването на Huawei от техните основни мрежи вече изтече, като BT призна, че 2G и 3G услугите все още се обслужват от инфраструктура, която не е съвместима. И все пак не е ясно какви мерки, ако има такива, може да предприеме BT за това.

Британските телекомуникационни оператори получиха официални правни известия от правителството през ноември 2022 г., в които се описват задълженията им да изтрият комплекта от базираната в Китай Huawei, след като компанията беше счетена за риск за сигурността.

Като част от това на компаниите беше даден краен срок до 31 декември 2023 г. да спрат да използват комплекта Huawei в основните си мрежи. Това беше удължаване на предишния краен срок от 28 януари 2023 г., който редица оператори (включително BT) се оплакаха, че трудно ще изпълнят.

И все пак изглежда, че BT сега не е успяла да спази този удължен краен срок, въпреки че компанията твърди, че сега са засегнати само малка част от услугите за глас и данни, които носи.

„Всички 4G и 5G сесии за данни и гласови повиквания вече се доставят от основно оборудване, което не е на Huawei – което означава, че над 99 процента от целия основен трафик вече се обслужва от комплект, който не е на Huawei“, каза говорител на BT Group пред The Register в изявление .

Единствените услуги за глас и данни, които предстои да бъдат мигрирани, са 2G и 3G, които представляват по-малко от 1% от общия трафик, твърди компанията, добавяйки, че „Работим усилено, за да завършим тази работа“.

Разбираемо е, че телекомуникационните оператори са изправени пред глоба до 10 процента от техния оборот за неспазване на правното уведомление или в случай на продължаващо нарушение, £100 000 ($126 611) на ден.

Въпреки това е малко вероятно подобно действие да бъде предприето незабавно, тъй като телекомуникационният регулатор на страната Ofcom трябва първо да докладва за напредъка, който мрежовите оператори са постигнали за постигане на тези цели, и съответният доклад не трябва да бъде представен до 31 март тази година.

„Правителството е отговорно за определянето и прилагането на правилата, изискващи определени телекомуникационни компании да премахнат оборудването на Huawei от мрежите си. Ролята на Ofcom е да събира информация за напредъка на компаниите и да докладва това на правителството“, каза днес говорител на Ofcom.

BT, която казва, че ще предостави повече информация на Ofcom по отношение на съответствието с разпоредбите, ни каза, че не е поискала официално удължаване на крайния срок.

Някои наблюдатели от индустрията обаче очакват, че може да има известна гъвкавост по отношение на крайните срокове, за да се избегнат глоби върху компаниите, които са положили усилия да се съобразят.

„Напълно очаквам действия за допълнително удължаване, за да се избегнат всякакви глоби“, ни каза анализаторът на телекомите Паоло Пескаторе от PP Foresight. „Това подчертава колко разчита BT на Huawei и сложността на пълното премахване на доставчик както от неговите фиксирани, така и от мобилни мрежи“, добави Пескаторе.

„Задачата не трябва да се подценява, за да се гарантират минимални смущения за всички потребители (във всички телекоми), но имайки предвид особено задълженията на EE за мрежата за спешни услуги“, каза той.

Мобилният мрежов оператор EE е марка в рамките на BT Group.

BT по-рано заяви , че спазването на изискването за премахване на Huawei от мрежата й ще й струва около £500 милиона ($632 милиона) между 2020 и 2025 г. Цялото оборудване на Huawei трябва да бъде премахнато изцяло от 5G мрежите на Обединеното кралство до края на 2027 г.

Все още не е ясно дали други телекомуникационни оператори не са успели да спазят крайния срок, свързан с техните основни мрежи. Разпитахме наоколо, но не получихме отговори до момента на публикуване. Всичко вероятно ще стане ясно от доклада на Ofcom през март. ®

2024 със сигурност изглежда като вълнуваща година за силикона за центрове за данни

0

Коментар Новата година вече се очертава да бъде една от най-значимите по отношение на силикона за центрове за данни, който сме виждали от известно време. Всяка голяма компания за чипове е планирана да обнови своите CPU и/или GPU продуктови линии през следващите дванадесет месеца.

Nvidia има множество нови ускорители, GPU архитектури и мрежов комплект, планиран за 2024 г. Intel ще пусне може би най-завладяващите си Xeon от години заедно с новите чипове за изкуствен интелект Habana Gaudi. Междувременно AMD, която се движи високо с пускането на своята серия MI300, е планирана да пусне своите процесори Epyc от 5-то поколение на пазара.

Без конкретен ред, нека разгледаме някои от пусканията на по-големи чипове за центрове за данни на нашия радар през 2024 г. О, и ако смятате, че сме пропуснали някой, уведомете ни в коментарите или имейла .

Пристигат AI чиповете HBM3e-toting H200 на Nvidia

Сред първите нови чипове, които ще излязат на пазара през 2024 г., ще бъдат ускорителите H200 на Nvidia. Графичният процесор е по същество опресняване на почтения H100.

Може да очаквате най-новият чип да предложи подобрение на производителността спрямо по-стария си брат, но това няма да стане в конвенционалния смисъл. Разровете спецификационния лист и ще видите, че производителността с плаваща запетая е идентична с тази на H100. Вместо това повишаването на производителността на частта – Nvidia твърди, че е двойно по-висока от производителността за LLM, включително Llama 70B – се свежда до стековете памет HBM3e на чипа.

Nvidia's HGX H200 packs up to eight H200 SXM accelerators onto a single board.

HGX H200 на Nvidia е настроен да опакова до осем H200 SXM ускорителя на една платка

Обещано ни е, че H200 ще се предлага с до 141 GB HBM3e памет, което е добре за невероятните 4,8 TB/s честотна лента. С нарастването на популярността на LLM – като Llama 2 на Meta, Falcon 40B, Stable Diffusion и други – капацитетът на паметта и честотната лента оказват огромно влияние върху производителността на изводите – а именно колко голям модел можете да поставите в един ускорител или сървър, и колко заявки можете да обработвате едновременно.

Както наскоро проучихме в нашия анализ на провала на сравнителния анализ на AMD и Nvidia, FLOPS не са толкова важни, колкото капацитетът на паметта и честотната лента, когато става въпрос за тези видове натоварвания на AI.

Заместникът на Hopper пристига с архитектура „Blackwell“.

Според презентация на инвеститор през 2023 г., H200 няма да е единственият GPU, който виждаме от Nvidia през 2024 г. За да затвърди лидерството си, Nvidia преминава към годишен ритъм на пускане на нови чипове и първата нова част, която виждаме от Team Green ще бъде B100.

According to an investor presentation released this month, Nvidia plans to shift to a One-Year release cadence.

Nvidia планира да премине към едногодишен каданс на пускане, съдейки по този слайд, показан на инвеститорите

Както разбираме, „B“ тук е съкратено от името на микроархитектурата, Blackwell – вероятно намигване към американския статистик David Blackwell. Все още не знаем много за частта, освен че идва през 2024 г. Нашите колеги от The Next Platform имат няколко мисли за B100 тук .

В сегашния си вид, наскоро пуснатите MI300X GPU на AMD не само избутват повече FLOPS от H200, те имат повече и по-бърза памет за зареждане. Не можем да си представим, че Nvidia е доволна от това, особено като се има предвид колко отбранителен е американският гигант напоследък. Поради това напълно очакваме B100 да достави повече FLOPS и повече стекове HBM3e, които ще издигнат капацитета на паметта и честотната лента на ускорителя до нови висоти.

Наред със самия GPU, пътната карта на Nvidia включва повече CPU-GPU суперчипове, наречени GB200 и GB200NVL. Дали тези процесори ще продължат да използват процесорни ядра, базирани на Arm Neoverse V2, намиращи се в текущата реколта от суперчипове Grace и Grace-Hopper, или ще разполагат с ядра от следващо поколение, остава да видим.

След това има B40. Исторически тези видове карти са били насочени към по-малки корпоративни работни натоварвания, които могат да работят в рамките на един GPU. Частта ще замени L40 и L40S и ще консолидира гамата корпоративни GPU на Nvidia под една всеобхватна архитектура.

Вероятно най-интересният компонент от ускорената пътна карта на Nvidia е свързан с работата в мрежа. Nvidia се стреми да премине към 800Gb/s свързаност с Blackwell, въпреки че, както проучихме по-рано, това представлява някои уникални предизвикателства поради факта, че PCIe 5.0 не е достатъчно бърз, а PCIe 6.0 все още е малко далеч.

Кога можем да видим тези Blackwell карти все още е във въздуха, но ако историята е нещо, което трябва да се вземе предвид, може да не се наложи да чакаме толкова дълго. Nvidia има дълга история на предварително обявяване на ускорители месеци (и наистина понякога години), преди те действително да бъдат налични за закупуване.

Nvidia дразнеше своя Grace-Hopper Superchip в началото на 2022 г., но както разбираме, тези части едва сега си проправят път в ръцете на клиентите. Така че можем да имаме повече подробности за базираните на Blackwell части още в GTC.

Intel посреща новата година с изцяло нов собствен ускорител

Придържайки се към темата за ускорителите, Intel е планирано да разкрие своето трето поколение Gaudi AI чипове някъде през 2024 г.

Участието е важно, тъй като с отмяната на моста Риалто, наследника на Понте Векио, Gaudi3 на Habana Lab представлява най-доброто, което Intel може да предложи на арената за обучение и изводи на AI – поне докато Falcon Shores пристигне през 2025 г.

Докато Nvidia и AMD имат навика да дразнят и рекламират своите продуктови издания в продължение на месеци, Intel беше изключително мълчалив относно тази част. По-голямата част от това, което видяхме досега, идва от този презентационен слайд, който показва най-малко от събитието за иновации през септември:

Most of what we know about Intel's third-gen Guadi accelerator comes from this slide.

Слайдът твърди, че Gaudi3, 5nm чип, ще има 4 пъти по-висока производителност на Brain Float 16 (BF16) от 7nm версия 2, плюс два пъти по-голяма честотна лента на мрежата и 1,5 пъти по-висока честотна лента на HBM.

Обикновено тези цифри ще ни дадат отправна точка за екстраполиране на относителни данни за ефективност. За съжаление, за да направи това, Intel ще трябва да ни каже какво всъщност е представянето на BF16 на Gaudi2. Попитахме и те не искат да говорят за това, въпреки че твърдят, че 4x подобрение в Gaudi3. Вместо това Intel иска да се съсредоточи върху производителността в реалния свят, а не върху сравненията с бенчмаркове.

Това е откровено объркващо маркетингово решение, тъй като твърдението по същество е безсмислено без референтна рамка. Освен това, както изглежда, този път x86 гигантът използва осем HBM стека вместо шест.

В допълнение към Gaudi3, казаха ни, че ще има версия на Gaudi2, намалена – отново – за китайския пазар (за да остане от дясната страна на експортните ограничения на САЩ за нацията) и Intel твърди, че ще я достави преди Слуховете за чипове H20 на Nvidia стигнаха до континента.

Intel се присъединява към екипа на облачните процесори със Sierra Forest

Междувременно на фронта на процесора, Intel има двойна функция, планирана за 2024 г., която ще използва своята дълго отлагана технология за процеси Intel 3. За да бъде ясно, Intel не е направила внезапен скок към 3nm. Той работи върху този възел, който наричаше 7nm, от години. В крайна сметка той беше преименуван на Intel 4 и Intel 3, за да се доближи по маркетингова линия до плътността на транзисторите на конкурентните възли.

Ще получим първия от тези базирани на Intel-3 процесори Xeon през първата половина на 2024 г. С кодовото име Sierra Forest, чипът може да бъде оборудван с чифт 144-ядрени матрици за общо 288 CPU ядра на сокет. Естествено, това не са същия клас ядра, които сме виждали в минали Xeon. Те са еволюция на архитектурата на ядрото за ефективност на Intel, която започна да се появява в процесорите за компютри и преносими компютри през 2021 г. с пускането на пазара на Alder Lake .

Но докато тези чипове обикновено са придружени от набор от ядра за производителност, Sierra Forest е изцяло с електронни ядра и е проектиран да се конкурира с Ampere, AMD и множество персонализирани процесори Arm, които се внедряват от облачни доставчици като AWS и Microsoft.

The e-cores used in Intel's Seirra Forest Xeons will feature a streamlined core architecture optimised for efficiency and throughput

Електронните ядра, използвани в Sierra Forest Xeons на Intel, ще разполагат с рационализирана основна архитектура, оптимизирана за ефективност и производителност

Твърденото предимство на Intel е, че може да опакова повече ядра в един сокет или шаси от всеки друг, като същевременно поддържа съвместимост с повечето x86 бинарни файлове. Казваме мнозинството, защото е-ядрата нямат същия набор от функции като миналите Xeon.

Две от най-големите разлики е пълната липса на поддръжка на AVX512 и Advanced Matrix Extension (AMX). Аргументът тук е, че много от работните натоварвания, които виждаме широко разгърнати в облака – неща като Nginx – не се възползват непременно от тези функции, така че вместо да отделят голямо количество пространство за големи векторни и матрични изчисления, това пространство вместо това може да се използва за пакетиране на повече ядра върху всяка матрица.

Не всяка къща за чипове обаче е съгласна с този подход. AMD възприе много различен подход със своя Bergamo Epycs, пуснат през пролетта на 2023 г. Тези сървърни процесори използваха компактна версия на ядрото Zen 4 на AMD, наречено Zen 4c, което размени тактовите честоти за по-малък отпечатък. Това позволи на AMD да опакова 128 ядра в осем изчислителни матрици на процесорен пакет, без да жертва функционалността.

И двата подхода имат достойнства. В зависимост от хипервайзора, липсата на определени функции на процесора може да направи мигрирането на работни натоварвания от една кутия в друга проблематична. Intel се надява да преодолее това с AVX10, в който се потопихме дълбоко през лятото. Накратко, той е проектиран да поддържа много от по-привлекателните функции, като поддръжка на FP16 и BF16, от AVX512 към AVX2. Резултатът е, че е по-малко вероятно да се натъкнете на този вид проблеми с миграцията, освен ако наистина не се нуждаете от 512-битови векторни регистри.

Intel слиза на земята с Granite Rapids

Преминавайки към по-малко известни територии, има Granite Rapids Xeons на Intel, които трябва да се появят по-късно през 2024 г. Докато Sierra Forest дава приоритет на много малки ядра, Granite Rapids е по-традиционен сървърен процесор Xeon, изграден около ядрата за производителност на x86 гиганта.

Все още не знаем колко ядра ще има или колко бързи ще бъдат частите от най-горния бин, но ни казаха, че ще бъде повече от Emerald Rapids. Знаем, че чипът ще разполага с по-модулна чиплетна архитектура от Sapphire или Emerald Rapids, с до пет матрици – три изчислителни и две I/O – на пакет.

В зависимост от SKU, чипът ще включва повече или по-малко изчислителни матрици, позволявайки на Intel да се възползва от модулността, на която AMD се радва от години. Преди това Xeons от 2023 г. имаха или една голяма матрица със среден брой ядра (MCC), или две големи (Emerald) или четири по-малки (Sapphire) изчислителни матрици на така наречените матрици за „изключителен брой ядра (XCC).

Intel's 6th-Gen Xeon Scalable processors will come in e-core and p-core verions and support up to 12 channels of DDR5

Процесорите Xeon Scalable от 6-то поколение на Intel – Sierra Forest и Granite Rapids – ще се предлагат във версии с e-core и p-core и ще поддържат до 12 канала DDR5 или поне така ни е обещано

Xeons от следващо поколение на Intel разделят входно/изходната функционалност в двойка матрици, които свързват изчислението. Тези входно/изходни матрици са важни, тъй като помагат да се намали разликата с AMD, която не само има предимство в броя на ядрата през последните пет години, но обикновено предлага повече, по-бързи PCIe ленти и канали за памет.

Както научихме по време на конференцията Hot Chips през 2023 г., Granite Rapids ще разполага с 12 канала за памет — същото като Epyc 4 на AMD — и ще поддържа 8800MT/s MCR DIMMS. MCR е доста страхотен, тъй като ще позволи на чипа да достави 845GB/s честотна лента на паметта към чипа. Това не е точно 1TB/s, на който са способни частите на Xeon Max от 4-то поколение на Intel с техния вграден HBM, но MCR DIMMS ще се доближи и ще позволи значително по-висок капацитет.

Семейството чипове също ще поддържа до 136 PCIe / CXL ленти, но само при скорости на PCIe 5.0. PCIe 6.0 може да се появи през 2024 г., но не навреме за „следващото поколение“ Xeons на Intel.

Zen 5 на AMD пристига

След това, разбира се, AMD трябва да пусне Turin, своето пето поколение сървърни процесори Epyc, задвижвани от нови Zen 5 ядра. На този етап не можем да кажем много за тази част, освен че идва някъде през 2024 г.

Имайки предвид времето, можем да направим няколко предположения. Бихме се обзаложили, че чипът ще използва или 4nm, или 3nm технология на TSMC в своите изчислителни плочки, но е трудно да се каже дали I/O матрицата все още ще получи свиване на процеса.

An image showing AMD's roadmap for Epyc server CPUs through 2024.

Най-новата пътна карта на сървъра Epyc на AMD

Отвъд това можем само да посочим скорошни течове , споделени чрез Xitter, които предполагат, че AMD може отново да увеличи броя на ядрата в своята гама. Ако течовете са верни, може да гледаме процесори Epyc с до 128 ядра Zen 5 или 192 ядра Zen 5c.

Самите матрици с ядрени комплекси (CCD) изглежда не са се променили много от Genoa и Bergamo с осем или 16 ядра съответно на чиплет. Вместо това се съобщава, че AMD ще използва 16 изчислителни матрици за общото си предназначение и 12 изчислителни матрици, ориентирани към облака, за да постигне заявения брой ядра. Като казахме това, ще трябва да изчакаме и да видим дали течовете са точни.

Продуктовата линия Eypc на AMD стана по-сложна през последните години, като сега обхваща приложения с общо предназначение, високопроизводителни изчисления, облачни и крайни приложения. AMD традиционно пусна тези чипове в продължение на около година. Epyc 4 стартира през ноември 2022 г., Bergamo и Genoa-X пристигнаха през юни 2023 г., а неговите части, фокусирани върху Сиена, се появиха едва през септември.

Очакват изненади

За да бъдем напълно ясни, това в никакъв случай не е изчерпателен списък на процесорите за центрове за данни, идващи през 2024 г. Напълно очакваме да има повече от няколко изненади през следващите дванадесет месеца, особено когато влакът на AI набира скорост и облачните доставчици продължават да прегърнете персонализирания силикон.

Microsoft наскоро се впусна в персонализираното AI и CPU пространство, докато Google вече има няколко поколения тензорни процесори и се говори, че работи върху собствен CPU.

Ще наблюдаваме и усилията на Arm да прокара своята основна архитектура Neoverse и IP стекове на Compute Subsystems (CSS). Последното е най-близкото, което сме виждали Arm да стига до проектирането на цял процесор в съвременните времена.

Има и множество полупроводникови стартиращи фирми, като Ampere, Graphcore, Cerebras, SambaNova, Groq и други, които искат да намерят ниша в новия световен ред на AI. Едва ли ще се изненадаме да видим нов силиций, продукти и системи от някой от тези доставчици през 2024 г. ®