дом блог страница 25

Съоснователят на CloudBees бръмчи за драма с отворен код и AI

0

Интервю „Това е експериментът, който отиде твърде далеч“, казва Sacha Labourey от CloudBees за промяната на лиценза на HashiCorp.

Регистърът се свърза с Labourey на лондонския етап от DevOps World Tour на CloudBees, за да говорим за отворения код, какво се случи с Jenkins-X и изкуствения интелект.

Labourey е съосновател на CloudBees през 2010 г. и след престой като главен изпълнителен директор става главен стратегически директор през 2021 г. Първоначално CloudBees се занимаваше изцяло с платформата за автоматизация Jenkins DevOps и през годините разшири своите услуги чрез придобиване и развитие.

Самият Дженкинс обаче остава твърдо с отворен код. Labourey няма планове да промени това, въпреки размириците, които се случиха другаде в индустрията с промени в лиценза.

Не е изненадващо, че Labourey смята, че CloudBees има много „по-чиста“ позиция. „Когато е отворено, наистина е отворено. Когато е затворено, значи е затворено“, казва ни той. „Ако погледнете общността на Дженкинс, тя е наистина отворена общност. Ние не притежаваме търговската марка. Ние не притежаваме достъп до дървото. Не можем да отхвърлим сътрудници.“

Той контрастира този подход с този на други компании, включително HashiCorp и GitLab. „Те не са отворена общност. Те притежават търговската марка. Те притежават IP. Те притежават достъп до дървото. Ако се опитате да прокарате някои приноси, които ще бъдат конкурентни с тяхната отворена основна собствена стойност, това ще се получи отхвърлен.“

Движението с отворен код обаче трябва да се развива, ако иска да оцелее. Ерата на просто наслагване на консултантски услуги върху проект с чист отворен код отмина. Абонаментите и концепцията за отворено ядро се превърнаха в популярни бизнес модели.

Както читателите на Reg знаят, отвореното ядро е модел, при който ядрото на проекта остава с отворен код, като частният софтуер се използва за добавяне на стойност. Доказано е, че е популярен начин за монетизиране на софтуер с отворен код, макар и донякъде противоречив .

CloudBees е облекло с отворено ядро. Въпреки това, други компании в света на отворения код са търсили различни начини за защита на приходите, както и за справяне с предизвикателствата, поставени от облачните гиганти, които просто прекарват код.

Labourey отбелязва промяната на лиценза , въведена от Elastic, за да предотврати заплахата, възприета от облачни доставчици, но ходът на HashiCorp е този , който предизвиква по-голяма загриженост.

„Ходът на HashiCorp е доста уникален, защото не че е по-лош от това, което направи Elastic – това е промяна на лиценза“, казва той. „Мисля, че това, което е уникално в това, което направи HashiCorp, е, че техният лиценз не посочва обективно какво имате право да правите или не. По същество той казва „ако не сте конкурентен на HashiCorp“.

„Кой може да го дефинира? Каква е точката на вземане на решение? Така че създава голям облак от неизвестност за това какво можете или не можете да направите. Според мен смятам, че експериментът е отишъл твърде далеч.“

CloudBees не са непознати за самите странни експерименти или два. Пример за това е Jenkins X , който беше представен през 2018 г. Някога голяма надежда за бъдещето, Labourey сега го нарича „изследователски проект“.

„Научихме много… можеше да е нещо различно. Но мисля, че осъзнахме, докато вървяхме, че [въпреки че] някои от концепциите бяха добри – бяха наистина добри – имате нужда от нещо повече от концепция. Нуждаете се от здрава основа. „

Labourey добавя: „Мисля, че Jenkins X в крайна сметка се оказа за нас по-скоро израз на идея, отколкото платформа, която наистина може да мащабира.“

Jenkins X имаше за цел да автоматизира настройката и управлението, за да предостави собствена облачна услуга, която разработчиците биха могли да използват за писане на код по-бързо и надеждно от наследените необлачни платформи.

Labourey казва, че много от уроците и идеите от опита на Jenkins X живеят в настоящата продуктова линия на компанията. „Наследихме много стойност от този експеримент. Но преминаването от експеримент към производство е различен звяр“, ни казва той.

И тогава има AI – нещо, което Labourey смята, че е част от живота му от пет години. Можем да разберем това, имайки предвид скоростта на промяната през последната година.

Относно DevOps, Labourey казва: „AI ще заеме доста голямо място в платформата. Има много неща, които могат да бъдат автоматизирани… DevOps винаги е бил за премахване на препятствия и опростяване и подобряване на живота на разработчиците.“

Labourey вижда бъдещето, разделено на фази на осиновяване, започвайки с днешните асистенти, предлагащи решения на проблемите. „Това е само временна стъпка, която ви кара да се чувствате добре, защото истината е, че можете да действате. Нямате нужда от човешки елемент. Създавате корекция. Създавате клон. Поставяте корекцията на клона. Преминавате през скенерите за сигурност отново преминавате през пакета от тестове и ако всичко е чисто… какво друго мислите, че ще направи човекът?“

Все още не сме там, като се имат предвид някои от ревовете, изплюти от генеративния AI, но Labourey е уверен, че моментът ще дойде, когато потребителите станат по-уверени с инструментите.

Той цитира първоначалното недоверие около облачните услуги, благодарение на някои неудачни сравнения. „Например, сравнявахме красив център за данни, управляван от банки на Уолстрийт с милиарди инвестиции срещу облаците… но това не е реалният живот. Реалният живот е среден център за данни от средностатистическа компания със средностатистически инженери срещу облака.

„Същото важи и за сигурността. Сравняваме най-добрите разработчици, коригиращи проблем със сигурността, с LLM.“

Не всеки има тези разработчици и не всеки разработчик и QA човек ще може да поддържа същото ниво на старание за всяка корекция. „Мога да ви уверя, че LLM ще вземе всеки случай и ще действа със същото усърдие за всеки. Така че всъщност смятам, че шансовете да имаме висококачествени поправки са много големи“, казва Labourey. „Въз основа на някои от тестовете, които направихме, резултатът е доста впечатляващ.“

Що се отнася до това кога това тестване се превръща в нещо осезаемо? „Мисля, че се движи с много по-бързи темпове, отколкото всеки от нас може да разбере.“ ®

Технологични гиганти с ласо в ЕС се опитват да овладеят Дивия запад с ИИ

0

Анализ С наближаването на края на 2023 г. годината на шума върху ИИ приключваше, както започна. Според данни от Pitchbook Big Tech е похарчил два пъти повече за сделки с Generative AI стартиращи фирми, отколкото групите за рисков капитал през годината.

Но през декември законодателите започнаха да контролират как системите могат да бъдат разработени и внедрени. Във временно споразумение Парламентът и Съветът на ЕС предложиха категорични забрани за някои приложения и задължения за разработчиците на ИИ, считани за високорискови.

Докато ЕС тръбеше за успеха си да се превърне в първата юрисдикция, която изготви планове за законодателство, Big Tech крещеше.

Главният учен по изкуствен интелект на Meta каза, че регулирането на моделите на основата е лоша идея, тъй като ефективно регулира научноизследователската и развойна дейност. „Няма абсолютно никаква причина за това, освен за силно спекулативни и невероятни сценарии. Регулирането на продукти е добре. Но [регулирането] на научноизследователската и развойна дейност е абсурдно“, написа той на уебсайта, известен преди като Twitter .

Правните експерти обаче посочват, че има много неща за решаване в хода на дискусиите и много ще зависи от подробностите на законодателния текст, който предстои да бъде публикуван.

Когато преговарящите от Парламента и Съвета постигнаха временно споразумение относно Закона за изкуствения интелект, те казаха, че ще забранят системите за биометрична категоризация, които твърдят, че сортират хората в групи въз основа на политика, религия, сексуална ориентация и раса. Нецеленасоченото изтриване на изображения на лица от интернет или видеонаблюдение, разпознаване на емоции на работното място и в образователни институции и социално оценяване въз основа на поведение или лични характеристики също бяха включени в списъка със забранени.

Предложенията налагат задължения и на високорисковите системи, включително задължението за извършване на оценка на въздействието върху основните права. Гражданите ще имат право да подават жалби относно системи с изкуствен интелект и да получават обяснения относно решения, базирани на високорискови системи с изкуствен интелект, които засягат техните права. Но предложенията за системи с изкуствен интелект с общо предназначение (GPAI) – или основополагащи модели – са тези, които раздразниха индустрията.

В споразумението с ЕС се казва, че разработчиците ще трябва да отчетат широкия набор от задачи, които AI системите могат да изпълнят, и бързото разширяване на техните възможности. Те ще трябва да се придържат към изискванията за прозрачност, както първоначално беше предложено от Парламента, включително изготвяне на техническа документация, спазване на закона за авторското право на ЕС и разпространение на подробни резюмета за съдържанието, използвано за обучение.

В същото време разработчиците ще трябва да извършват по-строги проверки на така наречените „модели на GPAI със силно въздействие със системен риск“. ЕС каза, че ако тези модели отговарят на определени критерии, те ще трябва да извършат оценки на моделите, да оценят и смекчат системните рискове, да проведат състезателни тестове, да докладват на Комисията за сериозни инциденти, да осигурят киберсигурност и да докладват за тяхната енергийна ефективност. Докато не бъдат публикувани хармонизирани стандарти на ЕС, GPAI със системен риск могат да разчитат на кодекси на практика, за да се съобразят с регламента.

Нилс Рауер, партньор в адвокатската кантора Pinsent Masons, специализирана в ИИ и интелектуалната собственост, ни каза, че има широко съгласие относно необходимостта от законодателство. „Фактът, че ще има регулация за ИИ, се възприема от повечето засегнати играчи на пазара. Илън Мъск, но и много други виждат едновременно опасността и ползите, които идват с ИИ, и мисля, че не можете да спорите по този въпрос : AI трябва да бъде насочен към разумна рамка, защото ако това се развихри, може да бъде доста опасно.“

Той обаче каза, че различната категоризация на моделите GPAI е доста сложна. „Те започнаха с тази високорискова категория AI и има всичко, което е под висок риск. Когато след това се появи ChatGPT, те се бореха с това дали е висок риск или не. Тези общи модели на AI, които са в основата на GPT 4.0, например , са най-мощните. [Законодателите] разбраха, че наистина зависи от това къде се използва, дали е висок риск или не.“

Друго приложение на AI, адресирано от предложените закони, е биометричната идентификация в реално време. ЕС планира забрана на практиката, която вече се прилага от полицията в Обединеното кралство, но ще позволи изключения. Потребителите – най-вероятно полицията или разузнавателните агенции – ще трябва да се обърнат към съдия или независим орган, но може да им бъде разрешено да използват биометрични системи в реално време за търсене на жертви на отвличане, трафик или сексуална експлоатация. Предотвратяването на конкретна и настояща терористична заплаха или локализирането или идентифицирането на лице, заподозряно в извършване на едно от списък с конкретни престъпления, също може да бъде освободено.

Гийом Кунесон, партньор в адвокатската кантора Linklaters, каза, че принципната забрана за биометрични данни на живо е „доста силно изявление“, но изключенията могат да бъдат потенциално доста широки. „Ако става дума за идентификация на жертви или предотвратяване на заплахи, това означава ли, че не можете да го правите непрекъснато? Или можете да направите аргумента, че на летището например винаги има риск за сигурността и следователно винаги ще прилагате този вид технология?

„Няма да знаем, без да прочетем действителния текст, докъде са стигнали по този въпрос. Текстът дори може да не е достатъчно ясен, за да се определи това, така че може да имаме допълнителни дискусии и потенциално дори дела, които ще стигнат до Съда на ЕС , в крайна сметка“, каза той пред The Reg .

Couneson добави, че правилата, наложени на разработчиците на AI с общо предназначение, може да не са толкова ограничителни, колкото се страхуват някои, защото има изключения за научноизследователска и развойна дейност. „До известна степен изследванията около AI все още биха били възможни и без да попадат в тези рискови категории. Основното предизвикателство ще бъде в прилагането на тези високорискови случаи на употреба, ако сте компания, обмисляща [система с AI, която би] отговаряла на изискванията при един от изброените сценарии. Това е моментът, когато гумата излиза на пътя.“

Той посочи, че ЕС също е обсъдил въвеждането на „ регулаторни пясъчни кутии “ за насърчаване на иновациите в ИИ.

„Използването на пясъчни кутии може да бъде добър начин да се помогне на компаниите да имат подходящ диалог със съответните власти, преди да пуснат нещо на пазара. Иновациите се върнаха много в преговорите. Това не е нещо, което беше пренебрегнато“, каза той.

Така или иначе, индустрията ще трябва да изчака, докато ЕС публикува пълния текст на законодателното предложение – очаква се в края на януари или началото на февруари – преди да научи повече подробности. ®

Изненадващо, Gentoo Linux започва да предлага двоични файлове

0

Gentoo вече предлага над 20 гигабайта предварително компилирани двоични файлове, от настолни компютри до офис пакети, за да ускори инсталациите и актуализациите.

В новини, толкова неочаквани, че бюрото на Reg FOSS първоначално сметна, че това е странна първоаприлска шега, проектът Gentoo разкри този ход точно преди края на декември в публикация, озаглавена Gentoo goes Binary!

Gentoo поддържа много широка гама от типове компютри в наши дни, включително 32-битови и 64-битови x86 и Arm, 32-битови и 64-битови big-endian и little-endian PowerPC и IBM POWER, заедно с девет други архитектури от Alpha до SPARC. Засега пълната гама от предварително компилирани двоични пакети се фокусира върху x86-64 и Arm64, за които проектът предлага, по собствените си думи, „>20 GByte пакети на нашите огледални сървъри, от LibreOffice до KDE Plasma и от Gnome до Docker. Gentoo стабилен, актуализиран ежедневно.“

Уикито на проекта също предлага както ръководство за бърз старт за това как да конфигурирате новите хранилища на двоични пакети, така и задълбочена документация . Двоичните файлове се разпространяват в съществуващия формат на двоичен пакет, наречен GPKG .

Многото други платформи не са пропуснати: за тях предварително компилираните пакети са ограничени до основната операционна система и получават седмични актуализации. Напълно разумно е да се съсредоточим върху двете CPU архитектури, които са най-широко използвани днес, но иронията на това е, че хората на по-стари, по-бавни машини, като PowerMac и x86-32 машини, ще страдат най-много от по-бавното време за инсталиране поради колко време отнема компилацията.

Въпреки че това е точно как работят всички други настоящи дистрибуции на Linux, това е значително отклонение за Gentoo, който преди това беше почти изцяло базирана на изходен код дистрибуция. Повечето дистрибуции са изградени от двоични файлове: хиляди предварително компилирани изпълними файлове, компилирани от съставния им изходен код на сървърни ферми, притежавани от доставчици на дистрибуции. Gentoo обаче е различен. Въпреки че инсталационният диск, който ви кара да започнете, трябва по дефиниция да бъде предварително компилиран, досега, когато инсталирате Gentoo, той извлича изходния код и го компилира на вашата машина за вашата машина, специално оптимизиран за конкретния процесор на вашия компютър и отделните функционалност и конфигурация по ваш избор.

И двата подхода имат плюсове и минуси. Обичайният начин, когато доставчикът прави компилацията, двоичните файлове се изграждат доста общо за хардуер с най-нисък общ знаменател. Както споменахме наскоро, това постави препятствия при внедряването на доставчиците на дистрибуции, изискващи различни иновативни решения . Това обаче прави софтуер, който се инсталира много по-бързо, опростява тестването и улеснява автоматизираното внедряване. Когато компонентите изискват актуализации, често срещано явление, тогава или се изпращат нови двоични файлове, или дори се изтегля само разликата между стари и нови двоични файлове.

Основното предимство на метода Gentoo е, че пакетите се компилират с предпочитаните от вас оптимизации за процесора на вашия компютър. Потребителите на други дистрибуции най-вече игнорират това или дори му се подиграват , като се има предвид, че като цяло сравнително скромните подобрения на производителността не си струват допълнителната работа – но подходът допринася за това Gentoo да бъде изключително адаптивна дистрибуция, позволяваща повече персонализиране от почти всяка друга операционна система.

В резултат на това има редица дистрибуции надолу по веригата, базирани на Gentoo, някои сред най-използваните форми на Linux. Например Gentoo е в основата на ChromeOS на Google, както и на късния CoreOS Container Linux. Последният беше придобит от Red Hat , възстановен на базата на Red Hat и предишната дистрибуция беше преустановена , но Kinvolk разклони оригиналната дистрибуция и я продължи като Flatcar Container Linux, само за да бъде закупена впоследствие от Microsoft .

Ако не друго, големи суми пари бяха платени за базирани на Gentoo продукти… И продължават да бъдат: Uniontech, една от водещите платени китайски дистрибуции, се гордее с три милиона потребители , което затвърждава статуса на ChromeOS като популярна десктоп дистрибуция .

За потребителите на Gentoo, обезпокоени от загубата на оптимизация, много ни хареса собственото полезно резюме на проекта:

®

Google парадира с паралелност, оптимизация, тъй като облачните съперници ремонтират платформите

0

Функция Миналата година беше голяма за анализа на данни и машинното обучение в облака. Двама от най-големите играчи, Microsoft и Databricks, преработиха основно своите платформи, като първият също успя да пусне продукти.

Google, който, както бихте очаквали, е голям играч на пазара за анализ на облачни данни, постигна победи за клиенти с Walmart, HSBC, Vodafone и Home Depot, наред с други през последните няколко години, като в някои случаи измести добре установените на- prem корпоративни системи за съхранение на данни от компании като Teradata.

По отношение на новите технологии, Google направи допълнения и промени в своята гама през 2023 г., вместо основните съобщения за платформа, които видяхме от Microsoft и Databricks . Складът за данни на Google BigQuery получи автоматично мащабиране и компресирано съхранение, заедно с повече избор и гъвкавост при настройване на функции за различни изисквания за натоварване. Клиентите могат също така да смесват издания Standard, Enterprise и Enterprise Plus, за да постигнат предпочитаната от тях цена според натоварването. BigQuery Data Clean Rooms позволи споделянето и съпоставянето на набори от данни между организации, като същевременно зачита поверителността на потребителите и защитава сигурността на данните.

слонове

Пионерът на Postgres Майкъл Стоунбрейкър обещава да преобърне базата данни още веднъж

ПРОЧЕТЕТЕ ОЩЕ

В AlloyDB Omni Google предлага услуги за база данни, съвместими с PostgreSQL, които работят в други облачни хиперскалери, локални и лаптопи за разработчици. Той включва набор от инструменти за автоматизация, които помагат при миграцията от по-стари, добре установени системи за бази данни като Oracle или IBM Db2.

Но по отношение на платформата за данни, където основните играчи обслужват структури и неструктурирани работни натоварвания за BI, анализи и машинно обучение от едно място, възприемайки подозрителната терминология на „езерната къща“, Google вече има това, от което се нуждае, за да се конкурира, Герит Казмайер, veep и генерален мениджър на Google за анализ на данни, разказва The Register .

„Имате големи аналитични системи, които изграждат тези обширни записи на данни. Много е важно те да бъдат не само преплетени, но всъщност безпроблемно интегрирани например, когато дори не репликирате данни направо от една система в друга: BigQuery говори с едни и същи данни на същото място, където базата данни ги записва. Има нулево забавяне, няма нулеви разходи, не е необходимо огледално копиране или репликация, защото по принцип имате достъп навсякъде“, казва Казмайер.

В архитектурата на Google унифициран слой за достъп за сигурност и управление свързва приложения като BI, складиране на данни и ML с бекенд, който се обслужва от BigQuery Managed Storage и Google Cloud Storage и мулти-облачно хранилище от AWS S3 и Azure Storage на Microsoft.

Архитектурата, поне като концепция, е подобна на предложението на Microsoft. Обявен през юни и станал общодостъпен през ноември, Microsoft Fabric също обещава да обслужва различни приложения и работни натоварвания от своята технология OneLake, която съхранява всичко в отворен код, управляван от Linux Foundation Delta табличен формат, който произхожда от Databricks.

Microsoft обяснява, че подходът позволява на приложения като Power BI да изпълняват работни натоварвания в хранилището на данни Synapse, без да изпращат SQL заявки. Вместо това в Onelake се създава виртуално хранилище за данни, което зарежда данните в паметта. Гигантът от Редмънд твърди, че подходът предлага ускорение на производителността, тъй като няма повече SQL ниво в средата на изпълнение на SQL заявки.

Въпреки че има прилики с подхода на Microsoft, архитектурата на Google разчита на табличния формат Iceberg , разработен в Netflix и сега с отворен код чрез Apache Foundation.

Kazmaier казва: „Взехме десетилетия на иновации в BigQuery, по-специално в производителността на заявките, времената за достъп, оптимизацията на заявките и ги доставихме от BigLake по начин, така че клиентите да могат да получат производителност, както и богатството на разработката от общността на Iceberg. По-конкретно имаме много оптимизации от начина, по който осъществяваме достъп и разбираме метаданните от начина, по който осъществяваме достъп до файловете, което води до превъзходна производителност с Iceberg и BigQuery на GCP“, казва той.

Въпреки че всички основни доставчици в пространството казват, че поддържат или ще поддържат всички формати на таблици – Iceberg, Delta и Hudi – изградени на файловия формат Apache Parquet, всеки има своя акцент върху това, което поддържа „изначално“. Тенденцията доведе до разделение в индустрията, като Databricks, Microsoft и SAP подкрепят Delta и Google, Cloudera, Snowflake, AWS и Netezza на IBM, наблягайки на Iceberg.

Казмайер казва, че подкрепата на Google за Iceberg се свежда до силен ангажимент към отворен код. „Айсберг е проект на Apache: управлява се много ясно, не е свързан с нито един доставчик и има широк принос от общността.“

Той казва, че Google реагира на търсенето на клиентите, като избра Iceberg като „основен формат на стратегия за данни“, но също така добави поддръжка за Delta и Hudi, тъй като някои клиенти вече са изградили стек, ориентиран към Databricks.

„Истинският отговор се крие в това колко гъвкави искате да бъдете като клиент. Ако изберете да бъдете най-гъвкави и отворени, Iceberg ви дава най-широкото от тези качества. Ако сте по-загрижени да имате архитектура на Lakehouse от Databricks -центрично разгръщане, Delta е чудесен избор. Виждаме много бързо и широко приемане на Iceberg,“ казва той.

Миналия месец Databricks, компанията за платформа за данни, израснала от езерата от данни на Apache Spark, също обяви основен ремонт на стека си. Обещава нов слой „разузнаване на данни“ върху концепцията „езерна къща“, която стартира в началото на 2020 г., за да комбинира структурирани BI и аналитични натоварвания на складиране на данни с объркания свят на езерата от данни. В съобщение, спестяващо подробности за продукта, компанията каза, че въвежда слоя „разузнаване на данни“ DatabricksIQ, за да „подхранва всички части на нашата платформа“.

Докато запазва унифицирания слой за управление на lakehouse в данни и AI и единна унифицирана машина за заявки, обхващаща ETL, SQL, машинно обучение и BI, компанията иска да продължи да използва технологията, придобита при закупуването на MosaicML за 1,3 милиарда долара, генеративен AI започвам. Идеята е да се използват „AI модели за дълбоко разбиране на семантиката на корпоративните данни“,казва Databricks .

Въпреки че lakehouse на Databricks поддържа SQL заявки, има някои критики относно способността му да поддържа BI работни натоварвания в мащаб на предприятието. През 2021 г. Gartner посочи, че базираните в облак езера от данни може да се борят със SQL заявки от повече от 10 едновременни потребители, въпреки че Databricks оспори твърдението. Миналия месец анализаторът на Ventana Research Матю Аслет каза, че все повече организации осъзнават трудностите, докато се опитват да мащабират езерата от данни и да поддържат корпоративните BI работни натоварвания.

Например Adidas изгради платформа за данни около Databricks, но също така създаде слой за ускоряване с базата данни Exasol в паметта, за да подобри производителността при едновременни работни натоварвания.

Казмайер обяснява, че подходът на Google към паралелността избягва завъртането на повече виртуални машини и вместо това подобрява производителността на единица на ниво подпроцесор. „Той премества тези единици капацитет безпроблемно, така че може да имате заявка, която завършва и освобождава ресурси, която може да бъде преместена незабавно към друга заявка, която може да се възползва от ускорението. Цялата тази микрооптимизация се извършва без системата да се оразмерява. Постоянно ви дава идеалната проекция на капацитета, който използвате за натоварванията, които изпълнявате,” казва той.

Доклад от Gartner по-рано миналата година одобри подхода. „Смесица от модели за резервиране на слотове при поискване и ценообразуване с фиксирана ставка осигурява средствата за разпределяне на капацитет в цялата организация. Въз основа на използвания модел ресурсите на слотове се разпределят на изпратени заявки. Когато търсенето на слот надвишава текущата наличност, допълнителни слотове се поставят на опашка и се задържа за обработка, след като капацитетът е наличен. Този модел на обработка позволява продължителна обработка на едновременни големи натоварвания на заявки“, се казва в него.

Докато Microsoft и Databricks може да са привлекли вниманието на пазара с техните съобщения за пакет от данни за 2023 г., Aslett от Ventana смята, че е имало малко за избор между основните играчи и всяка очевидна технологична преднина може да се дължи на ритъма на пускане.

Гледайки напред към следващата година, Google може да се надява да открадне част от светлината на прожекторите обратно от своите конкуренти. ®

NHS England публикува силно редактиран договор с Palantir, когато празненствата започнаха

0

NHS England избра последния работен ден преди Коледа, за да публикува силно редактиран договор за противоречивата Federated Data Platform, който възложи на американската шпионска фирма Palantir през ноември.

Големи раздели от трите договорни документа – публикувани в петък, 22 декември, когато работниците се опаковаха за празниците – бяха затъмнени, включително по-голямата част от раздела, описващ „защитата на личните данни“, според официална публикация на уебсайта на правителството за търгове.

palantir nyse

Palantir събира £330 милиона от NHS данни въпреки страховете за поверителността

ПРОЧЕТЕТЕ ОЩЕ

Критиците посочиха, че редактирането на значителна част от договора и публикуването му в навечерието на празничния сезон едва ли е изпълнило обещанието на NHS England да гарантира, „че са научени уроци по доверие и прозрачност“.

В брифинг , публикуван относно договора за FDP, правителственият здравен quango каза: „Бяха извлечени ключови поуки от предишни програми за данни, включително необходимостта от а) прозрачност и б) данните да се съхраняват в защитена среда с правилните проверки и баланси Ние гарантираме, че са извлечени уроци по доверие и прозрачност както по отношение на дизайна, така и в начина, по който действаме, например навременното публикуване на информация и документация, открито публикуване на случаи на използване и оценки на въздействието върху защитата на данните.“

NHS England — която започна връзката си с Palantir по време на пандемията с възлагането на договор от £1 — каза, че FDP ще предостави софтуер за свързване на тръстове на NHS и регионални системи и ще предложи последователно техническо средство за свързване на данни, които вече са събрани за грижи за пациенти .

„Клиницистите лесно ще имат достъп до информацията, от която се нуждаят, за да вършат работата си – на едно място – освобождавайки време, изразходвано за административни задачи, и им позволявайки да предоставят най-подходящите грижи за пациентите“, се казва в него.

Известието за възлагане на договор оценява договора на £182,2 милиона ($230 милиона) за четири години, завършващи през февруари 2027 г. По-ранното изявление от NHS England казва, че договорът може да продължи седем години и да струва до £330 милиона ($412 милиона).

Кампаниите за здравни данни се подготвят за правно оспорване на сделката с FDP, като твърдят, че няма правно основание за преместване на данните на пациентите към платформата в рамките на настоящите правни указания, които NHS Digital използва за получаване и споделяне на данни в рамките на NHS.

Говорител на NHS каза, че този ход „фундаментално погрешно разбира как ще работи платформата за обединени данни и е напълно неправилен както от гледна точка на закона, така и от гледна точка на фактите. Платформата ще използва само съществуващи данни, законно събрани от NHS, за да поддържа директна грижа за пациентите, което е законно съгласно всички съответни разпоредби за защита на данните.“

Palantir стана част от мисленето на NHS England по време на ранните етапи на пандемията COVID-19. Чрез предоставяне на технология в договор за £1, уреден без състезателен процес, той спечели бизнес на стойност £1 милион ($1,25 милиона), след което беше подписан договор за £23 милиона ($28,7 милиона) през декември 2020 г., отново без конкуренция. По-скорошни сделки за разширение означават, че компанията за аналитичен софтуер е спечелила общо £60 милиона ($75 милиона) от NHS, без да се конкурира с други компании, които предоставят подобен софтуер.

NHS England заяви, че състезанието на FDP е честна, открита и прозрачна поръчка в съответствие с Наредбите за обществените поръчки от 2015 г. ®

Съобщава се, че САЩ са настояли ASML да отмени рано комплекта за производство на чипове за Китай

0

Съобщава се, че Вашингтон е притиснал гиганта за оборудване за производство на чипове ASML да отмени някои доставки за Китай преди влизането в сила на актуализираните ограничения, но самата компания отказва да потвърди дали случаят е такъв.

Холандският производител е въвлечен във „войните за чипове“ между САЩ и Китай, тъй като произвежда някои от най-модерните фотолитографски съоръжения в света. Това е единственият източник на ток за екстремни ултравиолетови (EUV) системи за производство на чипове в най-малките производствени възли, например.

Те обаче вече са забранени за износ в Китай съгласно съществуващите ограничения за износ, а актуализираните правила, обявени миналата година, разшириха това, за да обхванат и някои от машините за дълбока ултравиолетова (DUV) литография на ASML.

Според Bloomberg , ASML е отменил доставките на някои от тези машини за Китай по нареждане на администрацията на Байдън, преди новите ограничения да влязат в сила този месец. Твърди се, че американски служители са поискали от компанията незабавно да спре вече планираните доставки, цитирайки анонимни източници, за които се твърди, че са запознати с въпроса.

ASML е малко хитър по този въпрос, както може да се очаква, тъй като Китай е доходоносен пазар за компанията. Според някои оценки Китай е бил най-големият пазар на ASML след Тайван и Южна Корея, но е съставлявал почти половината от продажбите на компанията през третото тримесечие на 2023 г., тъй като производителите на чипове в страната побързаха да получат ново оборудване, преди подвижният мост да бъде изтеглен.

В изявление ASML каза: „Лицензът за доставка на литографски системи NXT:2050i и NXT:2100i през 2023 г. наскоро беше частично отменен от холандското правителство, което засегна малък брой клиенти в Китай.“

По-рано компанията каза, че холандските власти са й издали лицензи да продължи да продава своите DUV машини в Китай до края на 2023 г., след което ще трябва да спре продажбите.

Но изглежда, че съответните лицензи за износ са били частично отменени от холандското правителство, „частично“, тъй като те вече са били използвани за доставка на някои пратки до Китай през 2023 г., ни каза компанията.

Най-близкото до пушещо оръжие е тази част от изявлението на ASML: „В последните дискусии с правителството на САЩ ASML получи допълнителни разяснения относно обхвата и въздействието на разпоредбите за контрол на износа на САЩ. Най-новите правила за износ на САЩ (публикувани на 17 октомври 2023 г. ) налагат ограничения върху някои средно критични DUV имерсионни литографски системи за ограничен брой усъвършенствани производствени съоръжения.“

Говорител на ASML ни каза, че „за 2024 г. е малко вероятно да получим лиценз за износ, за да изпратим NXT2000i (и следващите версии) на китайски клиенти.“

Компанията обаче заяви, че не очаква отмяната на лиценза за износ или последните ограничения на САЩ за контрол на износа да имат съществено въздействие върху финансовите й перспективи за 2023 г. Това е въпреки предишни оценки, които показват, че актуализираните ограничения за износ може да струват на ASML около пет процента от годишните си приходи.

Ограниченията за износ са насочени към това да попречат на Китай да се сдобие с най-модерната технология за чипове, поради опасения какво може да направи армията на Пекин с нея. Но въпреки тези мерки китайската Huawei успя да представи нов смартфон миналата година с домашна система върху чип, изградена от 7nm процес, а също така се говори, че има 5nm чип за лаптоп. ®

BT пропуска крайния срок за премахване на Huawei от ядрото на мрежата

0

Крайният срок за телекомите в Обединеното кралство да премахнат оборудването на Huawei от техните основни мрежи вече изтече, като BT призна, че 2G и 3G услугите все още се обслужват от инфраструктура, която не е съвместима. И все пак не е ясно какви мерки, ако има такива, може да предприеме BT за това.

Британските телекомуникационни оператори получиха официални правни известия от правителството през ноември 2022 г., в които се описват задълженията им да изтрият комплекта от базираната в Китай Huawei, след като компанията беше счетена за риск за сигурността.

Като част от това на компаниите беше даден краен срок до 31 декември 2023 г. да спрат да използват комплекта Huawei в основните си мрежи. Това беше удължаване на предишния краен срок от 28 януари 2023 г., който редица оператори (включително BT) се оплакаха, че трудно ще изпълнят.

И все пак изглежда, че BT сега не е успяла да спази този удължен краен срок, въпреки че компанията твърди, че сега са засегнати само малка част от услугите за глас и данни, които носи.

„Всички 4G и 5G сесии за данни и гласови повиквания вече се доставят от основно оборудване, което не е на Huawei – което означава, че над 99 процента от целия основен трафик вече се обслужва от комплект, който не е на Huawei“, каза говорител на BT Group пред The Register в изявление .

Единствените услуги за глас и данни, които предстои да бъдат мигрирани, са 2G и 3G, които представляват по-малко от 1% от общия трафик, твърди компанията, добавяйки, че „Работим усилено, за да завършим тази работа“.

Разбираемо е, че телекомуникационните оператори са изправени пред глоба до 10 процента от техния оборот за неспазване на правното уведомление или в случай на продължаващо нарушение, £100 000 ($126 611) на ден.

Въпреки това е малко вероятно подобно действие да бъде предприето незабавно, тъй като телекомуникационният регулатор на страната Ofcom трябва първо да докладва за напредъка, който мрежовите оператори са постигнали за постигане на тези цели, и съответният доклад не трябва да бъде представен до 31 март тази година.

„Правителството е отговорно за определянето и прилагането на правилата, изискващи определени телекомуникационни компании да премахнат оборудването на Huawei от мрежите си. Ролята на Ofcom е да събира информация за напредъка на компаниите и да докладва това на правителството“, каза днес говорител на Ofcom.

BT, която казва, че ще предостави повече информация на Ofcom по отношение на съответствието с разпоредбите, ни каза, че не е поискала официално удължаване на крайния срок.

Някои наблюдатели от индустрията обаче очакват, че може да има известна гъвкавост по отношение на крайните срокове, за да се избегнат глоби върху компаниите, които са положили усилия да се съобразят.

„Напълно очаквам действия за допълнително удължаване, за да се избегнат всякакви глоби“, ни каза анализаторът на телекомите Паоло Пескаторе от PP Foresight. „Това подчертава колко разчита BT на Huawei и сложността на пълното премахване на доставчик както от неговите фиксирани, така и от мобилни мрежи“, добави Пескаторе.

„Задачата не трябва да се подценява, за да се гарантират минимални смущения за всички потребители (във всички телекоми), но имайки предвид особено задълженията на EE за мрежата за спешни услуги“, каза той.

Мобилният мрежов оператор EE е марка в рамките на BT Group.

BT по-рано заяви , че спазването на изискването за премахване на Huawei от мрежата й ще й струва около £500 милиона ($632 милиона) между 2020 и 2025 г. Цялото оборудване на Huawei трябва да бъде премахнато изцяло от 5G мрежите на Обединеното кралство до края на 2027 г.

Все още не е ясно дали други телекомуникационни оператори не са успели да спазят крайния срок, свързан с техните основни мрежи. Разпитахме наоколо, но не получихме отговори до момента на публикуване. Всичко вероятно ще стане ясно от доклада на Ofcom през март. ®

2024 със сигурност изглежда като вълнуваща година за силикона за центрове за данни

0

Коментар Новата година вече се очертава да бъде една от най-значимите по отношение на силикона за центрове за данни, който сме виждали от известно време. Всяка голяма компания за чипове е планирана да обнови своите CPU и/или GPU продуктови линии през следващите дванадесет месеца.

Nvidia има множество нови ускорители, GPU архитектури и мрежов комплект, планиран за 2024 г. Intel ще пусне може би най-завладяващите си Xeon от години заедно с новите чипове за изкуствен интелект Habana Gaudi. Междувременно AMD, която се движи високо с пускането на своята серия MI300, е планирана да пусне своите процесори Epyc от 5-то поколение на пазара.

Без конкретен ред, нека разгледаме някои от пусканията на по-големи чипове за центрове за данни на нашия радар през 2024 г. О, и ако смятате, че сме пропуснали някой, уведомете ни в коментарите или имейла .

Пристигат AI чиповете HBM3e-toting H200 на Nvidia

Сред първите нови чипове, които ще излязат на пазара през 2024 г., ще бъдат ускорителите H200 на Nvidia. Графичният процесор е по същество опресняване на почтения H100.

Може да очаквате най-новият чип да предложи подобрение на производителността спрямо по-стария си брат, но това няма да стане в конвенционалния смисъл. Разровете спецификационния лист и ще видите, че производителността с плаваща запетая е идентична с тази на H100. Вместо това повишаването на производителността на частта – Nvidia твърди, че е двойно по-висока от производителността за LLM, включително Llama 70B – се свежда до стековете памет HBM3e на чипа.

Nvidia's HGX H200 packs up to eight H200 SXM accelerators onto a single board.

HGX H200 на Nvidia е настроен да опакова до осем H200 SXM ускорителя на една платка

Обещано ни е, че H200 ще се предлага с до 141 GB HBM3e памет, което е добре за невероятните 4,8 TB/s честотна лента. С нарастването на популярността на LLM – като Llama 2 на Meta, Falcon 40B, Stable Diffusion и други – капацитетът на паметта и честотната лента оказват огромно влияние върху производителността на изводите – а именно колко голям модел можете да поставите в един ускорител или сървър, и колко заявки можете да обработвате едновременно.

Както наскоро проучихме в нашия анализ на провала на сравнителния анализ на AMD и Nvidia, FLOPS не са толкова важни, колкото капацитетът на паметта и честотната лента, когато става въпрос за тези видове натоварвания на AI.

Заместникът на Hopper пристига с архитектура „Blackwell“.

Според презентация на инвеститор през 2023 г., H200 няма да е единственият GPU, който виждаме от Nvidia през 2024 г. За да затвърди лидерството си, Nvidia преминава към годишен ритъм на пускане на нови чипове и първата нова част, която виждаме от Team Green ще бъде B100.

According to an investor presentation released this month, Nvidia plans to shift to a One-Year release cadence.

Nvidia планира да премине към едногодишен каданс на пускане, съдейки по този слайд, показан на инвеститорите

Както разбираме, „B“ тук е съкратено от името на микроархитектурата, Blackwell – вероятно намигване към американския статистик David Blackwell. Все още не знаем много за частта, освен че идва през 2024 г. Нашите колеги от The Next Platform имат няколко мисли за B100 тук .

В сегашния си вид, наскоро пуснатите MI300X GPU на AMD не само избутват повече FLOPS от H200, те имат повече и по-бърза памет за зареждане. Не можем да си представим, че Nvidia е доволна от това, особено като се има предвид колко отбранителен е американският гигант напоследък. Поради това напълно очакваме B100 да достави повече FLOPS и повече стекове HBM3e, които ще издигнат капацитета на паметта и честотната лента на ускорителя до нови висоти.

Наред със самия GPU, пътната карта на Nvidia включва повече CPU-GPU суперчипове, наречени GB200 и GB200NVL. Дали тези процесори ще продължат да използват процесорни ядра, базирани на Arm Neoverse V2, намиращи се в текущата реколта от суперчипове Grace и Grace-Hopper, или ще разполагат с ядра от следващо поколение, остава да видим.

След това има B40. Исторически тези видове карти са били насочени към по-малки корпоративни работни натоварвания, които могат да работят в рамките на един GPU. Частта ще замени L40 и L40S и ще консолидира гамата корпоративни GPU на Nvidia под една всеобхватна архитектура.

Вероятно най-интересният компонент от ускорената пътна карта на Nvidia е свързан с работата в мрежа. Nvidia се стреми да премине към 800Gb/s свързаност с Blackwell, въпреки че, както проучихме по-рано, това представлява някои уникални предизвикателства поради факта, че PCIe 5.0 не е достатъчно бърз, а PCIe 6.0 все още е малко далеч.

Кога можем да видим тези Blackwell карти все още е във въздуха, но ако историята е нещо, което трябва да се вземе предвид, може да не се наложи да чакаме толкова дълго. Nvidia има дълга история на предварително обявяване на ускорители месеци (и наистина понякога години), преди те действително да бъдат налични за закупуване.

Nvidia дразнеше своя Grace-Hopper Superchip в началото на 2022 г., но както разбираме, тези части едва сега си проправят път в ръцете на клиентите. Така че можем да имаме повече подробности за базираните на Blackwell части още в GTC.

Intel посреща новата година с изцяло нов собствен ускорител

Придържайки се към темата за ускорителите, Intel е планирано да разкрие своето трето поколение Gaudi AI чипове някъде през 2024 г.

Участието е важно, тъй като с отмяната на моста Риалто, наследника на Понте Векио, Gaudi3 на Habana Lab представлява най-доброто, което Intel може да предложи на арената за обучение и изводи на AI – поне докато Falcon Shores пристигне през 2025 г.

Докато Nvidia и AMD имат навика да дразнят и рекламират своите продуктови издания в продължение на месеци, Intel беше изключително мълчалив относно тази част. По-голямата част от това, което видяхме досега, идва от този презентационен слайд, който показва най-малко от събитието за иновации през септември:

Most of what we know about Intel's third-gen Guadi accelerator comes from this slide.

Слайдът твърди, че Gaudi3, 5nm чип, ще има 4 пъти по-висока производителност на Brain Float 16 (BF16) от 7nm версия 2, плюс два пъти по-голяма честотна лента на мрежата и 1,5 пъти по-висока честотна лента на HBM.

Обикновено тези цифри ще ни дадат отправна точка за екстраполиране на относителни данни за ефективност. За съжаление, за да направи това, Intel ще трябва да ни каже какво всъщност е представянето на BF16 на Gaudi2. Попитахме и те не искат да говорят за това, въпреки че твърдят, че 4x подобрение в Gaudi3. Вместо това Intel иска да се съсредоточи върху производителността в реалния свят, а не върху сравненията с бенчмаркове.

Това е откровено объркващо маркетингово решение, тъй като твърдението по същество е безсмислено без референтна рамка. Освен това, както изглежда, този път x86 гигантът използва осем HBM стека вместо шест.

В допълнение към Gaudi3, казаха ни, че ще има версия на Gaudi2, намалена – отново – за китайския пазар (за да остане от дясната страна на експортните ограничения на САЩ за нацията) и Intel твърди, че ще я достави преди Слуховете за чипове H20 на Nvidia стигнаха до континента.

Intel се присъединява към екипа на облачните процесори със Sierra Forest

Междувременно на фронта на процесора, Intel има двойна функция, планирана за 2024 г., която ще използва своята дълго отлагана технология за процеси Intel 3. За да бъде ясно, Intel не е направила внезапен скок към 3nm. Той работи върху този възел, който наричаше 7nm, от години. В крайна сметка той беше преименуван на Intel 4 и Intel 3, за да се доближи по маркетингова линия до плътността на транзисторите на конкурентните възли.

Ще получим първия от тези базирани на Intel-3 процесори Xeon през първата половина на 2024 г. С кодовото име Sierra Forest, чипът може да бъде оборудван с чифт 144-ядрени матрици за общо 288 CPU ядра на сокет. Естествено, това не са същия клас ядра, които сме виждали в минали Xeon. Те са еволюция на архитектурата на ядрото за ефективност на Intel, която започна да се появява в процесорите за компютри и преносими компютри през 2021 г. с пускането на пазара на Alder Lake .

Но докато тези чипове обикновено са придружени от набор от ядра за производителност, Sierra Forest е изцяло с електронни ядра и е проектиран да се конкурира с Ampere, AMD и множество персонализирани процесори Arm, които се внедряват от облачни доставчици като AWS и Microsoft.

The e-cores used in Intel's Seirra Forest Xeons will feature a streamlined core architecture optimised for efficiency and throughput

Електронните ядра, използвани в Sierra Forest Xeons на Intel, ще разполагат с рационализирана основна архитектура, оптимизирана за ефективност и производителност

Твърденото предимство на Intel е, че може да опакова повече ядра в един сокет или шаси от всеки друг, като същевременно поддържа съвместимост с повечето x86 бинарни файлове. Казваме мнозинството, защото е-ядрата нямат същия набор от функции като миналите Xeon.

Две от най-големите разлики е пълната липса на поддръжка на AVX512 и Advanced Matrix Extension (AMX). Аргументът тук е, че много от работните натоварвания, които виждаме широко разгърнати в облака – неща като Nginx – не се възползват непременно от тези функции, така че вместо да отделят голямо количество пространство за големи векторни и матрични изчисления, това пространство вместо това може да се използва за пакетиране на повече ядра върху всяка матрица.

Не всяка къща за чипове обаче е съгласна с този подход. AMD възприе много различен подход със своя Bergamo Epycs, пуснат през пролетта на 2023 г. Тези сървърни процесори използваха компактна версия на ядрото Zen 4 на AMD, наречено Zen 4c, което размени тактовите честоти за по-малък отпечатък. Това позволи на AMD да опакова 128 ядра в осем изчислителни матрици на процесорен пакет, без да жертва функционалността.

И двата подхода имат достойнства. В зависимост от хипервайзора, липсата на определени функции на процесора може да направи мигрирането на работни натоварвания от една кутия в друга проблематична. Intel се надява да преодолее това с AVX10, в който се потопихме дълбоко през лятото. Накратко, той е проектиран да поддържа много от по-привлекателните функции, като поддръжка на FP16 и BF16, от AVX512 към AVX2. Резултатът е, че е по-малко вероятно да се натъкнете на този вид проблеми с миграцията, освен ако наистина не се нуждаете от 512-битови векторни регистри.

Intel слиза на земята с Granite Rapids

Преминавайки към по-малко известни територии, има Granite Rapids Xeons на Intel, които трябва да се появят по-късно през 2024 г. Докато Sierra Forest дава приоритет на много малки ядра, Granite Rapids е по-традиционен сървърен процесор Xeon, изграден около ядрата за производителност на x86 гиганта.

Все още не знаем колко ядра ще има или колко бързи ще бъдат частите от най-горния бин, но ни казаха, че ще бъде повече от Emerald Rapids. Знаем, че чипът ще разполага с по-модулна чиплетна архитектура от Sapphire или Emerald Rapids, с до пет матрици – три изчислителни и две I/O – на пакет.

В зависимост от SKU, чипът ще включва повече или по-малко изчислителни матрици, позволявайки на Intel да се възползва от модулността, на която AMD се радва от години. Преди това Xeons от 2023 г. имаха или една голяма матрица със среден брой ядра (MCC), или две големи (Emerald) или четири по-малки (Sapphire) изчислителни матрици на така наречените матрици за „изключителен брой ядра (XCC).

Intel's 6th-Gen Xeon Scalable processors will come in e-core and p-core verions and support up to 12 channels of DDR5

Процесорите Xeon Scalable от 6-то поколение на Intel – Sierra Forest и Granite Rapids – ще се предлагат във версии с e-core и p-core и ще поддържат до 12 канала DDR5 или поне така ни е обещано

Xeons от следващо поколение на Intel разделят входно/изходната функционалност в двойка матрици, които свързват изчислението. Тези входно/изходни матрици са важни, тъй като помагат да се намали разликата с AMD, която не само има предимство в броя на ядрата през последните пет години, но обикновено предлага повече, по-бързи PCIe ленти и канали за памет.

Както научихме по време на конференцията Hot Chips през 2023 г., Granite Rapids ще разполага с 12 канала за памет — същото като Epyc 4 на AMD — и ще поддържа 8800MT/s MCR DIMMS. MCR е доста страхотен, тъй като ще позволи на чипа да достави 845GB/s честотна лента на паметта към чипа. Това не е точно 1TB/s, на който са способни частите на Xeon Max от 4-то поколение на Intel с техния вграден HBM, но MCR DIMMS ще се доближи и ще позволи значително по-висок капацитет.

Семейството чипове също ще поддържа до 136 PCIe / CXL ленти, но само при скорости на PCIe 5.0. PCIe 6.0 може да се появи през 2024 г., но не навреме за „следващото поколение“ Xeons на Intel.

Zen 5 на AMD пристига

След това, разбира се, AMD трябва да пусне Turin, своето пето поколение сървърни процесори Epyc, задвижвани от нови Zen 5 ядра. На този етап не можем да кажем много за тази част, освен че идва някъде през 2024 г.

Имайки предвид времето, можем да направим няколко предположения. Бихме се обзаложили, че чипът ще използва или 4nm, или 3nm технология на TSMC в своите изчислителни плочки, но е трудно да се каже дали I/O матрицата все още ще получи свиване на процеса.

An image showing AMD's roadmap for Epyc server CPUs through 2024.

Най-новата пътна карта на сървъра Epyc на AMD

Отвъд това можем само да посочим скорошни течове , споделени чрез Xitter, които предполагат, че AMD може отново да увеличи броя на ядрата в своята гама. Ако течовете са верни, може да гледаме процесори Epyc с до 128 ядра Zen 5 или 192 ядра Zen 5c.

Самите матрици с ядрени комплекси (CCD) изглежда не са се променили много от Genoa и Bergamo с осем или 16 ядра съответно на чиплет. Вместо това се съобщава, че AMD ще използва 16 изчислителни матрици за общото си предназначение и 12 изчислителни матрици, ориентирани към облака, за да постигне заявения брой ядра. Като казахме това, ще трябва да изчакаме и да видим дали течовете са точни.

Продуктовата линия Eypc на AMD стана по-сложна през последните години, като сега обхваща приложения с общо предназначение, високопроизводителни изчисления, облачни и крайни приложения. AMD традиционно пусна тези чипове в продължение на около година. Epyc 4 стартира през ноември 2022 г., Bergamo и Genoa-X пристигнаха през юни 2023 г., а неговите части, фокусирани върху Сиена, се появиха едва през септември.

Очакват изненади

За да бъдем напълно ясни, това в никакъв случай не е изчерпателен списък на процесорите за центрове за данни, идващи през 2024 г. Напълно очакваме да има повече от няколко изненади през следващите дванадесет месеца, особено когато влакът на AI набира скорост и облачните доставчици продължават да прегърнете персонализирания силикон.

Microsoft наскоро се впусна в персонализираното AI и CPU пространство, докато Google вече има няколко поколения тензорни процесори и се говори, че работи върху собствен CPU.

Ще наблюдаваме и усилията на Arm да прокара своята основна архитектура Neoverse и IP стекове на Compute Subsystems (CSS). Последното е най-близкото, което сме виждали Arm да стига до проектирането на цял процесор в съвременните времена.

Има и множество полупроводникови стартиращи фирми, като Ampere, Graphcore, Cerebras, SambaNova, Groq и други, които искат да намерят ниша в новия световен ред на AI. Едва ли ще се изненадаме да видим нов силиций, продукти и системи от някой от тези доставчици през 2024 г. ®

Правителството на Обединеното кралство изготвя план за отклоняване на счупените машини на хората от депата

0

Правителството на Обединеното кралство се надява да улесни хората при повторната употреба и рециклирането на електрически стоки, вместо да изпраща старо оборудване на депото.

Този ход следва приемането на законодателство за правото на ремонт [ PDF ], голяма част от което влезе в сила на 1 юли 2021 г. – въпреки че на производителите беше даден двугодишен гратисен период, за да предоставят резервни части и други подобни. За съжаление, правилата са насочени предимно към бяла техника – помислете за съдомиялни машини – вместо към таблети, лаптопи и смартфони.

Законът отразява разпоредбите на ЕС; Европейската комисия в началото на миналата година също добави смартфони и таблети към списъка с устройства, които трябва да бъдат ремонтирани.

Америка предприе стъпки, за да гарантира, че някои gizmos могат да бъдат поправени, въпреки че напредъкът беше малко спиране, тъй като някои елементи от индустрията се противопоставиха на идеята да се позволи на гражданите да поправят собствения си комплект, вместо да купуват заместители.

Обратно в Обединеното кралство и най-новите планове са свързани с това колко стари електрически стоки се изхвърлят. „500 тона коледни светлини се изхвърлят всяка година в Обединеното кралство“, гръмнаха официални лица, заобикаляйки елегантно съвременната празнична дилема да прекарват часове в разплитане на кабел, който може или не може все още да произвежда цветна светлина и е прекарал 12 месеца да лежи в шкаф вместо просто да поръчате нов от произволен брой търговци на дребно.

Въпросът, който се разглежда, е какво да правим с този кабел, който има една повредена светлина. Вместо гневно да го изхвърлите в кофа за боклук, предназначена за депониране, предложението е в Обединеното кралство да има събиране на отпадъчно електрическо оборудване директно от домакинствата, спестявайки на хората разходката до най-близкото общинско съоръжение. Тази услуга ще бъде финансирана от производителите на хардуер, а не от данъкоплатеца.

Правителството също така предложи пунктове за събиране в големите търговци на дребно, където счупеното оборудване може да бъде оставено без изискване за закупуване на ново, и постави изискване големите, по-стари електрически артикули да се събират за рециклиране, когато се достави нов артикул.

Ще мине обаче известно време, преди нещо наистина да се случи. В ход е десетседмичен процес на консултации, в който Министерството на околната среда, храните и селските въпроси ще се събере с индустрията, за да обмислят какво да правят.

Въпреки че статистиката е тревожна – правителството извади цифри, показващи четирикратно увеличение на изхвърлянето на парфюми, например, което възлиза на „пет милиона на седмица“ – по-тревожно за техничарите навсякъде е осъзнаването, че касите с безполезни технологиите, събрани през целия живот, наистина трябва да бъдат разгледани.

Министърът по рециклирането Роби Мур каза: „Ние всички имаме някъде чекмедже със стари технологии, с които не знаем какво да правим, и нашите предложения ще гарантират, че тези джаджи са лесни за изхвърляне, без да е необходимо да ходите до местния съвет.“

Вашият скромен хак има няколко чекмеджета със стари технологии и кабели, трупани в продължение на десетилетия, „защото никога не се знае“. Опасяваме се, че улесняването на изхвърлянето им няма да се справи с основния проблем. ®

NAT, ATM, децентрализирано търсене – и други възмутителни мнения от 90-те години

0

Системен подход Краят на годината често е време за хората в областта на технологиите да правят прогнози, но вместо да правим свои собствени, днес ще погледнем назад към някои от смелите прогнози от миналото – по-специално встъпителната сесия на Outrageous Opinion, проведена в SIGCOMM през 1995 г.

Един от най-трайните ми приноси към общността на SIGCOMM би трябвало да бъде моята беседа за скандално мнение през 2003 г.: MPLS се счита за полезен . Двадесет години по-късно все още срещам хора, които си спомнят главната фраза: „Не съм горчив“. Подозирам, че това ще се помни много по-дълго от моя четиригодишен мандат като председател на SIGCOMM.

По-малко известен факт е, че председателствах първата сесия на SIGCOMM Outrageous Opinion наSIGCOMM 1995 . (Друг забавен факт от тази конференция: Марк Андреесен трябваше да даде урок по същото време като мен, но той се отказа в последния момент, като се позова на натиска на бизнеса – IPO-то на Netscape се проведе две седмици по-рано. Взех в резултат на това куп разочаровани присъстващи на моя урок за smartNIC.)

Докато скандалните сесии за мнение впоследствие се обърнаха към стендъп комедия, през тази първа година имаше куп доста сериозни (и въпреки това забавни) разговори, които останаха в паметта ми.

Често се връщам към речта на Дейвид Кларк, Всички трябва да станем икономисти. Вече добре утвърден като „архитект на интернет“, Дейвид започна да се разклонява в области на икономиката и политиката, със забележителни произведения, включително „Осъществяване на информационното бъдеще“ , което изтъкна пред широка аудитория, че интернет е подходящата архитектура за информационната супермагистрала. Днес това може да изглежда очевидна истина, но по онова време имаше много поддръжка за алтернативни архитектури, базирани на еволюирали версии на телефонната мрежа (помислете за широколентов ISDN) или на мрежата за кабелна телевизия.

Неговата по-късна статия [ PDF ] с Марджори Блументал – Преосмисляне на дизайна на Интернет: Аргументи от край до край срещу Прекрасния нов свят – е прекрасно изследване на напрежението между идеализираната архитектура на Интернет и търговския натиск, който дойде да се справи с нея, след като стане основна комуникационна платформа. Въпреки че има няколко неща, които са по-дразнещи от хората в областта на технологиите, които обсъждат икономика от позиция на невежество, Дейвид изтъкваше, че трябва да направим повече, за да се образоваме по икономика, и ми се иска повече от нас да бяха послушали съвета му.

Също толкова запомнящо се беше изказването на Пол Франсис, друг пионер в интернет, чието влияние обхваща разнообразни теми като мащабируемо мултикаст , IPv6 и разпределени хеш таблици .

По това време бяхме в ранните дни на интернет търсенето – Google все още оставаше на три години от основаването си, а AltaVista беше вътрешен проект за индексиране на цялата мрежа в DEC (пуснат за света по-късно същата година). Пол се обърна към мен с две теми, които искаше да представи: най-новото му изследване върху мащабируемото търсене в интернет, което той беше нарекъл Ingrid [ PDF ], и превода на мрежови адреси (NAT).

Бях доста по-благосклонен към второто, защото това беше много гореща тема по онова време, Пол беше приписван на изобретението му и той имаше забавен начин да представи своя аргумент. Креативен човек, какъвто е, Пол намери начин да съчетае двете теми в една беседа.

Същността на частта от неговата реч за NAT беше, че преобладаващият възглед на IETF за NAT по това време – не правете NAT – трябва да се разглежда като аналог на сексуалното възпитание само за въздържание. Колкото и да вярваха в правилността на позицията си хората, които дават съвети, те нямаше да окажат голямо влияние върху резултата. Погледнато назад, той очевидно беше прав: повечето интернет потребители в света днес седят зад едно или повече NAT устройства, но позицията му беше много по-противоречива по онова време.

Повечето от световните интернет потребители днес седят зад едно или повече NAT устройства, но позицията му беше много по-противоречива по онова време

В крайна сметка животът с NAT стана по-важен от предотвратяването му и днес има цяла работа по преминаването на NAT , която ни позволява да се справяме с него доста безболезнено.

Имах причина да се връщам към другата част от речта на Пол по-често, поради начина, по който резонира днес, когато се занимаваме с централизацията на интернет и неотдавнашните усилия за повторното му децентрализиране .

Докато ранните търсачки бяха централизирани – например, AltaVista очевидно беше разработена, за да покаже възможностите на мощен сървър на база данни DEC – Пол твърдеше, че децентрализиран подход към търсенето ще бъде необходим, когато мрежата излетя. (Припомнете си, че това беше същата година като IPO на Netcape.)

Отново беше прав, но Google в крайна сметка щеше да достави изключително успешна разпределена система за индексиране и търсене в мрежата и да я постави зад логично централизиран преден край. Така че докато техническото решение наистина беше децентрализирано, потребителското изживяване е централизирано: просто отидете на Google.com и задайте въпроса си. И разбира се, това е мястото, където се намира най-вече мрежата днес, 25 години по-късно: разпределените системи вършат работата под завивките, но средният потребител взаимодейства с шепа централизирани субекти, като титаните на социалните медии и стрийминг услугите.

Аз съм предпазлив оптимист, че виждаме обръщане на тази тенденция, особено с обединените социални медии, но поглеждам назад с носталгия към ерата, когато изглеждаше възможно самото търсене да бъде децентрализирано. Тъй като вече е все по-очевидно , че търсенето се влошава, все още можем да се надяваме. Освен това идеята, че децентрализираните технологии сами по себе си не ни предпазват от опасностите на централизирания контрол на технологиите (напр. собствеността върху търсенето или социалните медии от малък брой компании) е нещо, което развих допълнително в моя доклад за 60 години работа в мрежа по-рано тази година.

Спомням си, че имаше много разговори за относителните предимства на ATM и IP. Това изглежда трудно за разбиране днес

И накрая, мога да си спомня, че имаше много разговори за относителните предимства на ATM и IP. Това изглежда трудно за разбиране днес, където интернет достига около половината от световното население и ATM е малко повече от историческа бележка под линия в голямата колекция от OSI технологии на ниво две, които IP е приспособил. Както предполагат моите коментари по-горе, през 1995 г. далеч не беше ясно, че нещата ще се развият по този начин.

В този момент залагах във всяка посока, тъй като работех върху банкомат в Bellcore (собственост на телекоми), но вярвах, че до 1995 г. банкоматът ще бъде възприет като субстрат за част от интернет, а не самостоятелна мрежова технология, която ще замени IP . Наистина, фокусът ми върху IP-over-ATM ми даде възможност да се присъединя към Cisco по-късно същата година, тъй като те увеличиха инвестициите си в превключване на банкомати. Това в крайна сметка щеше да ме приземи в екипа, който разработи MPLS – друга технология, която, подобно на NAT, се сблъска с голяма опозиция в IETF, но днес е широко разпространена.

Фактът, че помня толкова много от онази вечер през 1995 г. (докато не помня почти нищо от урока, който дадох), има много общо с това колко провокативни, насочени към бъдещето и точни бяха много от мненията. Мисля, че някои от разговорите в по-късните години може да са били по-забавни, но огромното количество предсказваща точност на тези, които си спомням от 1995 г., е поразително. (Без съмнение съм забравил някои разговори, които бяха напълно неоснователни.)

Коментарите на Дейвид Кларк за икономистите продължават да резонират, докато спорим за неутралността на мрежата и чуваме искания от телекомите да бъдат компенсирани не само от техните клиенти, но и от доставчиците на съдържание. Повишената централизация на интернет също е отчасти икономически феномен (победителят получава всичко). В настоящите дебати за бъдещето на конференцията SIGCOMM и по-широко, докато се стремим да оформим интернет на бъдещето, се надявам да запазим място за възмутителни мнения. ®