дом блог страница 20

Изненадващо, Gentoo Linux започва да предлага двоични файлове

0

Gentoo вече предлага над 20 гигабайта предварително компилирани двоични файлове, от настолни компютри до офис пакети, за да ускори инсталациите и актуализациите.

В новини, толкова неочаквани, че бюрото на Reg FOSS първоначално сметна, че това е странна първоаприлска шега, проектът Gentoo разкри този ход точно преди края на декември в публикация, озаглавена Gentoo goes Binary!

Gentoo поддържа много широка гама от типове компютри в наши дни, включително 32-битови и 64-битови x86 и Arm, 32-битови и 64-битови big-endian и little-endian PowerPC и IBM POWER, заедно с девет други архитектури от Alpha до SPARC. Засега пълната гама от предварително компилирани двоични пакети се фокусира върху x86-64 и Arm64, за които проектът предлага, по собствените си думи, „>20 GByte пакети на нашите огледални сървъри, от LibreOffice до KDE Plasma и от Gnome до Docker. Gentoo стабилен, актуализиран ежедневно.“

Уикито на проекта също предлага както ръководство за бърз старт за това как да конфигурирате новите хранилища на двоични пакети, така и задълбочена документация . Двоичните файлове се разпространяват в съществуващия формат на двоичен пакет, наречен GPKG .

Многото други платформи не са пропуснати: за тях предварително компилираните пакети са ограничени до основната операционна система и получават седмични актуализации. Напълно разумно е да се съсредоточим върху двете CPU архитектури, които са най-широко използвани днес, но иронията на това е, че хората на по-стари, по-бавни машини, като PowerMac и x86-32 машини, ще страдат най-много от по-бавното време за инсталиране поради колко време отнема компилацията.

Въпреки че това е точно как работят всички други настоящи дистрибуции на Linux, това е значително отклонение за Gentoo, който преди това беше почти изцяло базирана на изходен код дистрибуция. Повечето дистрибуции са изградени от двоични файлове: хиляди предварително компилирани изпълними файлове, компилирани от съставния им изходен код на сървърни ферми, притежавани от доставчици на дистрибуции. Gentoo обаче е различен. Въпреки че инсталационният диск, който ви кара да започнете, трябва по дефиниция да бъде предварително компилиран, досега, когато инсталирате Gentoo, той извлича изходния код и го компилира на вашата машина за вашата машина, специално оптимизиран за конкретния процесор на вашия компютър и отделните функционалност и конфигурация по ваш избор.

И двата подхода имат плюсове и минуси. Обичайният начин, когато доставчикът прави компилацията, двоичните файлове се изграждат доста общо за хардуер с най-нисък общ знаменател. Както споменахме наскоро, това постави препятствия при внедряването на доставчиците на дистрибуции, изискващи различни иновативни решения . Това обаче прави софтуер, който се инсталира много по-бързо, опростява тестването и улеснява автоматизираното внедряване. Когато компонентите изискват актуализации, често срещано явление, тогава или се изпращат нови двоични файлове, или дори се изтегля само разликата между стари и нови двоични файлове.

Основното предимство на метода Gentoo е, че пакетите се компилират с предпочитаните от вас оптимизации за процесора на вашия компютър. Потребителите на други дистрибуции най-вече игнорират това или дори му се подиграват , като се има предвид, че като цяло сравнително скромните подобрения на производителността не си струват допълнителната работа – но подходът допринася за това Gentoo да бъде изключително адаптивна дистрибуция, позволяваща повече персонализиране от почти всяка друга операционна система.

В резултат на това има редица дистрибуции надолу по веригата, базирани на Gentoo, някои сред най-използваните форми на Linux. Например Gentoo е в основата на ChromeOS на Google, както и на късния CoreOS Container Linux. Последният беше придобит от Red Hat , възстановен на базата на Red Hat и предишната дистрибуция беше преустановена , но Kinvolk разклони оригиналната дистрибуция и я продължи като Flatcar Container Linux, само за да бъде закупена впоследствие от Microsoft .

Ако не друго, големи суми пари бяха платени за базирани на Gentoo продукти… И продължават да бъдат: Uniontech, една от водещите платени китайски дистрибуции, се гордее с три милиона потребители , което затвърждава статуса на ChromeOS като популярна десктоп дистрибуция .

За потребителите на Gentoo, обезпокоени от загубата на оптимизация, много ни хареса собственото полезно резюме на проекта:

®

Google парадира с паралелност, оптимизация, тъй като облачните съперници ремонтират платформите

0

Функция Миналата година беше голяма за анализа на данни и машинното обучение в облака. Двама от най-големите играчи, Microsoft и Databricks, преработиха основно своите платформи, като първият също успя да пусне продукти.

Google, който, както бихте очаквали, е голям играч на пазара за анализ на облачни данни, постигна победи за клиенти с Walmart, HSBC, Vodafone и Home Depot, наред с други през последните няколко години, като в някои случаи измести добре установените на- prem корпоративни системи за съхранение на данни от компании като Teradata.

По отношение на новите технологии, Google направи допълнения и промени в своята гама през 2023 г., вместо основните съобщения за платформа, които видяхме от Microsoft и Databricks . Складът за данни на Google BigQuery получи автоматично мащабиране и компресирано съхранение, заедно с повече избор и гъвкавост при настройване на функции за различни изисквания за натоварване. Клиентите могат също така да смесват издания Standard, Enterprise и Enterprise Plus, за да постигнат предпочитаната от тях цена според натоварването. BigQuery Data Clean Rooms позволи споделянето и съпоставянето на набори от данни между организации, като същевременно зачита поверителността на потребителите и защитава сигурността на данните.

слонове

Пионерът на Postgres Майкъл Стоунбрейкър обещава да преобърне базата данни още веднъж

ПРОЧЕТЕТЕ ОЩЕ

В AlloyDB Omni Google предлага услуги за база данни, съвместими с PostgreSQL, които работят в други облачни хиперскалери, локални и лаптопи за разработчици. Той включва набор от инструменти за автоматизация, които помагат при миграцията от по-стари, добре установени системи за бази данни като Oracle или IBM Db2.

Но по отношение на платформата за данни, където основните играчи обслужват структури и неструктурирани работни натоварвания за BI, анализи и машинно обучение от едно място, възприемайки подозрителната терминология на „езерната къща“, Google вече има това, от което се нуждае, за да се конкурира, Герит Казмайер, veep и генерален мениджър на Google за анализ на данни, разказва The Register .

„Имате големи аналитични системи, които изграждат тези обширни записи на данни. Много е важно те да бъдат не само преплетени, но всъщност безпроблемно интегрирани например, когато дори не репликирате данни направо от една система в друга: BigQuery говори с едни и същи данни на същото място, където базата данни ги записва. Има нулево забавяне, няма нулеви разходи, не е необходимо огледално копиране или репликация, защото по принцип имате достъп навсякъде“, казва Казмайер.

В архитектурата на Google унифициран слой за достъп за сигурност и управление свързва приложения като BI, складиране на данни и ML с бекенд, който се обслужва от BigQuery Managed Storage и Google Cloud Storage и мулти-облачно хранилище от AWS S3 и Azure Storage на Microsoft.

Архитектурата, поне като концепция, е подобна на предложението на Microsoft. Обявен през юни и станал общодостъпен през ноември, Microsoft Fabric също обещава да обслужва различни приложения и работни натоварвания от своята технология OneLake, която съхранява всичко в отворен код, управляван от Linux Foundation Delta табличен формат, който произхожда от Databricks.

Microsoft обяснява, че подходът позволява на приложения като Power BI да изпълняват работни натоварвания в хранилището на данни Synapse, без да изпращат SQL заявки. Вместо това в Onelake се създава виртуално хранилище за данни, което зарежда данните в паметта. Гигантът от Редмънд твърди, че подходът предлага ускорение на производителността, тъй като няма повече SQL ниво в средата на изпълнение на SQL заявки.

Въпреки че има прилики с подхода на Microsoft, архитектурата на Google разчита на табличния формат Iceberg , разработен в Netflix и сега с отворен код чрез Apache Foundation.

Kazmaier казва: „Взехме десетилетия на иновации в BigQuery, по-специално в производителността на заявките, времената за достъп, оптимизацията на заявките и ги доставихме от BigLake по начин, така че клиентите да могат да получат производителност, както и богатството на разработката от общността на Iceberg. По-конкретно имаме много оптимизации от начина, по който осъществяваме достъп и разбираме метаданните от начина, по който осъществяваме достъп до файловете, което води до превъзходна производителност с Iceberg и BigQuery на GCP“, казва той.

Въпреки че всички основни доставчици в пространството казват, че поддържат или ще поддържат всички формати на таблици – Iceberg, Delta и Hudi – изградени на файловия формат Apache Parquet, всеки има своя акцент върху това, което поддържа „изначално“. Тенденцията доведе до разделение в индустрията, като Databricks, Microsoft и SAP подкрепят Delta и Google, Cloudera, Snowflake, AWS и Netezza на IBM, наблягайки на Iceberg.

Казмайер казва, че подкрепата на Google за Iceberg се свежда до силен ангажимент към отворен код. „Айсберг е проект на Apache: управлява се много ясно, не е свързан с нито един доставчик и има широк принос от общността.“

Той казва, че Google реагира на търсенето на клиентите, като избра Iceberg като „основен формат на стратегия за данни“, но също така добави поддръжка за Delta и Hudi, тъй като някои клиенти вече са изградили стек, ориентиран към Databricks.

„Истинският отговор се крие в това колко гъвкави искате да бъдете като клиент. Ако изберете да бъдете най-гъвкави и отворени, Iceberg ви дава най-широкото от тези качества. Ако сте по-загрижени да имате архитектура на Lakehouse от Databricks -центрично разгръщане, Delta е чудесен избор. Виждаме много бързо и широко приемане на Iceberg,“ казва той.

Миналия месец Databricks, компанията за платформа за данни, израснала от езерата от данни на Apache Spark, също обяви основен ремонт на стека си. Обещава нов слой „разузнаване на данни“ върху концепцията „езерна къща“, която стартира в началото на 2020 г., за да комбинира структурирани BI и аналитични натоварвания на складиране на данни с объркания свят на езерата от данни. В съобщение, спестяващо подробности за продукта, компанията каза, че въвежда слоя „разузнаване на данни“ DatabricksIQ, за да „подхранва всички части на нашата платформа“.

Докато запазва унифицирания слой за управление на lakehouse в данни и AI и единна унифицирана машина за заявки, обхващаща ETL, SQL, машинно обучение и BI, компанията иска да продължи да използва технологията, придобита при закупуването на MosaicML за 1,3 милиарда долара, генеративен AI започвам. Идеята е да се използват „AI модели за дълбоко разбиране на семантиката на корпоративните данни“,казва Databricks .

Въпреки че lakehouse на Databricks поддържа SQL заявки, има някои критики относно способността му да поддържа BI работни натоварвания в мащаб на предприятието. През 2021 г. Gartner посочи, че базираните в облак езера от данни може да се борят със SQL заявки от повече от 10 едновременни потребители, въпреки че Databricks оспори твърдението. Миналия месец анализаторът на Ventana Research Матю Аслет каза, че все повече организации осъзнават трудностите, докато се опитват да мащабират езерата от данни и да поддържат корпоративните BI работни натоварвания.

Например Adidas изгради платформа за данни около Databricks, но също така създаде слой за ускоряване с базата данни Exasol в паметта, за да подобри производителността при едновременни работни натоварвания.

Казмайер обяснява, че подходът на Google към паралелността избягва завъртането на повече виртуални машини и вместо това подобрява производителността на единица на ниво подпроцесор. „Той премества тези единици капацитет безпроблемно, така че може да имате заявка, която завършва и освобождава ресурси, която може да бъде преместена незабавно към друга заявка, която може да се възползва от ускорението. Цялата тази микрооптимизация се извършва без системата да се оразмерява. Постоянно ви дава идеалната проекция на капацитета, който използвате за натоварванията, които изпълнявате,” казва той.

Доклад от Gartner по-рано миналата година одобри подхода. „Смесица от модели за резервиране на слотове при поискване и ценообразуване с фиксирана ставка осигурява средствата за разпределяне на капацитет в цялата организация. Въз основа на използвания модел ресурсите на слотове се разпределят на изпратени заявки. Когато търсенето на слот надвишава текущата наличност, допълнителни слотове се поставят на опашка и се задържа за обработка, след като капацитетът е наличен. Този модел на обработка позволява продължителна обработка на едновременни големи натоварвания на заявки“, се казва в него.

Докато Microsoft и Databricks може да са привлекли вниманието на пазара с техните съобщения за пакет от данни за 2023 г., Aslett от Ventana смята, че е имало малко за избор между основните играчи и всяка очевидна технологична преднина може да се дължи на ритъма на пускане.

Гледайки напред към следващата година, Google може да се надява да открадне част от светлината на прожекторите обратно от своите конкуренти. ®

NHS England публикува силно редактиран договор с Palantir, когато празненствата започнаха

0

NHS England избра последния работен ден преди Коледа, за да публикува силно редактиран договор за противоречивата Federated Data Platform, който възложи на американската шпионска фирма Palantir през ноември.

Големи раздели от трите договорни документа – публикувани в петък, 22 декември, когато работниците се опаковаха за празниците – бяха затъмнени, включително по-голямата част от раздела, описващ „защитата на личните данни“, според официална публикация на уебсайта на правителството за търгове.

palantir nyse

Palantir събира £330 милиона от NHS данни въпреки страховете за поверителността

ПРОЧЕТЕТЕ ОЩЕ

Критиците посочиха, че редактирането на значителна част от договора и публикуването му в навечерието на празничния сезон едва ли е изпълнило обещанието на NHS England да гарантира, „че са научени уроци по доверие и прозрачност“.

В брифинг , публикуван относно договора за FDP, правителственият здравен quango каза: „Бяха извлечени ключови поуки от предишни програми за данни, включително необходимостта от а) прозрачност и б) данните да се съхраняват в защитена среда с правилните проверки и баланси Ние гарантираме, че са извлечени уроци по доверие и прозрачност както по отношение на дизайна, така и в начина, по който действаме, например навременното публикуване на информация и документация, открито публикуване на случаи на използване и оценки на въздействието върху защитата на данните.“

NHS England — която започна връзката си с Palantir по време на пандемията с възлагането на договор от £1 — каза, че FDP ще предостави софтуер за свързване на тръстове на NHS и регионални системи и ще предложи последователно техническо средство за свързване на данни, които вече са събрани за грижи за пациенти .

„Клиницистите лесно ще имат достъп до информацията, от която се нуждаят, за да вършат работата си – на едно място – освобождавайки време, изразходвано за административни задачи, и им позволявайки да предоставят най-подходящите грижи за пациентите“, се казва в него.

Известието за възлагане на договор оценява договора на £182,2 милиона ($230 милиона) за четири години, завършващи през февруари 2027 г. По-ранното изявление от NHS England казва, че договорът може да продължи седем години и да струва до £330 милиона ($412 милиона).

Кампаниите за здравни данни се подготвят за правно оспорване на сделката с FDP, като твърдят, че няма правно основание за преместване на данните на пациентите към платформата в рамките на настоящите правни указания, които NHS Digital използва за получаване и споделяне на данни в рамките на NHS.

Говорител на NHS каза, че този ход „фундаментално погрешно разбира как ще работи платформата за обединени данни и е напълно неправилен както от гледна точка на закона, така и от гледна точка на фактите. Платформата ще използва само съществуващи данни, законно събрани от NHS, за да поддържа директна грижа за пациентите, което е законно съгласно всички съответни разпоредби за защита на данните.“

Palantir стана част от мисленето на NHS England по време на ранните етапи на пандемията COVID-19. Чрез предоставяне на технология в договор за £1, уреден без състезателен процес, той спечели бизнес на стойност £1 милион ($1,25 милиона), след което беше подписан договор за £23 милиона ($28,7 милиона) през декември 2020 г., отново без конкуренция. По-скорошни сделки за разширение означават, че компанията за аналитичен софтуер е спечелила общо £60 милиона ($75 милиона) от NHS, без да се конкурира с други компании, които предоставят подобен софтуер.

NHS England заяви, че състезанието на FDP е честна, открита и прозрачна поръчка в съответствие с Наредбите за обществените поръчки от 2015 г. ®

Съобщава се, че САЩ са настояли ASML да отмени рано комплекта за производство на чипове за Китай

0

Съобщава се, че Вашингтон е притиснал гиганта за оборудване за производство на чипове ASML да отмени някои доставки за Китай преди влизането в сила на актуализираните ограничения, но самата компания отказва да потвърди дали случаят е такъв.

Холандският производител е въвлечен във „войните за чипове“ между САЩ и Китай, тъй като произвежда някои от най-модерните фотолитографски съоръжения в света. Това е единственият източник на ток за екстремни ултравиолетови (EUV) системи за производство на чипове в най-малките производствени възли, например.

Те обаче вече са забранени за износ в Китай съгласно съществуващите ограничения за износ, а актуализираните правила, обявени миналата година, разшириха това, за да обхванат и някои от машините за дълбока ултравиолетова (DUV) литография на ASML.

Според Bloomberg , ASML е отменил доставките на някои от тези машини за Китай по нареждане на администрацията на Байдън, преди новите ограничения да влязат в сила този месец. Твърди се, че американски служители са поискали от компанията незабавно да спре вече планираните доставки, цитирайки анонимни източници, за които се твърди, че са запознати с въпроса.

ASML е малко хитър по този въпрос, както може да се очаква, тъй като Китай е доходоносен пазар за компанията. Според някои оценки Китай е бил най-големият пазар на ASML след Тайван и Южна Корея, но е съставлявал почти половината от продажбите на компанията през третото тримесечие на 2023 г., тъй като производителите на чипове в страната побързаха да получат ново оборудване, преди подвижният мост да бъде изтеглен.

В изявление ASML каза: „Лицензът за доставка на литографски системи NXT:2050i и NXT:2100i през 2023 г. наскоро беше частично отменен от холандското правителство, което засегна малък брой клиенти в Китай.“

По-рано компанията каза, че холандските власти са й издали лицензи да продължи да продава своите DUV машини в Китай до края на 2023 г., след което ще трябва да спре продажбите.

Но изглежда, че съответните лицензи за износ са били частично отменени от холандското правителство, „частично“, тъй като те вече са били използвани за доставка на някои пратки до Китай през 2023 г., ни каза компанията.

Най-близкото до пушещо оръжие е тази част от изявлението на ASML: „В последните дискусии с правителството на САЩ ASML получи допълнителни разяснения относно обхвата и въздействието на разпоредбите за контрол на износа на САЩ. Най-новите правила за износ на САЩ (публикувани на 17 октомври 2023 г. ) налагат ограничения върху някои средно критични DUV имерсионни литографски системи за ограничен брой усъвършенствани производствени съоръжения.“

Говорител на ASML ни каза, че „за 2024 г. е малко вероятно да получим лиценз за износ, за да изпратим NXT2000i (и следващите версии) на китайски клиенти.“

Компанията обаче заяви, че не очаква отмяната на лиценза за износ или последните ограничения на САЩ за контрол на износа да имат съществено въздействие върху финансовите й перспективи за 2023 г. Това е въпреки предишни оценки, които показват, че актуализираните ограничения за износ може да струват на ASML около пет процента от годишните си приходи.

Ограниченията за износ са насочени към това да попречат на Китай да се сдобие с най-модерната технология за чипове, поради опасения какво може да направи армията на Пекин с нея. Но въпреки тези мерки китайската Huawei успя да представи нов смартфон миналата година с домашна система върху чип, изградена от 7nm процес, а също така се говори, че има 5nm чип за лаптоп. ®

BT пропуска крайния срок за премахване на Huawei от ядрото на мрежата

0

Крайният срок за телекомите в Обединеното кралство да премахнат оборудването на Huawei от техните основни мрежи вече изтече, като BT призна, че 2G и 3G услугите все още се обслужват от инфраструктура, която не е съвместима. И все пак не е ясно какви мерки, ако има такива, може да предприеме BT за това.

Британските телекомуникационни оператори получиха официални правни известия от правителството през ноември 2022 г., в които се описват задълженията им да изтрият комплекта от базираната в Китай Huawei, след като компанията беше счетена за риск за сигурността.

Като част от това на компаниите беше даден краен срок до 31 декември 2023 г. да спрат да използват комплекта Huawei в основните си мрежи. Това беше удължаване на предишния краен срок от 28 януари 2023 г., който редица оператори (включително BT) се оплакаха, че трудно ще изпълнят.

И все пак изглежда, че BT сега не е успяла да спази този удължен краен срок, въпреки че компанията твърди, че сега са засегнати само малка част от услугите за глас и данни, които носи.

„Всички 4G и 5G сесии за данни и гласови повиквания вече се доставят от основно оборудване, което не е на Huawei – което означава, че над 99 процента от целия основен трафик вече се обслужва от комплект, който не е на Huawei“, каза говорител на BT Group пред The Register в изявление .

Единствените услуги за глас и данни, които предстои да бъдат мигрирани, са 2G и 3G, които представляват по-малко от 1% от общия трафик, твърди компанията, добавяйки, че „Работим усилено, за да завършим тази работа“.

Разбираемо е, че телекомуникационните оператори са изправени пред глоба до 10 процента от техния оборот за неспазване на правното уведомление или в случай на продължаващо нарушение, £100 000 ($126 611) на ден.

Въпреки това е малко вероятно подобно действие да бъде предприето незабавно, тъй като телекомуникационният регулатор на страната Ofcom трябва първо да докладва за напредъка, който мрежовите оператори са постигнали за постигане на тези цели, и съответният доклад не трябва да бъде представен до 31 март тази година.

„Правителството е отговорно за определянето и прилагането на правилата, изискващи определени телекомуникационни компании да премахнат оборудването на Huawei от мрежите си. Ролята на Ofcom е да събира информация за напредъка на компаниите и да докладва това на правителството“, каза днес говорител на Ofcom.

BT, която казва, че ще предостави повече информация на Ofcom по отношение на съответствието с разпоредбите, ни каза, че не е поискала официално удължаване на крайния срок.

Някои наблюдатели от индустрията обаче очакват, че може да има известна гъвкавост по отношение на крайните срокове, за да се избегнат глоби върху компаниите, които са положили усилия да се съобразят.

„Напълно очаквам действия за допълнително удължаване, за да се избегнат всякакви глоби“, ни каза анализаторът на телекомите Паоло Пескаторе от PP Foresight. „Това подчертава колко разчита BT на Huawei и сложността на пълното премахване на доставчик както от неговите фиксирани, така и от мобилни мрежи“, добави Пескаторе.

„Задачата не трябва да се подценява, за да се гарантират минимални смущения за всички потребители (във всички телекоми), но имайки предвид особено задълженията на EE за мрежата за спешни услуги“, каза той.

Мобилният мрежов оператор EE е марка в рамките на BT Group.

BT по-рано заяви , че спазването на изискването за премахване на Huawei от мрежата й ще й струва около £500 милиона ($632 милиона) между 2020 и 2025 г. Цялото оборудване на Huawei трябва да бъде премахнато изцяло от 5G мрежите на Обединеното кралство до края на 2027 г.

Все още не е ясно дали други телекомуникационни оператори не са успели да спазят крайния срок, свързан с техните основни мрежи. Разпитахме наоколо, но не получихме отговори до момента на публикуване. Всичко вероятно ще стане ясно от доклада на Ofcom през март. ®

2024 със сигурност изглежда като вълнуваща година за силикона за центрове за данни

0

Коментар Новата година вече се очертава да бъде една от най-значимите по отношение на силикона за центрове за данни, който сме виждали от известно време. Всяка голяма компания за чипове е планирана да обнови своите CPU и/или GPU продуктови линии през следващите дванадесет месеца.

Nvidia има множество нови ускорители, GPU архитектури и мрежов комплект, планиран за 2024 г. Intel ще пусне може би най-завладяващите си Xeon от години заедно с новите чипове за изкуствен интелект Habana Gaudi. Междувременно AMD, която се движи високо с пускането на своята серия MI300, е планирана да пусне своите процесори Epyc от 5-то поколение на пазара.

Без конкретен ред, нека разгледаме някои от пусканията на по-големи чипове за центрове за данни на нашия радар през 2024 г. О, и ако смятате, че сме пропуснали някой, уведомете ни в коментарите или имейла .

Пристигат AI чиповете HBM3e-toting H200 на Nvidia

Сред първите нови чипове, които ще излязат на пазара през 2024 г., ще бъдат ускорителите H200 на Nvidia. Графичният процесор е по същество опресняване на почтения H100.

Може да очаквате най-новият чип да предложи подобрение на производителността спрямо по-стария си брат, но това няма да стане в конвенционалния смисъл. Разровете спецификационния лист и ще видите, че производителността с плаваща запетая е идентична с тази на H100. Вместо това повишаването на производителността на частта – Nvidia твърди, че е двойно по-висока от производителността за LLM, включително Llama 70B – се свежда до стековете памет HBM3e на чипа.

Nvidia's HGX H200 packs up to eight H200 SXM accelerators onto a single board.

HGX H200 на Nvidia е настроен да опакова до осем H200 SXM ускорителя на една платка

Обещано ни е, че H200 ще се предлага с до 141 GB HBM3e памет, което е добре за невероятните 4,8 TB/s честотна лента. С нарастването на популярността на LLM – като Llama 2 на Meta, Falcon 40B, Stable Diffusion и други – капацитетът на паметта и честотната лента оказват огромно влияние върху производителността на изводите – а именно колко голям модел можете да поставите в един ускорител или сървър, и колко заявки можете да обработвате едновременно.

Както наскоро проучихме в нашия анализ на провала на сравнителния анализ на AMD и Nvidia, FLOPS не са толкова важни, колкото капацитетът на паметта и честотната лента, когато става въпрос за тези видове натоварвания на AI.

Заместникът на Hopper пристига с архитектура „Blackwell“.

Според презентация на инвеститор през 2023 г., H200 няма да е единственият GPU, който виждаме от Nvidia през 2024 г. За да затвърди лидерството си, Nvidia преминава към годишен ритъм на пускане на нови чипове и първата нова част, която виждаме от Team Green ще бъде B100.

According to an investor presentation released this month, Nvidia plans to shift to a One-Year release cadence.

Nvidia планира да премине към едногодишен каданс на пускане, съдейки по този слайд, показан на инвеститорите

Както разбираме, „B“ тук е съкратено от името на микроархитектурата, Blackwell – вероятно намигване към американския статистик David Blackwell. Все още не знаем много за частта, освен че идва през 2024 г. Нашите колеги от The Next Platform имат няколко мисли за B100 тук .

В сегашния си вид, наскоро пуснатите MI300X GPU на AMD не само избутват повече FLOPS от H200, те имат повече и по-бърза памет за зареждане. Не можем да си представим, че Nvidia е доволна от това, особено като се има предвид колко отбранителен е американският гигант напоследък. Поради това напълно очакваме B100 да достави повече FLOPS и повече стекове HBM3e, които ще издигнат капацитета на паметта и честотната лента на ускорителя до нови висоти.

Наред със самия GPU, пътната карта на Nvidia включва повече CPU-GPU суперчипове, наречени GB200 и GB200NVL. Дали тези процесори ще продължат да използват процесорни ядра, базирани на Arm Neoverse V2, намиращи се в текущата реколта от суперчипове Grace и Grace-Hopper, или ще разполагат с ядра от следващо поколение, остава да видим.

След това има B40. Исторически тези видове карти са били насочени към по-малки корпоративни работни натоварвания, които могат да работят в рамките на един GPU. Частта ще замени L40 и L40S и ще консолидира гамата корпоративни GPU на Nvidia под една всеобхватна архитектура.

Вероятно най-интересният компонент от ускорената пътна карта на Nvidia е свързан с работата в мрежа. Nvidia се стреми да премине към 800Gb/s свързаност с Blackwell, въпреки че, както проучихме по-рано, това представлява някои уникални предизвикателства поради факта, че PCIe 5.0 не е достатъчно бърз, а PCIe 6.0 все още е малко далеч.

Кога можем да видим тези Blackwell карти все още е във въздуха, но ако историята е нещо, което трябва да се вземе предвид, може да не се наложи да чакаме толкова дълго. Nvidia има дълга история на предварително обявяване на ускорители месеци (и наистина понякога години), преди те действително да бъдат налични за закупуване.

Nvidia дразнеше своя Grace-Hopper Superchip в началото на 2022 г., но както разбираме, тези части едва сега си проправят път в ръцете на клиентите. Така че можем да имаме повече подробности за базираните на Blackwell части още в GTC.

Intel посреща новата година с изцяло нов собствен ускорител

Придържайки се към темата за ускорителите, Intel е планирано да разкрие своето трето поколение Gaudi AI чипове някъде през 2024 г.

Участието е важно, тъй като с отмяната на моста Риалто, наследника на Понте Векио, Gaudi3 на Habana Lab представлява най-доброто, което Intel може да предложи на арената за обучение и изводи на AI – поне докато Falcon Shores пристигне през 2025 г.

Докато Nvidia и AMD имат навика да дразнят и рекламират своите продуктови издания в продължение на месеци, Intel беше изключително мълчалив относно тази част. По-голямата част от това, което видяхме досега, идва от този презентационен слайд, който показва най-малко от събитието за иновации през септември:

Most of what we know about Intel's third-gen Guadi accelerator comes from this slide.

Слайдът твърди, че Gaudi3, 5nm чип, ще има 4 пъти по-висока производителност на Brain Float 16 (BF16) от 7nm версия 2, плюс два пъти по-голяма честотна лента на мрежата и 1,5 пъти по-висока честотна лента на HBM.

Обикновено тези цифри ще ни дадат отправна точка за екстраполиране на относителни данни за ефективност. За съжаление, за да направи това, Intel ще трябва да ни каже какво всъщност е представянето на BF16 на Gaudi2. Попитахме и те не искат да говорят за това, въпреки че твърдят, че 4x подобрение в Gaudi3. Вместо това Intel иска да се съсредоточи върху производителността в реалния свят, а не върху сравненията с бенчмаркове.

Това е откровено объркващо маркетингово решение, тъй като твърдението по същество е безсмислено без референтна рамка. Освен това, както изглежда, този път x86 гигантът използва осем HBM стека вместо шест.

В допълнение към Gaudi3, казаха ни, че ще има версия на Gaudi2, намалена – отново – за китайския пазар (за да остане от дясната страна на експортните ограничения на САЩ за нацията) и Intel твърди, че ще я достави преди Слуховете за чипове H20 на Nvidia стигнаха до континента.

Intel се присъединява към екипа на облачните процесори със Sierra Forest

Междувременно на фронта на процесора, Intel има двойна функция, планирана за 2024 г., която ще използва своята дълго отлагана технология за процеси Intel 3. За да бъде ясно, Intel не е направила внезапен скок към 3nm. Той работи върху този възел, който наричаше 7nm, от години. В крайна сметка той беше преименуван на Intel 4 и Intel 3, за да се доближи по маркетингова линия до плътността на транзисторите на конкурентните възли.

Ще получим първия от тези базирани на Intel-3 процесори Xeon през първата половина на 2024 г. С кодовото име Sierra Forest, чипът може да бъде оборудван с чифт 144-ядрени матрици за общо 288 CPU ядра на сокет. Естествено, това не са същия клас ядра, които сме виждали в минали Xeon. Те са еволюция на архитектурата на ядрото за ефективност на Intel, която започна да се появява в процесорите за компютри и преносими компютри през 2021 г. с пускането на пазара на Alder Lake .

Но докато тези чипове обикновено са придружени от набор от ядра за производителност, Sierra Forest е изцяло с електронни ядра и е проектиран да се конкурира с Ampere, AMD и множество персонализирани процесори Arm, които се внедряват от облачни доставчици като AWS и Microsoft.

The e-cores used in Intel's Seirra Forest Xeons will feature a streamlined core architecture optimised for efficiency and throughput

Електронните ядра, използвани в Sierra Forest Xeons на Intel, ще разполагат с рационализирана основна архитектура, оптимизирана за ефективност и производителност

Твърденото предимство на Intel е, че може да опакова повече ядра в един сокет или шаси от всеки друг, като същевременно поддържа съвместимост с повечето x86 бинарни файлове. Казваме мнозинството, защото е-ядрата нямат същия набор от функции като миналите Xeon.

Две от най-големите разлики е пълната липса на поддръжка на AVX512 и Advanced Matrix Extension (AMX). Аргументът тук е, че много от работните натоварвания, които виждаме широко разгърнати в облака – неща като Nginx – не се възползват непременно от тези функции, така че вместо да отделят голямо количество пространство за големи векторни и матрични изчисления, това пространство вместо това може да се използва за пакетиране на повече ядра върху всяка матрица.

Не всяка къща за чипове обаче е съгласна с този подход. AMD възприе много различен подход със своя Bergamo Epycs, пуснат през пролетта на 2023 г. Тези сървърни процесори използваха компактна версия на ядрото Zen 4 на AMD, наречено Zen 4c, което размени тактовите честоти за по-малък отпечатък. Това позволи на AMD да опакова 128 ядра в осем изчислителни матрици на процесорен пакет, без да жертва функционалността.

И двата подхода имат достойнства. В зависимост от хипервайзора, липсата на определени функции на процесора може да направи мигрирането на работни натоварвания от една кутия в друга проблематична. Intel се надява да преодолее това с AVX10, в който се потопихме дълбоко през лятото. Накратко, той е проектиран да поддържа много от по-привлекателните функции, като поддръжка на FP16 и BF16, от AVX512 към AVX2. Резултатът е, че е по-малко вероятно да се натъкнете на този вид проблеми с миграцията, освен ако наистина не се нуждаете от 512-битови векторни регистри.

Intel слиза на земята с Granite Rapids

Преминавайки към по-малко известни територии, има Granite Rapids Xeons на Intel, които трябва да се появят по-късно през 2024 г. Докато Sierra Forest дава приоритет на много малки ядра, Granite Rapids е по-традиционен сървърен процесор Xeon, изграден около ядрата за производителност на x86 гиганта.

Все още не знаем колко ядра ще има или колко бързи ще бъдат частите от най-горния бин, но ни казаха, че ще бъде повече от Emerald Rapids. Знаем, че чипът ще разполага с по-модулна чиплетна архитектура от Sapphire или Emerald Rapids, с до пет матрици – три изчислителни и две I/O – на пакет.

В зависимост от SKU, чипът ще включва повече или по-малко изчислителни матрици, позволявайки на Intel да се възползва от модулността, на която AMD се радва от години. Преди това Xeons от 2023 г. имаха или една голяма матрица със среден брой ядра (MCC), или две големи (Emerald) или четири по-малки (Sapphire) изчислителни матрици на така наречените матрици за „изключителен брой ядра (XCC).

Intel's 6th-Gen Xeon Scalable processors will come in e-core and p-core verions and support up to 12 channels of DDR5

Процесорите Xeon Scalable от 6-то поколение на Intel – Sierra Forest и Granite Rapids – ще се предлагат във версии с e-core и p-core и ще поддържат до 12 канала DDR5 или поне така ни е обещано

Xeons от следващо поколение на Intel разделят входно/изходната функционалност в двойка матрици, които свързват изчислението. Тези входно/изходни матрици са важни, тъй като помагат да се намали разликата с AMD, която не само има предимство в броя на ядрата през последните пет години, но обикновено предлага повече, по-бързи PCIe ленти и канали за памет.

Както научихме по време на конференцията Hot Chips през 2023 г., Granite Rapids ще разполага с 12 канала за памет — същото като Epyc 4 на AMD — и ще поддържа 8800MT/s MCR DIMMS. MCR е доста страхотен, тъй като ще позволи на чипа да достави 845GB/s честотна лента на паметта към чипа. Това не е точно 1TB/s, на който са способни частите на Xeon Max от 4-то поколение на Intel с техния вграден HBM, но MCR DIMMS ще се доближи и ще позволи значително по-висок капацитет.

Семейството чипове също ще поддържа до 136 PCIe / CXL ленти, но само при скорости на PCIe 5.0. PCIe 6.0 може да се появи през 2024 г., но не навреме за „следващото поколение“ Xeons на Intel.

Zen 5 на AMD пристига

След това, разбира се, AMD трябва да пусне Turin, своето пето поколение сървърни процесори Epyc, задвижвани от нови Zen 5 ядра. На този етап не можем да кажем много за тази част, освен че идва някъде през 2024 г.

Имайки предвид времето, можем да направим няколко предположения. Бихме се обзаложили, че чипът ще използва или 4nm, или 3nm технология на TSMC в своите изчислителни плочки, но е трудно да се каже дали I/O матрицата все още ще получи свиване на процеса.

An image showing AMD's roadmap for Epyc server CPUs through 2024.

Най-новата пътна карта на сървъра Epyc на AMD

Отвъд това можем само да посочим скорошни течове , споделени чрез Xitter, които предполагат, че AMD може отново да увеличи броя на ядрата в своята гама. Ако течовете са верни, може да гледаме процесори Epyc с до 128 ядра Zen 5 или 192 ядра Zen 5c.

Самите матрици с ядрени комплекси (CCD) изглежда не са се променили много от Genoa и Bergamo с осем или 16 ядра съответно на чиплет. Вместо това се съобщава, че AMD ще използва 16 изчислителни матрици за общото си предназначение и 12 изчислителни матрици, ориентирани към облака, за да постигне заявения брой ядра. Като казахме това, ще трябва да изчакаме и да видим дали течовете са точни.

Продуктовата линия Eypc на AMD стана по-сложна през последните години, като сега обхваща приложения с общо предназначение, високопроизводителни изчисления, облачни и крайни приложения. AMD традиционно пусна тези чипове в продължение на около година. Epyc 4 стартира през ноември 2022 г., Bergamo и Genoa-X пристигнаха през юни 2023 г., а неговите части, фокусирани върху Сиена, се появиха едва през септември.

Очакват изненади

За да бъдем напълно ясни, това в никакъв случай не е изчерпателен списък на процесорите за центрове за данни, идващи през 2024 г. Напълно очакваме да има повече от няколко изненади през следващите дванадесет месеца, особено когато влакът на AI набира скорост и облачните доставчици продължават да прегърнете персонализирания силикон.

Microsoft наскоро се впусна в персонализираното AI и CPU пространство, докато Google вече има няколко поколения тензорни процесори и се говори, че работи върху собствен CPU.

Ще наблюдаваме и усилията на Arm да прокара своята основна архитектура Neoverse и IP стекове на Compute Subsystems (CSS). Последното е най-близкото, което сме виждали Arm да стига до проектирането на цял процесор в съвременните времена.

Има и множество полупроводникови стартиращи фирми, като Ampere, Graphcore, Cerebras, SambaNova, Groq и други, които искат да намерят ниша в новия световен ред на AI. Едва ли ще се изненадаме да видим нов силиций, продукти и системи от някой от тези доставчици през 2024 г. ®

Правителството на Обединеното кралство изготвя план за отклоняване на счупените машини на хората от депата

0

Правителството на Обединеното кралство се надява да улесни хората при повторната употреба и рециклирането на електрически стоки, вместо да изпраща старо оборудване на депото.

Този ход следва приемането на законодателство за правото на ремонт [ PDF ], голяма част от което влезе в сила на 1 юли 2021 г. – въпреки че на производителите беше даден двугодишен гратисен период, за да предоставят резервни части и други подобни. За съжаление, правилата са насочени предимно към бяла техника – помислете за съдомиялни машини – вместо към таблети, лаптопи и смартфони.

Законът отразява разпоредбите на ЕС; Европейската комисия в началото на миналата година също добави смартфони и таблети към списъка с устройства, които трябва да бъдат ремонтирани.

Америка предприе стъпки, за да гарантира, че някои gizmos могат да бъдат поправени, въпреки че напредъкът беше малко спиране, тъй като някои елементи от индустрията се противопоставиха на идеята да се позволи на гражданите да поправят собствения си комплект, вместо да купуват заместители.

Обратно в Обединеното кралство и най-новите планове са свързани с това колко стари електрически стоки се изхвърлят. „500 тона коледни светлини се изхвърлят всяка година в Обединеното кралство“, гръмнаха официални лица, заобикаляйки елегантно съвременната празнична дилема да прекарват часове в разплитане на кабел, който може или не може все още да произвежда цветна светлина и е прекарал 12 месеца да лежи в шкаф вместо просто да поръчате нов от произволен брой търговци на дребно.

Въпросът, който се разглежда, е какво да правим с този кабел, който има една повредена светлина. Вместо гневно да го изхвърлите в кофа за боклук, предназначена за депониране, предложението е в Обединеното кралство да има събиране на отпадъчно електрическо оборудване директно от домакинствата, спестявайки на хората разходката до най-близкото общинско съоръжение. Тази услуга ще бъде финансирана от производителите на хардуер, а не от данъкоплатеца.

Правителството също така предложи пунктове за събиране в големите търговци на дребно, където счупеното оборудване може да бъде оставено без изискване за закупуване на ново, и постави изискване големите, по-стари електрически артикули да се събират за рециклиране, когато се достави нов артикул.

Ще мине обаче известно време, преди нещо наистина да се случи. В ход е десетседмичен процес на консултации, в който Министерството на околната среда, храните и селските въпроси ще се събере с индустрията, за да обмислят какво да правят.

Въпреки че статистиката е тревожна – правителството извади цифри, показващи четирикратно увеличение на изхвърлянето на парфюми, например, което възлиза на „пет милиона на седмица“ – по-тревожно за техничарите навсякъде е осъзнаването, че касите с безполезни технологиите, събрани през целия живот, наистина трябва да бъдат разгледани.

Министърът по рециклирането Роби Мур каза: „Ние всички имаме някъде чекмедже със стари технологии, с които не знаем какво да правим, и нашите предложения ще гарантират, че тези джаджи са лесни за изхвърляне, без да е необходимо да ходите до местния съвет.“

Вашият скромен хак има няколко чекмеджета със стари технологии и кабели, трупани в продължение на десетилетия, „защото никога не се знае“. Опасяваме се, че улесняването на изхвърлянето им няма да се справи с основния проблем. ®

NAT, ATM, децентрализирано търсене – и други възмутителни мнения от 90-те години

0

Системен подход Краят на годината често е време за хората в областта на технологиите да правят прогнози, но вместо да правим свои собствени, днес ще погледнем назад към някои от смелите прогнози от миналото – по-специално встъпителната сесия на Outrageous Opinion, проведена в SIGCOMM през 1995 г.

Един от най-трайните ми приноси към общността на SIGCOMM би трябвало да бъде моята беседа за скандално мнение през 2003 г.: MPLS се счита за полезен . Двадесет години по-късно все още срещам хора, които си спомнят главната фраза: „Не съм горчив“. Подозирам, че това ще се помни много по-дълго от моя четиригодишен мандат като председател на SIGCOMM.

По-малко известен факт е, че председателствах първата сесия на SIGCOMM Outrageous Opinion наSIGCOMM 1995 . (Друг забавен факт от тази конференция: Марк Андреесен трябваше да даде урок по същото време като мен, но той се отказа в последния момент, като се позова на натиска на бизнеса – IPO-то на Netscape се проведе две седмици по-рано. Взех в резултат на това куп разочаровани присъстващи на моя урок за smartNIC.)

Докато скандалните сесии за мнение впоследствие се обърнаха към стендъп комедия, през тази първа година имаше куп доста сериозни (и въпреки това забавни) разговори, които останаха в паметта ми.

Често се връщам към речта на Дейвид Кларк, Всички трябва да станем икономисти. Вече добре утвърден като „архитект на интернет“, Дейвид започна да се разклонява в области на икономиката и политиката, със забележителни произведения, включително „Осъществяване на информационното бъдеще“ , което изтъкна пред широка аудитория, че интернет е подходящата архитектура за информационната супермагистрала. Днес това може да изглежда очевидна истина, но по онова време имаше много поддръжка за алтернативни архитектури, базирани на еволюирали версии на телефонната мрежа (помислете за широколентов ISDN) или на мрежата за кабелна телевизия.

Неговата по-късна статия [ PDF ] с Марджори Блументал – Преосмисляне на дизайна на Интернет: Аргументи от край до край срещу Прекрасния нов свят – е прекрасно изследване на напрежението между идеализираната архитектура на Интернет и търговския натиск, който дойде да се справи с нея, след като стане основна комуникационна платформа. Въпреки че има няколко неща, които са по-дразнещи от хората в областта на технологиите, които обсъждат икономика от позиция на невежество, Дейвид изтъкваше, че трябва да направим повече, за да се образоваме по икономика, и ми се иска повече от нас да бяха послушали съвета му.

Също толкова запомнящо се беше изказването на Пол Франсис, друг пионер в интернет, чието влияние обхваща разнообразни теми като мащабируемо мултикаст , IPv6 и разпределени хеш таблици .

По това време бяхме в ранните дни на интернет търсенето – Google все още оставаше на три години от основаването си, а AltaVista беше вътрешен проект за индексиране на цялата мрежа в DEC (пуснат за света по-късно същата година). Пол се обърна към мен с две теми, които искаше да представи: най-новото му изследване върху мащабируемото търсене в интернет, което той беше нарекъл Ingrid [ PDF ], и превода на мрежови адреси (NAT).

Бях доста по-благосклонен към второто, защото това беше много гореща тема по онова време, Пол беше приписван на изобретението му и той имаше забавен начин да представи своя аргумент. Креативен човек, какъвто е, Пол намери начин да съчетае двете теми в една беседа.

Същността на частта от неговата реч за NAT беше, че преобладаващият възглед на IETF за NAT по това време – не правете NAT – трябва да се разглежда като аналог на сексуалното възпитание само за въздържание. Колкото и да вярваха в правилността на позицията си хората, които дават съвети, те нямаше да окажат голямо влияние върху резултата. Погледнато назад, той очевидно беше прав: повечето интернет потребители в света днес седят зад едно или повече NAT устройства, но позицията му беше много по-противоречива по онова време.

Повечето от световните интернет потребители днес седят зад едно или повече NAT устройства, но позицията му беше много по-противоречива по онова време

В крайна сметка животът с NAT стана по-важен от предотвратяването му и днес има цяла работа по преминаването на NAT , която ни позволява да се справяме с него доста безболезнено.

Имах причина да се връщам към другата част от речта на Пол по-често, поради начина, по който резонира днес, когато се занимаваме с централизацията на интернет и неотдавнашните усилия за повторното му децентрализиране .

Докато ранните търсачки бяха централизирани – например, AltaVista очевидно беше разработена, за да покаже възможностите на мощен сървър на база данни DEC – Пол твърдеше, че децентрализиран подход към търсенето ще бъде необходим, когато мрежата излетя. (Припомнете си, че това беше същата година като IPO на Netcape.)

Отново беше прав, но Google в крайна сметка щеше да достави изключително успешна разпределена система за индексиране и търсене в мрежата и да я постави зад логично централизиран преден край. Така че докато техническото решение наистина беше децентрализирано, потребителското изживяване е централизирано: просто отидете на Google.com и задайте въпроса си. И разбира се, това е мястото, където се намира най-вече мрежата днес, 25 години по-късно: разпределените системи вършат работата под завивките, но средният потребител взаимодейства с шепа централизирани субекти, като титаните на социалните медии и стрийминг услугите.

Аз съм предпазлив оптимист, че виждаме обръщане на тази тенденция, особено с обединените социални медии, но поглеждам назад с носталгия към ерата, когато изглеждаше възможно самото търсене да бъде децентрализирано. Тъй като вече е все по-очевидно , че търсенето се влошава, все още можем да се надяваме. Освен това идеята, че децентрализираните технологии сами по себе си не ни предпазват от опасностите на централизирания контрол на технологиите (напр. собствеността върху търсенето или социалните медии от малък брой компании) е нещо, което развих допълнително в моя доклад за 60 години работа в мрежа по-рано тази година.

Спомням си, че имаше много разговори за относителните предимства на ATM и IP. Това изглежда трудно за разбиране днес

И накрая, мога да си спомня, че имаше много разговори за относителните предимства на ATM и IP. Това изглежда трудно за разбиране днес, където интернет достига около половината от световното население и ATM е малко повече от историческа бележка под линия в голямата колекция от OSI технологии на ниво две, които IP е приспособил. Както предполагат моите коментари по-горе, през 1995 г. далеч не беше ясно, че нещата ще се развият по този начин.

В този момент залагах във всяка посока, тъй като работех върху банкомат в Bellcore (собственост на телекоми), но вярвах, че до 1995 г. банкоматът ще бъде възприет като субстрат за част от интернет, а не самостоятелна мрежова технология, която ще замени IP . Наистина, фокусът ми върху IP-over-ATM ми даде възможност да се присъединя към Cisco по-късно същата година, тъй като те увеличиха инвестициите си в превключване на банкомати. Това в крайна сметка щеше да ме приземи в екипа, който разработи MPLS – друга технология, която, подобно на NAT, се сблъска с голяма опозиция в IETF, но днес е широко разпространена.

Фактът, че помня толкова много от онази вечер през 1995 г. (докато не помня почти нищо от урока, който дадох), има много общо с това колко провокативни, насочени към бъдещето и точни бяха много от мненията. Мисля, че някои от разговорите в по-късните години може да са били по-забавни, но огромното количество предсказваща точност на тези, които си спомням от 1995 г., е поразително. (Без съмнение съм забравил някои разговори, които бяха напълно неоснователни.)

Коментарите на Дейвид Кларк за икономистите продължават да резонират, докато спорим за неутралността на мрежата и чуваме искания от телекомите да бъдат компенсирани не само от техните клиенти, но и от доставчиците на съдържание. Повишената централизация на интернет също е отчасти икономически феномен (победителят получава всичко). В настоящите дебати за бъдещето на конференцията SIGCOMM и по-широко, докато се стремим да оформим интернет на бъдещето, се надявам да запазим място за възмутителни мнения. ®

Време ли е вече за 6G? Анализът на трафика казва да

0

Коментар Ако смятате, че 5G мрежите не са изпълнили обещанието си, не сте сами. Но технологията все още е в началото на внедряването, въпреки че някои в мобилната индустрия вече гледат какво може да последва.

Първият пълен набор от 5G стандарти дойде с 3GPP Release 15 през 2017 г., като спецификациите бяха официално замразени през 2018 г. Ранното внедряване на мрежата дойде през следващата година и много от операторите по света все още са заети с пускането й до ден днешен.

Някои може да кажат, че 5G не отговаря на първоначалния шум около технологията. Беше рекламиран като доставящ не само драматична промяна в скоростите на изтегляне, но се очакваше да даде възможност за множество нови приложения като разширена реалност (XR) и да постави началото на нова ера на свързани устройства.

5g

Ако смятате, че 5G е прекалено рекламиран, изчакайте, докато срещнете 5.5G

ПРОЧЕТЕТЕ ОЩЕ

Но както писахме в края на миналата година , 5G все още е сравнително рано в своето внедряване и много мрежи – особено в Обединеното кралство – го внедриха първоначално, като добавиха 5G радио антени към съществуващата инфраструктура. Тъй като ядрото на мрежата се надгражда, за да поддържа това, което се нарича 5G Standalone , 5G мрежите ще се подобряват.

Анализаторът на Gartner Бил Менезес ни каза по това време: „Тъй като операторите продължават да обновяват мрежите си за 5G самостоятелна технология, потребителите все повече ще изпитват обещаните подобрения в скоростта и надеждността.“ Той добави, че са необходими около три до пет години, за да се разгърне напълно ново мобилно поколение.

5G поне осигурява по-високи скорости в зависимост от местоположението. Въпреки че средните скорости, които потребителите в Обединеното кралство вероятно ще видят, са по-ниски от това, на което е теоретично способен – някъде между 75 Mbps и 240 Mbps според някои оценки – това е многократно по-бързо от 4G.

Междувременно индустрията не стои неподвижна и 3GPP Release 18 бележи началото на 5G-Advanced, който се очаква да бъде замразен в началото на 2024 г. и финализиран през лятото. Предвижда се това да донесе редица еволюционни подобрения, както и нови функции, които може да се справят с ограниченията на първоначалното внедряване на 5G.

5G-Advanced въвежда поддръжка за неназемни мрежи (като сателитни връзки), увеличавайки покритието в отдалечени и селски райони и се твърди, че предлага по-добри скорости на връзката нагоре.

Докато мобилната широколентова връзка и интернет на нещата (IoT) бяха задържани като случаи на използване на 5G, 5G-Advanced обещава да повиши производителността на мобилната широколентова връзка, поддръжка за нови приложения и да подобри автоматизацията на интелигентната мрежа, поне според бяла книга , поръчана от телекомуникационния екип на Ericsson .

Допълнителната производителност идва от MIMO (множествен вход, множество изходи) капацитет на сигнала, който се повишава както в връзката нагоре, така и в връзката надолу с поддръжка за подобрени референтни символи за демодулация.

Рекламираните нови приложения са разширена реалност (отново) за приложения, включително дистанционно управление и индустриална автоматизация, плюс позициониране на закрито и IoT. Според Ericsson производителността на услугите за разширена реалност идва от поддръжката в ядрото на 5G мрежата за адаптиране на скоростта на данни, използвайки системата с ниска латентност и ниски загуби (L4S).

Казано ни е, че интелигентната мрежова автоматизация трябва да използва техники за изкуствен интелект и машинно обучение, за да подобри производителността на мрежата, подобно на AIOps в центровете за данни. Напредъкът в основната архитектура на 5G мрежата за анализи и събиране на данни трябва да служи като добра основа за техники, базирани на AI/ML, според бялата книга.

Китайският технологичен гигант Huawei заяви през юни, че следващата година ще пусне целия комплект, необходим на мрежовия оператор, за да управлява 5G-Advanced мрежа, въпреки че по някаква причина обозначава технологията като 5.5G, за раздразнението на малцина в индустрията .

Но може би 5.5G не е толкова лошо име: Ericsson разглежда 5G-Advanced като стъпало към бъдещите 6G мрежови стандарти. Тази технология от следващо поколение е далече, като спецификациите вероятно няма да бъдат уредени до някъде около 2028 г., а първоначалните внедрявания са условно набелязани за 2030 г.

Въпреки това органът за стандарти 3GPP – всъщност група чадър за седем глобални организации за телекомуникационни стандарти – вероятно ще започне ранна работа по 6G през 2024 г.

И така, какво можем да очакваме да видим от 6G мрежите? Повече от същото, изглежда на пръв поглед – по-високи скорости, по-разпространени мрежи, повече поддръжка за взискателни приложения като разширена реалност. Така че наистина ли имаме нужда индустрията да предостави още един мрежов стандарт?

Според Питър Ветер, президент на Bell Labs Core Research в Nokia, със сигурност го правим, дори само заради по-голямата енергийна ефективност, която индустрията се стреми да осигури за 6G мрежи.

„Това е важен изследователски въпрос, защото можем да видим, че мобилният трафик ще се увеличи през следващото десетилетие с коефициент 10 или дори коефициент 20. Така че, ако не направим нищо, консумацията на енергия на базовата станция ще се повиши с коефициент 10 или 20“, каза Ветер пред The Register .

Целта е да се намали наполовина общата консумация на енергия на мобилните мрежи с 6G, което означава, че енергийната ефективност ще трябва да се подобри с коефициент 40, ако мрежовият трафик се повиши с коефициент 20.

„Това изисква някои фундаментални изследвания и дори ако има хора, които казват, че не се нуждаем от 6G, ние казваме „да, имате нужда от 6G“, защото анализът на трафика показва, че 5G ще се изчерпи до края на десетилетието“, каза Ветер. Това, подчерта той, означава, че 5G мрежите няма да имат капацитета да се справят с увеличаването на трафика.

Nokia се застъпва за 6G спектър точно над сегашния среден обхват за 5G (1-6 GHz), тъй като това ще позволи разгръщане от съществуващи клетъчни сайтове, добави той, и това ще изисква широкомащабни антенни решетки, които могат по-добре да насочват електромагнитна енергия.

(Ключова тема на дискусия на неотдавнашната Световна радиокомуникационна конференция на ITU, WRC-23 , се казва, че е използването на честотната лента 7-15 GHz като основен спектър за 6G.)

„Имаме нужда от нови концепции като хибридно формиране на лъч, нови алгоритми и режими на заспиване и заглушаване на антената“, каза Ветер, „така че има всякакви концепции за подобряване на енергийната ефективност в абсолютни числа.“ Според Telefonica 5G мрежите вече са с до 90 процента по-енергийно ефективни на единица трафик от по-старите мрежи, с до 70 процента от цялата консумация на енергия в мрежата за радио достъп (RAN).

Една идея за енергийна ефективност е използването на AI за управление на инфраструктурата, както се рекламира в 5G-Advanced мрежи. Това не само ще се грижи за основната мрежа, но и за безжичния въздушен интерфейс на базовите станции, където може да се използва за научаване на условията на канала и как да се коригира конфигурацията за оптимална производителност.

Vetter твърди, че Nokia вече е тествала доказателство за концепцията за това, което показва, че мрежите могат да получат 30 процента по-добър капацитет през същия радиоканал, използвайки AI в базовите станции.

Nokia е водещият разработчик на 6G-ANNA , „проект на фара“, финансиран от германското правителство, насочен към стимулиране на глобални дейности по предварителна стандартизация за 6G. Други компании, които участват, включват Vodafone, Siemens, Ericsson и Bosch.

Ранните концепции за 6G по този проект предвиждат пикови скорости на данни над 100 Gbps, в зависимост от използвания спектър, но това може да варира в зависимост от спектъра, наличен в различните региони.

Други концепции за бъдещи 6G мрежи включват мрежово отчитане и още по-голяма свързаност за индустриална автоматизация и IoT проекти. Мрежовото наблюдение включва мрежата, използваща свои собствени радиосигнали за наблюдение на околната среда, каза Ветер.

„Всички тези радиосистеми около нас, те могат да се използват и като сензор. Ако сте умни в това, можете да използвате съществуващите базови станции, за да наблюдавате хора и неща, за да оптимизирате движението на летище или в градска среда“, каза той .

Nokia изгради доказателство за концепцията, използвайки съществуваща 5G базова станция, хакната да работи като радар, и изследователите успяха да локализират хора и да открият движение с точност по-малка от метър, твърди Ветер.

От страна на свързаността, Nokia вярва, че безжичните мрежи в крайна сметка ще заменят кабелната свързаност, дори в корпоративните и индустриалните сектори, което може да постави по-големи изисквания към тях за поддръжка на всички тези устройства. Поради тази причина плановете са 6G да поддържа 10 пъти повече свързани устройства от 5G, каза Ветер.

6g

Рекламите на интернет доставчика „подвеждащо загатват“ за съществуването на 6G, казва наблюдателят

ПРОЧЕТЕТЕ ОЩЕ

Като цяло, концепциите за 6G досега изглежда се съсредоточават върху мобилните мрежи, които стават все по-разпространени и създават капацитет и производителност за взискателни приложения като телеприсъствие, както и свързване на безброй сензори и устройства извън телефоните.

Но всичко това струва пари по отношение на долари за научноизследователска и развойна дейност, в допълнение към изграждането и внедряването на инфраструктурата. Неотдавнашна статия във Financial Times изчислява, че разходите на мрежовите оператори ще се забавят през следващата година и че операторите искат да видят по-добра възвръщаемост на съществуващите си инвестиции в 5G, преди да обмислят допълнителни скъпи надстройки на мрежата.

И тук идва проблемът: тази позиция може да се окаже несъстоятелна, тъй като операторите изпитват натиск да продължат да инвестират от страх да не изостанат от конкурентите – същата динамика, както при предишни внедрявания в индустрията на мобилните мрежи.

Би било хубаво обаче, ако всеки може да получи приличен 5G усъвършенстван сигнал в своя район, преди индустрията да започне да надува новото поколение мрежов балон. ®

New York Times съди OpenAI, Microsoft за „милиони статии“, използвани за обучение на ChatGPT

0

New York Times съди Microsoft и OpenAI, твърдейки, че дуото е нарушило авторските права на вестника, като е използвало неговите статии без разрешение за изграждане на ChatGPT и подобни модели. Това е първата голяма американска медийна компания, която завлече техническата двойка в съда заради използването на истории в данните за обучение.

Както при подобни искове – включително действия , предприети от различни артисти и създатели, като Сара Силвърман – жалбата на NYT [PDF] се съсредоточава около използването на защитен с авторски права материал – в този случай от The Times – в обучението на големи езикови модели (LLMs ) зад различни чатботове на Microsoft и OpenAI и генериращи AI услуги.

Жалбата призовава Microsoft не само за инвестицията, която е направила в OpenAI, но и за помощници като Microsoft 365 Copilot и Bing Chat, за които се твърди в жалбата: „Показване на съдържанието на Times в генериращ изход най-малко по два начина: (1) чрез показване на „запаметени“ копия или производни на произведения на Times, извлечени от самите модели, и (2) чрез показване на синтетични резултати от търсене, които са по същество подобни на произведенията на Times, генерирани от копия, съхранени в индекса за търсене на Bing.“

Вестникът е доста разстроен, че „милиони“ от неговите защитени с авторски права статии са били събрани, за да формират част от моделите на Microsoft и OpenAI без разрешение, и че тези невронни мрежи ще възпроизвеждат тази работа при поискване от потребителите, отново без разрешение.

В жалбата си NYT дава примери, за които твърди, че доказват, че ChatGPT е бил обучен за неговото съдържание. Освен това изглежда, че един прост въпрос към ChatGPT за избягване на платена стена води до отговори, съдържащи защитен с авторски права текст.

И това е избягването на платената стена на изчерпването на съдържанието на OpenAI, което привлече особено внимание. Според жалбата вестникът е започнал да крие работата си зад платена стена преди 12 години и към третото тримесечие на 2023 г. е предявил претенции към 10,1 милиона цифрови и печатни абонати. Целта е този брой да се увеличи до 15 милиона до края на 2027 г.

Случайните читатели също са обслужени, с безплатен достъп до ограничен брой статии, преди да бъде поискан абонамент. NYT смята, че привлича от 50 до 100 милиона потребители на седмица с такъв подход, като рекламата допълнително пълни хазната му.

Жалбата обяснява: „Таймс зависи от своите изключителни права за възпроизвеждане, адаптиране, публикуване, представяне и показване съгласно закона за авторското право, за да се противопостави на тези сили. Таймс регистрира авторските права в своето печатно издание всеки ден в продължение на повече от 100 години, поддържа paywall и е въвел условия за ползване, които определят ограничения върху копирането и използването на неговото съдържание. За да използвате съдържанието на Times за търговски цели, дадена страна трябва първо да се обърне към The Times за лицензионно споразумение.“

Въпреки това, за да привлече трафик към своя сайт, NYT също така позволява на търсачките да имат достъп и да индексират съдържанието му. „Присъща на този обмен на стойност е идеята, че търсачките ще насочват потребителите към собствените уебсайтове и мобилни приложения на The Times, вместо да експлоатират съдържанието на The Times, за да задържат потребителите в тяхната собствена екосистема за търсене.“

За да използва съдържанието на Times за търговски цели, една страна трябва първо да се обърне към The Times за лицензионно споразумение

Times добави, че никога не е позволявал на никого – включително Microsoft и OpenAI – да използва съдържанието му за генериращи AI цели. И в това се крие проблемът. Според вестника, той се е свързал с Microsoft и OpenAI през април 2023 г., за да се справи с проблема по приятелски начин. В него се заявява направо: „Тези усилия не доведоха до резолюция“.

И така се оказваме с оплакване, което твърди „бизнес модел, базиран на масово нарушаване на авторски права“ и описва подробно пътя на OpenAI от началото му като „компания за изследване на изкуствения интелект с нестопанска цел“ през 2015 г. до днешния гигант.

Според жалбата: „Въпреки ранните си обещания за алтруизъм, OpenAI бързо се превърна в многомилиарден бизнес с печалба, изграден до голяма степен върху нелицензираната експлоатация на защитени с авторски права произведения, принадлежащи на The Times и други.“

И така, какво да правя? Не е изненадващо, че NYT търси обезщетение. Той също така изисква съдебен процес и иска съдът да разпореди унищожаването на „всички GPT или други модели на LLM и комплекти за обучение, които включват произведения на Times“.

По-рано този месец Axel Springer и OpenAI обявиха план за предоставяне на резюмета на съдържанието на първия – включително платено съдържание – от продуктите на последния, включително ChatGPT. Планът е да се гарантира, че отговорите на потребителските запитвания включват приписване и връзки към пълните статии.

На каква стойност е сделката не е ясно. Според Financial Times става дума за осемцифрена сума. Както е отбелязано в жалбата си, NYT също е провел дискусии, но очевидно резултатът е бил незадоволителен. ®