дом блог страница 21

Amazon вече има колосален рекламен бизнес и ще го разшири до Prime Video през януари

0

Анализ Amazon.com изпрати имейл на абонатите на своята услуга Prime Video, поне в Америка, за да ги уведоми, че рекламите ще започнат да се показват в техните филмови и телевизионни потоци от 29 януари – освен ако не платят повече.

Prime Video е една от няколкото услуги, включени в Amazon Prime, схемата за лоялност на електронния гигант, която включва безплатна доставка на много артикули, поточно предаване на музика, безплатен достъп до някои електронни книги и отстъпки за определени продукти. Услугата струва $14,99 на месец за клиенти в САЩ.

Amazon предлага поточно видео от средата на 2000-те под различни марки, но пусна Prime Video през 2016 г. и започна да създава собствено съдържание за услугата. Amazon предлагаше услугата като самостоятелно предложение за известно време, в пряка конкуренция с подобни на Netflix, но по-късно я направи част от цялостното си предложение Prime.

Prime Video се справи добре оттогава, продуцирайки много предавания, които спечелиха одобрението на критиците и значителна аудитория, без да създават шоута, определящи духа на времето, като Stranger Things на Netflix или Succession на HBO. Това не беше поради липса на опити: Смята се, че Amazon харчи 7 милиарда долара годишно за съдържание за Prime Video и че е похарчил поне 200 милиона долара само за правата да прави шоута, базирани на Властелинът на пръстените .

Съобщава се , че през юли 2023 г. главният изпълнителен директор на Amazon Анди Джаси е посетил Amazon Studios, базираното в Холивуд подразделение на уеб гиганта за съдържание, за да научи повече за неговите операции и дали те представляват стойност за парите.

Не след дълго, през септември 2023 г., Amazon обяви , че ще включи реклами в Prime Video, но също така ще въведе опция за 2,99 $/месец без реклами.

През последните няколко дни абонатите на Prime получиха имейли, уведомяващи, че рекламите ще започнат на 29 януари 2024 г. Както можете да си представите, голям брой потребители на мрежата станаха балистични .

Amazon не е описал как рекламите ще се намесят в стрийминг програмирането, освен че възнамерява да показва „значително по-малко реклами от линейната телевизия и други доставчици на стрийминг телевизия“.

Защо да добавяте реклами?

Когато стриймингът на видео стана известен, липсата на реклами беше голяма продажна точка и приятен контраст с кабелните телевизионни услуги, които таксуваха съдържание, но също така вмъкваха реклами.

Но стриймингът в глобален мащаб не е евтин и с навлизането на повече играчи на пазара броят на абонатите замря или дори намаля. За компании като публично търгуваната Netflix това означаваше, че инвеститорите искат да видят нови източници на приходи. Единият дойде от репресиите срещу споделянето на пароли, което на теория насърчи повече абонаменти. Включването на реклама в най-евтините планове беше друго.

Решението на Amazon да добави реклами също изглежда произтича от мотива за печалба, който знаем, защото по време на обаждането за приходите на електронния гигант за третото тримесечие на 2023 г. Анди Джаси направи следните наблюдения:

Регистърът смята, че този цитат предполага, че Prime Video не е печеливш днес и че макар да е на път към други услуги на Amazon, той не си плаща пътя само като пържени картофи с това предложение.

Следователно рекламите имат потенциала да помогнат на Prime Video да реализира печалба.

Рекламите също са бизнес, който Amazon разбира много добре. През третото тримесечие на 2023 г. бизнесът с рекламни услуги на компанията генерира $12 милиарда приходи – почти $2 милиарда повече от абонаментните й услуги (но с $11 милиарда по-малко от AWS).

заплащане

Bricking it: Всъщност притежавате ли нещо цифрово?

ПРОЧЕТЕТЕ ОЩЕ

Нищо чудно, че рекламите за Prime са на дневен ред. Особено тъй като повечето от рекламите, които Amazon продава в момента, са онлайн. Ако компанията успее да убеди онези, които рекламират с нея онлайн, да харчат и за видеореклами, тя ще осигури повече от техните маркетингови разходи за сметка на дигиталните си конкуренти Google, Microsoft и Meta.

А също и за сметка на кабелните и безплатните разпространители, които вече се борят с намаляващите аудитория и приходи.

И ако тези разпространители отслабнат още повече, Prime Video може да стане по-завладяващ, дори ако Amazon може да харчи по-малко за съдържание, защото има по-малко конкуренция. Това е лоша новина за организации като спортни лиги, които са започнали да очакват все по-големи плащания за права.

Следователно рекламите, идващи към Prime Video, са повече от дразнещи за абонатите. Това е потенциален предвестник на голяма промяна в начина, по който всички ние консумираме и плащаме за развлечения, с Big Tech в кутията.

Но решението на Amazon също така показва, че Big Tech не може да наложи всички правила, защото е трудно да се превърне в стока креативността.

Известно е, че Amazon е безмилостен към намаляването на разходите чрез автоматизация. Създателите на филми знаят, че трябва да работят в рамките на бюджетите, но се притесняват, ако предлаганата сума в брой възпрепятства творческите им амбиции. Въвеждането на реклами, докато продължава да се стреми към оригинално съдържание, предполага, че Amazon разбира, че Prime Video не е услуга, която може да работи в обичайния си режим. ®

Какво идва след отворения код? Брус Перенс работи по него

0

Интервю Брус Перенс, един от основателите на движението за отворен код, е готов за това, което следва: движението след отворен код.

„Написах документи за това и се опитах да съставя прототип на лиценз“, обяснява Перенс в интервю за The Register . „Очевидно имам нужда от помощ от адвокат. След това следващата стъпка е да отида за безвъзмездна помощ.“

Перенс казва, че има няколко неотложни проблема, които общността с отворен код трябва да реши.

Чувствам, че IBM е получила всичко, което иска от общността на разработчиците с отворен код сега и ние получихме нещо като среден пръст от тях…

„Първо, нашите лицензи вече не работят“, каза той. „Имахме достатъчно време, за да могат фирмите да открият всички вратички и затова трябва да направим нещо ново. GPL не действа по начина, по който трябваше да действа, когато една трета от всички платени Linux системи се продават с заобикаляне на GPL. Това е RHEL.“

RHEL означава Red Hat Enterprise Linux, който през юни, под собствеността на IBM, спря да предоставя своя изходен код , както се изисква от GPL.

Перенс наскоро се завърна от пътуване до Китай, където беше основен лектор на конференцията Bench 2023. В очакване на разговора си с El Reg той написа някои мисли за посещението си и за състоянието на общността на софтуера с отворен код.

Един от въпросите, които ми хрумнаха, беше Червената шапка.

IBMredhat

Red Hat нанася съкрушителен удар срещу RHEL надолу по течението

ПРОЧЕТЕТЕ ОЩЕ

„Те всъщност вече не са Red Hat, те са IBM“, пише Перенс в бележката, която сподели с The Register . „И разбира се, те спряха да разпространяват CentOS и от дълго време са правили нещо, което според мен нарушава GPL, и моето дело за клевета беше за друга компания, която прави точно същото нещо: Те ви казват, че ако сте клиент на RHEL , не можете да разкриете GPL източника за корекции за сигурност, които RHEL прави, защото те няма да ви позволят да бъдете клиент повече. Служителите на IBM твърдят, че все още подават корекции към проекта с отворен код нагоре по веригата, но разбира се те не са задължени да го правят.

„Това продължава от дълго време и само фактът, че Red Hat направи публично разпространение на CentOS (по същество немаркирана версия на RHEL), го направи поносимо. Сега IBM вече не прави това. Така че чувствам, че IBM получи всичко, което иска от общността на разработчиците с отворен код сега и ние получихме нещо като среден пръст от тях.

„Очевидно CentOS беше важен и за компаниите и те се стремят към крилата при приемането на Rocky Linux. Бих искал да преминат към дериват на Debian, но добре. Но имаме редица капки на гърба на камилата с отворен код. Ще някой да го счупи?“

Друга капка, която обременява камилата с отворен код, пише Перенс, „е, че отвореният код напълно се е провалил да служи на обикновения човек. В по-голямата си част, ако изобщо ни използват, те го правят чрез системи на компания за патентован софтуер, като Apple iOS или Google Android, и двете използват Open Source за инфраструктура, но приложенията са предимно патентовани. Обикновеният човек не знае за Open Source, те не знаят за свободите, които насърчаваме, които са все повече в техен интерес. Наистина, Open Source се използва днес, за да ги наблюдава и дори да ги потиска.“

Свободният софтуер, обяснява Перенс, вече е на 50 години и първото обявяване на отворения код се случи преди 30 години. „Не е ли време да погледнем какво правим досега и да видим дали можем да се справим по-добре? Е, да, но трябва да запазим отворения код в същото време. Отвореният код ще продължи да съществува и предоставят същите правила и парадигма, а нещото, което идва след Open Source, трябва да се нарича по друг начин и никога не трябва да се опитва да се представя за Open Source. Досега го наричам Post-Open.“

Post-Open, както той го описва, е малко по-ангажиран от Open Source. Това ще определи корпоративните отношения с разработчиците, за да се гарантира, че компаниите плащат справедлива сума за ползите, които получават. Ще остане безплатно за физически лица и организации с нестопанска цел и ще включва само един лиценз.

Той си представя прост годишен процес на съответствие, който дава на компаниите всички права, от които се нуждаят, за да използват софтуера Post-Open. И те ще финансират разработчици, които ще бъдат насърчавани да пишат софтуер, който може да се използва от обикновения човек, за разлика от техническите експерти.

Посочвайки популярни приложения от Apple, Google и Microsoft, Перенс казва: „Голяма част от софтуера е ориентиран към това, че клиентът е продуктът – те със сигурност се наблюдават много, а в някои случаи всъщност се злоупотребява. Така че това е добър момент за отворен код, за да правим неща за нормалните хора.“

Причината, която не се случва често днес, казва Перенс, е, че разработчиците с отворен код са склонни да пишат код за себе си и за тези, които са умели с технологията. Начинът да се избегне това, твърди той, е да се плати на разработчиците, така че те да имат подкрепа, за да отделят време, за да направят удобни за потребителя приложения.

Компаниите, предполага той, ще платят сметката, която може да бъде разпределена между разработчиците, които допринасят, използвайки вида софтуер, който инструментира GitHub и показва кой какво допринася за кои продукти. Merico , казва той, е компания, която предоставя такъв софтуер.

Перенс признава, че много спънки трябва да бъдат преодолени, като намирането на приемливо дружество, което да се справи с измерванията и разпределението на средствата. Нещо повече, финансовите договорености трябва да се харесат на достатъчно разработчици.

„И всичко това трябва да е достатъчно прозрачно и регулируемо, за да не се разклонява по 100 различни начина“, разсъждава той. „Знаете ли, това е един от големите ми въпроси. Може ли това наистина да се случи?“

Независимо дали може или не, Perens твърди, че GPL не е достатъчно. „GPL е проектиран не като договор, а като лиценз. Това, което Ричард Столман си мислеше, беше, че не искаше да отнема ничии права. Той искаше само да предостави права. Така че това не е договор. Това е лиценз. не можем да правим това повече. Имаме нужда от изпълними договорни условия.“

Запитан дали приемането на лицензи без отворен код, като HashiCorp , Elastic , Neo4j и MongoDB , представлява жизнеспособен път напред, Перенс казва, че е необходимо ново мислене.

Той не е фен на лицензи като Commons Clause, която е в центъра на съдебна битка, включваща Neo4j .

„Защо клаузата на общините е лоша?“ той пише. „Първо, има проблем с марката. Лицензите с отворен код имат „марка“, която е разбирането на правата, които предават, и разбира се, отвореният код също има марка, което е разбирането на правата в дефиницията за отворен код. Изглежда, че Commons Clause използва лиценза за отворен код, но изобщо не дава същите права, като по този начин злоупотребява с лицензната марка за печалба.

„Другият проблем е, че клаузата Commons се добавя към лицензи, които всъщност не позволяват добавянето на условия, като AGPL 3 на Neo4J. AGPL и GPL имат два параграфа, които и двата забраняват добавянето на условия. Така че, когато лицензодател добавя клаузата Commons, те създават лиценз с противоречив правен език.“

„Ние работим по проблема [софтуер като услуга] от доста дълго време“, казва Перенс пред The Register . „Спомням си, че присъствах на среща на [Free Software Foundation], където въпросът беше „какво да правим с Google?“ И AGPL излезе от тази среща.“

Перенс не смята, че AGPL или различни лицензи без отворен код се фокусират върху правилния проблем в контекста на облачните компании.

Мисля, че AI винаги е плагиатство… Когато обучавате модела, вие обучавате модела със защитени с авторски права неща на други хора…

„Така че AGPL, например, кара софтуера да разкрива собствения си изходен код по някакъв начин“, казва той. „Това, за което всъщност говорим, е публично изпълнение в софтуера, а публичното изпълнение е отделно право съгласно авторското право, защото беше необходимо за пиеси и филми. Така че имаме това право съгласно авторското право и можем да го използваме. Мисля, че тези лицензи всички някак се опитват да постигнат цел и стигат до нея отчасти, защото се опитаха да направят само леки промени от отворения код. И, знаете ли, изминаха 30 години, откакто имаме отворен код. Можем да обмислим радикално отклонение.“

Запитан за текущия ентусиазъм към технологията, която индустрията нарича „AI“, Перенс изразява неодобрение.

„Мисля, че AI винаги е плагиатство“, казва той. „Когато обучавате модела, вие обучавате модела с неща, защитени с авторски права на други хора. И това, което AI прави, е да смесва и съчетава и извежда комбинация от въведеното. Трябва да вземем предвид това. Как да компенсираме хората, чиито данни са използвани за обучение на модела? Трябва ли да го обучаваме със софтуер с отворен код? Не мисля така. Но той прави повече от това. Той чете уебсайтовете на хората. Той чете цялата Wikipedia. Никой от страната на въвеждане не да бъдем справедливо компенсирани за продукцията. Така че това е голям въпрос, който трябва да разрешим.“

Що се отнася до това дали усилията на САЩ да задържат технологии от Китай работят, Перенс каза, че те са били до голяма степен неефективни.

„Китайците могат, с едно или две изключения, които скоро ще паднат, всичко, което ние правим“, казва той, отбелязвайки, че докато изостават с модерните чипове, те ще наваксат. Той казва, че си е тръгнал от пътуването си, изненадан от това колко сходни са хората в САЩ и Китай, както по отношение на начина, по който хората живеят живота си, така и по отношение на незаинтересоваността им от геополитическото положение в Южнокитайско море, което добавя напрежение в САЩ – Връзка с Китай.

Поддържането на известна степен на вежливост с Китай също има последици за общността с отворен код поради експортните закони на САЩ, по-специално ITAR, ограниченията за международен трафик на оръжия, администрирани от Държавния департамент, и EAR, правилата за администриране на износа, контролирани от Министерство на търговията.

„Сега космическите сателити и цифровите гласови кодеци, както и някои употреби на проекта Kraken RF, и вероятно стотици други проекти с отворен код, все още са в списъка с ограничени технологии“, обяснява Перенс. „В резултат на няколко съдебни дела и ITAR, и EAR получиха изключения за „информация в обществено достояние“. Това не означава „софтуер, който е обществено достояние“, което е въпрос на авторско право. Това означава „не е търговска тайна“. Така че се отнася за отворен код и публикувани изследвания.

„Днес проект, който е напълно разкрит, може да се управлява без ограничения съгласно ITAR и EAR. Open Research Institute преди известно време свърши работата, за да получи изричното одобрение на такъв проект от Държавния департамент и Департамента по търговия. Така че в момента е възможно е да се изпълнява проект с отворен код за това, което иначе би могло да бъде технология за „боеприпаси“, включително с нации, които иначе биха били ограничени от ITAR и EAR. Това е нещо важно, което трябва да защитим, както за отворен код, така и за публични изследвания. винаги е под заплаха, тъй като американските политици са все по-загрижени за такива неща като 3D-принтирани оръжия и много от тях искат да бъдат по-рестриктивни за споделянето на технологии с Китай и т.н.“

„Мисля, че е много страшно, че потенциално имаме раздори с тази страна“, казва Перенс. „Но ако погледнете хората, хората са толкова много като нас днес. Ние наистина трябва да имаме мир заедно.“ ®

Ето кой смята, че AI чатботовете в крайна сметка ще бъдат достатъчно умни, за да ви бъдат колеги

0

Коментар. Големите езикови модели изглеждат готови да се развият от AI chatbots, генериращи синтетично съдържание на вашия екран, до виртуални агенти, които са способни да извършват действия на вашия компютър направо на бюрото ви.

Вместо да отговаря на въпроси или да създава анимирани стикери, AI скоро ще може да следва инструкциите и да ви помага да отбелязвате неща от списъка си със задачи по време на работа. Нова вълна от стартиращи фирми с AI агенти изграждат продукти, които могат да автоматизират части от ежедневната ви работа. Правилно, човек се надява.

Някои, като Линди, изграждат следващо поколение лични асистенти, които главният изпълнителен директор Фло Кривело предвижда да вършат всички досадни административни задължения, които изсмукват времето на хората. „Хората винаги се притесняват, че роботите крадат работните места на хората. Мисля, че хората крадат работните места на роботите“, каза той по време на презентация на срещата на върха на AI Engineer в Сан Франциско през октомври.

Мисля, че хората са крали работните места на роботите

В бъдеще, вместо да се налага да проверявате календара си и да изпращате съобщения напред-назад с някого, за да уговорите час и дата за среща, например, агентите на Lindy могат да се свържат с вашия календар и приложения за имейл, за да намерят автоматично свободно време, и напишете и изпратете имейла с молба да се срещнат. В идеалния случай дори ще добави връзка към Zoom или упътвания в Google Maps към дадено място.

Потребителите ще комуникират с чатбота на Lindy, като описват задача, която трябва да изпълни. Зад кулисите системата LLM ще насочва инструкциите към софтуер, който извиква съответния API, необходим за изпълнение на определено действие. Crivello ни каза, че Lindy може да се свързва с различни API, поддържащи файлови системи като Google Drive, платформи за продажби и маркетинг като HubSpot, както и сайтове като LinkedIn.

Други стартиращи компании като Adept са фокусирани върху обучението на агенти да изпълняват движения с клавиатура и мишка. Той обучава своите модели на визуални елементи на потребителски интерфейси или уеб браузъри, така че агентите да могат да разпознават неща като текстови полета или бутони за търсене. Обучавайки го на видеоклипове, записващи екраните на хората, докато изпълняват задачи на конкретен софтуер, той може да научи какво точно трябва да бъде въведено и къде трябва да щракне, за да направи нещо като копиране и поставяне на информация в електронна таблица на Excel. Идеята е, че системата се грижи за скучните, повтарящи се неща.

В демонстрации компанията показа своя агент, който извлича данни от фактури, за да попълва автоматично формуляри за подаване на разходи, например. „Нашата Northstar е, че се опитваме да направим AI съотборник за всеки работник със знания. В момента работим върху първа стъпка, която е да попитате Adept как да направите всяко досадно нещо, което вече сте правили преди“, изпълнителен директор Дейвид Луан каза пред The Register .

Софтуерът на Adept приема изображения и текст като вход и връща текст и действия като изход. Сложната част обаче е да го направи надежден. Агентите трябва да бъдат фино настроени за правилния вид данни, които учат как да изпълняват конкретна задача по-последователно. Работата по автоматизирането на действията на клавиатурата и мишката е по-трудна от свързването на LLMs с API.

Има плюсове и минуси за всеки метод, според Кривело. „API са по-надеждни, но не ви позволяват да правите всичко, което може да искате“, каза той. Не всеки софтуер може да бъде достъпен чрез API, така че понякога е по-добре агентите да се научат как да взаимодействат директно с графични потребителски интерфейси. „Предимството на потребителския интерфейс е, че можете да правите всичко, но е много по-трудно да автоматизирате форматирането; той е много по-крехък“, добави той.

Сътрудничество с вашите колеги AI

Идеята за втори пилот с изкуствен интелект, който работи заедно с хората, вече се превръща в мейнстрийм. Microsoft пакетира множество базирани на изкуствен интелект инструменти на Office 365 в един абонамент, като го нарече Copilot за Microsoft 365 , докато Google предлага подобни възможности в своите приложения Workspace с Duet AI .

С течение на времето тези инструменти ще станат по-способни и ще се интегрират с различни видове софтуер, за да правят повече от анализиране на отчети и изготвяне на имейли.

Изследователи и анализатори започват да прогнозират въздействието, което AI работните спътници ще имат върху работната сила и икономиката. Работодателите са привлечени от обещанието, че изкуственият интелект ще направи служителите им по-продуктивни, което означава, че те ще могат да постигат цели и да постигат цели по-бързо.

Досадни задачи

Декемврийски доклад от Forrester, прегледан от El Reg, прогнозира, че в краткосрочен план, след една до три години, автономните асистенти на работното място (AWA) ще могат да автоматизират лесни задачи, които отнемат не повече от няколко минути за изпълнение на човек.

„Те са лесни за разгръщане и доставят проверими възвръщаемост на производителността, но не се учат, нямат контекст и следват предварително определени модели. Необслужван бот може да извърши актуализация на адреса, която човек е правил преди, но малко в работния модел има променен“, се казва в доклада.

Първото поколение агенти няма да повлияе особено на работата на работещите в областта на знанието, но те ще започнат да променят начина, по който изпълняват някои задачи. Част от лесната тежка работа ще бъде прехвърлена на машини, според Крейг льо Клер, съавтор на доклада и главен анализатор във Forrester.

„В краткосрочен план AWA се справят с проста автоматизация като функции за счетоводство и заплати или самообслужване на клиенти“, каза ни той. „Ключово разграничение между AWA в краткосрочен период и тези в бъдещето е този фокус върху досадна, повтаряща се задача с ниска стойност, която може да бъде изпълнена от софтуер и води до малка остатъчна стойност или промяна на процеса. минимизира разходите чрез извличане на по-нископлатени човешки часове.“

Следващото поколение работни роботи, които се очаква да се появят през следващите четири до осем години, ще бъдат по-умни и способни да предприемат по-сложни задачи, които включват множество стъпки, като създаване на канали за продажби, генериране на потенциални клиенти и превръщане на клиенти. В по-технически настройки те биха могли да започнат да налагат код, за да изчислят числата и да извършат анализ на данни, се казва в доклада. В бъдеще тези агенти ще започнат да използват други AI инструменти, за да им помогнат да изпълняват задачи.

„По-късните AWA драматично променят връзката между хората и автоматизацията и ни дават нови начини на работа“, каза Льо Клер. „AWA осигуряват функции от по-високо ниво като вземане на решения, физическа гъвкавост и разговор. Автоматизацията придобива по-човешки характеристики и те са в състояние да разберат цел, да не се забиват и да изпълнят работна задача. В този смисъл те стават пълноценни колеги. AWA може да се консултира с [генеративен AI], например, за да се справи с вариациите на работния процес, да се консултира с човек или система, ако е необходимо, и да симулира по-напреднали човешки черти, които представят изцяло нови начини за правене на нещата.“

Най-популярните търговски LLM вече започват да възприемат някои от тези ранни възможности. Потребителите вече могат да използват бота Claude на Anthropic в Google Таблици , докато OpenAI представи идеята за свързване на GPT към API, за да научи персонализирани чатботове да изпълняват задачи.

„Подобно на плъгините, действията позволяват на GPT да интегрират външни данни или да взаимодействат с реалния свят“, казва OpenAI. „Свържете GPT към бази данни, включете ги в имейли или ги направете свой помощник при пазаруване. Например можете да интегрирате база данни с обяви за пътуване, да свържете имейл кутията на потребителя или да улесните поръчките за електронна търговия.“

Anthropic въведе концепцията за „използване на инструменти“, когато обяви, че най-новият LLM, Claude 2.1 , може също да се свързва с прости приложения и API, за да прави неща като справка с калкулатор за извършване на аритметика.

„Според масовото искане ние също добавихме използване на инструмент, нова бета функция, която позволява на Claude да се интегрира със съществуващите процеси, продукти и API на потребителите“, обяснява компанията. „Сега Claude може да организира функции или API, дефинирани от разработчици, да търси в уеб източници и да извлича информация от частни бази знания. Потребителите могат да дефинират набор от инструменти, които Claude да използва и да посочи заявка. След това моделът ще реши кой инструмент е необходими за постигане на задачата и изпълнение на действие от тяхно име.“

По-малко или повече ще работим?

AI може да повиши производителността, но технологията няма да е достатъчно добра, за да поеме повечето работни места в краткосрочен план. Луан от Adept вярва, че това ще означава, че работниците ще могат да се съсредоточат върху неща, които изискват повече интелигентност и междуличностни умения.

„Мисля, че ще прекарваме повече време в работа върху задачи с по-високо ниво на разсъждение, които тези модели не могат да изпълнят. Неща, които изискват истинска човешка преценка и личен контакт, като прекарване на повече време с клиенти“, каза той.

Le Clair се съгласи, като каза, че агентите ще повлияят на индустриите по различен начин. Практикуващите медицински сестри могат да поемат повече отговорности за грижа, подпомагани от AI за подкрепа при вземане на решения, каза той, докато параюристите ще поемат повече връзки с клиенти и подкрепа за съвети, подпомагани от агенти, които са издържали адвокатски изпит и предоставят правни услуги на по-ниска цена от лицензирани адвокати .

Тъй като AI продължава да се подобрява, той ще унищожи някои работни места и ще създаде нови в бъдеще.

„За съжаление, общият брой на средните работни места ще намалее и много от тях ще бъдат преместени в сегментите на обслужващи работници на първа линия, където човешката гъвкавост все още е на първо място“, каза ни Le Clair. „Дигиталният елит ще бъде наранен от AWA, които изпълняват изследователски, програмни и някои творчески задачи, и ще трябва да разчитат на своите човешки умения и мрежи, за да поддържат начина си на живот.“

Някои вярват, че това ще означава, че хората могат да работят по-малко и да преследват своите хобита и интереси, докато по-песимистично настроените смятат, че работниците, подпомагани от софтуера, просто ще бъдат принудени да произвеждат повече.

Le Clair е в първия лагер. „Това ще доведе до пренасочване на повече работа към AWA и намаляване на общите нива на заетост. Ще гледаме на четиридневна работна седмица след пет години, с нарастващо население с алтернативен нетрадиционен начин на живот на работа“, каза той.

Надяваме се, че е прав и ние, хората, можем да бъдем малко по-свободни. През цялата история технологичните пробиви, задвижващи индустриалните революции, са променили естеството на работата, но рядко са я премахвали напълно. ®

Предупреждение по ирония: Съдебният процес, който твърди, че режимът „инкогнито“ на Chrome не е, ще се уреди при неизвестни условия

0

Делото, заведено срещу Google от нетизени, разстрои Режимът инкогнито в Chrome не анонимизира напълно техните дейности, изглежда ще бъде уреден, преди да отиде на съд.

Декларация в съда на САЩ [PDF] от 26 декември записва, че Google и ищците са се съгласили на срочен лист, който, ако бъде одобрен от съдията, ще приключи въпроса. Тези условия на предложеното споразумение не бяха оповестени. Но страните изглеждат достатъчно уверени, че сделката ще бъде сключена, така че друго подаване освобождава съдебната дата, определена за делото, така че всички заинтересовани да могат да спрат да се подготвят за съдебен процес и да се съсредоточат върху сключването на споразумението.

Случаят започна през 2020 г., когато загрижени нетизени твърдяха, че режимът инкогнито на Chrome – който Google рекламира като предлагащ възможност за „поверително сърфиране в мрежата“, концепция, която Google илюстрира с икона, изобразяваща шпионин – всъщност не пречи на гиганта за реклами и търсене от наблюдавайки „какво гледа потребителят, какво е гледал последно и подробности за хардуера на потребителя“.

Ищците казаха, че услугите на Google Analytics и Ad Manager, наред с други неща, могат да бъдат използвани от Google за наблюдение на сесиите на сърфиране в режим на инкогнито на хората. Ако посетите сайт, в който е вграден аналитичният код на Google, или някоя от неговите реклами, интернет титанът може (например) да ви свърже чрез вашия IP адрес с тези сайтове и по този начин да получите представа за това, което ви интересува онлайн, дори и с Incognito Режимът е включен.

Big G абсолютно може да направи това, но дали всъщност е по смислен и подвеждащ начин беше в основата на обвиненията в случая. Съдебният иск твърди, че практиките на Google „умишлено мамят потребителите“ и следователно корпорацията трябва „да носи отговорност за вредата, която е причинила на своите потребители“.

Контрааргументът на Google се основава на условията за използване на Chrome, за които корпорацията твърди, че не спира да събира информация, когато потребителите влязат в режим „инкогнито“.

През 2021 г. Google се опита да отхвърли въпроса – и не успя да спечели този кръг.

Оттогава делото се разшумя: когато Регистърът влезе в уеб приложението на Съединените щати с позорно нисък достъп до публичен достъп до електронни записи на съда (PACER), открихме, че през целия живот на делото са били подадени 1090 документа.

Документ номер 1 089 споменава селището.

Първоначално ищците предложиха щети от 5 милиарда долара, като около 5000 долара бяха изплатени на всеки от един милион потенциални жалбоподатели. За съжаление документ 1089 не споменава договореното споразумение.

Регистърът поиска от Google коментар относно споразумението и ще актуализира тази история, ако получим отговор по същество. Междувременно трябва да е ясно: Режимът инкогнито е удобен начин да се гарантира, че не сте влезли в даден сайт, когато го посещавате, но това не е наметало в стил Tor, което ви прави анонимни. ®

Сътресенията с часовниците на Apple отнесени до апелативния съд

0

Актуализирано. Играта на патентен пинг-понг за Apple Watch и Ultra 2 продължи, след като производителят на телефона подаде жалба срещу забраната за внос на устройствата в САЩ.

Комисията за международна търговия на САЩ (ITC) постанови през октомври, че Apple нарушава патенти, обхващащи измерването на нивата на кислород в кръвта. В резултат на това на Apple беше забранено да внася смарт часовниците в Америка и да ги продава в страната. След това имаше период на президентски преглед, който приключи на 25 декември без вето от администрацията на Байдън.

Сега Apple трябва да изчака до 12 януари 2024 г. за решение от клона за изпълнение на заповедите за изключване на митническата и гранична защита на САЩ дали редизайнът на Apple Watch Series 9 и Ultra 2 ще попадне „извън обхвата на коригиращите заповеди на комисията“, според жалбата си [PDF]. Т.е. Apple трябва да изчака до началото на следващата година, за да разбере дали промените в нейните часовници задоволяват служителите, че оборудването вече не нарушава патенти, което му позволява да продава нещата отново.

Тези коригиращи заповеди от ITC забраниха продажбите на дребно на Apple Watch Series 9 и Ultra 2 в САЩ след края на периода на президентски преглед, което накара Apple проактивно да направи устройствата недостъпни няколко дни по-рано. Онлайн продажбите за предколедна доставка приключиха на 21 декември, а покупките в магазините спряха на 24 декември.

Apple Watch SE не съдържа технология за отчитане на кислород в кръвта, поради което е освободен от забраната. В обжалването си обаче Apple описа засегнатите устройства като „двата си най-популярни модела Apple Watch“ въпреки сравнително високите им цени. В магазина в Обединеното кралство Series 9 започва от £399, а Ultra 2 започва от £799. SE може да бъде взет за £219.

В обжалването си iGiant каза: „Apple ще загуби добра воля и ще понесе щети на репутацията си от невъзможността да предостави на потребителите в САЩ най-новите си водещи продукти Apple Watch.“

Той също така предупреди за „непоправима вреда, ако заповедите останат в сила“, като същевременно поиска спешно спиране на забраната, докато се обмислят промените в нейния дизайн.

Въпреки че естеството на редизайна не е ясно, Apple вероятно ще се опита да убеди властите, че актуализацията на софтуера ще свърши работа, вместо да се налага да променя хардуера.

Спорът е отдавнашен. Masimo по-рано обвини Apple в злоупотреба с поверителна информация при разработването на здравни сензори, докато Apple съди Masimo за нарушаване на собствените си патенти, и ето ни тук.

Не е ясно веднага накъде ще поеме Apple оттук нататък. Одобрението на неговия редизайн в никакъв случай не е сигурно нещо и Mac goliath е изправен пред други предизвикателства по отношение на технологията за наблюдение на здравето в Apple Watch. Забраната по отношение на нарушения на патенти за електрокардиограми, притежавани от AliveCor, в момента е задържана в очакване на обжалвания.

„Няма нищо необичайно от правна гледна точка в това ITC да издаде заповед за изключване“, каза Никълъс Матич, адвокат по интелектуална собственост в адвокатската кантора McKool Smith, в доклад на Reuters . „Необичайното тук е, че въпросният продукт е високопоставен и че Apple е избрала да живее с поръчката на ITC, вместо да се споразумее.“

Попитахме Apple за нейните мисли и Купертино все още не е отговорила.

Засега феновете в САЩ, които искат да похарчат остатъците от коледните си долари за разрешено носимо устройство, все още могат да вземат устройството от дистрибутори на трети страни, като Best Buy. В противен случай ще се чака да се види какво ще стане с обжалването.

Или се възползвайте от възможността да освободите китката си през 2024 г. ®

Актуализиран за добавяне

Днес, ден след като забраната за внос на ITC влезе в сила, апелативният съд временно спря тази блокада, така че това е победа за Apple. Спирането на забраната ще остане в сила, докато митниците на САЩ определят дали направените промени в смарт часовниците са достатъчни, за да се избегне нарушаване на патенти.

Дотогава Apple може да продължи да внася и продава оборудването. Има съобщения, че устройствата ще се върнат в продажба онлайн и вече в някои физически магазини на Apple.

Пионерът на Postgres Майкъл Стоунбрейкър обещава да преобърне базата данни още веднъж

0

Интервю Какво ще стане, ако изградим операционната система върху базата данни, вместо обратното? Звучи като идея от студент след една микродоза твърде много, но не е така. Това е сериозна идея от някой, който вече е преобърнал компютърната индустрия и чието влияние се е разпространило в познати продукти на Microsoft и Oracle.

Празнувайки 80-ия си рожден ден тази година, Майкъл Стоунбрейкър продължава работата си в областта на изследването на бази данни, но неговият отпечатък върху индустрията е циментиран с PostgreSQL, системата за релационни бази данни с отворен код, която за първи път стана най- популярният избор на база данни сред разработчици тази година, според проучването на Stack Overflow за 2023 г. Освен популярна СУБД с отворен код, доставчиците, включително облачните хиперскалери, CockroachDB и YugabyteDB, предлагат услуги за бази данни с PostgreSQL съвместим преден край.

Първата влиятелна работа на Стоунбрейкър започва с Ingres, ранната система за релационни бази данни, която започва като негова изследователска тема след назначаването му за асистент в Калифорнийския университет в Бъркли през 1971 г.

Говорейки пред The Register , той казва: „Моята докторска дисертация беше върху аспект на веригите на Марков и това, осъзнах, няма никаква практическа стойност. Отидох в Бъркли и имате пет години, за да направите принос и да получите Знаех, че това няма да бъде темата на дисертацията ми. Тогава Юджийн Уонг, който беше друг преподавател в Бъркли, каза: „Защо не разгледаме базите данни?“

Двамата прочетоха неотдавнашно предложение за релационни бази данни от изследователя на IBMЕдгар Код, наречено „Релационен модел на данни за големи споделени банки от данни“.

Стоунбрейкър и Вонг смятат, че идеята на англичанина е елегантна и проста. „Очевидният въпрос беше да се опитаме да изградим система за релационна база данни. И Юджийн, и аз нямахме опит в изграждането на системен софтуер, но, като академици, си помислихме, нека опитаме и да видим какво ще се случи. Така че, без опит, ние тръгнахме да построя Енгр. И това ми осигури мандата.“

Енгр имаше конкуренция. System R на IBM беше първият, който демонстрира, че релационният подход може да осигури работеща транзакционна производителност и първият, който внедри вече повсеместния SQL. Oracle започна своята релационна система по-късно през 70-те години. Енгрес също трябваше да се изправи пред проблем с платформата.

„Имаме много хора, които посещават Бъркли и ни питат кой е най-големият потребител на Ingres. Тогава Държавният университет в Аризона иска да го използва за база данни от 35 000 студенти, но не можаха да преодолеят факта, че трябва да получат неподдържана операционна система от тези момчета в Bell Labs, а именно Unix“, казва той.

Насочването на Ingres към системи от среден клас, в които Unix се появи наскоро, също означаваше, че не поддържа COBOL, доминиращия език за бизнес изчисления по това време.

„Единственото решение беше да се създаде компания“, казва Стоунбрейкър.

Той продължи да основава Relational Technology, за да комерсиализира Ingres. По-късно е преименувана на Ingres Corporation и след това закупена от ASK Corporation през 1990 г., която на свой ред е закупена от Computer Associates през 1994 г. Друг член на екипа на Berkeley Ingres, Робърт Епщайн, основава Sybase, която за десетилетие е на второ място след Oracle в пазара на релационни бази данни. През 1992 г. неговата продуктова линия е лицензирана за Microsoft, който я използва за ранните версии на SQL Server.

Но Стоунбрейкър признава, че търговската кодова база за Ingres е била много по-напред от изследователския проект с отворен код – други изследователи могат да получат кода срещу номинална такса, покриваща лентата, необходима за съхранение, и пощенските разходи – така че неговият екип реши да прокара кода през скала и да започне всичко отначало. Какво идва след Енгрес? Postgres, очевидно.

Нова ера

През 1986 г. документ от 28 страници [PDF] — написан съвместно с Лари Роу — обяви дизайна на Postgres, както беше известен тогава, като изложи шест водещи амбиции. Сред тях имаше две, които биха се оказали подходящи за дълголетието на системата от бази данни. Единият беше да се осигури по-добра поддръжка за сложни обекти. Второто беше да се осигури разширяемост на потребителя за типове данни, оператори и методи за достъп.

Стоунбрейкър ни казва, че е знаел от разговори с клиенти на Ingres, че разширяемостта ще бъде важна за успешна база данни в бъдеще. „Веднъж този клиент ми се обади и ми каза: „Ти внедри времето неправилно“, каза той.

Професорът от Бъркли беше объркан, защото екипът му се беше потрудил, за да гарантира правилното прилагане на юлианския календар, високосните години и всичко останало. Но някои финансови облигации се изплащат за 12 равни месеца в 360-дневна година, което не можете да приложите в Ingres, но можете в PostgreSQL, казва той.

Мотивацията да направим базата данни разширяема идва и от желанието да поддържаме нови типове данни. Един ранен проект с Ingres се опита да го използва като географска информационна система, далеч от домашния терен на бизнес данни. Беше „произволно бавно и непоправимо“, казва Стоунбрейкър.

Визията се изплати през последното десетилетие. Преди десет години PostgreSQL добави поддръжка за Json документи , файловият формат, около който се базира NoSQL базата данни MongoDB и Couchbase.

Stonebraker е критикувал движението NoSQL в миналото. Той казва на The Register, че се сближава с релационни бази данни, защото те приемат SQL или подобни на SQL езици и приемат необходимостта от последователност.

„Най-голямата добра идея на NoSQL беше първоначалното изживяване, защото при SQL базите данни трябва да конструирате базата данни и след това трябва да дефинирате курсора. Те са трудни за използване. Това е една от много основателните критики, отправени срещу SQL базите данни : изживяването извън кутията е гадно. Трябва да можете просто да го включите и да кажете „Ето малко данни“.

Различните услуги, налични за предоставяне на PostgreSQL и PostgreSQL съвместими бази данни, донякъде се справят с това, но появата на СУБД като популярна система с отворен код беше щастлива случайност и един Stonebraker нямаше много общо с това.

Въпреки че изследователският код за базата данни беше — и остава — с отворен код, изграждането на компания за бази данни около него по онова време беше невъзможно, както Stonebraker откри при основаването на Illustra през 1992 г. „Когато получихме финансиране от рисков капитал както за Ingres, така и за Postgres , VC не биха имали нищо общо с отворения код, това беше по-късен феномен“, казва той.

През 2005 г. Стоунбрейкър основава Vertica на базата на ориентирана към колони СУБД за съхранение на данни, за която той сега казва, че „би имала огромна полза, ако беше с отворен код, но жизнеспособността на кода с отворен код и VC общността е сравнително скорошен феномен.“

„Базите данни със затворен код не са вълната на бъдещето“

Illustra имаше успех за известен период. В крайна сметка беше продаден на Informix за около 400 милиона долара през 1996 г., като делът на Stonebraker струваше 6,5 милиона долара, пише Forbes през 1997 г. Стоунбрейкър става технически директор на компанията майка за четири години.

Това е удобна сума, но фураж за кокошки в сравнение с приблизителната нетна стойност на Лари Елисън от 145 милиарда долара. Излишно е да казвам, че Стоунбрейкър е пренебрежителен за Oracle, друг ранен приемник на релационния модел. „Ingres винаги е бил технически по-добър, а Postgres е бил практически по-добър. По-гъвкав е и е с отворен код. И в наши дни PostgreSQL като цяло е сравнима по производителност. Като цяло базите данни със затворен код не са вълната на бъдещето и мисля, че Oracle е на висока цена и не е много гъвкав“, казва Стоунбрейкър.

Въпреки това Oracle взе решение, което даде тласък на PostgreSQL с отворен код. Той купи MySQL с отворен код, който някои от общността не вярваха в ръцете на патентования софтуерен гигант. В същото време Illustra и други компании комерсиализираха Postgres, Бъркли пусна кода за POSTGRES под лиценза на MIT, позволявайки на други разработчици да работят върху него.

През 1994 г. Андрю Ю и Джоли Чен, и двамата завършили Бъркли, заменят езика за заявки POSTQUEL с SQL. Полученият Postgres95 беше направен свободно достъпен и модифицируем при по-разрешителен лиценз и преименуван на PostgreSQL.

„Това, което в крайна сметка се случи, беше, че Illustra някак си набра популярност, но големият удар беше, когато тази група от напълно несвързани хора, които дори не познавах, взеха кода на Postgres с отворен код, който все още беше наоколо, и се заеха с него, напълно без да знам. Това беше чудесен инцидент“, казва той.

„Когато MySQL беше купен от Oracle, разработчиците се усъмниха масово и преминаха към PostgreSQL. Това беше още една щастлива случайност. Търговският му успех е прекрасен, но беше до голяма степен случайна случайност“, добавя Стоунбрейкър.

Междувременно услугите за бази данни се развиха около PostgreSQL. Той се превърна в най-доминиращия преден край за съвместими или почти съвместими системи, налични от Google (AlloyDB и CloudSQL), Microsoft (Azure PostgreSQL), AWS (Aurora и RDS), CockcroachDB, YugabyteDB, EDB и Avien.

„Целият свят се премества в облака и Google, Amazon и Microsoft залагат на ранчото на съвместимостта с PostgreSQL. Мисля, че това е страхотна идея. CockroachDB е съвместим с PostgreSQL по кабел. Можете да вземете PostgreSQL приложение и да го зарежете на CockroachDB. PostgreSQL няма никакви възможности за разпределена база данни, но както YugabyteDB, така и CockroachDB имат“, казва той.

Влиянието на Stonebraker достига дори до портфолиото на конкурента Oracle. Неговата обединена база данни Mariposa стана основа за Cohera, компания за бази данни, която PeopleSoft купи през 2001 г., преди да стане част от Oracle през 2004 г. През 2014 г. Стоунбрейкър беше признат за влиянието на работата си върху Ingres и Posgres с наградата Turing, която спечели 1 милион долара от Google в процеса.

Въпреки че много от неговите идеи са толкова широко използвани в индустрията за бази данни, която според Gartner е струвала 91 милиарда долара през 2022 г., Стоунбрейкър е спокоен относно други хора, които използват неговите идеи.

„Справих се добре финансово. Познавах Тед Код, който беше много великодушен да каза, че всички вие трябва да управлявате [идеите]. Искате да промените света; всеки конкретен човек е само част от това. Винаги съм го правил код с отворен код и споделен код с всеки, който го иска. В този процес се справих добре финансово, така че да, изобщо не съжалявам“, казва той.

Но това не означава, че той е готов да се пенсионира. В последния си проект Стоунбрейкър е готов отново да промени света.

Идеята за DBOS , ориентирана към бази данни операционна система, дойде от разговор с Матей Захария, автор на Apache Spark, който също е съосновател на компанията за анализи и машинно обучение Databricks и доцент в Бъркли.

„Spark и Databricks се занимават с управление на екземпляри на Spark в облака. Той каза, че във всеки един момент Databricks често управлява милиони Spark-sub задачи за различни потребители. Те не биха могли да направят това, използвайки традиционното планиране на операционната система техники: имаха нужда от нещо, което може да се мащабира. Очевидният отговор беше да поставят цялата информация за планиране в база данни. Точно това направиха момчетата от Databricks: поставиха всичко в база данни на PostgreSQL и след това започнаха да хленчат за производителността на Postgres“, казва Стоунбрейкър .

Никога не избягва предизвикателството, Стоунбрейкър си помисли: „Е, мога да се справя и по-добре от това.“

Новият проект замени Linux и Kubernetes с нов стек от операционни системи, в основата на който е система от бази данни, прототипът на многовъзловата многоядрена, транзакционна, високодостъпна VoltDB, която стартира Stonebraker.

„По принцип операционната система е приложение към базата данни, а не обратното“, казва той.

Статия Stonebraker в съавторство със Zaharia и други обяснява: „Цялото състояние на операционната система трябва да бъде представено еднакво като таблици на базата данни и операциите върху това състояние трябва да се извършват чрез заявки от задачи без състояние. Този дизайн улеснява мащабирането и развитието на ОС без рефакторинг на цялата система, проверка и отстраняване на грешки в състоянието на системата, надграждане на компоненти без престой, управление на решения с помощта на машинно обучение и внедряване на сложни функции за сигурност.“

Успешна или не, идеята за приложение OS като база данни едва ли ще бъде последната на Stonebraker. След като навърши 80 години през октомври, той казва пред The Register , че няма намерение да забавя темпото.

„Не мога да си представя да играя голф три дни в седмицата. Харесвам това, което правя, и ще го правя, докато мога да бъда интелектуално конкурентен“, казва той. ®

Войната на работните станции: Как участниците с най-ниска цена оформиха днешния технологичен пейзаж

0

Функция Ровейки се в историите за операционни системи от 80-те години на миналия век, се появява една забравена война за бъдещето на компютрите. Беше спечелено от предложилите най-ниска цена, а след това бедните потребители и програмисти забравиха, че изобщо се е случвало.

Ретрокомпютърът представлява значителен и все още нарастващ интерес за много техници и любители и е от десетилетие или две. Има толкова много неща, които можете да напишете за игра, която е на десетилетия, но операционните системи и различните пътища, които са поели, все още имат богати жилки, които трябва да бъдат изследвани.

Всеки, който е играл с компютри от 80-те, си спомня Amiga срещу Atari ST и други битки. Но копаенето надолу покрай слоя от евтини домашни компютри и игри разкрива по-големи, по-дълбоки разлики. Победителите в битките трябваше да напишат историите, както правят винаги, и това означава, че това, което сега е получена мъдрост, споделяна и разбирана от почти всички, съдържа и прикрива пропаганда и догми. Нещата, които някога са били просто маркетинг на BS, сега са свещени писания и когато разберете как го е видяла другата страна, догмата се разкрива като просто големи дебели лъжи.

Най-голямата лъжа

Първата от големите лъжи е най-голямата, но е и една от най-простите, която вероятно никога не сте поставяли под въпрос.

Това е: днешните компютри са по-добри от всякога. Не само, че имат хиляди пъти повече място за съхранение и повече скорост, но че всичко, целият стек – хардуер, операционни системи, мрежи, езици за програмиране и библиотеки и приложения – са по-добри от всякога.

Митът е, че ранните компютри са били прости и са били заменени от по-добри, които са можели повече. Постепенно те еволюираха, ставаха все по-сложни и по-способни, докато сега имаме многопроцесорни многогигабайтови суперкомпютри в джобовете си.

Което ми дава извинение да използвам любимия си немски цитат, обикновено приписван на физика Волфганг Паули: „Das ist nicht nur nicht richtig; es ist nicht einmal falsch!“ (Това не само не е правилно, но дори не е грешно!)

Макар и вероятно апокрифно, някой попита Джон Глен, първият човек на Америка в космоса, какво е чувството точно преди изстрелването. Предполага се, че той отговори: „Чувствах се толкова добре, колкото всеки друг, седейки в капсула над ракета, които и двете бяха построени от предложилия най-ниска цена.“

Е, това е мястото, където сме днес.

Историята за еволюцията е напълно погрешна. Това, което наистина се случи, е, че многократно всяко поколение компютри се развиваше, докато стана много способно и усъвършенствано, а след това беше напълно заменено от ново поколение относително прости, глупави. След това те бяха подобрени, обикновено напълно игнорирайки всички уроци, научени от предишното поколение, докато новото поколение не бъде заменено от нещо по-малко, по-евтино и много по-глупаво.

Еволюция

Първите компютри, разбира се, бяха огромни неща с размерите на стая, които струваха милиони. Те еволюираха в мейнфрейми: много големи, много скъпи, но цяла компания можеше да споделя един, изпълнявайки групови задачи, изпратени на перфокарти и подобни неща.

След няколко десетилетия мейнфреймите бяха заменени от миникомпютри, смалени до размера на картотека, но достатъчно евтини, за да може да си ги позволи обикновен отдел. Те също бяха достатъчно бързи, за да могат няколко потребители да ги използват едновременно , използвайки интерактивни терминали.

Всички интелигентни периферни устройства на мейнфреймите, свързани в мрежа към техните централни процесори, и техните сложни, базирани на хипервайзор операционни системи, с богата ролева защита, просто изхвърлени.

След това става по-сложно. Традиционната история за онези, които са погледнали назад към 70-те години на миналия век, е, че се появяват микрокомпютри, базирани на евтини едночипови микропроцесори, и помитаха миникомпютрите. След това постепенно еволюираха, докато се наваксаха.

Но това всъщност не е вярно.

Първо, и по-малко видимо, тъй като бяха толкова скъпи, миникомпютрите от мащаба на отдела се свиха до работни станции с размери на бюро, а след това настолни, а по-късно и настолни . Вместо да се споделят от отдел, това бяха машини за един потребител. Много мощен, много скъп, но почти достъпен за един човек – стига да е достатъчно важен човек.

За съжаление обаче, в процеса на свиване до кутии за един потребител, повечето от изтънчеността на техните предци в мащаб на отделите бяха изхвърлени. Богати файлови системи с вградено проследяване на версиите, защото твърдите дискове струват колкото колите: изчезнаха. Клъстериране, което позволява на шепа машини, струващи стотици хиляди, да работят като безпроблемно цяло? Не е необходимо, изчезна. Богат вграден групов софтуер, който позволява на екипите да си сътрудничат и да работят върху споделени документи? Забравен. Имейлът с обикновен текст беше достатъчен.

Междувременно, в края на бюджета и в същото време като тези еднопотребителски работни станции за десетки хиляди долари, тъпите терминали се превърнаха в микрокомпютри. Всеки компютър в света днес е в сърцето си „микро“.

Отначало бяха слаби. Едва ли можеха да направят нещо. И така, този път загубихме тонове неща.

Твърди дискове? Много скъпо. Изпуснат. Многозадачност? Недостатъчно памет. Премахнато. Избор на езици за програмиране? Запазени през 70-те CP/M машини, след което, когато станаха по-евтини още в началото на 80-те, отпаднаха: децата нямат нужда от това. Пъхнете BASIC в ROM, това ще стане. Машините така или иначе се използват предимно за игри.

Ранните micros можеха да работят с флопи дискови устройства и имаха DOS, но в по-дългосрочен план дори те бяха елиминирани: твърде скъпи. Вместо това имате аудиокасетофон.

Как стигнахме до тук

Тези микрокомпютри от началото на 80-те, най-слабите, най-слабите, най-жалките компютри от първите мейнфрейми от 1940 г., ранните осембитови микрокомпютри, това са предците на компютрите, които използвате днес.

Всъщност, от всички компютри от началото на 1980-те, този с най-скучния, неоригинален дизайн, този без графика и без звук – това, с няколко изключения, е предшественикът на това, което използвате днес. IBM PC , който беше разширяван и подобряван отново и отново, за да настигне и в крайна сметка, за около 15 години, да надхвърли възможностите на своите по-евтини, но по-умни конкуренти.

Това е вид закон на природата , че когато се опитате да замените функции, които сте премахнали, резултатът никога не е толкова добър, колкото ако сте го проектирали в началото.

Ние управляваме значително подобрените наследници на най-простия, най-глупавия и най-скучния компютър, който всеки може да пусне на пазара. Те бяха най-лесните за изграждане и за работа. Лесно означава евтино, а евтиното продава повече и носи повече печалба. Така че те са тези, които спечелиха.

Има една поговорка за избора на продукт: „Можеш да имаш добър, бърз и евтин. Изберете всеки два!“

Имаме „бързо“ и „евтино“. Загубихме „добър“, заменен от „надежден“, което определено е добродетел, но идва с изключително висока цена.

Какво загубихме

Като много маниаци на средна възраст, имаше време, когато колекционирах хардуер от 80-те години, защото това, което беше недостъпно, когато беше ново – защото не можех да си го позволя – се раздаваше безплатно. Въпреки това стана обемист и аз го раздадох, като вместо това се съсредоточих върху захранван с батерии преносим комплект, отчасти защото е интересен по свой собствен начин и отчасти защото не заема много място. Не е нужно да държите големи екрани и клавиатури наоколо.

Това ме доведе до една интересна машина: другата линия компютри на Apple, тези, в които Стив Джобс изобщо не е имал ръка.

Машината, която вдъхнови Джобс, която доведе до Lisa и след това до Mac, разбира се беше Xerox Alto , настолна работна станция за $30 000. Според собствените думи на Джобс, той видя три невероятни технологии този ден, но беше толкова заслепен от една от тях, че пропусна другите две. Той беше толкова впечатлен от GUI, че пропусна обектно-ориентирания графичен език за програмиране, Smalltalk, и вградената повсеместна мрежа на Alto, Ethernet .

Лиза нямаше нищо от това. Mac имаше по-малко. Apple прекара голяма част от следващите 20 години в опити да ги върне обратно. По това време Стив Джобс нае Джон Скъли от PepsiCo да управлява Apple, а в замяна Скъли уволни Джобс. Това, което Apple измисли по време на управлението на Скъли, беше Newton .

Имам два Newtons, оригинален MessagePad и 2100. Обичам ги. Те са визия за различно бъдеще. Но никога не съм ги използвал много: използвах Psions , които имаха много по-прост и не толкова амбициозен дизайн, което означава, че бяха по-евтини, но вършеха работата. Това трябва да е поговорка в индустрията.

Доставеният Newton беше бледа сянка на Newton, който Apple първоначално планираше. Все пак има следи от тази машина и това ме накара да разкрия голямата компютърна война.

Нютон беше – наистина, все още е – радикална машина. Той е проектиран да живее в джоба ви, да съхранява и проследява вашата информация и навици. Имаше адресна книга, дневник, приложение за водене на бележки, удивително разпознаване на ръкописен текст и примитивен AI асистент. Можете да напишете „обяд с Алис“ на екрана и той ще обработи написаното от вас, ще го анализира, ще разбере от дневника ви кога обикновено сте обядвали, от историята на обажданията ви къде сте обядвали най-често и с коя Алис сте се свързвали най-често резервирайте време в дневника си и й изпратете съобщение, за да я попитате дали иска да дойде.

Беше нещо като Siri, но преди 20 години и през това време Apple изглежда забрави всичко това: трябваше да купи Siri.

NewtonOS също нямаше файлова система. Нямам предвид, че не е било видимо за потребителя; Искам да кажа, че нямаше такъв. Имаше някаква енергонезависима памет на борда, разширяема чрез карти с памет – огромни PCMCIA такива с размерите на половин сантиметър дебели кредитни карти – и съхраняваше неща в нещо като база данни с интегрирани в ОС обекти, разделени по функции. Магазините се наричаха „супи“ и ОС следеше какво къде се съхранява. Без имена на файлове, без директории, изобщо нищо подобно.

Приложенията и някои от самата операционна система са написани на език, наречен NewtonScript, който е много далечно свързан както с AppleScript в модерния macOS, така и с JavaScript. Но това не беше първоначалният план. Това беше за много по-радикална операционна система, на по-радикален език, която може да бъде разработена в удивителна графична среда.

Езикът беше наречен Dylan , което е съкращение от Dynamic Language. Все още съществува като компилатор на FOSS. Изглежда, че Apple също е забравила за това, защото преоткри това колело, по-лошо, със Swift.

Погледни. Dylan е невероятен, а неговата SK8 IDE още повече (оставени са няколко екранни снимки и изтегляния ). Dylan е много четлив, на много високо ниво и преди комерсиалните реалности на времето и парите да надделеят, Apple планира да напише операционна система и приложенията за тази операционна система в Dylan.

Сега това е радикално: Използване на един и същ език на много високо ниво както за операционната система, така и за приложенията. Беше осъществимо, защото Dylan е изграден като слой върху един от най-старите езици за програмиране, който все още се използва активно, Lisp.

Както Smalltalk, така и Lisp все още съществуват. И за двете има търговски и FOSS версии. И двете могат да работят на .NET CLR и на JVM. Има дори Smalltalk, който работи във вашия браузър на двигателя на JavaScript. Основният текстов редактор на средата Lisp все още се използва широко и днес, предимно от стари хора.

Но това са само следи. Те са бледи паметници, останали след войната. Защото някога тези неща не бяха просто малко странни езици, работещи на обикновени операционни системи.

Те бяха операционни системи сами по себе си

Започнах да копая в това и тогава земята се разпадна и открих, че като някои много впечатляващи CGI специални ефекти, не разкопавах гробище, а цял, скрит, разрушен град.

Някога Lisp работеше на голо метално устройство, на специално създадени компютри, които работеха с операционни системи, написани на Lisp, такива с GUI, които можеха да се свързват с интернет.

И ако намерите хората, които са използвали Lisp машини … уау. Те ги обичаха със страст, която кара собствениците на Amiga да изглеждат като, е, аматьори, любители. Това ниво на застъпничество прави Vi срещу Emacs да изглежда като кавга на детска площадка.

Някои от препратките са лесни за намиране. Има една чудесна книга, наречена The Unix-Haters Handbook [PDF], която силно препоръчвам. Чете се лесно и е наистина забавно. Това е обобщение на дългогодишна интернет общност от времето, когато университетите се отърваваха от Lisp машините и ги заменяха с по-евтини, по-бързи Unix работни станции – Sun кутии и подобни неща.

Потребителите на Lisp машини не бяха впечатлени. За тях Unix беше огромна крачка назад . Целият код беше компилиран, докато операционните системи на Lisp изпълняваха нещо като гигантска споделена динамична среда (трудно е да се обясни нещо, когато думите за него са изгубени). На машина с Unix, ако не харесвате начина, по който дадена програма прави нещо, трябва да отидете да намерите изходния код, да го редактирате, да го запишете в нов файл, да компилирате този файл, да рестартирате програмата, за да я пробвате… и ако проработи, намерете съществуващия си двоичен файл и го заменете с новия. Тогава вероятно ще откриете, че сте направили грешка и не е проработило, и ще опитате отново.

Ето защо, с изключение на хардкор потребителите на Gentoo, ние всички възлагаме тези неща на доставчици на операционни системи и дистрибутори на Linux.

На машините на Lisp вашият код не беше хванат в замразени блокове. Можете просто да редактирате работещия на живо код и промените ще влязат в сила незабавно. Можете да проверите или дори да промените стойностите на променливите, докато кодът се изпълнява. Разработчикът и блогър Стив Йеге го нарече “ жив софтуер „.

Lisp машините се зареждаха бавно, но това нямаше голямо значение, защото рядко ги стартирахте студено. В края на деня ОС записа стойностите на всички свои обекти и променливи на диска – наречено „спасяване на свят“ – и след това просто спря. Когато го включите отново, той препрочита тези стойности в паметта и възобновява точно там, където е бил.

Повечето от това, между другото, се отнася и за машини Smalltalk. Ето защо тези два понякога се наричат езици на боговете .

Това пропусна Стив Джобс. Той беше разсеян от лъскавия. Той донесе на света графичния потребителски интерфейс, но накара екипа си да го приложи отново върху доста конвенционални операционни системи, първоначално в комбинация от асемблиране и Pascal.

Той остави след себе си удивителната богата среда за разработка, където имаше обекти докрай.

И никога не си го върнахме

Върнахме мрежата, разбира се, но не и това.

Сега Lisp и Smalltalk са просто нишови езици – но някога и двата са били цели други вселени. Системи с пълен стек, всички живи, всички динамични, всички редактируеми в движение.

Най-близкото нещо, което имаме днес, вероятно са приложенията на JavaScript, работещи в уеб браузъри, и те са осакатени малки неща в сравнение.

Разликата обаче е къде са най-големите загуби във войната.

Машините Smalltalk работеха на сравнително нормални процесори. Smalltalk е свързан изцяло с обекти и не можете наистина да управлявате обекти на хардуерно ниво.

(Е, можете – много скъп Hi-Fi производител на име Linn опита с машина, наречена Rekursiv, но се провали лошо. Същото направи и опитът на Intel да направи чип, който внедрява неща от високо ниво в хардуера – не Itanium, не , много преди това, iAPX 432.)

Но машините на Lisp работят на специални чипове и тук нещата стават реални. Като в нещата , които удрят феновете.

Имаше няколко големи доставчици на Lisp машини. Както споменахме наскоро , Xerox ги продаде и неговата Lisp OS вече е FOSS.

Но по-големият и най-влиятелният беше Symbolics . С риск да прозвучите като хипстър, „вероятно никога не сте чували за това“. Забравена, както е сега, като индикация за това колко значима е била компанията, тя притежаваше първия дот-ком домейн в интернет. Той стартира през 1980 г. с комерсиална версия на машината MIT CADR Lisp и прави специален хардуер на Lisp до 1993 г.

Компанията е мъртва, но операционната система, OpenGenera, все още е там и можете да я стартирате на емулатор на Linux. Това е крайният резултат от няколко десетилетия на напълно отделна еволюция от целия свят на Mac/Windows/Unix, така че е някак тайнствено, но го има.

Има много сметки за мощността и производителността, възможни в Lisp и на Lisp машини.

Един от по-убедителните е от човек на име Калман Рети, последният работещ инженер на Symbolics. Тези машини са толкова обичани, че хората все още работят върху своя 30-годишен хардуер, а Reti ги поддържа. Той е направил няколко видеоклипа в YouTube, демонстриращи OpenGenera на Linux.

Той говори за [видео] процеса на внедряване на едночиповите машинни процесори Lisp.

Сега това е важно.

Когато различни хора ви кажат, че могат да постигнат такава огромна разлика в производителността – една десета от хората отделят една десета от времето, за да свършат една и съща работа – трябва да обърнете внимание.

Видео в Youtube

„По-доброто е враг на доброто“

Не съм тук, за да ви кажа, че Lisp машините са били някаква върховна супер работна станция. Среда, която е предимно полуинтерпретиран код, работещ в едно споделено пространство на паметта, не е много стабилна … и когато се срине, ако нямате моментна снимка, към която да се върнете, ви очаква болка.

Въпросът тук не е, че тази отдавна изчезнала технология беше по-добра във всяко отношение. Не беше. Но имаше предимства и е поучително да разгледаме някои от тях, които бяха споделени както от Lisp, така и от Smalltalk машини.

Бяха написани на един език или предимно на един, докрай. Както първоначалният внедрител на Smalltalk Dan Ingalls го каза: „Операционната система е колекция от неща, които не се вписват в езика; не трябва да има такъв.“

Те имаха всеобхватен модел на данни, по целия път надолу по стека. В Smalltalk всичко е обекти. В Lisp всичко е списъци. Това, което Unix моделът предлага в сравнение, е слабо: Всичко е файл.

Още големи лъжи

Unix моделът на изчисление е проектиран в отговор на Multics, оригиналната изцяло пееща и танцуваща операционна система от 60-те години на миналия век. За разлика от това, Unix беше предназначен да бъде върховният минимализъм (въпреки че вече не е така).

Това показва още една от големите лъжи, които всички просто приемат като прочетени, но тази има слоеве като зеле:

  • За скорост се нуждаете от език, който е близък до метала. Това означава, че трябва да е много просто. Това има разходи, но те си заслужават: програмистът трябва ръчно да управлява паметта си, което означава, че трябва да бъде много, много внимателен.
  • Но това е трудно, така че за да направите живота по-лесен, наслоявате по-прости езици отгоре. Рано, AWK и SED и така нататък; по-късно, Perl и Python; след това още по-късно, времена за изпълнение като JVM и WASM и езици отгоре на това, като Clojure или Scala.
  • С узряването на стека нарастват все повече слоеве. По-високите слоеве са все по-далеч от метала.
  • Много от тези езици са много по-лесни, но по-бавни. В старите времена трябваше да пренапишете кода на език от по-ниско ниво за скорост, като C++. И какво, ако е огромно? Не ви трябва всичко! И какво, ако е трудно за четене? Беше трудно да се пише!
  • След това с времето компютрите продължават да стават по-бързи, така че можете да запазите неефективното внедряване и да продължите.

Резултатът е народно вярване, че има необходим, имплицитен контраст между „четливо“ и „бързо“. Това е едно от големите предположения зад училищата за проектиране на ОС както на Unix, така и на Windows, че различните езици са най-добри за различни работни места и затова ви е необходима комбинация от тях. Това означава, че слоевете са изолирани един от друг, поради различни модели на съхранение на променливи, управление на паметта и т.н.

Това е една голяма лъжа.

Първо, защото слоевете не са запечатани: езиците от по-високо ниво обикновено се внедряват в такива от по-ниско ниво и уязвимостите в тях проникват в стека.

Например, често срещан начин да се опитаме да направим нещата по-безопасни е да ги обвием в среда за изпълнение или виртуална машина, но това не решава проблема, а създава нови. Проблем: Езикът елиминира цели типове грешки, но те продължават да съществуват във VM. Проблем: Сега вашият код зависи от производителността на VM. Проблем: Опитайте се да поправите някое от тези, рискувате да разбиете кода. Проблем: Тъй като виртуалната машина не е част от операционната система, в крайна сметка имате множество виртуални машини, всички споделящи тези проблеми.

Второ, има доказателство за съществуването , че множество проекти и продукти, успешни за времето си, показват, че ако изберете правилния език, можете да изградите целия си стек в едно.

Кодът на Lisp е структуриран като списъци, което е структурата на данните, която Lisp е проектиран да манипулира. Това е причината за легендарното му изобилие от скоби . Той също така прави много лесно писането на макроси, които манипулират програмния код, което означава, че програмите могат да променят себе си. Ето защо Нийл Стивънсън го нарече така:

Той е много четим и изключително мощен. Алън Кей, дизайнерът на Smalltalk, каза за Lisp :

Това са мощни качества – но вероятно само за определен тип ум.

Дилън обаче показва, че не е нужно да е така. Ако загубите нотацията, базирана на списък, да, има цена в ефективността и мощността, но резултатът е видим за четене от обикновените смъртни. Дилън не беше единственият опит да направи това. Има доста – PLOT , CGOL , сладки изрази , отменения проект Lisp 2 и други.

Планът беше Newton да бъде базирана на Dylan Lisp машина в джоба ви. Нютон беше бебето на Скъли. Джобс не го е измислил, така че той не го харесва, осмива го като „ драсканица “ и при завръщането си в Apple го убива заедно с Hypercard .

През 1993 г. Newton беше първият компютър на Apple, задвижван от Arm, архитектура на процесора, към която се върна 17 години по-късно. Беше планирано да бъде джобна работна станция на Lisp и стартира същата година, когато Symbolics прекрати производството на Lisp процесори и вместо това премина към DEC Alpha [PDF].

В крайна сметка голямата битка беше между специализиран хардуер, с персонализирани процесори, работещи с персонализирани операционни системи, срещу споделена технология с най-малък общ знаменател: UNIX, работещ отначало на готови чипове като Motorola на Sun-1 68000 и по-късно на RISC чипове като SPARC на Sun и MIPS R2000, пуснати на пазара същата година като RISC OS 2 на Acorn на своите ARM чипове . Кросплатформена ОС, разработката й е спонсорирана от Bell Labs и усъвършенствана в Калифорнийския университет, компилирана от източник, написан в съкратена форма на BCPL .

Както обикновено, по-евтиното и по-просто решение спечели. Стандартните чипове бяха заменени с по-бързи RISC чипове, най-общо казано, проектирани да изпълняват ефективно компилиран C код. След това, десетилетия по-късно, компютърът навакса: 32-битовите x86 процесори станаха сравними по производителност с RISC чиповете и завършихме с няколко разновидности на Unix на x86 плюс Windows NT. Unix, разбира се, първоначално е разработен на DEC PDP-7, преместен в PDP-11, а по-късно и неговия 32-битов наследник VAX. Междувременно Windows NT е проектиран от главния архитект на родната операционна система на VAX, VMS. Ето защо е толкова видимо повлиян от него. Вместо езика BLISS на DEC, NT е внедрен на родния език на Unix, C.

От гледна точка на Smalltalk или Lisp машина, те са братя и сестри, почти близнаци, с дълбоки корени в DEC. Те са представители на школа по дизайн, наречена „подходът на Ню Джърси“ от светилото на Лисп Ричард Габриел в есето му „ Лисп: добри новини, лоши новини, как да спечелим големи “ [PDF]. Той го сравнява с това, което нарича „подход на MIT“, а неговото обобщение на начина на Ню Джърси се нарича “ По-лошото е по-добро „.

Струва си да прочетете поне резюмето, но ключовите моменти са следните.

Той продължава:

Изводът обаче е жилото:

Времето определено доказа, че д-р Габриел е прав. Системите на училището в Ню Джърси дотолкова доминират в съвременната компютърна индустрия, че другият начин за писане на софтуер е прогонен в малка ниша.

Smalltalk се разви в Self, който роди JavaScript, който в ръцете на умел Smalltalker може да прави невероятни неща – но само неговият визуален дизайн трансформира компютърната индустрия.

Текстовият редактор на Lisp сега е само една от най-загадъчните опции на Linux кутии. Самият Lisp е маргинален език за програмиране, обичан от някои герои в индустрията, но пренебрегван от повечето – дори тези, които се нуждаят от най-добрите инструменти . Както каза един известен програмист на Lisp:

Ако искате да станете милиардер от софтуера, не искате рокзвездни гении; имате нужда от взаимозаменяеми зъбни колела , взаимозаменяеми и евтини.

Софтуерът, създаден с пинсети и лепило, не е здрав, без значение колко слоя добавяте. Той е ужасно крехък и се нуждае от армии от работници, които постоянно да поправят милионите му пукнатини и дупки.

Някога е имало по-добър начин, но той е изгубен от студените твърди пари и сега само няколко историци дори си спомнят, че е съществувал. ®

Бележка към началото

За да разгледате една Lisp машина в действие, както и BTRON и IBM i, този доклад от Chaos Computer Congress, озаглавен „ Какво загубихме? “, си заслужава да бъде гледан.

Как се променя управлението на топлината в ерата на киловатовите чипове

0

Анализ Тъй като законът на Мур се забави до пълзене, чиповете, особено тези, използвани в AI и високопроизводителните изчисления (HPC), непрекъснато стават все по-горещи. През 2023 г. видяхме ускорителите да навлизат в киловатовия диапазон с пристигането на суперчиповете GH200 на Nvidia.

Знаем, че тези чипове ще бъдат горещи от известно време – Nvidia дразни CPU-GPU franken-chip през по-голямата част от две години. Това, което не знаехме доскоро, е как производителите на оригинално оборудване и създателите на системи биха реагирали на такава енергоемка част. Дали повечето системи ще бъдат с течно охлаждане? Или повечето биха се придържали към въздушно охлаждане? Колко от тези ускорители ще се опитат да натъпчат в една кутия и колко голяма ще бъде кутията?

Сега, когато първите системи, базирани на GH200, си проправят път към пазара, стана ясно, че форм-факторът до голяма степен се диктува от плътността на мощността, отколкото от всичко друго. По същество се свежда до това колко повърхност трябва да разсеете топлината.

Разровете се в наличните днес системи от Supermicro, Gigabyte, QCT, Pegatron, HPE и други и бързо ще забележите тенденция. До около 500 W на стелаж (RU) – 1 kW в случая на MGX ARS-111GL-NHR на Supermicro – тези системи са предимно с въздушно охлаждане. Докато е горещ, той все още е управляем термичен товар за разсейване, работещ до около 21-24 kW на шкаф. Това е в рамките на капацитета за доставка на енергия и управление на топлината на съвременните центрове за данни, особено тези, които използват топлообменници на задната врата.

Това обаче се променя, когато създателите на системи започнат да натъпкват повече от един киловат ускорители във всяко шаси. В този момент повечето от OEM системите, които разгледахме, преминаха към директно течно охлаждане. H263-V11 на Gigabyte, например, предлага до четири GH200 възела в едно 2U шаси.

Това са два киловата на стелаж. Така че докато система като DGX H100 с въздушно охлаждане на Nvidia със своите осем 700 W H100s и двойни процесори Sapphire Rapids има по-висок TDP при 10,2 kW, тя всъщност е с по-малка мощност при 1,2 kW/RU.

Има няколко предимства на течното охлаждане извън по-ефективното пренасяне на топлина от тези плътно опаковани ускорители. Колкото по-висока е мощността на системата, толкова повече статично налягане и въздушен поток са ви необходими, за да отстраните топлината от системата. Това означава да използвате по-горещи, по-бързи вентилатори, които използват повече мощност – потенциално до 20 процента от мощността на системата в някои случаи.

Отвъд около 500 W на стелаж, повечето от OEM и ODM производителите изглежда избират шасита с течно охлаждане, тъй като са необходими по-малко, по-бавни вентилатори за охлаждане на компоненти с по-ниска мощност като NIC, съхранение и други периферни устройства.

Трябва само да погледнете блейдовете Cray EX254n на HPE, за да видите колко много има шасито с течно охлаждане. Тази платформа може да поддържа до четири GH200. Това е потенциално 4 kW в 1U изчислителен блейд и това дори не включва мрежовите карти, използвани за захранване на чиповете с данни.

Разбира се, хората от подразделението Cray на HPE знаят нещо или две за охлаждането на свръхплътни изчислителни компоненти. Това обаче илюстрира количеството мисъл, която създателите на системи са вложили в своите сървъри, не само на системно ниво, но и на ниво шкаф.

Rack ниво излита

Както споменахме преди със системите Nvidia DGX H100, охлаждането на мултикиловатов сървър самостоятелно е нещо, с което OEM производителите са добре запознати. Но веднага щом се опитате да напълните шкаф с тези системи, нещата стават малко по-сложни с фактори като мощност на шкафа и охлаждане на съоръжението, които влизат в действие.

Ние се потопихме в предизвикателствата, които операторите на центрове за данни като Digital Reality трябваше да преодолеят, за да поддържат гъсто внедряване на тези видове системи в нашата родствена публикация The Next Platform .

В много случаи доставчикът на колокация трябваше да преработи своята инфраструктура за захранване и охлаждане, за да поддържа повече от 40 киловата мощност и топлина, необходими за опаковане на четири от тези системи DGX H100 в един шкаф.

Но ако вашият център за данни или доставчик на колокация не може да достави такъв тип захранващ шкаф или да се бори с топлината, няма много смисъл да се опитвате да направите тези системи толкова плътни, когато по-голямата част от шкафа ще стои празна.

С пускането на пазара на GH200 видяхме, че Nvidia се фокусира по-малко върху отделните системи и повече върху внедряването в стелаж. За пръв път видяхме това по време на Computex тази пролет с неговия клъстер DGX GH200.

Вместо куп гъсти възли, пълни с GPU, системата всъщност се състои от 256 2U възли, всеки с един GH200 ускорител вътре. Комбинирана, системата е в състояние да изпомпва exaFLOPS от FP8 производителност, но трябва да бъде много по-лесна за внедряване на ниво съоръжения. Вместо 1,2 kW/RU сега гледате по-близо до 500 W/RU, което е точно там, където повечето OEM производители кацат със собствените си системи с въздушно охлаждане.

Съвсем наскоро видяхме Nvidia да кондензира по-малка версия на това до един шкаф с GH200-NVL32, обявен в сътрудничество с AWS на Re:Invent тази есен .

Тази система пакетира 16 1U шасита, всяко оборудвано с два GH200 възела, в един шкаф и ги свързва заедно с помощта на девет NVLink превключватели. Излишно е да казвам, че при 2 kW/RU изчисления това са плътни малки системи и поради това са проектирани да бъдат течно охлаждани от самото начало.

По-горещи чипове на път

Въпреки че се съсредоточихме върху Grace Hopper Superchips на Nvidia, производителят на чипове едва ли е единственият, който тласка TDP до нови граници в преследване на производителност и ефективност.

По-рано този месец AMD разля чашата с най-новите си AI и HPC GPU и APU, при които ускорителите Instinct на компанията скачат от 560 W последно поколение до 760 W. Това все още не е киловатът мощност, изискван от GH200, но това е значително увеличение.

По-важното е, че техническият директор на AMD Марк Пейпърмастър каза пред The Register , че все още има достатъчно място за увеличаване на TDP през следващите няколко години.

Дали това в крайна сметка ще накара производителите на чипове да наложат течно охлаждане за своите водещи части остава без отговор. Според Papermaster, AMD ще поддържа въздушно и течно охлаждане на своите платформи. Но както видяхме с новия MI300A APU на AMD, продължаването на избора на въздушно охлаждане почти сигурно ще означава отстъпки в производителността.

MI300A е номинално оценен за 550 W. Това е много по-малко от 850 W, които бяхме накарани да вярваме, че ще изсмуче при натоварване, но при адекватно охлаждане може да работи дори по-горещо. В HPC-настроена система, като тези, разработени от HPE, Eviden (Atos) или Lenovo, чипът може да бъде конфигуриран да работи на 760 W.

Междувременно Intel проучва нови методи за охлаждане на 2 kW чипове, използвайки двуфазни охлаждащи течности и вдъхновени от коралите радиатори, предназначени да насърчават образуването на мехурчета.

Производителят на чипове също така обяви обширни партньорства с доставчици на инфраструктура и химикали за разширяване на използването на технологии за течно охлаждане. Последното сътрудничество на компанията има за цел да разработи охлаждащо решение за предстоящия Guadi3 AI ускорител на Intel, използвайки технологията за двуфазно охлаждане на Vertiv. ®

Как векът на технологичните играчки разтревожи чувала на Дядо Коледа

0

Мнение , както по-наблюдателните може би са забелязали, отново е Коледа. Във всички прилични домакинства това бележи традиционното даване и получаване на технологични играчки, много милиони от които ще бъдат теглени по света от Дядо Коледа и неговите елени.

Най-добрият аспект на такава магическа верига за доставки е, че тя улеснява разглеждането на въглеродния отпечатък на всяко gizmo. Няколко пръда на северни елени са далеч от флота от товарни самолети, които иначе биха били необходими, така че тогава всичко е наред.

Най-много ни интересува съдържанието на чантата с подаръци на Дядо Коледа и в това отношение технологията първо направи работата на Бърди по-лесна, а след това отново по-трудна. Тъй като хората стават по-добри в потребителската електроника, новите продукти и категории създават коледни избори като девонските тетраподи.

Електронната джаджа като опция за подарък за първи път изпълзя на земята преди сто години, с раждането на радиоразпръскването, което породи кристалния набор като желана кукичка за протоманиаците на деня. Те бяха сглобени от набор от компоненти – дълги жични антени, намотки, кондензатори, слушалки и самия кристален детектор. Трябваше да съберете комплекта, за да работи всичко, оттук и името, което се придържа към телевизорите и до днес.

Кристалният детектор беше първият полупроводник, диод, който обикновено се изработваше от буца оловна руда и пружинираща жица: безопасно е да се каже, че никой, който се опитваше да убеди дивите безжични вълни да говорят в средата на 20-те години на миналия век, нямаше представа какво е малкото ръждива скала щеше да се появи сто години по-късно.

Не че нещата не се промениха бързо. Безумната популярност на радиото тласка развитието на пластмасите, миниатюризацията и термоелектронните устройства – вакуумни тръби, които позволяват електронно усилване, трансформирайки създаването и потреблението на музика. До средата на 30-те години на миналия век телевизията се материализира, въпреки че едва подава човката си от черупката на яйцето, преди войната да я затвори. Дядо Коледа току-що беше свикнал да доставя весело оцветени бакелитни безжични връзки, преди да се оттегли на Северния полюс за известно време.

Той се върна с гръм и трясък. Цялото това изследване на радара се насочи направо към телевизионната индустрия и купчини военни излишни компоненти с размерите на Матерхорн дадоха на изобретателите, много добре обучени, всичко необходимо, за да направят аудио усилватели, магнетофони – още един хрипове от войната – уоки-токита , и толкова много други джаджи. Наред с всичко това Bell Labs се изкашля учтиво и извади трикракото мутантно потомство на кристалния детектор, транзистора.

В продължение на 20 години потребителското оборудване се умножи, ставаше все по-малко, по-евтино и пълно с разнообразие. Електрическите китари завладяха ефира, докато евтините транзисторни радиостанции предаваха бунтовническия си вик на най-възприемчивото поколение. Всички аналогови, разбира се, докато през 70-те години резултатите от предсказанието на Гордън Мур за интегралните схеми се сбъднаха и първите цифрови часовници и калкулатори направиха малки издутини в иначе претоварената чанта с играчки на Дядо Коледа.

Тогава всичко се обърка. 80-те години започнаха като златната ера за потребителската електроника, с компании като RadioShack, които произвеждаха дебели като Библията каталози с желани видеорекордери, Hi-Fi, преносими всичко, CB радиостанции, телефонни секретари, да не говорим за истински играчки, които звучаха, мигаха , и измърмори. И какво да правим с тези странни нови кутии за игри, които се включват в семейния телевизор и местят светещи блокове наоколо под звука на роботизирано сумтене?

За първи път домакинствата имаха повече малки мигащи светлинки през януари, отколкото имаха на дървото през декември. Но в тези каталози бяха скрити домашни компютри, трагично скъпи, предимно без звук и монохромни, с микроскопичната памет на кеша за съобщения в WhatsApp на политик. Светът спря, вдигна рамене и продължи да купува лъскавото и аналоговото през 90-те.

В миг на око, исторически погледнато, всичко свърши. Двадесет години по-късно компактдискът изяде винила, само за да може новият формат несъзнателно да положи основите на чистите цифрови версии, които могат да прескачат из непрекъснато разрастващия се интернет. Телевизията стана цифрова, за да освободи ефирни вълни за новомодните мобилни телефони, самите те станаха цифрови – и отново прескочи този проклет интернет, правейки цялата идея за излъчване да изглежда остаряла като кристален комплект.

Вие знаете останалото. Мобилните устройства правят всичко, което аналоговите джаджи са правили някога, не само затварят фабрики и магазини, но напълно заличават цели части от традиционното предложение на Дядо Коледа. Не можете да поставите приложение в чорап или да опаковате електронна книга. Дори краткият импулс от приятни периферни устройства – CD-ROM, звукови карти, надстройки на процесори – които правеха много технически ръководители щастливи в края на века, избледняха. Всичко работи достатъчно добре и всеки има малко.

Вярно е, че креативният производител никога не се е справял толкова добре, поне не и след пренасищането на следвоенните излишни компоненти и измишльотини, продавани на стотици. Убедете Свети Ник да отскочи до Китай и можете да намерите елементите, за да построите каквото и да било за нищо. Тестово оборудване, което струваше колкото кола през 1980 г., сега се предлага за по-малко от резервна гума. Или можете да вземете дрон, който всъщност е Окото на Саурон, и да го свържете към AI, който… е, нека не се тревожим за това. Все пак е Коледа. За водещия неофил винаги има нещо. Времето, в което можехте да купите ново радио за леля си Дейдре, изтече.

Технологията на електрониката е създала и кастрирала цели потребителски индустрии многократно, най-драматично през собствения ни живот – нещо, което е вярно, независимо на каква възраст сте. Това си проличава най-ясно по Коледа, когато имаме късмета да изберем нещата, които искаме, а не това, което ни трябва. Докато занасяте остатъците от устройства и желания в банката за рециклиране, помислете какво казва пътуването ви в личния ви живот през страхотни подаръци за променящата се връзка с технологиите – и какво може да донесе Дядо Коледа след 20 години. Весела Коледа. ®

Проучване разкрива наличието на CSAM в популярния набор от данни за обучение на AI

0

Актуализирано. Установено е , че масивен публичен набор от данни, който служи като обучителни данни за редица генератори на изображения с изкуствен интелект, съдържа хиляди случаи на материал за сексуално малтретиране на деца (CSAM).

В публикувано днес проучване Станфордската интернет обсерватория (SIO) заяви, че е прегледала повече от 32 милиона точки от данни в набора от данни LAION-5B и е успяла да потвърди, използвайки разработения от Microsoft инструмент PhotoDNA, 1008 CSAM изображения – някои включват множество пъти. Този брой вероятно е „значително недостатъчен брой“, казаха изследователите в своята статия.

LAION-5B не включва самите изображения и вместо това е колекция от метаданни, включително хеш на идентификатора на изображението, описание, езикови данни, дали може да е опасно и URL адрес, сочещ към изображението. Редица снимки на CSAM, свързани в LAION-5B, бяха намерени хоствани на уебсайтове като Reddit, Twitter, Blogspot и WordPress, както и уебсайтове за възрастни като XHamster и XVideos.

За да намери изображения в набора от данни, които си струва да бъдат тествани, SIO се фокусира върху изображения, маркирани от класификатора за безопасност на LAION като „небезопасни“. Тези изображения бяха сканирани с PhotoDNA за откриване на CSAM и съвпаденията бяха изпратени до Канадския център за защита на детето (C3P), за да бъдат проверени.

„Премахването на идентифицирания изходен материал в момента се извършва, тъй като изследователите докладваха URL адресите на изображенията на Националния център за изчезнали и експлоатирани деца (NCMEC) в САЩ и C3P“, каза SIO.

LAION-5B беше използван за обучение, наред с други неща, на популярния AI генератор на изображения Stable Diffusion версия 1.5, който е добре известен в някои кътчета на интернет със способността си да създава ясни изображения. Въпреки че не е пряко свързано със случаи като детски психиатър , използващ изкуствен интелект за генериране на порнографски изображения на непълнолетни, именно този вид технология улеснява дълбокото фалшиво изнудване и други престъпления.

Според SIO, Stable Diffusion 1.5 остава популярен онлайн за генериране на експлицитни снимки след „широко разпространеното недоволство от общността“ с пускането на Stable Diffusion 2.0, който добави филтри, за да предотврати попадането на опасни изображения в набора от данни за обучение.

Попитахме Stability AI, който финансира и ръководи развитието на Stable Diffusion, дали знае за наличието на CSAM в LAION-5B и дали някой от този материал е попаднал в серията от модели на стартъпа; компанията не отговори на нашите въпроси.

Отбелязваме, че въпреки че Stability пусна различни версии на Stable Diffusion, включително версия 2.0 с гореспоменатите филтри, версия 1.5, която беше проучена от SIO и обучена на LAION-5B, беше пусната от друг стартъп, наречен RunwayML, който си сътрудничи със Stability AI .

Опа, пак го направиха

Въпреки че това е първият път, когато данните за обучение на AI на германската организация с нестопанска цел LAION са обвинени в укриване на детска порнография, организацията е хванала критика за включването на съмнително съдържание в своите данни за обучение и преди.

Google, който използва предшественик LAION-2B, известен като LAION-400M, за да обучи своя Imagen AI генератор, реши никога да не пуска инструмента поради няколко опасения, включително дали данните за обучение LAION са му помогнали да изгради предубеден и проблематичен модел.

Според екипа на Imagen, генераторът показва „цялостно пристрастие към генериране на изображения на хора с по-светли тонове на кожата и … изобразяване на различни професии, за да се приведе в съответствие със западните полови стереотипи“. Моделирането на неща, различни от хора, не подобри ситуацията, карайки Imagen да „кодира набор от социални и културни пристрастия, когато генерира изображения на дейности, събития и обекти“.

Одитът на самия LAION-400M „разкри широк спектър от неподходящо съдържание, включително порнографски изображения, расистки обиди и вредни социални стереотипи.“

Няколко месеца след като Google реши да направи Imagen публично достояние, художник забеляза медицински изображения от операция, на която е претърпяла през 2013 г., присъстващи в LAION-5B, които тя никога не е дала разрешение за включване.

LAION не отговори на въпросите ни по въпроса, но основателят Кристоф Шуман каза на Bloomberg по-рано тази година, че не е знаел за наличие на CSAM в LAION-5B, като същевременно призна, че „не е прегледал данните в голяма дълбочина“.

Случайно или не – изследването на SIO не се споменава – LAION избра вчера да въведе планове за „процедури за редовна поддръжка“, започващи незабавно, за премахване на „връзки в наборите от данни на LAION, които все още сочат към подозрително, потенциално незаконно съдържание в обществения интернет“.

„LAION има политика на нулева толерантност към незаконно съдържание“, казаха от компанията. „Публичните набори от данни ще бъдат временно свалени, за да се върнат обратно след филтриране на актуализацията.“ LAION планира да върне своите набори от данни на обществеността през втората половина на януари. ®

Актуализиран за добавяне

Говорител на Stability AI отказа да изясни дали начинаещият е знаел или не за проблемното съдържание в LAION-5B и вместо това каза, че неговата собствена серия Stable Diffusion е била обучена на част от изображенията на набора от данни – въпреки че не ни е казано дали тази част имаше CSAM в него или не.

„Моделите на AI за стабилност бяха обучени на филтрирано подмножество от този набор от данни“, каза представителят. „В допълнение, ние впоследствие прецизирахме тези модели, за да смекчим остатъчното поведение.“

Говорителят също каза, че поставя филтри върху подканите за въвеждане и изходните изображения, за да улови идеално и предотврати опитите за създаване на незаконно съдържание. „Ние се ангажираме да предотвратим злоупотребата с AI и забраняваме използването на нашите модели на изображения и услуги за незаконна дейност, включително опити за редактиране или създаване на CSAM“, казаха те пред The Register .

И накрая, Stability AI ни подчерта, че SIO е проучила версия 1.5 на Stable Diffusion, която стартъпът не е пуснал. Той каза, че не е съгласен с решението на сътрудника RunwayML да пусне тази версия на обучения модел LAION-5B.