Изкуственият интелект е пасив

Share

Коментар Изкуственият интелект, което означава големи основополагащи модели, които предвиждат текст и могат да категоризират изображения и реч, изглежда по-скоро като пасив, отколкото като актив.

Досега щетите в долари са незначителни. През 2019 г. шофьор на Tesla, който управляваше превозното си средство с помощта на софтуера Autopilot на автомобилния производител, премина на червено и удари друго превозно средство. Обитателите загинаха и шофьорът на Tesla миналата седмица беше осъден да плати 23 000 долара реституция.

Приблизително по същото време Tesla изтегли два милиона превозни средства, за да преразгледа софтуера си за автопилот в отговор на разследването на Националната администрация за безопасност на движението по пътищата на САЩ (NHTSA), което установи, че контролите за безопасност на автопилота липсват.

Двадесет и три хиляди долара не са много за два живота, но замесените семейства водят граждански искове срещу шофьора и срещу Tesla, така че цената може да нарасне. И се казва, че има поне дузина съдебни дела , включващи автопилот в САЩ.

Междувременно в индустрията на здравеопазването UnitedHealthcare е съдена , тъй като моделът nH Predict AI, който е придобил чрез закупуването на Navihealth през 2020 г., твърди, че е отказвал необходимата следакутна грижа на осигурени възрастни хора.

Необходими са ограничения

Компаниите, продаващи AI модели и услуги, ясно разбират, че има проблем. Те се позовават на „парапети“, поставени около основните модели, за да им помогнат да останат в лентата си – дори ако те не работят много добре. Предпазни мерки от този вид биха били ненужни, ако тези модели не съдържат материали за сексуално малтретиране на деца и набор от друго токсично съдържание.

Сякаш разработчиците на изкуствен интелект са прочели вирусната публикация на писателя Алекс Блехман за технологичните компании, които тълкуват предупредителната история „Не създавайте връзката с мъченията“ като продуктова пътна карта и са казали: „Изглежда добре за мен“.

Разбира се, има по-стари литературни препратки, които са подходящи за ИИ, като Франкенщайн на Мери Шели или Кутията на Пандора – особено подходящо, като се има предвид, че моделите на ИИ често се наричат черни кутии поради липсата на прозрачност относно учебния материал.

Досега неразгадаемостта на комерсиалните модели, изпъстрени с вредно съдържание, не е повлияла твърде много на бизнеса. Има скорошно твърдение от Крис Баке, основател и главен изпълнителен директор на Laskie (придобит тази година от компания, наричаща себе си X), че чатбот на GM, използван от автокъща в Уотсънвил, Калифорния, е бил уговорен да се съгласи да продаде Chevy Tahoe от 2024 г. за $1 с малко бърз инженеринг. Но представителството едва ли ще изпълни този ангажимент.

Все пак рискът от разчитане на AI модели е достатъчен, тъй като Google , Microsoft и Anthropic предложиха да обезщетят клиентите от искове за авторски права (които са многобройни и до голяма степен неразрешени). Това не е нещо, което правите, освен ако няма шанс за отговорност.

Регламент

Властите все още се опитват да разберат как трябва да се оцени отговорността за ИИ. Помислете как Европейската комисия формулира проблема, докато работи за формулиране на работеща правна рамка за изкуствения интелект:

„Настоящите правила за отговорност, по-специално националните правила, основани на вина, не са адаптирани да обработват искове за обезщетение за вреди, причинени от продукти/услуги с активиран AI“, каза Комисията [PDF] миналата година. „Съгласно такива правила жертвите трябва да докажат неправомерно действие/бездействие на лице, причинило щетите. Специфичните характеристики на AI, включително автономност и непрозрачност (т.нар. ефект на „черна кутия“), го правят трудно или прекалено скъпо за идентифициране на отговорното лице и доказване на изискванията за успешен иск за отговорност.“

А американските законодатели предложиха Двупартийна рамка за изкуствен интелект, за да „гарантира, че компаниите за изкуствен интелект могат да бъдат държани отговорни чрез прилагане на надзорен орган и частни права на действие, когато техните модели и системи нарушават поверителността, нарушават гражданските права или по друг начин причиняват осезаеми вреди“.

Не се вълнувайте твърде много от това да видите зад решетките ръководители на фирми за изкуствен интелект: участието на лидери в индустрията за изкуствен интелект в този процес предполага, че всички правила, които се появят, ще бъдат толкова ефективни, колкото други регулаторни рамки, които са опорочени от лобисти.

Но вълнението е част от проблема: има толкова много шум около стохастичните папагали, както са наричани AI моделите.

AI моделите имат реална стойност в някои контексти, както отбелязва фирмата за сигурност Socket, която е използвала ChatGPT, за да помогне за маркиране на софтуерни уязвимости. Те са направили чудеса за разпознаване на реч, превод и разпознаване на изображения, в ущърб на транскрибирачите и CAPTCHA пъзелите. Те напомниха на ветераните в индустрията колко забавно беше да се играе с Eliza , ранен чатбот. Те изглеждат така, сякаш имат истинска полза в работни места в подкрепа на вземането на решения, при условие че има човек в цикъла. И те са взели сложни заклинания на командния ред, с техните разнообразни флагове и параметри, и са ги превърнали в еднакво сложни текстови подкани, които могат да продължат до абзаци.

Но автоматизацията, активирана от AI, има цена. В скорошна статия за научнофантастичното търговско списание Locus, авторът и активистът Кори Доктороу твърди, че „компаниите с изкуствен интелект залагат имплицитно, че клиентите им ще купуват изкуствен интелект за силно последваща автоматизация, пожарникарски работници и ще причинят физическа, психическа и икономическа вреда на собствените си в резултат на това клиентите, като по някакъв начин избягват отговорността за тези вреди.“

Доктороу е скептично настроен, че има смислен пазар за AI услуги в предприятия с висока стойност, поради рисковете, и вярва, че сме в AI балон . Той посочва GM Cruise като пример, отбелязвайки, че бизнес моделът на компанията за самоуправляващи се автомобили – в неопределеност поради нараняване на пешеходец и изтегляне – се свежда до замяна на всеки шофьор с ниска заплата с 1,5 по-скъпи дистанционни надзорници, без да се изключва възможността за злополуки и съдебни дела, свързани с тях.

Претоварване

Поне има известен потенциал за бизнес с ниска стойност, свързан с AI. Те включват месечно плащане за достъп до API за неточен чат, алгоритмично генериране на изображения, което кооптира стилове на артисти без разрешение, или генериране на стотици фалшиви новинарски сайтове (или книги ) по начин, който „ наводнява зоната “ с дезинформация.

Изглежда малко вероятно твърдението на Arena Group, че нейната AI платформа може да намали времето, необходимо за създаване на статии за публикации като Sports Illustrated с 80-90 процента, да подобри удовлетвореността на читателите, лоялността към марката или качеството на съдържанието. Но може би генерирането на повече статии, отколкото е възможно в стотиците заглавия на фирмата, ще доведе до повече показвания на страници от ботове и повече програмни рекламни приходи от рекламни купувачи, които са твърде наивни, за да се хванат.

Част от проблема е, че основните популяризатори на AI – Amazon, Google, Nvidia и Microsoft – управляват облачни платформи или продават хардуер за GPU. Те са доставчиците на кирки и лопати от златната треска с изкуствен интелект, които просто искат да продадат своите облачни услуги или комплекта за обработка на числа. Всички те бяха на борда за превъзходството на блокчейн експреса и криптовалутата, докато тази заблуда не изчезна.

Те са още по-ентусиазирани да помагат на компаниите да изпълняват работни натоварвания с AI, полезни или не. Те просто зареждат облаци, надявайки се да насочат бизнеса към операциите си с процесори под наем. По същия начин, стартиращи фирми с машинно обучение без инфраструктура се надяват, че задъханите приказки за трансформационни технологии ще надуят оценката на тяхната компания, за да възнаградят ранните инвеститори.

Манията по AI може да се отдаде отчасти и на постоянните усилия на технологичната индустрия да отговори на въпроса „Какво следва?“ по време на продължителен застой. Apple , Google , Amazon , Meta , Microsoft и Nvidia правят всичко по силите си, за да предотвратят значима конкуренция и от началото на облачната и мобилната ера в средата на 2000-те се справят доста добре. Не че антиконкурентното поведение е нещо ново – припомнете си индустриалното споразумение от 2010 г. с Министерството на правосъдието на САЩ относно споразуменията между Adobe, Google, Intel, Intuit и Pixar за избягване на бракониерството на таланти един от друг.

Microsoft направи голяма част от своята AI интеграция с Bing, отдавна засенчена от Google Search, твърдейки, че „ преоткрива търсенето “. Но не се е променило много оттогава – според съобщенията Bing не е успял да вземе никакъв пазарен дял от Google, в момент, когато има широко разпространено мнение, че Google Търсене – също сега наситено с AI – се влошава.

Донесете 2024 г

За да разберем какво следва, ще трябва да изчакаме Министерството на правосъдието и регулаторите на други места по света да наложат промени чрез антитръстови мерки и съдебни дела. Защото докато Google има заключване върху разпространението на търсенето – чрез сделки с Apple и други – и дигиталната реклама – чрез сделката си с Meta ( разрешено в САЩ , все още се разследва в Европа и Обединеното кралство) и други дейности, които предизвикаха интереса на Министерството на правосъдието – нито бизнесът с търсене, нито рекламният бизнес изглеждат податливи на нови съперници, без значение колко AI сос се добавя.

ИИ е отговорност не само във финансов, но и в етичен смисъл. Обещава спестяване на заплати – въпреки че е изключително скъпо по отношение на обучение, развитие и въздействие върху околната среда – като същевременно насърчава безразличието към човешкия труд, интелектуалната собственост, вредната продукция и точността на информацията. AI приканва компаниите да премахнат хората от уравнението, когато те често добавят стойност, която не е очевидна от баланса.

Има място AI да бъде наистина полезен, но той трябва да бъде разгърнат, за да помага на хората, вместо да се отърве от тях. ®

Подобни статии

Не пропускайте