Технологични гиганти с ласо в ЕС се опитват да овладеят Дивия запад с ИИ

Share

Анализ С наближаването на края на 2023 г. годината на шума върху ИИ приключваше, както започна. Според данни от Pitchbook Big Tech е похарчил два пъти повече за сделки с Generative AI стартиращи фирми, отколкото групите за рисков капитал през годината.

Но през декември законодателите започнаха да контролират как системите могат да бъдат разработени и внедрени. Във временно споразумение Парламентът и Съветът на ЕС предложиха категорични забрани за някои приложения и задължения за разработчиците на ИИ, считани за високорискови.

Докато ЕС тръбеше за успеха си да се превърне в първата юрисдикция, която изготви планове за законодателство, Big Tech крещеше.

Главният учен по изкуствен интелект на Meta каза, че регулирането на моделите на основата е лоша идея, тъй като ефективно регулира научноизследователската и развойна дейност. „Няма абсолютно никаква причина за това, освен за силно спекулативни и невероятни сценарии. Регулирането на продукти е добре. Но [регулирането] на научноизследователската и развойна дейност е абсурдно“, написа той на уебсайта, известен преди като Twitter .

Правните експерти обаче посочват, че има много неща за решаване в хода на дискусиите и много ще зависи от подробностите на законодателния текст, който предстои да бъде публикуван.

Когато преговарящите от Парламента и Съвета постигнаха временно споразумение относно Закона за изкуствения интелект, те казаха, че ще забранят системите за биометрична категоризация, които твърдят, че сортират хората в групи въз основа на политика, религия, сексуална ориентация и раса. Нецеленасоченото изтриване на изображения на лица от интернет или видеонаблюдение, разпознаване на емоции на работното място и в образователни институции и социално оценяване въз основа на поведение или лични характеристики също бяха включени в списъка със забранени.

Предложенията налагат задължения и на високорисковите системи, включително задължението за извършване на оценка на въздействието върху основните права. Гражданите ще имат право да подават жалби относно системи с изкуствен интелект и да получават обяснения относно решения, базирани на високорискови системи с изкуствен интелект, които засягат техните права. Но предложенията за системи с изкуствен интелект с общо предназначение (GPAI) – или основополагащи модели – са тези, които раздразниха индустрията.

В споразумението с ЕС се казва, че разработчиците ще трябва да отчетат широкия набор от задачи, които AI системите могат да изпълнят, и бързото разширяване на техните възможности. Те ще трябва да се придържат към изискванията за прозрачност, както първоначално беше предложено от Парламента, включително изготвяне на техническа документация, спазване на закона за авторското право на ЕС и разпространение на подробни резюмета за съдържанието, използвано за обучение.

В същото време разработчиците ще трябва да извършват по-строги проверки на така наречените „модели на GPAI със силно въздействие със системен риск“. ЕС каза, че ако тези модели отговарят на определени критерии, те ще трябва да извършат оценки на моделите, да оценят и смекчат системните рискове, да проведат състезателни тестове, да докладват на Комисията за сериозни инциденти, да осигурят киберсигурност и да докладват за тяхната енергийна ефективност. Докато не бъдат публикувани хармонизирани стандарти на ЕС, GPAI със системен риск могат да разчитат на кодекси на практика, за да се съобразят с регламента.

Нилс Рауер, партньор в адвокатската кантора Pinsent Masons, специализирана в ИИ и интелектуалната собственост, ни каза, че има широко съгласие относно необходимостта от законодателство. „Фактът, че ще има регулация за ИИ, се възприема от повечето засегнати играчи на пазара. Илън Мъск, но и много други виждат едновременно опасността и ползите, които идват с ИИ, и мисля, че не можете да спорите по този въпрос : AI трябва да бъде насочен към разумна рамка, защото ако това се развихри, може да бъде доста опасно.“

Той обаче каза, че различната категоризация на моделите GPAI е доста сложна. „Те започнаха с тази високорискова категория AI и има всичко, което е под висок риск. Когато след това се появи ChatGPT, те се бореха с това дали е висок риск или не. Тези общи модели на AI, които са в основата на GPT 4.0, например , са най-мощните. [Законодателите] разбраха, че наистина зависи от това къде се използва, дали е висок риск или не.“

Друго приложение на AI, адресирано от предложените закони, е биометричната идентификация в реално време. ЕС планира забрана на практиката, която вече се прилага от полицията в Обединеното кралство, но ще позволи изключения. Потребителите – най-вероятно полицията или разузнавателните агенции – ще трябва да се обърнат към съдия или независим орган, но може да им бъде разрешено да използват биометрични системи в реално време за търсене на жертви на отвличане, трафик или сексуална експлоатация. Предотвратяването на конкретна и настояща терористична заплаха или локализирането или идентифицирането на лице, заподозряно в извършване на едно от списък с конкретни престъпления, също може да бъде освободено.

Гийом Кунесон, партньор в адвокатската кантора Linklaters, каза, че принципната забрана за биометрични данни на живо е „доста силно изявление“, но изключенията могат да бъдат потенциално доста широки. „Ако става дума за идентификация на жертви или предотвратяване на заплахи, това означава ли, че не можете да го правите непрекъснато? Или можете да направите аргумента, че на летището например винаги има риск за сигурността и следователно винаги ще прилагате този вид технология?

„Няма да знаем, без да прочетем действителния текст, докъде са стигнали по този въпрос. Текстът дори може да не е достатъчно ясен, за да се определи това, така че може да имаме допълнителни дискусии и потенциално дори дела, които ще стигнат до Съда на ЕС , в крайна сметка“, каза той пред The Reg .

Couneson добави, че правилата, наложени на разработчиците на AI с общо предназначение, може да не са толкова ограничителни, колкото се страхуват някои, защото има изключения за научноизследователска и развойна дейност. „До известна степен изследванията около AI все още биха били възможни и без да попадат в тези рискови категории. Основното предизвикателство ще бъде в прилагането на тези високорискови случаи на употреба, ако сте компания, обмисляща [система с AI, която би] отговаряла на изискванията при един от изброените сценарии. Това е моментът, когато гумата излиза на пътя.“

Той посочи, че ЕС също е обсъдил въвеждането на „ регулаторни пясъчни кутии “ за насърчаване на иновациите в ИИ.

„Използването на пясъчни кутии може да бъде добър начин да се помогне на компаниите да имат подходящ диалог със съответните власти, преди да пуснат нещо на пазара. Иновациите се върнаха много в преговорите. Това не е нещо, което беше пренебрегнато“, каза той.

Така или иначе, индустрията ще трябва да изчака, докато ЕС публикува пълния текст на законодателното предложение – очаква се в края на януари или началото на февруари – преди да научи повече подробности. ®

Подобни статии

Не пропускайте