Законът, тайно изготвен от ChatGPT, го прави в книгите

Share

Съветът на Порто Алегре, град в Южна Бразилия, одобри законодателство, изготвено от ChatGPT. 

Наредбата трябва да попречи на града да таксува данъкоплатците, за да замени всички водомери, откраднати от крадци. Гласуване от 36 членове на съвета единодушно прие предложението, което влезе в сила в края на ноември. 

Но това, което повечето от тях не знаеха, беше, че текстът на предложението е генериран от AI чатбот, докато съветникът Рамиро Росрио не призна, че е използвал ChatGPT, за да го напише.

„Ако го бях разкрил преди, предложението със сигурност нямаше дори да бъде подложено на гласуване“, каза той каза на Асошиейтед Прес.

Това е първото по рода си законодателство, написано от ИИ, което се приема от законодателите, за които ни знаят лешоядите; ако знаете за някакви други робо-писмени закони, договори, или интересни неща като това, направете го уведомете ни. За да бъде ясно, ChatGPT не беше помолен да излезе с идеята, но беше използван като инструмент за написване на дребния шрифт. Росарио каза, че е използвал подкана от 49 думи, за да инструктира хаотичния чатбот на OpenAI, за да генерира пълния проект на предложението. 

Първоначално президентът на градския съвет Хамилтън Сосмайер не одобрява методите на колегата си и смята, че Розау е създала „опасен прецедент.“ По-късно обаче той промени мнението си и каза: „Започнах да чета по-задълбочено и видях, че за съжаление или за щастие това ще бъде тенденция.“

Сосмайер може и да е прав. В САЩ сенаторът от щата Масачузетс Бари Финеголд и представителят Джош Кътлър направиха заглавия по-рано тази година за своите сметка заглавие: „Закон, изготвен с помощта на ChatGPT за регулиране на генеративни модели на изкуствен интелект като ChatGPT.“

Двамата вярват, че инженерите за машинно обучение трябва да включват цифрови водни знаци във всеки текст, генериран от големи езикови модели, за да открият плагиатство (и вероятно да позволят на хората да знаят кога нещата са направени от компютър); да получат изрично съгласие от хората, преди да събират или използват данните си за обучение на невронни мрежи; и да извършват редовни оценки на риска на тяхната технология.

Използването на големи езикови модели като ChatGPT за писане на правни документи е противоречиво и рисковано в момента, особено след като системите са склонни да измислят информация и да халюцинират. През юни адвокатите Стивън Шварц и Питър ЛоДука, представляващи Левидоу, Левидоу и Оберман, адвокатска кантора със седалище в Ню Йорк, попадна под обстрел за цитиране на фалшиви съдебни дела, съставени от ChatGPT в съдебно дело.

Те съдят колумбийската авиокомпания Avianca от името на пътник, който е бил ранен на борда на полет 2019 г., и подтикнаха ChatGPT да припомни подобни случаи, за да цитира, което направи, но също така просто направо си представяше някои. По това време Шварц и Лодука обвиняват грешката си, че не разбират ограниченията на чатбота и твърдят, че не знаят, че това може да халюцинира информация.

Съдия Кевин Кастел от Южния Окръжен Съд на Ню Йорк осъзнах случаите са били фалшиви, когато адвокатите от противниковата страна не са успели да намерят цитираните съдебни документи и са помолили Шварц и ЛоДюка да цитират източниците си. Castel ги глобява както $5 000, така и напълно отхвърля делото. 

„Урокът тук е, че не можете да делегирате на машина нещата, за които е отговорен адвокат“, Стивън Ву, акционер в Silicon Valley Law Group и председател на Националния институт по изкуствен интелект и роботика на Американската Адвокатска Колегия, казано по-рано На Регистъра.

Росарио обаче вярва, че технологията може да се използва ефективно. „Убеден съм, че човечеството ще преживее нова технологична революция. Всички инструменти, които сме развили като цивилизация, могат да бъдат използвани за зло и добро. Ето защо трябва да покажем как може да се използва за добро“, каза той. ®

ПС: Amazon обявеното неговият Q чат бот на re:Invent тази седмица, дигитален асистент за редактиране на код, използване на AWS ресурси, и повече. Той е достъпен в предварителен преглед и тъй като е LLM система, си представихме, че ще направи нещата и ще обърка нещата. И ние бяхме прави: вътрешни документи изтекла платформър описва невронната мрежа като „изживяваща тежки халюцинации и изтичане на поверителни данни.“

Подобни статии

Не пропускайте