Чичо Сам ще плати за вашите големи идеи, за да сложите край на измамите с клониране на AI глас

Share

Федералната търговска комисия (FTC) обещава награда от 25 000 долара за най-доброто решение за борба с нарастващата заплаха от клониране на AI глас.

Понякога наричани аудио дълбоки фалшификации, броят на онлайн услугите, предлагащи лесни за използване съоръжения за клониране на глас, се увеличи, откакто генеративният ИИ стана масов, което поражда опасения относно потенциала му за злоупотреба при кибератаки.

Например, широко разпространена заплаха може да включва подправяне на гласовете на изпълнителни директори, за да се представят за тях и да инструктират финансовия отдел да преведе пари към сметката на нападател. Приятели и семейства също могат да бъдат подмамени да изпращат пари на близки, а артистите могат да бъдат застрашени, ако технологията продължи да се развива.

Заинтересованите страни имат време до 12 януари да представят своите идеи за справяне с измамите с клониране на глас, базирани на AI, като се фокусират главно върху предотвратяването, наблюдението и оценката на технологията.

„Това усилие може да помогне за прокарването на идеи за смекчаване на рисковете нагоре по веригата – защита на потребителите, креативните професионалисти и малкия бизнес срещу вредите от клонирането на глас, преди вредата да достигне до потребителя“, каза FTC.

„Това също така може да помогне за напредъка на идеите за смекчаване на рисковете на потребителско ниво. И ако не се появят жизнеспособни идеи, това ще изпрати критично и ранно предупреждение към политиците, че трябва да обмислят по-строги ограничения върху използването на тази технология, предвид предизвикателството в предотвратяване на вредното развитие на приложения на пазара.“

Изпращанията ще бъдат оценявани въз основа на това доколко е осъществимо да се изпълнят и администрират, доколко е устойчиво на технологични промени и колко обмислено обмислят отговорността и отговорността на компаниите, наред с други мерки.

Най-голямата предложена награда е $25 000, което не звучи като златна мина, като се имат предвид потенциалните широки приложения, които едно гениално решение може да има.

Един подгласник също ще получи $4000, трима почетни споменавания ще получат по $2000 за проблемите си, а организации от 10 или повече души ще получат безкасова награда за признание.

AI гласово злоупотреба в действие

Ефективността на гласовото клониране с изкуствен интелект е доказана в многократни случаи през последната година. Експертите от словашкия магазин за сигурност ESET показаха как може да се извади гореспоменатия пример за фалшиви изпълнителни директори.

Всъщност това е проблем от години, преди генеративният ИИ да влезе в ръцете на обикновения човек. Британска енергийна компания беше източена с 243 000 долара през 2019 г., след като нейният главен изпълнителен директор беше инструктиран да изпрати голяма сума на унгарски доставчик.

Доклад на New York Times, отново от предходните 12 месеца, подробно описва набор от случаи, успешно насочени към финансовия сектор, подмамили банките да прехвърлят пари от онези, за които смятат, че са истински клиенти. El Reg също съобщи за подобни атаки, извършени в ОАЕ още през 2021 г.

Романтичните измами също са широко разпространени, като един британец се влюбва в измамния Кевин Костнър , а престъпниците също показаха, че не са по-добри от извършването на „спешни семейни“ измами – такива, които са насочени към родители с клонирани гласове на децата си, които искат пари за да пусна гаранция, например.

Още по- зловещи примери са виждали как майки приемат обаждания от дъщерите си, които се предполага, че са държани заложници от „похитители“, които искат огромни откупи.

Гласовото клониране става възможно чрез захранване на AI модел с достатъчно данни за обучение, за да разбере звука, тона, темпото, инфлексията и други нюанси на гласа на индивида. Смята се, че знаменитостите и други публични личности са изложени на сериозен риск от тези атаки предвид броя на записите на техните гласове, които съществуват онлайн.

С възхода на социалните медии и културата за създаване на видео съдържание, много незнаменитости и дори деца също имат достатъчно материали онлайн, за да обучат модел ефективно.

Изследователите на Kaspersky разгледаха нарастването на клонирането на AI глас миналата година и откриха голямо разнообразие от свободно достъпни инструменти с отворен код, които могат да генерират клонирани гласове с помощта на AI технология. Въпреки това, те твърдяха, че за да се създаде убедителен клонинг и да работи, е необходимо малко Python ноу-хау и малко бърникане от страна на клониращия.

Платените предложения обаче обикновено са много по-ефективни. Изследователите посочиха модела VALL-E на Microsoft , за който се предполага, че може да генерира приличен клонинг само с три секунди гласов звук, използван като данни за обучение.

Има и други платени решения, които работят по-добре от безплатните, но те все още са само в ранен етап на разработка, така че можем да очакваме точността и ефективността на тези модели да се подобрят с времето. ®

Подобни статии

Не пропускайте