16.8 C
София

Не се заблуждавайте: Google фалшифицира своята гласова демонстрация на Gemini AI

AI Накратко Google порази интернет с демонстрационен видеоклип, показващ мултимодалните възможности на най-новия голям езиков модел Gemini – но част от демонстрацията беше фалшифицирана.

В демонстрацията по-долу изглежда, че Gemini може да реагира на гласа на потребителя и да взаимодейства със заобикалящата го среда, като гледа неща, които е нарисувал или играе на камък, хартия, ножица. В демонстрацията Близнаците са помолени да познаят какво скицира потребителят върху бележка Post-It и правилно отговаря например патица.

След това върху хартиен атлас се поставя гумено пате и Близнаците могат да идентифицират къде е поставен обектът. Прави най-различни неща – идентифициране на предмети, намиране къде нещата са били скрити и преместени под чаши и др. Google се опита да покаже способностите на Близнаци да обработва различни форми на информация и да извършва логически и пространствени разсъждения.

Видео в Youtube

Но в действителност моделът не беше подканен с помощта на аудио и отговорите му бяха само текстови. Те също не са генерирани в реално време. Вместо това видеото е създадено „с използване на кадри от неподвижни изображения от кадрите и подсказване чрез текст“, каза говорител на Google пред Bloomberg .

Човекът, говорещ в демонстрацията, всъщност четеше някои от текстовите указания, които бяха предадени на модела, а гласът на робота, даден на Gemini, четеше отговорите, генерирани от него в текст. Неподвижни изображения, взети от видеото – като камък, хартия, ножици – бяха подавани на модела и той беше помолен да познае играта. След това Google избра най-добрите си резултати и ги разказа заедно с кадрите, за да изглежда така, сякаш моделът може да реагира безупречно в реално време.

„За целите на тази демонстрация, латентността е намалена и изходите на Gemini са съкратени за краткост“, гласи описанието на видеото в YouTube. Ориол Винялс, вицепрезидент на отдела за изследвания и задълбочено обучение в Google DeepMind, който помогна за ръководенето на проекта Gemini, призна , че видеото демонстрира „как могат да изглеждат мултимодалните потребителски изживявания, изградени с Gemini“ (наш акцент).

AMD идва за обяд на Nvidia

Най-добрите разработчици на AI се ангажираха да използват най-новите ускорители от серия Instinct MI300 на AMD, тъй като търсят повече изчислителни ресурси за подпомагане на обучението и работата на техните модели.

При представянето на AMD тази седмица представители на Microsoft, Oracle и Supermicro излязоха на сцената, за да подкрепят магазина за чипове, обещавайки да закупят и изградят AI сървъри за захранване на облачни платформи или самостоятелни машини. Microsoft ще използва чиповете за изграждане на MI300x v5 клъстери за виртуална машина за Azure, докато Oracle ще предложи OCI изчислителни решения за голи метали.

Dell ще интегрира най-новите AI ускорители на AMD за своите сървъри PowerEdge XE9680, докато HPE ще започне да ги внедрява за своя HPC бизнес. Междувременно друга Meta обеща да добави чиповете към своите центрове за данни, а OpenAI разработва софтуер за поддръжка на Instinct MI300, използвайки своя компилатор Triton 3.0.

„AI е бъдещето на компютрите и AMD е в уникална позиция да захранва инфраструктурата от край до край, която ще определи тази AI ера, от масивни облачни инсталации до корпоративни клъстери и интелигентни вградени устройства и персонални компютри с активиран AI“, Лиза Су, главен изпълнителен директор на AMD се декларира в изявление.

Nvidia е в челните редици на изчисленията с изкуствен интелект и нейните приходи нарастват значително всяка година с нарастването на търсенето на нейните графични процесори. Но предлагането е малко и големите клиенти търсят други възможности. Някои с най-дълбоки джобове дори са се обърнали към изграждането на собствен персонализиран силикон – като Google, Amazon и Microsoft.

Добър момент е да се опитате да откраднете малко от обяда на Nvidia, а серията Instinct MI300 на AMD е най-добрият опит досега. Тъй като все повече и повече разработчици възприемат чипа, софтуерната екосистема, предназначена да поддържа неговия хардуер, ще расте – което ще улесни другите да използват хардуера на AMD.

Членовете на SAG-AFTRA гласуват за одобряване на съюзен договор, регулиращ ИИ

Синдикатът на американските актьори SAG-AFTRA официално ратифицира споразумението си с водещи телевизионни и филмови продуцентски компании, след като постигна споразумение за по-добри условия на труд и AI.

Членовете прекратиха продължилата месеци стачка и се върнаха на работа, когато лидерите успяха да договорят по-добри условия на договора с Алианса на филмовите и телевизионни продуценти (AMPTP). Голяма пречка беше регулирането на използването на AI, тъй като технологията става все по-напреднала и се възприема все по-широко от развлекателната индустрия.

Съгласно сделката медийните студиа трябва да получат изрично съгласие и да компенсират изпълнителите за използването на техен образ. Актьорите и актрисите се притесняваха, че могат да бъдат заменени и да загубят работни места заради компании, които се обръщат към технологиите, за да създадат фалшиви, но реалистично изглеждащи статисти или гласове за реклами, телевизионни предавания или филми.

Споразумението беше официално ратифицирано, след като мнозинството от членовете гласуваха за него тази седмица.

„Членовете на SAG-AFTRA поискаха фундаментална промяна в начина, по който тази индустрия ги третира: справедливост в компенсацията за техния труд, защита от злоупотреба с AI технология, засилени планове за обезщетения и справедливо и уважително отношение към всички членове, наред с други неща,“ националният изпълнителен директор на съюза и главен преговарящ Дънкан Крабтрий-Ирландия обясни в изявление.

„Този нов договор постига тези цели и прави значителен напредък в придвижването на индустрията в правилната посока. С ратифицирането на този договор членовете ясно показаха, че искат да използват своето единство, за да положат основите за по-добра индустрия, подобрявайки живота на работещите в своята професия.“

Meta пуска инструмент за преобразуване на текст в изображение и обещава да постави водни знаци на своите изображения

Meta пусна Imagine – уеб-базирано приложение за текст към изображение – тази седмица и планира да добави цифров воден знак за етикетиране на синтетично съдържание, генерирано от неговия софтуер.

Imagine се захранва от Emu, който е визуален генериращ AI модел, способен да създава 2D- и кратки 3D-анимирани видеоклипове. Може да се използва от всеки с акаунт във Facebook. Въведете кратка подкана и Imagine ще генерира панел от неподвижни изображения, съответстващи на въведеното описание, които потребителите могат да прелистват и използват.

Meta планира да пусне технология, която автоматично добавя воден знак към резултатите на Imagine, за да гарантира, че генерираното от AI съдържание може да бъде открито.

„През следващите седмици ще добавим невидим воден знак към [Imagine] с Meta AI опит за повишена прозрачност и проследимост. Невидимият воден знак се прилага с модел за дълбоко обучение. Въпреки че е незабележим за човешкото око, невидимият воден знак може да бъде открит със съответния модел“, потвърди Мета в публикация в блог .

Социалната платформа твърди, че водният знак ще остане непокътнат, дори ако потребителите изрежат, променят или направят екранни снимки на изображения, генерирани от AI на Imagine. ®

Времето днес

София
предимно ясно
16.8 ° C
16.8 °
16.8 °
59 %
3.6kmh
16 %
пт
17 °
сб
25 °
нд
29 °
пн
29 °
вт
29 °

Автор

ВАШИЯТ КОМЕНТАР

Моля, въведете коментар!
Моля, въведете името си тук