НОВИНИТЕХНОЛОГИИ

Фалшивото видео става все по-прецизно

Представете си за момент, че един човек притежава пълен контрол над откраднатата информация на милиарди хора – всички техни тайни, подробности за живота и дори тяхното бъдеще. Аз ги имам благодарение на Spectre. Spectre ми показа, че който контролира данните, той контролира бъдещето“.

Тези думи излизат от устата на основателя и главен изпълнителен директор на Facebook Марк Зукърбърг във видео, което е публикувано в Instagram. Последната социална мрежа е част от компанията, която той контролира. Звучат шокиращо, а самото видео изглежда максимално достоверно. Тук идва големият въпрос – ще повярвате ли на клипа?

Зукърбърг никога не е изричал тези думи, въпреки, че според видеото, именно той прави това изявление. Клипът е дело на двама британци – Бил Постърс и Даниел Хоуи, които си партнират заедно с рекламната агенция Canny. Те изпoлзват нейн софтуер за замяна на диалога във видеото, който прави това с помощта на изкуствен интелект. Алгоритъмът се казва CannyAI, а технологията VDR. Това не е единственото видео, което Постърс разработва, той прави още няколко клипа с известни личности, като Ким Кардашиян и Доналд Тръмп. Споменатата в речта на Зукърбърг Spectre е името на неговата изложба в Шефийлд.

Как действа CannyAI

Разработването на подобни фалшиви видеа не е от вчера, но те изглеждат все по-достоверни, благодарение на напредъка на изкуствения интелект. В случая със Зукърбърг са необходими няколко компонента. Оригинално видео, на което да се базират кадрите и достатъчно записана реч от основателя на Facebook. Първото е взето от обръщение на Зукърбърг през 2017 г., в което той засяга ролята на Русия и социалната мрежа около президентските избори в САЩ година по-рано. Оттам най-вероятно е взета информацията за гласа, но самият основател на Facebook има редица записани интервюта, откъдето софтуерът може да черпи данни.

CannyAI анализира аудиото и видеото. Според, създателите, софтуерът е използвал само между 20 и 45 секунди от обръщението на Зукърбърг, за да може да пресъздаде правилните движения на устните и изражение на лицето, когато „изрича“ фалшивите думи. Може да ви се струва малко време, но реално има AI програми, които могат да анимират портрети дори от една единствена снимка. След, това са изрязани само 21 секунди от оригиналния клип, които да се ползват за основа (фон, жестове и др.). Във визуално отношение, видеото е безупречно. Поведението на Зукърбърг е максимално реалистично, а устните му и лицевото му изражение пасват напълно на записания звук.

По отношение на аудио частта има какво да се желае във фалшивото видео, като най-вероятно при нея не е използван изкуствен интелект. Предполага се, че речта е записана от човек, който се опитва да имитира Зукърбърг и след, което тя е обработена, да наподоби неговия изказ. При положение, че има подобни програми, които на базата на достатъчно самообучение и информация за него, могат да пресъздадат подобно „фалшиво“ изказване.

Последствията

Освен, привличане на вниманието към изложбата на Потърс, клипът ясно демонстрира няколко ефекта. Първият е, че се приближаваме все повече към постигането на максимално достоверни фалшиви видеа, в които известни личности да казват неща, които никога не са изричали публично. Вторият е, че Instagram и Facebook не знаят как да се справят с подобни постове. Позицията на компанията е, че ще намали приоритизирането при показване на клиповете с фалшивите речи в социалната мрежа, но няма да ги изтрие.

Третият е, че никъде в това видео не се споменава директно, че е фалшиво и се ползва за рекламна цел. В поста на Потърс в Instagram пише, каква технология се ползва, но нищо повече. Основното опасение тук е, че в един момент, хората няма да могат да различат истинско от фалшиво видео. Ако сега се борим неуспешно със заблуждаващите новини и много потребители не могат да определят коя каква е, този проблем с подобни клипове ще бъде много по-голям и тежък. Което допълнително може да подкопае доверието.

Тагове

Свързани статии

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button