Журналист и первый зампред комиссии по СМИ Общественной палаты РФ Александр Малькевич высоко оценил программу для распознавания дипфейковых видео, созданную ростовскими учеными в ДГТУ. По словам разработчиков, механизм моментально вычисляет признаки синтезирования лица человека с помощью нейросетей.

«Программа крайне нужная, она нужна была ещё вчера, потому что фейковые видео реально достигли таких высот, что зачастую их сложно отличать от оригинальных. Они пересылаются в мессенджерах зачастую с различными водяными знаками тех или иных сообществ, пабликов telegram-каналов, а это ещё более затрудняет распознавание», — сказал в разговоре с журналистами «Южной службы новостей» Александр Малькевич. 

Сейчас, когда нейросети становятся с каждым днем все более умными, создать дипфейк не составляет особого труда. Технология все еще дорогая - одна минута дипфейка стоит около 100 тысяч рублей - но ее стоимость начинает снижаться, а значит скоро создание подобных видео будет доступно многим. 

«Представьте: выходит фейковое видео, в котором руководитель кого-то государства говорит, что он объявил войну другому государству или отдал приказ нанести ракетный удар по такому-то городу. Вот, как на это реагировать? Такие видео способны вызвать серьёзное общественно-политические потрясения. Ну или, как минимум, потрясение экономического характера», - добавил Малькевич. 

По словам журналиста, нужно, чтобы проблемой подобных фейков занялись на общенациональном уровне. 

«Деятели условно старой школы недооценивают угрозу фейковых видео, фейковых аудио. Нужен фильтр на входящую информацию. Мы видим же на фоне страшных событий на Ближнем Востоке, какое количество фейковых фотографий, например, распространяется? Как важно, что есть уже программа, позволяющая идентифицировать, что эти снимки созданы с помощью искусственного интеллекта», - сказал Александр Малькевич.

Фото: najti-po-photo.ru