Главная » Новости » Почему поддельные видео со знаменитостями нужно запрещать

Почему поддельные видео со знаменитостями нужно запрещать

cf43d480b66c6f9a0c09845195d2c42cb242dbb4

Российская компания Neuro.net опубликовала в блоге на habr.com перевод статьи Мартина Форда о будущем искусственного интеллекта и в частности дипфейков.

Автор серьёзно опасается, что через год или два уже не только обыватели, но и специалисты не смогут отличить реальную аудиозапись от поддельной. Даже сейчас это возможно сделать только после тщательного анализа. Кроме того, в 2019 году компания Symantec обнаружила случаи обмана сотрудников различных организаций, причём мошенники использовали аудиодипфейки — копии голосов директоров этих компаний. Существуют сейчас и подобные видео, причём довольно качественные. И если пока что эксперты могут определить, поддельное видео перед ними или нет, то что будет дальше — неизвестно.

По мнению Мартина Форда, технологии глубокого обучения, в том числе генеративно-состязательные сети (GAN), могут быть действительно опасны. С помощью них создаются реалистичные картинки, видео, записи голосов людей. Накануне выборов видеоролик с наложенным лицом политика может снизить рейтинг этого кандидата, более того, автор уверен, что реалистичный дипфейк (фото или видео, созданное ИИ с помощью подмены лица одного человека лицом другого) способен даже «изменить ход истории». И если для злоумышленников это просто «находка», то для судебной системы — проблема. Если не будет существовать действительно надёжного средства отличить реальный контент от поддельного, то ничего нельзя будет доказать. Сейчас уже идёт работа над программой, которая поможет решить эту проблему.

В будущем, вероятнее всего, гаджеты будут оснащаться специальными цифровыми подписями (подобная технология есть у стартапа Truepic). Только так можно будет отличить реальные фотографии от «липовых». Кроме того, вполне возможно, что через какое-то время подделка станет как две капли воды похожей на оригинал. Тогда, утверждает автор, возникнет новая реальность, в которой вся информация вокруг может быть иллюзией. И под угрозой могут оказаться социальная структура, общественный порядок, экономика.

Создавая новые ИИ-технологии, продолжает Форд, надо учитывать все возможные риски. Для этого он предлагает придумать какую-либо технологию либо разработать законодательную базу. Но в любом случае, заключает автор, предпринимать меры необходимо сейчас.

©  Ferra.ru

Опубликовано: 11 октября 2021
↓