Блогеры и эксперты по ИИ обсудили, как противостоять дипфейкам

Пресс-релизы
Участники встречи. Фото: МТС

Компания МТС предложила белорусским блогерам провести эксперимент и опубликовать в соцсетях собственные дипфейки. Реакция подписчиков показала: многие восприняли видео как реальные, не распознав подделку.

После эксперимента состоялась встреча с экспертами по искусственному интеллекту, на которой гости обсудили причины, по которым дипфейки оказываются столь убедительными, и меры, необходимые для повышения цифровой осознанности.

Андрей Цыган, эксперт по ИИ, подчеркнул: «Сейчас достаточно собрать ваш голос, наложить лицо, и все — можно записать видео, где вы якобы просите деньги, делаете заявление или признаетесь в чем-то. И это будет выглядеть убедительно. В рамках эксперимента мы использовали самую простую программу, в один клик. Она не требует установки, не требует навыков. Это базовый инструмент, доступный абсолютно всем. Вот в этом и кроется главная угроза».

По словам блогера-предпринимателя Ивана Бондарева, особенно уязвимыми оказываются пожилые люди: «Мы только научили родителей не поднимать трубки от «банков», а теперь у них новый квест — определить, живой ли человек на экране».

«Быстрая, интуитивная часть мышления реагирует первой и говорит: «Это правда». А чтобы включить критическое мышление, нужно время и усилия. Когда мы уставшие, заняты, то не успеваем задуматься», — объяснил Андрей Шиманский, эксперт по ИИ. Он также отметил, что генеративный ИИ за три года прошел путь от лабораторной новинки до массового инструмента, а число атак с deepfake-контентом выросло на 3 тысячи процентов.

Участники встречи предложили ряд простых, но эффективных советов. Чтобы защитить себя и своих близких в цифровом пространстве, рекомендуется:

  • Обращать внимание на визуальные и звуковые несоответствия. Следите за неестественными движениями тела, странной мимикой, искажениями в изображении или звуке, а также за тем, насколько голос совпадает с артикуляцией.
  • Проверять источник информации. Если видео- или аудиозапись вызывает сомнение, постарайтесь найти оригинал или сопоставить с другими достоверными источниками. Не доверяйте контенту из неизвестного или подозрительного аккаунта.
  • Использовать инструменты анализа. Существуют онлайн-сервисы и приложения, которые позволяют проверить метаданные файлов, выявить следы редактирования и определить, был ли контент сгенерирован с помощью ИИ.
  • Не распространять сомнительный контент. Даже если информация кажется правдоподобной, не стоит делиться ей, не убедившись в достоверности. Распространение фейков может нанести вред другим людям и усилить эффект манипуляции.
  • Сообщать о подозрительном контенте. Если вы столкнулись с возможным случаем мошенничества, дезинформации или дипфейка, важно не оставаться в стороне. Сообщите об этом в правоохранительные органы и пожалуйтесь на контент администраторам в соцсети.