В рамках инициативы «Идентичность в сети» Алексей Холод, Павел Сыроежкин, Оксана Ванчук, Вадим Лапай и другие инфлюенсеры опубликовали в своих аккаунтах дипфейк-видео с вымышленными историями. Цель проекта — показать, насколько легко сегодня ввести в заблуждение даже внимательного пользователя. Реакция подписчиков показала: многие восприняли фальшивку как правду.
После эксперимента состоялась встреча с экспертами по искусственному интеллекту, на которой гости обсудили причины, по которым дипфейки оказываются столь убедительными, и меры, необходимые для повышения цифровой осознанности.
«Мы с рождения привыкли доверять тому, что видим и слышим. Быстрая, интуитивная часть мышления реагирует первой и говорит: «Это правда». А чтобы включить критическое мышление, нужно время и усилия. Когда мы уставшие, заняты или просто пролистываем ленту, то не успеваем задуматься», — объяснил Андрей Шиманский, эксперт по ИИ. Он также отметил, что генеративный ИИ за три года прошел путь от лабораторной новинки до массового инструмента, а число атак с deepfake-контентом выросло на 3000%.
По словам блогера-предпринимателя Ивана Бондарева, особенно уязвимыми оказываются пожилые люди: «Мы только научили родителей не поднимать трубки от «банков», а теперь у них новый квест — определить, живой ли человек на экране».
Андрей Цыган, эксперт по ИИ, подчеркнул: «Сейчас достаточно собрать ваш голос, наложить лицо, и все — можно записать видео, где вы якобы просите деньги, делаете заявление или признаетесь в чем-то. И это будет выглядеть убедительно. В рамках эксперимента мы использовали самую простую программу, в один клик. Она не требует установки, не требует навыков. Это базовый инструмент, доступный абсолютно всем. Вот в этом и кроется главная угроза».
Участники встречи предложили ряд простых, но эффективных советов. Чтобы защитить себя и своих близких в цифровом пространстве, рекомендуется:
- Обращать внимание на визуальные и звуковые несоответствия. Следите за неестественными движениями тела, странной мимикой, искажениями в изображении или звуке, а также за тем, насколько голос совпадает с артикуляцией.
- Проверять источник информации. Если видео- или аудиозапись вызывает сомнение, постарайтесь найти оригинал или сопоставить с другими достоверными источниками. Не доверяйте контенту из неизвестного или подозрительного аккаунта.
- Использовать инструменты анализа. Существуют онлайн-сервисы и приложения, которые позволяют проверить метаданные файлов, выявить следы редактирования и определить, был ли контент сгенерирован с помощью ИИ.
- Не распространять сомнительный контент. Даже если информация кажется правдоподобной, не стоит делиться ей, не убедившись в достоверности. Распространение фейков может нанести вред другим людям и усилить эффект манипуляции.
- Сообщать о подозрительном контенте. Если вы столкнулись с возможным случаем мошенничества, дезинформации или дипфейка, важно не оставаться в стороне. Сообщите об этом в правоохранительные органы и пожалуйтесь на контент администраторам в соцсети.
Справка:
МТС продолжает реализацию образовательных инициатив по повышению цифровой грамотности. В рамках проектов #ШколаЦифровойГрамотности, #НаучиСвоихБлизких и #ИнтернетБезБуллинга компания обучает белорусов безопасному поведению в сети, помогает распознавать угрозы и защищать личные данные. Эти и другие инициативы позволяют формировать навыки осознанного цифрового поведения, чтобы каждый пользователь умел критически оценивать информацию и противостоять манипуляциям.
Оперативные и актуальные новости Волковыска и района в нашем Telegram-канале. Подписывайтесь по ссылке!
Правила использования материалов "Наш час" читайте здесь.