Новости #Дипфейки

Новости Дипфейки

Эксперт рассказал о рисках дипфейков и правилах защиты от мошенников

Эксперт по информационной безопасности компании Киберпротект Саркис Шмавонян предупредил об использовании технологии искусственного интеллекта для незаконных действий. Примерами угроз стали голоса коллег или начальства с просьбой вывести средства и звонки родных с требованием сообщить конфиденциальные данные. Специалист отметил, что создание дипфейков становится доступным даже без глубоких технических знаний.

Распознать подделку помогут признаки вроде неестественного взгляда, странного моргания или рассинхронизации губ и речи. Современные модели способны имитировать микродвижения лица, но существуют сервисы для анализа аудио и видео в реальном времени. Главный метод защиты — цифровая гигиена и критическое мышление при создании и потреблении контента.

Собеседник призывает придерживаться принципа нулевого доверия, так как любое фото или текст может оказаться фейком. Он посоветовал не торопиться с решениями при виде знакомых лиц на экране и связаться с собеседником по другим каналам связи. При малейших сомнениях нужно прервать контакт и сохранить файлы как доказательства преступления.

Специальной статьи за дипфейки в России сейчас нет, но действия злоумышленников наказываются по статьям о мошенничестве, вымогательстве и нарушении частной жизни. Ранее в стране уже обсуждали запрет на генерацию картинок товаров с помощью нейросетей в интернете.