Каждый второй россиянин к концу текущего года может столкнуться с дипфейк-атакой, сообщают специалисты по искусственному интеллекту (ИИ).
По информации экспертов, аферисты смогут в режиме реального времени имитировать разговор с «другом, просящим деньги» или же «коллегой, срочно требующим перевести средства».
Раньше на создание таких убедительных подделок требовалось много времени и серьезных навыков, но сегодня эта технология рискует стать массовой благодаря развитию ИИ.
Сегодня технологии дипфейков развиваются со стремительной скоростью, пользователям становится всё сложнее отличить «маску» от реальности. Буквально пару лет назад с подобными атаками сталкивались лишь 10% пользователей Сети, но уже к концу этого года каждый второй россиянин может стать жертвой дипфейк-атак, рассказали «Известиям» в пресс-службе MTS AI.
Если в 2024–2025 годах основное распространение получили фейковые видео в мессенджерах (видеокружки) и голосовые сообщения, то уже через год мошенники смогут в реальном времени имитировать разговор с «дочкой, попавшей в беду», «другом, просящим деньги» или «коллегой, срочно требующим перевести средства», отметили в компании.
В отличие от ранних подделок современные дипфейки всё сложнее распознать даже опытному пользователю. Из-за этого мошенники активно переключаются на них, подчеркнули в пресс-службе MTS AI.
Дипфейками называют фотографии или видеозаписи, на которых голос или внешность человека «подделаны» с помощью нейросети.