Loading...
Лента добра деактивирована. Добро пожаловать в реальный мир.
Вводная картинка

Скандальная технология из порно поможет мошенникам обокрасть банковских клиентов

Фото: Игорь Зарембо / РИА Новости

Эксперты в области защиты данных назвали технологию deepfake реальной угрозой для клиентов банков. Об этом сообщается в Telegram-канале компании Group-IB.

Сотрудник компании Антон Фишман призвал пользователей не разговаривать по телефону ни с «сотрудниками банка», ни с теми, кто представляется специалистами страховых компаний или пенсионного фонда. Однако, по его мнению, возможность сделать «аудиослепок» с голоса клиента все еще остается мифом. Он уточнил, что система верификации включает не один параметр, поэтому подделать биометрическую информацию очень сложно.

Так Фишман прокомментировал появляющиеся в сети публикации о том, что в разговоре с неизвестными нельзя кратко соглашаться или говорить фразы вроде «да, я подтверждаю».

При этом важной проблемой, по мнению эксперта, стала технология deepfake, позволяющая обучать искусственный интеллект. Он привел в пример инцидент, произошедший в Германии: там мошенники, используя обученный механизм, от лица директора компании заставили представителей другой фирмы перевести на неизвестный счет 220 тысяч евро.

В начале 2018 года алгоритм deepfake стал скандально известен в сети. Он позволил создавать фейковые видео и аудиозаписи: к примеру, в сети распространились фальшивые порноролики, где вместо лиц профессиональных актеров были подставлены лица знаменитостей. Администрация Reddit и ряд порнохостингов заблокировали все подобные видео, опасаясь юридических последствий. Тогда специалисты предположили, что фальшивые ролики с участием политиков могут стать причиной начала ядерной войны.

Что происходит в России и в мире? Объясняем на нашем YouTube-канале. Подпишись!
Комментарии к материалу закрыты в связи с истечением срока его актуальности
Бонусы за ваши реакции на Lenta.ru
Читайте
Оценивайте
Получайте бонусы
Узнать больше