Loading...
Лента добра деактивирована. Добро пожаловать в реальный мир.
Вводная картинка

На ПМЮФ обсудили регулирование дипфейков

Фото: Дмитрий Ермаков / «Лента.ру»

Владимир Табак: 54 процента россиян сочли необходимым регулировать дипфейки

В современном мире сгенерированный с помощью искусственного интеллекта контент может становиться средством обмана, мошенничества и манипуляции общественным мнением. Поэтому в России все чаще поднимаются вопросы противодействия недостоверной информации такого типа. При этом 54 процента россиян считают, что регулировать дипфейки необходимо на законодательном уровне. Об этом генеральный директор АНО «Диалог» и АНО «Диалог Регионы» Владимир Табак рассказал в рамках сессии «Украденная личность. Правовые аспекты регулирования дипфейков и подделок голоса» на ПМЮФ-2024.

За последние годы дипфейк-технологии стремительно эволюционировали и достигли нового уровня развития. Однако последствия их использования могут быть не только положительными, но и отрицательными. Сегодня дипфейки нередко применяются в злонамеренных и преступных целях, представляя реальную угрозу безопасности личности, государству, бизнесу. Поэтому тема опасности дипфейков является актуальной и обсуждаемой, отметил советник генерального директора АНО «Диалог Регионы» Тихон Макаров. На вопросы о том, как должно осуществляться регулирование сгенерированного контента, какие технологии для выявления дипфейков существуют в России сегодня, и где проходит грань между нарушением прав и свободой творчества, ответили эксперты на Петербургском международном юридическом форуме.

По сравнению с 2022 годом в 2023 году количество видеодипфейков выросло в три раза, а аудиодипфейков — практически в восемь раз, рассказала начальник Управления президента Российской Федерации по развитию информационно-коммуникационных технологий и инфраструктуры связи Татьяна Матвеева. При этом экспертное сообщество прогнозирует еще более широкое распространение дипфейков в ближайшие годы.

«Особенность дипфейков заключается в том, что такой контент кажется настоящим, он вводит в заблуждение и имеет высокую скорость распространения, что не позволяет человеку задуматься. Технологии дипфейков развиваются, поэтому и технологии распознавания должны развиваться. Нам важно, чтобы люди были предупреждены и понимали информационные риски, перепроверяли источники информации. Важно распространять технологию доверенного искусственного интеллекта», — отметила она.

На сегодняшний день самой большой проблемой являются видео- и аудиодипфейки, отметил зампредседателя комитета Госдумы по информационной политике, информационным технологиям и связи, председатель РОЦИТ Антон Горелкин. Однако обсуждаемые меры регулирования, в том числе маркировка, не обеспечивают необходимое решение в полной мере:
«Нейросети учатся на своих ошибках, поэтому людям нужен доступный инструмент для проверки контента. Государству сейчас необходимо сконцентрироваться на этой задаче и объединить лучшие проекты, которые есть в России для распознавания дипфейков. Если говорить о регуляторике, то без такого инструмент нам не обойтись, он должен быть на вооружении и у следователей, и у судий. Но торопиться с регуляторикой не нужно, чтобы, регулируя, не сделать работу наших компаний-разработчиков сложнее».

Согласно результатам исследования, которые озвучил Владимир Табак, 47 процентов россиян знают о дипфейках или что-то о них слышали, но каждый пятый из респондентов дает неправильное определение этому понятию. При этом 50 процентов граждан считают, что дипфейки представляют опасность. Современные технологии позволяют создать дипфейки более качественными и демонстрируют впечатляющие возможности, отметил эксперт. Однако в России существуют технологические решения этой проблемы.

«У нас это сервис "Зефир", который позволяет детектировать дипфейки с интегральной точностью 85 процентов. За три года существования сервисом было проверено более 5 миллионов единиц контента. Количество контента, созданного искусственным интеллектом, кратно возрастает, поэтому мы стоим перед большим вызовом. Среди недостоверной информации 10% сгенерирована ИИ. При этом в 2023 году, по сравнению с 2022 годом, количество такого контента выросло в 17 раз. Нам критически важно определиться со стратегией работы с дипфейками и искусственным интеллектом, до этого говорить про законодательное регулирование рано», — заявил Владимир Табак.

При этом важно понимать, с какой целью создается сгенерированный с помощью искусственного интеллекта контент. Если технологические средства применяются с намерением похитить личность человека или ввести в заблуждение, то злоумышленника смогут обвинить и наказать, отметил генеральный директор АНО «Институт развития интернета» (ИРИ) Алексей Гореславский.

«Во многом проблема появилась не из-за технологического прогресса, а из-за того, что человек доверчив, а где-то его действительно вводят в заблуждение. Можно ли и нужно ли создавать контент с использованием технологий — безусловно да. Если новые синтезированные образы не будут создаваться, мы не будем развиваться и останемся в мире бумажной книги. ИРИ поддержал ряд проектов, в которых есть эти эксперименты. Думаю, эта практика будет продолжаться и дальше», — рассказал Алексей Гореславский.

Советник генерального директора Главного радиочастотного центра (ФГУП «ГРЧЦ») по научно-техническому развитию Евгения Рыжова рассказала, что ещё в 2014 году технология ИИ стала технологией «чёрного ящика». Сегодня невозможно полностью контролировать ИИ и предсказать его развитие. Эта технология сегодня имеет несколько уровней назначения: с одной стороны, генеративный ИИ позволяет людям решать задачи по созданию контента, сокращая время на его производство в десятки раз, с другой - он становится оружием в информационной войне. Поэтому для эффективного регулирования сферы необходимо прежде всего определить все сущности технологии ИИ, объекты, субъекты правовых отношений и другие элементы.

Что думаешь? Оцени!
      Комментарии к материалу закрыты в связи с истечением срока его актуальности
      Бонусы за ваши реакции на Lenta.ru
      Читайте
      Оценивайте
      Получайте бонусы
      Узнать больше