Статья о дипфейках в ГК поможет сохранить уникальные изображения и голоса людей, в том числе защитить знаменитостей - Страна.ЛАЙФ
Реклама
Главная
/
Новости
/
В России

Статья о дипфейках в ГК поможет сохранить уникальные изображения и голоса людей, в том числе защитить знаменитостей

Фото: pixabay.com
Поделиться:
05 апреля 2024 в 10:12

О дипфейках предложили написать статью в Гражданском кодексе

Поделиться:
Нашли ошибку в тексте?
Выделите её мышкой и нажмите
CTRL
+
ENTER
Технологии искусственного интеллекта (ИИ) могут быстро и точно создать изображение и голос человека, которые будут неотличимы от оригинала. Это может привести к развитию новых видов мошенничества, по мнению членов Совета по развитию цифровой экономики при Совете Федерации, поэтому разрабатывается законопроект о противодействии дипфейкам. Одной из предлагаемых инициатив является закрепление нового термина в Гражданском кодексе. Однако как точно определить дипфейк в настоящее время не удается ни законодателям, ни ученым.

Для защиты от потенциальной опасности ИИ, способного создавать дипфейки, существуют различные методы. Например, можно создать голосовую запись песни с помощью голоса любого исполнителя, даже ушедшего из жизни, используя искусственный интеллект. Для достоверного имитирования речи человека потребуется всего лишь двухминутная запись его голоса. Такие же генеративные технологии искусственного интеллекта применяются и для работы с изображениями, оживляя фотографии или создавая новые видеоролики. Созданные при помощи ИИ лица будут абсолютно реалистичными.

Недавно ректор Университета Иннополис, Александр Гасников, рассказал о ситуации, когда мэр Москвы Сергей Собянин позвонил ему, хотя сам мэр находился на экране смартфона. Специалист сразу распознал дипфейк и завершил разговор. Но не все люди так хорошо разбираются в новых технологиях. В обычной жизни, возможно, мэру не позвонят, но могут позвонить "родственники", на самом деле ими не являющиеся, и здесь возникают риски.

Использование глубоких нейронных сетей для создания дипфейков может быть опасно, по словам Гасникова. В то же время в России уже разработаны методы обнаружения фейков на основе математических моделей. Однако эти методы требуют постоянного совершенствования, поскольку это своего рода борьба вооружений, где нужно всегда опережать злоумышленников.

Для эффективного регулирования дипфейков их можно упомянуть в Гражданском кодексе, предложил директор Национальной федерации музыкальной индустрии Никита Данилов. Он предложил определить дипфейк как искусственную аудио- либо видеозапись, создаваемую при помощи ИИ для имитации человека или объекта. Предложены также квалифицирующие признаки дипфейка, такие как использование автоматизированных технологий для создания подобных образов.

Секция «Искусственный интеллект» продолжит исследования, возможно, в некоторых областях, таких как реклама или кино, будет допущено использование дипфейков в экспериментальном порядке. Однако важно регулировать вопросы авторских прав на голоса и изображения людей, независимо от их живости.
Автор: Алексей

Читайте также

В России

Нашли ошибку в тексте?
Выделите её мышкой и нажмите
CTRL
+
ENTER


Комментарии

  • Комментарии
Загрузка комментариев...