Эксперт Вячеслав Коэн предупредил о новой угрозе дипфейков 
KrasnodarMedia, 25 ноября. В наше время искусственный интеллект (ИИ) становится все более распространенным и активно используется в различных областях: медицине, науке, промышленности и других. Но где есть преимущества, там находятся и недостатки. Парламентарии Госдумы, возглавляемые депутатом от Краснодарского края Дмитрием Гусевым, собираются внести изменения в законопроект, который регулирует применение ИИ при создании видеоконтента. Какие новшества планируются, какие санкции предусмотрены за их нарушение и как отличить настоящие видео от подделок — в материале KrasnodarMedia.
Теперь не получится обмануть!
По словам депутата Дмитрия Гусева, ИИ в настоящее время способен создавать реалистичные видеоролики, и без соответствующей маркировки они могут быть использованы для манипуляций. Принятие данного законопроекта, по его мнению, поможет защитить пользователей от мошенничества и создаст правовую основу для безопасного применения нейросетей в медиа.
Предлагается внести поправки в закон об информации, которые обяжут владельцев социальных сетей, видеохостингов и других платформ, размещающих видео, маркировать ролики, созданные с помощью ИИ. Маркировка должна содержать надписи «Создано с использованием искусственного интеллекта» или «Сгенерировано ИИ». Также потребуется метаданная метка с информацией о ИИ, дате создания и владельце ресурса, сохраняющаяся при любых условиях использования.
Законопроект предусматривает введение штрафов за несоблюдение правил маркировки: от 10 до 50 тысяч рублей для физических лиц, от 100 до 200 тысяч рублей для должностных лиц и от 200 до 500 тысяч рублей для юридических лиц.
Инициатива представляется весьма полезной, считает IT-эксперт и специалист по онлайн-продвижению Вячеслав Коэн, так как в настоящее время наблюдается интенсивное развитие технологий генерации видео и фото контента.
— Нейросеть, с одной стороны, открывает новые горизонты, но с другой — вызывает серьезные проблемы, связанные с созданием дипфейков (поддельных, несуществующих фотографий и видео, которые могут использоваться как в развлекательных целях, так и для нанесения ущерба репутации политикам, спортсменам или знаменитостям — прим. ред.). Кроме того, они могут быть использованы для создания цифровых отпечатков или в рекламных кампаниях без согласия авторов. Именно поэтому вводится соответствующее законодательство, — пояснил Коэн.
Он подчеркнул, что технологии распознавания дипфейков работают недостаточно эффективно, их точность можно оценить на уровне 3 из 5. Тем не менее ожидается, что в будущем их реалистичность возрастет.
Как распознать подделку?
Коэн предложил несколько рекомендаций по выявлению настоящего видео и дипфейка. Он отметил, что в настоящее время существуют несколько признаков, по которым можно попытаться различить оригинальное видео и сгенерированное.
— Чаще всего дипфейки имеют низкое качество. Фотографии или четкие объекты могут выглядеть размытыми. Иногда на сгенерированных видео присутствуют определенные водяные знаки, и их продолжительность ограничена. Обычно они не превышают 30-60 секунд, максимум 3-5 минут. Это делает их легко узнаваемыми по сравнению с записями с камер видеонаблюдения, которые могут длиться часами. Если речь идет о коротких фрагментах или вырезках, то здесь требуется более тщательный анализ, — подчеркнул специалист.
На данный момент отличить дипфейк от подлинного видео могут только специалисты с техническим образованием или те, кто хорошо разбирается в современных технологиях и умеет анализировать качество видео.
— Для менее информированных слоев населения, таких как пожилые люди или дети, распознавание подделок может быть затруднительным, — добавил собеседник. — Важно помнить, что ответственность за распространение дипфейков лежит на том, кто их распространяет. Прежде чем делиться увиденным, необходимо проверить источник информации и убедиться в ее достоверности.
Технологии генерации видео часто имитируют качество съемки старых мобильных телефонов (5–10-летней давности), что также может служить признаком подделки, отметил эксперт. По его словам, в сочетании с анализом водяных знаков и смыслового содержания это помогает в идентификации дипфейков.
— Кроме того, существуют специализированные сервисы, которые анализируют различные параметры видео (размер файла, скорость воспроизведения и т. д.) и выдают оценку его достоверности, — заключил Вячеслав Коэн.
Напомним, что KrasnodarMedia сообщал о том, что 86% россиян ожидают положительных изменений от искусственного интеллекта.