Видео нейросетей становятся угрозой: Госдума разрабатывает меры реагирования

Эксперт Вячеслав Коэн предупредил о новой угрозе дипфейков За нарушение правил маркировки можно получить штраф Евгений Кулешов Ипотека за обещание родить — о рисках инициативы рассказал кубанский эксперт

KrasnodarMedia, 25 ноября. В наше время искусственный интеллект (ИИ) становится все более распространенным и активно используется в различных областях: медицине, науке, промышленности и других. Но где есть преимущества, там находятся и недостатки. Парламентарии Госдумы, возглавляемые депутатом от Краснодарского края Дмитрием Гусевым, собираются внести изменения в законопроект, который регулирует применение ИИ при создании видеоконтента. Какие новшества планируются, какие санкции предусмотрены за их нарушение и как отличить настоящие видео от подделок — в материале KrasnodarMedia.

Теперь не получится обмануть!

По словам депутата Дмитрия Гусева, ИИ в настоящее время способен создавать реалистичные видеоролики, и без соответствующей маркировки они могут быть использованы для манипуляций. Принятие данного законопроекта, по его мнению, поможет защитить пользователей от мошенничества и создаст правовую основу для безопасного применения нейросетей в медиа.

Предлагается внести поправки в закон об информации, которые обяжут владельцев социальных сетей, видеохостингов и других платформ, размещающих видео, маркировать ролики, созданные с помощью ИИ. Маркировка должна содержать надписи «Создано с использованием искусственного интеллекта» или «Сгенерировано ИИ». Также потребуется метаданная метка с информацией о ИИ, дате создания и владельце ресурса, сохраняющаяся при любых условиях использования.

Законопроект предусматривает введение штрафов за несоблюдение правил маркировки: от 10 до 50 тысяч рублей для физических лиц, от 100 до 200 тысяч рублей для должностных лиц и от 200 до 500 тысяч рублей для юридических лиц.

Инициатива представляется весьма полезной, считает IT-эксперт и специалист по онлайн-продвижению Вячеслав Коэн, так как в настоящее время наблюдается интенсивное развитие технологий генерации видео и фото контента.

Это может быть интересно:  Колорадский жук больше не страшен: 2 сорта картофеля, которые защитят ваш урожай – идеальное решение для дачников

— Нейросеть, с одной стороны, открывает новые горизонты, но с другой — вызывает серьезные проблемы, связанные с созданием дипфейков (поддельных, несуществующих фотографий и видео, которые могут использоваться как в развлекательных целях, так и для нанесения ущерба репутации политикам, спортсменам или знаменитостям — прим. ред.). Кроме того, они могут быть использованы для создания цифровых отпечатков или в рекламных кампаниях без согласия авторов. Именно поэтому вводится соответствующее законодательство, — пояснил Коэн.

Он подчеркнул, что технологии распознавания дипфейков работают недостаточно эффективно, их точность можно оценить на уровне 3 из 5. Тем не менее ожидается, что в будущем их реалистичность возрастет.

Как распознать подделку?

Коэн предложил несколько рекомендаций по выявлению настоящего видео и дипфейка. Он отметил, что в настоящее время существуют несколько признаков, по которым можно попытаться различить оригинальное видео и сгенерированное.

— Чаще всего дипфейки имеют низкое качество. Фотографии или четкие объекты могут выглядеть размытыми. Иногда на сгенерированных видео присутствуют определенные водяные знаки, и их продолжительность ограничена. Обычно они не превышают 30-60 секунд, максимум 3-5 минут. Это делает их легко узнаваемыми по сравнению с записями с камер видеонаблюдения, которые могут длиться часами. Если речь идет о коротких фрагментах или вырезках, то здесь требуется более тщательный анализ, — подчеркнул специалист.

На данный момент отличить дипфейк от подлинного видео могут только специалисты с техническим образованием или те, кто хорошо разбирается в современных технологиях и умеет анализировать качество видео.

— Для менее информированных слоев населения, таких как пожилые люди или дети, распознавание подделок может быть затруднительным, — добавил собеседник. — Важно помнить, что ответственность за распространение дипфейков лежит на том, кто их распространяет. Прежде чем делиться увиденным, необходимо проверить источник информации и убедиться в ее достоверности.

Это может быть интересно:  Томат, который "штампует" плоды до 10 кг с кв. метра даже в сложные погодные условия

Технологии генерации видео часто имитируют качество съемки старых мобильных телефонов (5–10-летней давности), что также может служить признаком подделки, отметил эксперт. По его словам, в сочетании с анализом водяных знаков и смыслового содержания это помогает в идентификации дипфейков.

— Кроме того, существуют специализированные сервисы, которые анализируют различные параметры видео (размер файла, скорость воспроизведения и т. д.) и выдают оценку его достоверности, — заключил Вячеслав Коэн.

Напомним, что KrasnodarMedia сообщал о том, что 86% россиян ожидают положительных изменений от искусственного интеллекта.

Источник

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Что будем искать? Например,Человек

Мы в социальных сетях

Сайт использует файлы cookie. Оставаясь на сайте, вы подтверждаете своё согласие с политикой использования файлов cookie и сервиса Яндекс.Метрика.