Как бороться с дипфейками: мнение эксперта

Максим Наговицын26.12.20252099

Опасность поддельных видео не только в том, что они врут, но и в том, что они заставляют нас сомневаться в правде.

Как бороться с дипфейками: мнение эксперта
Источник: нейросеть

Хани Фарид в своей статье обращает внимание на опасность поддельных фото и видео, так называемых дипфейков. Он размышляет о том, как можно уменьшить вред от них. Отличить настоящее от фальшивки становится все сложнее. Фарид рассказывает о своих исследованиях в области цифровой экспертизы — методах, которые помогают выявить следы монтажа в изображениях и роликах. Он признает и пользу генеративного ИИ: это инструмент для ученых, способ дать возможность каждому создавать контент и даже вернуть голос тем, кто лишился его из-за болезни.

Однако технология таит в себе серьезные угрозы: создание интимных фото без согласия, детские запретные материалы, мошенничество и дезинформацию. Есть и другая сторона: сам факт существования дипфейков позволяет злоумышленникам ставить под сомнение любые подлинные кадры, просто заявляя, что это — работа нейросети. Что же делать? Фарид предлагает целый комплекс мер.

  • Технические: обязательная маркировка контента, созданного ИИ, с помощью специальных метаданных и невидимых цифровых водяных знаков, а также системы, привязывающие контент к автору.
  • Законодательные и административные: запрет определенных запросов к нейросетям и строгая модерация соцсетей, где нужно блокировать опасные материалы.
  • Образовательные: введение уроков цифровой грамотности в школьную программу как обязательных.

Фарид также резюмирует, как эксперты могут проверять подлинность файлов, и анализирует правовое поле вокруг вредоносного контента. В конце он обращается к коллегам-исследователям с призывом задуматься: а можно ли использовать плоды их работы во зло? И если да, то стоит ли принимать меры предосторожности или вовсе отказаться от проекта. Возможность создать что-либо еще не означает, что это нужно создавать.

Подробности опубликованы в издании PNAS Nexus.

Реальная польза исследования Фарида — в его системном подходе. Он не просто констатирует проблему, а предлагает многоуровневую стратегию борьбы, сочетающую технологии, законы и воспитание. Это практическая дорожная карта для регуляторов, ИТ-компаний и общества. Разработка надежных цифровых «отпечатков пальцев» для контента может стать основой для нового протокола доверия в интернете. А его призыв к научному сообществу о саморефлексии — это этический фундамент, без которого любая технологическая гонка ведет в тупик. Исследование полезно тем, что переводит панические обсуждения „ужасов дипфейков“ в плоскость конкретных, пусть и сложных, решений.

Основная слабость предлагаемых мер — их глобальная реализуемость в условиях фрагментированного интернета. Водяные знаки и метаданные легко удаляются при простом копировании. Привязка контента к автору (идентификация пользователей) вступает в острое противоречие с правом на анонимность и вызывает вопросы о тотальной слежке. Модерация в соцсетях остается гигантской и нерешенной проблемой масштаба. Таким образом, план Фарида, будучи логичным, во многом зависит от беспрецедентного уровня международного сотрудничества и доброй воли всех игроков, что выглядит утопично в текущих геополитических реалиях.

Ранее ученые сообщили, что дипфейки научились дышать.

Подписаться: Телеграм | Дзен | Вконтакте


Net&IT

Поиск на сайте

Лента новостей

Пресс-релизы