Как бороться с дипфейками: мнение эксперта
Опасность поддельных видео не только в том, что они врут, но и в том, что они заставляют нас сомневаться в правде.

Хани Фарид в своей статье обращает внимание на опасность поддельных фото и видео, так называемых дипфейков. Он размышляет о том, как можно уменьшить вред от них. Отличить настоящее от фальшивки становится все сложнее. Фарид рассказывает о своих исследованиях в области цифровой экспертизы — методах, которые помогают выявить следы монтажа в изображениях и роликах. Он признает и пользу генеративного ИИ: это инструмент для ученых, способ дать возможность каждому создавать контент и даже вернуть голос тем, кто лишился его из-за болезни.
Однако технология таит в себе серьезные угрозы: создание интимных фото без согласия, детские запретные материалы, мошенничество и дезинформацию. Есть и другая сторона: сам факт существования дипфейков позволяет злоумышленникам ставить под сомнение любые подлинные кадры, просто заявляя, что это — работа нейросети. Что же делать? Фарид предлагает целый комплекс мер.
- Технические: обязательная маркировка контента, созданного ИИ, с помощью специальных метаданных и невидимых цифровых водяных знаков, а также системы, привязывающие контент к автору.
- Законодательные и административные: запрет определенных запросов к нейросетям и строгая модерация соцсетей, где нужно блокировать опасные материалы.
- Образовательные: введение уроков цифровой грамотности в школьную программу как обязательных.
Фарид также резюмирует, как эксперты могут проверять подлинность файлов, и анализирует правовое поле вокруг вредоносного контента. В конце он обращается к коллегам-исследователям с призывом задуматься: а можно ли использовать плоды их работы во зло? И если да, то стоит ли принимать меры предосторожности или вовсе отказаться от проекта. Возможность создать
Подробности опубликованы в издании PNAS Nexus.
Реальная польза исследования Фарида — в его системном подходе. Он не просто констатирует проблему, а предлагает многоуровневую стратегию борьбы, сочетающую технологии, законы и воспитание. Это практическая дорожная карта для регуляторов, ИТ-компаний и общества. Разработка надежных цифровых «отпечатков пальцев» для контента может стать основой для нового протокола доверия в интернете. А его призыв к научному сообществу о саморефлексии — это этический фундамент, без которого любая технологическая гонка ведет в тупик. Исследование полезно тем, что переводит панические обсуждения „ужасов дипфейков“ в плоскость конкретных, пусть и сложных, решений.
Основная слабость предлагаемых мер — их глобальная реализуемость в условиях фрагментированного интернета. Водяные знаки и метаданные легко удаляются при простом копировании. Привязка контента к автору (идентификация пользователей) вступает в острое противоречие с правом на анонимность и вызывает вопросы о тотальной слежке. Модерация в соцсетях остается гигантской и нерешенной проблемой масштаба. Таким образом, план Фарида, будучи логичным, во многом зависит от беспрецедентного уровня международного сотрудничества и доброй воли всех игроков, что выглядит утопично в текущих геополитических реалиях.
Ранее ученые сообщили, что дипфейки научились дышать.


















