В 40% случаев люди ошибочно называют сгенерированное фото человека реальным
Если вам недавно было трудно понять, является ли изображение человека реальным или сгенерированным с помощью искусственного интеллекта, или ИИ, то вы не одиноки.

Новое исследование, проведенное учеными Университета Ватерлоо, показало, что людям сложнее, чем ожидалось, отличить, кто является реальным человеком, а кто — искусственно созданным.
В исследовании, проведенном в Ватерлоо, 260 участникам было предоставлено 20 немаркированных фотографий: 10 из них были реальными людьми, полученными из поиска Google, а остальные 10 были сгенерированы Stable Diffusion или DALL-E, двумя широко используемыми программами искусственного интеллекта, которые генерируют изображения.
Участников попросили обозначить каждое изображение как реальное или сгенерированное ИИ и объяснить, почему они приняли такое решение. Только 61% участников смогли отличить людей, сгенерированных ИИ, от настоящих, что гораздо ниже порога в 85%, на который рассчитывали исследователи.
Люди не так хорошо умеют различать людей, как им кажется, — говорит Андреа Покол, кандидат наук в области компьютерных наук в Университете Ватерлоо и ведущий автор исследования.
Участники обращали внимание на такие детали, как пальцы, зубы и глаза, как на возможные индикаторы при поиске контента, созданного ИИ, но их оценки не всегда были верными.
Покол отметил, что характер исследования позволил участникам тщательно изучить фотографии, в то время как большинство пользователей Интернета смотрят на изображения мимоходом.
Люди, которые просто пролистывают страницы или у которых нет времени, не улавливают этих признаков, — сказал Покол.
Покол добавил, что чрезвычайно быстрые темпы развития технологий ИИ делают особенно сложным понимание потенциала вредоносных или злонамеренных действий, создаваемых ИИ-изображениями. Темпы академических исследований и законодательства часто не успевают за ними: С момента начала исследования в конце 2022 года генерируемые ИИ изображения стали еще более реалистичными. Например, изображение в этой статье сгенерировала нейросеть.
Генерируемые ИИ изображения представляют особую угрозу в качестве политического и культурного инструмента, с помощью которого любой пользователь может создать поддельные изображения публичных фигур в неловких или компрометирующих ситуациях.
Дезинформация не нова, но инструменты дезинформации постоянно меняются и развиваются, — заключает Покол.
Может наступить момент, когда люди, как бы они ни были обучены, все равно будут с трудом отличать настоящие изображения от подделок. Вот почему нам необходимо разработать инструменты для выявления и противодействия этому. Это похоже на новую гонку вооружений ИИ.