В 40% случаев люди ошибочно называют сгенерированное фото человека реальным

06.03.2024876

Если вам недавно было трудно понять, является ли изображение человека реальным или сгенерированным с помощью искусственного интеллекта, или ИИ, то вы не одиноки.

В 40% случаев люди ошибочно называют сгенерированное фото человека реальным

Новое исследование, проведенное учеными Университета Ватерлоо, показало, что людям сложнее, чем ожидалось, отличить, кто является реальным человеком, а кто — искусственно созданным.

В исследовании, проведенном в Ватерлоо, 260 участникам было предоставлено 20 немаркированных фотографий: 10 из них были реальными людьми, полученными из поиска Google, а остальные 10 были сгенерированы Stable Diffusion или DALL-E, двумя широко используемыми программами искусственного интеллекта, которые генерируют изображения.

Участников попросили обозначить каждое изображение как реальное или сгенерированное ИИ и объяснить, почему они приняли такое решение. Только 61% участников смогли отличить людей, сгенерированных ИИ, от настоящих, что гораздо ниже порога в 85%, на который рассчитывали исследователи.

Люди не так хорошо умеют различать людей, как им кажется, — говорит Андреа Покол, кандидат наук в области компьютерных наук в Университете Ватерлоо и ведущий автор исследования.

Участники обращали внимание на такие детали, как пальцы, зубы и глаза, как на возможные индикаторы при поиске контента, созданного ИИ, но их оценки не всегда были верными.

Покол отметил, что характер исследования позволил участникам тщательно изучить фотографии, в то время как большинство пользователей Интернета смотрят на изображения мимоходом.

Люди, которые просто пролистывают страницы или у которых нет времени, не улавливают этих признаков, — сказал Покол.

Покол добавил, что чрезвычайно быстрые темпы развития технологий ИИ делают особенно сложным понимание потенциала вредоносных или злонамеренных действий, создаваемых ИИ-изображениями. Темпы академических исследований и законодательства часто не успевают за ними: С момента начала исследования в конце 2022 года генерируемые ИИ изображения стали еще более реалистичными. Например, изображение в этой статье сгенерировала нейросеть.

Генерируемые ИИ изображения представляют особую угрозу в качестве политического и культурного инструмента, с помощью которого любой пользователь может создать поддельные изображения публичных фигур в неловких или компрометирующих ситуациях.

Дезинформация не нова, но инструменты дезинформации постоянно меняются и развиваются, — заключает Покол.

Может наступить момент, когда люди, как бы они ни были обучены, все равно будут с трудом отличать настоящие изображения от подделок. Вот почему нам необходимо разработать инструменты для выявления и противодействия этому. Это похоже на новую гонку вооружений ИИ.

Подписаться: Телеграм | Дзен | Вконтакте


Net&IT

ИИ научили определять личность по тексту
ИИ научили определять личность по тексту

ИИ уже диагностирует депрессию по со...

Нейросети обходят полиграф в точности выявления лжи
Нейросети обходят полиграф в точности выявления лжи

Что, если машина распознает обман лучше в

Ученые разработали новую систему рекомендаций контента
Ученые разработали новую систему рекомендаций контента

Представьте, что Netflix перестал навязыв...

Игра в бога: кто и зачем создает виртуальных близнецов людей
Игра в бога: кто и зачем создает виртуальных близнецов людей

Представьте, что ваше тело можно протести...

ИИ-врачам рано доверять не только жизнь, но и первичные рекомендации
ИИ-врачам рано доверять не только жизнь, но и первичные рекомендации

Искусственный интеллект советует женщинам лечи...

Почему нейросети до сих пор не понимают, что творят
Почему нейросети до сих пор не понимают, что творят

Триллионы параметров, миллиарды вычислений&nbs...

Российские ИИ и 3D-принтеры победили на конкурсе БРИКС
Российские ИИ и 3D-принтеры победили на конкурсе БРИКС

Российские стартапы доказали, что могут к...

Ученые СПбГУ упростили расчеты для стабильной связи
Ученые СПбГУ упростили расчеты для стабильной связи

Представьте, что ваш телефон внезапн...

Невидимый хвост: почему чистка куки не спасает от слежки
Невидимый хвост: почему чистка куки не спасает от слежки

Вы чистите куки и думаете, что тепер...

Ученые изобрели способ записывать информацию во льду
Ученые изобрели способ записывать информацию во льду

Вместо облачных технологий — ледяны...

Чем рискуют ученые, доверяя ИИ свои статьи
Чем рискуют ученые, доверяя ИИ свои статьи

Ошибка алгоритма может стоить исследователю ре...

От 5G до квантов: как сети учатся выживать в мире перегрузок
От 5G до квантов: как сети учатся выживать в мире перегрузок

Иногда один оборванный кабель оставляет целую ...

Ученые нашли способ уменьшить нейросети без потери качества
Ученые нашли способ уменьшить нейросети без потери качества

Глубокое обучение напоминает бардак в шка...

Новый чип ускоряет обработку сигналов в 100 раз
Новый чип ускоряет обработку сигналов в 100 раз

Обычный ИИ тратит на анализ сигналов...

Ученые создали идеальный генератор чисел
Ученые создали идеальный генератор чисел

Что, если случайность — не&nbs

Поиск на сайте

ТОП - Новости мира, инновации

Новости компаний, релизы

Гравитация воображения: зачем физикам читать фантастику
В Московском Политехе школьникам дают билет в мир технологий
В России запустили производство уникальной упаковки
Лоб в лоб: ученые, чиновники и бизнес ищут выход из технологической изоляции
Автономные дроны без веб-интерфейса: просто API и никаких сложностей