Создана нейросеть для тестирования интерфейсов: как это работает
Каждый день миллионы людей покупают товары, оплачивают счета и общаются через сайты и приложения.
Если интерфейс неудобный, пользователи уходят к конкурентам. Сейчас тестирование дизайна делают вручную — долго, дорого и не всегда точно.
Студенты ПГУ придумали решение: сайт с нейросетью, которая автоматически анализирует интерфейсы. Загружаешь скриншот — через минуту получаешь отчет. Алгоритм находит ошибки: неудобные кнопки, плохую читаемость текста, непродуманное расположение элементов.
Как это работает:
- Нейросеть обучена на датасете из 100+ размеченных вручную сайтов.
- Она распознает элементы (кнопки, меню, формы) и проверяет их по стандартам удобства.
- Результаты можно сразу загрузить в Figma для доработки.
Сейчас тестировщики тратят часы на ручную проверку, а ошибки все равно остаются, — говорит Иван Десятов, один из разработчиков.
Наш сервис сокращает время анализа и снижает риски для бизнеса. Если пользователь столкнется с багом, это ударит по репутации компании.
Систему уже протестировали на 100+ сайтах — точность распознавания элементов 95%. Проект получил госсвидетельство и выиграл грант ПГУ.
Мы предлагаем не просто оценку, а инструмент для быстрого исправления ошибок, — добавляет Иван.
Алгоритм можно встроить в любой продукт, чтобы разработчики проверяли интерфейсы на лету.
Это исследование решает две ключевые проблемы:
- Скорость. Ручное тестирование тормозит выпуск продукта. Нейросеть сокращает процесс с часов до минут.
- Качество. Человек может упустить детали из-за усталости или шаблонного мышления. ИИ анализирует системно, снижая риск ошибок.
Польза для рынка:
- Стартапы смогут тестировать MVP без больших затрат.
- Крупные компании — стандартизировать интерфейсы своих сервисов.
- Дизайнеры получат объективные критерии, а не субъективные «нравится/не нравится».
Риски: алгоритм пока обучен на ограниченном датасете. Для сложных проектов (например, интерактивных панелей) потребуется доработка.
Ранее мы опубликовали 10 инноваций в области медиа в 2025 году.