Графовые сети учатся на ошибках: как алгоритм Soft-GNN отфильтровывает шум
Графовые нейронные сети GNN активно применяют для анализа данных с графовой структурой — от рекомендательных систем до анализа соцсетей.

Но есть проблема: если в данных есть ошибки (например, неправильные метки), их точность резко падает.
Результаты опубликованы в издании Frontiers of Computer Science.
Команда исследователей под руководством Яо У предложила решение — метод Soft-GNN, который учится на «хороших» данных и игнорирует „шумные“. Суть в том, что алгоритм сам определяет, каким узлам графа можно доверять, а каким — нет. Оказалось, что узлы с ошибочными метками ведут себя иначе:
- их ошибка предсказания обычно выше,
- их окружение (соседние узлы) статистически отличается,
- даже глобальная позиция в графе выдает проблему.
Soft-GNN анализирует эти признаки, присваивает каждому узлу «вес доверия» и корректирует обучение. В итоге модель:
- Работает точнее даже при высоком уровне шума.
- Не теряет эффективность на чистых данных.
- Исправляет ошибки не только в помеченных узлах, но и рядом с ними.
Пока метод тестировали только на ошибках в метках, но в будущем планируют адаптировать его и для других видов «загрязненных» данных.
Практическая ценность — устойчивые GNN смогут работать с реальными данными, где всегда есть ошибки (например, соцсети с фейковыми аккаунтами или биомедицинские графы с неточностями). Теоретический вклад — подход сочетает анализ локальной и глобальной структуры графа, что редкость в подобных методах.
Метод требует предварительного обучения для оценки «шумности» узлов — это увеличивает вычислительные затраты. Неясно, как он поведет себя на графах с экстремально высоким уровнем шума (например, 50% ошибок).
Ранее ученые заметили, что ИИ ускоряет открытие квантовых материалов.