Шесть пальцев, два солнца и Иисус на серфе: как и почему галлюцинирует ИИ

Максим Наговицын19.07.2025660

ИИ-генерация изображений — это совсем не магия, а чаще клубок ошибок, которые никто не учился описывать.

Шесть пальцев, два солнца и Иисус на серфе: как и почему галлюцинирует ИИ
Источник: нейросеть

Студентка Стивенсовского университета Гурсимран Васир вела летний курс по Photoshop для детей и заметила нечто странное.

Когда дети использовали ИИ-функцию для поиска изображений по текстовым запросам, результат часто оказывался неожиданным.

Картинки выходили искаженными, неточными или предвзятыми.

Сама Гурсимран столкнулась с тем же: по запросу «уборщик» ИИ показывал женщину с тряпкой, а „женщина убирает“ — белую женщину, моющую столешницу спреем.

Дети не понимали, почему ИИ выдает не то, что они хотят, — говорит Васир. — Но у них не было слов, чтобы объяснить проблему.

Она осознала, что для описания ошибок и предубеждений ИИ нет четкого языка, и решила его создать.

С этим предложением она пришла к профессору Джине Ху-Ю, специалисту по взаимодействию человека и компьютера.

Вместе они подготовили исследование  «Характеристика недостатков ИИ-генерации изображений», представленное на престижной конференции CHI в апреле 2025 года.

Васир проанализировала 482 поста на Reddit, где пользователи жаловались на косяки ИИ-картинок, и разделила их на четыре типа:

  • Сюрреализм ИИ — когда изображение выглядит «слишком идеальным» или неестественным (например, гиперреалистичные, но пугающие лица).
  • Культурные стереотипы — как с Иисусом на серфе вместо ходящего по воде или уборщицей-женщиной.
  • Логические ошибки — шесть пальцев на руке или два солнца в пейзаже.
  • Дезинформация — неверное изображение городов или исторических событий.

Культурная предвзятость ИИ — когда алгоритм воспроизводит стереотипы, заложенные в данных, на которых он обучался. Например, если в большинстве датасетов уборщики — женщины, ИИ будет игнорировать мужчин в этой роли, укрепляя социальный шаблон.

Ху-Ю отмечает, что работа уникальна: раньше ошибки ИИ изучали в основном на тексте, а не на изображениях. На конференции в Йокогаме исследование вызвало ажиотаж среди дизайнеров и маркетологов, которые тоже борются с этими проблемами.

Разработчики обязаны делать технологии, которые работают правильно, — подчеркивает Васир. — Если инструменты косячат, их начнут использовать во вред. Нам нужен точный язык, чтобы диалог между пользователями и создателями ИИ стал возможен.

Главная ценность работы — систематизация хаоса. Сейчас пользователи сталкиваются с ошибками ИИ, но описывают их размыто: «картинка странная» или „ИИ тупит“. Четкая классификация (сюрреализм, стереотипы и т. д.) позволит:

  • Улучшить ИИ — разработчики смогут точечно дорабатывать алгоритмы.
  • Образовывать пользователей — люди поймут, что проблема не в их запросе, а в ограничениях системы.
  • Снизить вред — например, минимизировать распространение стереотипов в образовательных материалах.

Исследование опирается на данные Reddit — платформы, где посты часто эмоциональны и нерепрезентативны. Выборка могла смещаться в сторону «громких» случаев (вроде Иисуса на серфе), пропуская менее заметные, но массовые ошибки (например, искажение архитектуры). Нужны данные из других источников: соцсетей, профессиональных форумов, тестовых запросов.

Ранее мы разбирались, какие профессии отожмет ИИ.

Подписаться: Телеграм | Дзен | Вконтакте


Net&IT

Поиск на сайте

Лента новостей

Пресс-релизы