Шесть пальцев, два солнца и Иисус на серфе: как и почему галлюцинирует ИИ
ИИ-генерация изображений — это совсем не магия, а чаще клубок ошибок, которые никто не учился описывать.

Студентка Стивенсовского университета Гурсимран Васир вела летний курс по Photoshop для детей и заметила нечто странное.
Когда дети использовали ИИ-функцию для поиска изображений по текстовым запросам, результат часто оказывался неожиданным.
Картинки выходили искаженными, неточными или предвзятыми.
Сама Гурсимран столкнулась с тем же: по запросу «уборщик» ИИ показывал женщину с тряпкой, а „женщина убирает“ — белую женщину, моющую столешницу спреем.
Дети не понимали, почему ИИ выдает не то, что они хотят, — говорит Васир. — Но у них не было слов, чтобы объяснить проблему.
Она осознала, что для описания ошибок и предубеждений ИИ нет четкого языка, и решила его создать.
С этим предложением она пришла к профессору Джине Ху-Ю, специалисту по взаимодействию человека и компьютера.
Вместе они подготовили исследование «Характеристика недостатков ИИ-генерации изображений», представленное на престижной конференции CHI в апреле 2025 года.
Васир проанализировала 482 поста на Reddit, где пользователи жаловались на косяки ИИ-картинок, и разделила их на четыре типа:
- Сюрреализм ИИ — когда изображение выглядит «слишком идеальным» или неестественным (например, гиперреалистичные, но пугающие лица).
- Культурные стереотипы — как с Иисусом на серфе вместо ходящего по воде или уборщицей-женщиной.
- Логические ошибки — шесть пальцев на руке или два солнца в пейзаже.
- Дезинформация — неверное изображение городов или исторических событий.
Культурная предвзятость ИИ — когда алгоритм воспроизводит стереотипы, заложенные в данных, на которых он обучался. Например, если в большинстве датасетов уборщики — женщины, ИИ будет игнорировать мужчин в этой роли, укрепляя социальный шаблон.
Ху-Ю отмечает, что работа уникальна: раньше ошибки ИИ изучали в основном на тексте, а не на изображениях. На конференции в Йокогаме исследование вызвало ажиотаж среди дизайнеров и маркетологов, которые тоже борются с этими проблемами.
Разработчики обязаны делать технологии, которые работают правильно, — подчеркивает Васир. — Если инструменты косячат, их начнут использовать во вред. Нам нужен точный язык, чтобы диалог между пользователями и создателями ИИ стал возможен.
Главная ценность работы — систематизация хаоса. Сейчас пользователи сталкиваются с ошибками ИИ, но описывают их размыто: «картинка странная» или „ИИ тупит“. Четкая классификация (сюрреализм, стереотипы и т. д.) позволит:
- Улучшить ИИ — разработчики смогут точечно дорабатывать алгоритмы.
- Образовывать пользователей — люди поймут, что проблема не в их запросе, а в ограничениях системы.
- Снизить вред — например, минимизировать распространение стереотипов в образовательных материалах.
Исследование опирается на данные Reddit — платформы, где посты часто эмоциональны и нерепрезентативны. Выборка могла смещаться в сторону «громких» случаев (вроде Иисуса на серфе), пропуская менее заметные, но массовые ошибки (например, искажение архитектуры). Нужны данные из других источников: соцсетей, профессиональных форумов, тестовых запросов.
Ранее мы разбирались, какие профессии отожмет ИИ.



















