Глазами машины: как ИИ сам научился смотреть по-человечески
Ученые обнаружили, что ИИ может научиться смотреть на мир так же, как человек — без единой подсказки.

Машины учатся видеть мир, как люди. Ученые обнаружили, что модели искусственного интеллекта, анализирующие изображения, могут сами, без подсказок, вырабатывать зрительное внимание, похожее на человеческое.
Результаты исследования опубликованы в издании Neural Networks.
Когда мы смотрим на
Они сравнили, куда падает взгляд людей и ИИ при просмотре видео. Нейросети, обученные методом DINO (без готовых подсказок, только на основе анализа данных), повторяли человеческие паттерны внимания. А модели, обученные стандартным способом, смотрели на картинку неестественно.
Наши модели не просто хаотично сканировали изображения — они сами научились выделять ключевые элементы», — говорит Такуто Ямамото, ведущий автор исследования.
Одна часть нейросети фокусировалась на лицах, другая — на силуэтах, третья — на фоне. Так же работает и человеческое зрение.
Главное — никто не объяснял ИИ, что такое лицо или фон. Он сам понял, что важно, просто анализируя данные.
Это доказывает, что самообучение может раскрывать фундаментальные принципы восприятия, общие для людей и машин, — поясняет Шигеру Китазава, руководитель исследования.
Открытие полезно не только для ИИ, но и для понимания человеческого зрения. Например, оно поможет создавать роботов, которые видят мир понятным для нас способом, или улучшить методы развития детского восприятия.
Этот прорыв важен по нескольким причинам:
- Для ИИ — модели учатся эффективнее, без тонн размеченных данных.
- Для нейронауки — помогает понять, как работает зрительное внимание у людей.
- Для приложений — роботы, диагностика, даже интерфейсы станут интуитивнее.
Хотя результаты впечатляют, пока неясно, насколько точно ИИ копирует человеческое восприятие. Люди видят мир через призму опыта и эмоций — сможет ли машина повторить это?
Ранее ученые сообщили, что социальные роботы учатся общаться без участия людей.