ИИ нужен не забор, а поводок

Максим Наговицын06.06.2025567

Если регулировать ИИ как атомную станцию, то он никогда не выйдет из лаборатории — но если пустить на самотек, то последствия ударят по всем.

ИИ нужен не забор, а поводок
Источник: нейросеть

Многие дискуссии о регулировании ИИ крутятся вокруг «ограничительных барьеров» — правил, которые должны защитить людей от рисков искусственного интеллекта. Но в новой статье журнала Risk Analysis два эксперта предлагают другой подход: вместо жестких барьеров — „поводок“.

Кэри Коглианезе, директор Пеннской программы по регулированию, и Колтон Крам, докторант по компьютерным наукам в Университете Нотр-Дам, считают, что гибкое управление рисками (это и есть «поводок») работает лучше, чем строгие предписания. ИИ слишком разнообразен и быстро меняется, чтобы втиснуть его в жесткие рамки.

Как работает «поводок»

  • Компании сами разрабатывают системы контроля, которые предупреждают и снижают возможный вред от их ИИ.
  • Регуляторы не диктуют конкретные правила, а требуют прозрачности и ответственности.

Примеры рисков ИИ:

  1. ДТП с беспилотниками — алгоритм может ошибиться в нестандартной ситуации.
  2. Соцсети и суициды — рекомендательные системы иногда подталкивают к опасному контенту.
  3. Дискриминация — ИИ-генераторы текстов или изображений могут воспроизводить предвзятость.

Поводок позволяет ИИ развиваться, но не дает ему «сорваться с цепи». Это как выгул собаки: животное может исследовать мир, но хозяин в любой момент натянет поводок, если что-то пойдет не так.

Работа развенчивает стереотип о том, что регулирование ИИ должно быть жестким и единым для всех. Авторы показывают, что гибкость важнее тотального контроля, особенно в сфере, где технологии меняются ежедневно. Их подход снижает бюрократическую нагрузку на бизнес, но сохраняет давление на компании, заставляя их думать о рисках заранее.

Модель «поводка» предполагает, что компании добросовестно будут сами себя ограничивать. Но если корпорация решит сэкономить на системе управления рисками, последствия обнаружатся слишком поздно. Нужны механизмы проверки — не только отчеты на бумаге.

Ранее ученые сравнили искусственный интеллект с микробами.

Подписаться: Телеграм | Дзен | Вконтакте


Net&IT

Поиск на сайте

Лента новостей

Пресс-релизы