Почему делегирование искусственным агентам лучше, чем прямое принятие решений в условиях коллективного риска

Почему делегирование искусственным агентам лучше, чем прямое принятие решений в условиях коллективного риска

Интересное сегодня

Внетелесные переживания: Механизм преодоления травмы или сим...

Понимание внетелесных переживания Внетелесные переживания (ОБЕ) – это состояния, когда люди чувству...

Может ли искусственный интеллект заменить психотерапевта? Ис...

Искусственный интеллект против психотерапевтов: кто лучше? Если ваш терапевт задумчиво смотрит в окн...

Влияние детских травм на исход лечения расстройств пищевого ...

Введение Несмотря на обширные исследования эффективности различных терапевтических вмешательств для ...

Подростки-совы более импульсивны: новое исследование

Новое исследование, представленное на ежегодной конференции SLEEP 2025, обнаружило любопытную взаимо...

Психометрические свойства вопросника метакогниций MCQ-30 сре...

Введение В модели саморегуляции исполнительной функции (S-REF) предложено, что механизм, лежащий в о...

Новое восприятие цветов: исследование Olo

Введение Наше восприятие цвета ограничено тем, как различные типы клеток конусов в сетчатке реагирую...

Рисунок 5
Рисунок 5
Рисунок 1
Рисунок 1
Рисунок 2
Рисунок 2
Рисунок 3
Рисунок 3
Рисунок 4
Рисунок 4
Thumbnail 1
Thumbnail 2
Thumbnail 3
Thumbnail 4
Thumbnail 5
Thumbnail 6
Thumbnail 7
Thumbnail 8
Оригинал исследования на сайте автора

Введение

Современные достижения в области автоматизированного принятия решений и искусственного интеллекта (ИИ) изменили представления о задачах, требующих человеческого интеллекта. Например, языковые модели, способные генерировать код и текст, демонстрируют, что ИИ может автоматизировать даже творческие задачи. Это привело к убеждению, что автономные системы с ИИ могут взять на себя множество функций, включая социальные и моральные решения.

Проблема выравнивания ценностей ИИ

Однако при делегировании задач искусственным агентам могут возникать ошибки. Например, человек может выбрать агента, не соответствующего его целям, из-за непонимания его поведения или сложности настройки параметров. Это приводит к несоответствию между ожиданиями человека и действиями агента — проблеме, известной как выравнивание ценностей ИИ.

Методология

Для изучения этой проблемы использовалась коллективная дилемма риска (КДР) — модель, в которой группа участников должна достичь общего порога взносов в общественное благо за ограниченное число раундов. Если порог не достигнут, существует вероятность потери всех личных ресурсов.

Типы ошибок

  • Ошибки исполнения: возникают, когда человек принимает решения самостоятельно и ошибается в каждом раунде.
  • Ошибки программирования: возникают при настройке агента, которому делегируется задача.
  • Ошибки выбора агента: возникают, когда человек выбирает неподходящего предустановленного агента.

Результаты

Исследование показало, что:

  • Делегирование, несмотря на ошибки, приводит к более высоким показателям успеха, чем прямое принятие решений.
  • При малых вероятностях ошибок (ε ≤ 0.1) делегирование через программируемых агентов дает лучшие результаты.
  • При выборе из предустановленных агентов делегирование остается эффективным даже при более высоких вероятностях ошибок (ε ≤ 0.18).

Эволюционные преимущества делегирования

В долгосрочной перспективе стратегии делегирования становятся доминирующими в популяции, особенно в условиях высокого риска. Это связано с тем, что агенты стабильно исполняют заложенные стратегии, даже если они не идеальны.

Заключение

Делегирование искусственным агентам, несмотря на возможные ошибки, оказывается более эффективным, чем прямое принятие решений в условиях коллективного риска. Это открытие важно для разработки автономных систем, участвующих в социальных дилеммах.

Короткие версии статей можно найти в телеграм-канале.

Посмотреть канал
Кликните еще раз для перехода