Как люди принимают решения AI в сложных моральных ситуациях: исследование оправданного дефекта

Как люди принимают решения AI в сложных моральных ситуациях: исследование оправданного дефекта

Интересное сегодня

Измерение эмоциональных состояний с помощью кожно-гальваниче...

Кожно-гальваническая реакция (КГР) предлагает новый способ измерения эмоциональных состояний, обходя...

Влияние способности к теории разума на межличностную координ...

Введение Межличностная синхронизация поведения играет фундаментальную роль в социальных взаимодейств...

Как убеждение в возможности улучшения внешности способствует...

Введение Эффекты красоты на суждения и поведение хорошо изучены и в основном однонаправленны: преиму...

Психологические последствия оказания помощи при остановке се...

Введение Посттравматическое стрессовое расстройство (PTSD) - это сильная реакция на психологический ...

Как научиться долгосрочному финансовому планированию

Введение Эксперт в области личных финансов Дейв Рэмси широко известен своим изречением: "Если вы буд...

Здоровье и брак: Почему статус холостяка может быть предпочт...

Введение Среди распространенных мнений о здоровье существует утверждение, что женатые люди более здо...

Thumbnail 1
Читать короткую версию
Кликните еще раз для перехода

Введение

С дальнейшим внедрением технологий искусственного интеллекта (AI) в различные сферы жизни, понимание готовности людей принимать решения AI становится важной задачей для науки и общества.

Проблема исследования

Конкретно, в исследовании рассматривается ситуация оправданного дефекта (не- cooperación с плохими людьми) в контексте непрямого возвратного сотрудничества, где люди избегают оценивания таких действий.

Методология

Были проведены два эксперимента, в которых обсуждались сценарии работы сотрудников, где участники оценивали действия донора с плохой репутацией и решениях менеджера (AI или человек).

  • Первый эксперимент: Участники оценивают поведение донора и согласие с решением менеджера.
  • Второй эксперимент: Участники сравнивают решения AI и человека в ситуации, когда их суждения расходятся.

Результаты

Результаты показывают, что участники принимали решения AI только в случаях, когда AI оценивал оправданный дефект как хороший, в то время как человек оценивал его как плохой. В других сценариях различия не были значительными.

Обсуждение

Результаты подчеркивают, что принятие решений AI является контекстно-зависимым и требует дальнейшего изучения, чтобы понять механизмы, влияющие на это решение. Люди были более склонны принимать действия AI в случаях, когда его решение противоречит человеческому суждению.

«Люди не всегда доверяют AI, особенно когда дело касается моральных суждений, демонстрируя сложные и противоречивые критерии в оценке поведения.»

Короткие версии статей можно найти в телеграм-канале.

Посмотреть канал
Кликните еще раз для перехода