Как люди принимают решения AI в сложных моральных ситуациях: исследование оправданного дефекта

Как люди принимают решения AI в сложных моральных ситуациях: исследование оправданного дефекта

Интересное сегодня

Депрессия может увеличивать риск менструальной боли

Депрессия может увеличивать риск менструальной боли, или дисменореи, через механизмы, такие как нару...

Влияние жестов на магнитуду и стабильность артикуляционных д...

Введение Жесты, сопровождающие речь, являются неотъемлемой частью человеческой коммуникации. Они не ...

Метааналитическая оценка надежности шкал конфликта между раб...

Введение Взаимодействие между рабочими и семейными ролями играет ключевую роль в благополучии сотруд...

Как преодолеть вражду с родным братом или сестрой

Враждебные отношения с родным братом или сестрой — это болезненная реальность для многих людей. Посл...

Влияние поиска информации о здоровье и цифровой медицинской ...

Введение Исследование влияния цифровой медицинской грамотности и поведения при поиске информации о з...

Влияние языкового стиля на восприятие развлекательных медиа:...

Введение Исследование языкового стилевого соответствия (LSM) показывает, что люди часто подстраивают...

Thumbnail 1

Введение

С дальнейшим внедрением технологий искусственного интеллекта (AI) в различные сферы жизни, понимание готовности людей принимать решения AI становится важной задачей для науки и общества.

Читать короткую версию
Кликните еще раз для перехода

Проблема исследования

Конкретно, в исследовании рассматривается ситуация оправданного дефекта (не- cooperación с плохими людьми) в контексте непрямого возвратного сотрудничества, где люди избегают оценивания таких действий.

Методология

Были проведены два эксперимента, в которых обсуждались сценарии работы сотрудников, где участники оценивали действия донора с плохой репутацией и решениях менеджера (AI или человек).

  • Первый эксперимент: Участники оценивают поведение донора и согласие с решением менеджера.
  • Второй эксперимент: Участники сравнивают решения AI и человека в ситуации, когда их суждения расходятся.

Результаты

Результаты показывают, что участники принимали решения AI только в случаях, когда AI оценивал оправданный дефект как хороший, в то время как человек оценивал его как плохой. В других сценариях различия не были значительными.

Обсуждение

Результаты подчеркивают, что принятие решений AI является контекстно-зависимым и требует дальнейшего изучения, чтобы понять механизмы, влияющие на это решение. Люди были более склонны принимать действия AI в случаях, когда его решение противоречит человеческому суждению.

«Люди не всегда доверяют AI, особенно когда дело касается моральных суждений, демонстрируя сложные и противоречивые критерии в оценке поведения.»

Короткие версии статей можно найти в телеграм-канале.

Посмотреть канал
Кликните еще раз для перехода