Как люди принимают решения AI в сложных моральных ситуациях: исследование оправданного дефекта

Как люди принимают решения AI в сложных моральных ситуациях: исследование оправданного дефекта

Интересное сегодня

Быстрое формирование ассоциаций слов и изображений у кошек

Введение Известно, что собаки способны следовать человеческим вербальным инструкциям. Однако мало чт...

Длительные эффекты психоделиков: новое исследование

Психоделики привлекают всё большее внимание в медицине, и первые результаты показывают, чт...

Влияние поддержки со стороны учителей на вовлеченность студе...

Введение Вовлеченность в учебный процесс стала предметом значительного интереса в последние годы, та...

Факторы, влияющие на наличие и поиск смысла жизни среди студ...

Введение Исследование изучает личные и академические факторы, связанные с наличием и поиском смысла ...

Метааналитическая оценка надежности шкал конфликта между раб...

Введение Взаимодействие между рабочими и семейными ролями играет ключевую роль в благополучии сотруд...

Влияние дополненной реальности на меткость бросков в дартс

Введение Сенсорное восприятие движения окружающего мира и его объектов является основополагающей зад...

Thumbnail 1
Оригинал исследования на сайте автора
Читать короткую версию
Кликните еще раз для перехода

Введение

С дальнейшим внедрением технологий искусственного интеллекта (AI) в различные сферы жизни, понимание готовности людей принимать решения AI становится важной задачей для науки и общества.

Проблема исследования

Конкретно, в исследовании рассматривается ситуация оправданного дефекта (не- cooperación с плохими людьми) в контексте непрямого возвратного сотрудничества, где люди избегают оценивания таких действий.

Методология

Были проведены два эксперимента, в которых обсуждались сценарии работы сотрудников, где участники оценивали действия донора с плохой репутацией и решениях менеджера (AI или человек).

  • Первый эксперимент: Участники оценивают поведение донора и согласие с решением менеджера.
  • Второй эксперимент: Участники сравнивают решения AI и человека в ситуации, когда их суждения расходятся.

Результаты

Результаты показывают, что участники принимали решения AI только в случаях, когда AI оценивал оправданный дефект как хороший, в то время как человек оценивал его как плохой. В других сценариях различия не были значительными.

Обсуждение

Результаты подчеркивают, что принятие решений AI является контекстно-зависимым и требует дальнейшего изучения, чтобы понять механизмы, влияющие на это решение. Люди были более склонны принимать действия AI в случаях, когда его решение противоречит человеческому суждению.

«Люди не всегда доверяют AI, особенно когда дело касается моральных суждений, демонстрируя сложные и противоречивые критерии в оценке поведения.»

Короткие версии статей можно найти в телеграм-канале.

Посмотреть канал
Кликните еще раз для перехода