Как люди принимают решения AI в сложных моральных ситуациях: исследование оправданного дефекта

Как люди принимают решения AI в сложных моральных ситуациях: исследование оправданного дефекта

Интересное сегодня

Генетические основы синдрома хрупкой X: диагностика и выявле...

Введение Синдром хрупкой X (SXH) является ведущей наследственной причиной умственной отсталости (Cra...

Психологические различия между зависимостью от пищи и булими...

Введение Проблема чрезмерного потребления пищи и его последствия, такие как расстройства пищевого по...

Как артериальное давление, осознание болезни и приверженност...

Влияние гипертонии на качество жизни и эмоциональное состояниеГипертония, или повышенное артериально...

Влияние хронического стресса во время учебы на депрессивные ...

Введение Исследования стресса и напряжения имеют долгую историю, начиная с XIX века. Несмотря на раз...

Как дискриминация влияет на субъективное благополучие студен...

Введение С ростом числа студентов с инвалидностью в китайских вузах, становится все более актуальным...

Первый продажный шедевр ИИ: Искусство Ai-Da

Введение В ноябре 2024 года мир искусства стал свидетелем исторического события, когда Ai-Da, первый...

Thumbnail 1
Оригинал исследования на сайте автора
Читать короткую версию
Кликните еще раз для перехода

Введение

С дальнейшим внедрением технологий искусственного интеллекта (AI) в различные сферы жизни, понимание готовности людей принимать решения AI становится важной задачей для науки и общества.

Проблема исследования

Конкретно, в исследовании рассматривается ситуация оправданного дефекта (не- cooperación с плохими людьми) в контексте непрямого возвратного сотрудничества, где люди избегают оценивания таких действий.

Методология

Были проведены два эксперимента, в которых обсуждались сценарии работы сотрудников, где участники оценивали действия донора с плохой репутацией и решениях менеджера (AI или человек).

  • Первый эксперимент: Участники оценивают поведение донора и согласие с решением менеджера.
  • Второй эксперимент: Участники сравнивают решения AI и человека в ситуации, когда их суждения расходятся.

Результаты

Результаты показывают, что участники принимали решения AI только в случаях, когда AI оценивал оправданный дефект как хороший, в то время как человек оценивал его как плохой. В других сценариях различия не были значительными.

Обсуждение

Результаты подчеркивают, что принятие решений AI является контекстно-зависимым и требует дальнейшего изучения, чтобы понять механизмы, влияющие на это решение. Люди были более склонны принимать действия AI в случаях, когда его решение противоречит человеческому суждению.

«Люди не всегда доверяют AI, особенно когда дело касается моральных суждений, демонстрируя сложные и противоречивые критерии в оценке поведения.»

Короткие версии статей можно найти в телеграм-канале.

Посмотреть канал
Кликните еще раз для перехода