Как люди принимают решения AI в сложных моральных ситуациях: исследование оправданного дефекта

Как люди принимают решения AI в сложных моральных ситуациях: исследование оправданного дефекта

Интересное сегодня

Этический климат и организационный цинизм: как соответствие ...

Введение Организационный цинизм является нежелательным явлением на рабочем месте, которое может прив...

Механизмы обновления убеждений при большом депрессивном расс...

Введение Большое депрессивное расстройство (БДР) — это изнурительное состояние, которое значительно ...

Интерпретативный Феноменологический Анализ: Глубокое Пониман...

Что такое интерпретативная феноменология? Интерпретативный феноменологический анализ (IPA) — это кач...

Как самоирония помогает в психотерапии и повседневной жизни

Сила самоиронии в психологииСамоуничижительный юмор, при грамотном использовании, становится мощным ...

Как избежать эмоционального выгорания в отношениях: важность...

Знакомо ли вам это чувство? Вы сидите с партнёром за ужином, обсуждаете прошедший день. Вы играете п...

Анализ сегрегации информации в параллельных потоках многопот...

Введение В зрительной коре приматов визуальная информация обрабатывается в иерархически организованн...

Thumbnail 1
Оригинал исследования на сайте автора
Читать короткую версию
Кликните еще раз для перехода

Введение

С дальнейшим внедрением технологий искусственного интеллекта (AI) в различные сферы жизни, понимание готовности людей принимать решения AI становится важной задачей для науки и общества.

Проблема исследования

Конкретно, в исследовании рассматривается ситуация оправданного дефекта (не- cooperación с плохими людьми) в контексте непрямого возвратного сотрудничества, где люди избегают оценивания таких действий.

Методология

Были проведены два эксперимента, в которых обсуждались сценарии работы сотрудников, где участники оценивали действия донора с плохой репутацией и решениях менеджера (AI или человек).

  • Первый эксперимент: Участники оценивают поведение донора и согласие с решением менеджера.
  • Второй эксперимент: Участники сравнивают решения AI и человека в ситуации, когда их суждения расходятся.

Результаты

Результаты показывают, что участники принимали решения AI только в случаях, когда AI оценивал оправданный дефект как хороший, в то время как человек оценивал его как плохой. В других сценариях различия не были значительными.

Обсуждение

Результаты подчеркивают, что принятие решений AI является контекстно-зависимым и требует дальнейшего изучения, чтобы понять механизмы, влияющие на это решение. Люди были более склонны принимать действия AI в случаях, когда его решение противоречит человеческому суждению.

«Люди не всегда доверяют AI, особенно когда дело касается моральных суждений, демонстрируя сложные и противоречивые критерии в оценке поведения.»

Короткие версии статей можно найти в телеграм-канале.

Посмотреть канал
Кликните еще раз для перехода