
Интересное сегодня
Этический климат и организационный цинизм: как соответствие ...
Введение Организационный цинизм является нежелательным явлением на рабочем месте, которое может прив...
Механизмы обновления убеждений при большом депрессивном расс...
Введение Большое депрессивное расстройство (БДР) — это изнурительное состояние, которое значительно ...
Интерпретативный Феноменологический Анализ: Глубокое Пониман...
Что такое интерпретативная феноменология? Интерпретативный феноменологический анализ (IPA) — это кач...
Как самоирония помогает в психотерапии и повседневной жизни
Сила самоиронии в психологииСамоуничижительный юмор, при грамотном использовании, становится мощным ...
Как избежать эмоционального выгорания в отношениях: важность...
Знакомо ли вам это чувство? Вы сидите с партнёром за ужином, обсуждаете прошедший день. Вы играете п...
Анализ сегрегации информации в параллельных потоках многопот...
Введение В зрительной коре приматов визуальная информация обрабатывается в иерархически организованн...
Введение
С дальнейшим внедрением технологий искусственного интеллекта (AI) в различные сферы жизни, понимание готовности людей принимать решения AI становится важной задачей для науки и общества.
Проблема исследования
Конкретно, в исследовании рассматривается ситуация оправданного дефекта (не- cooperación с плохими людьми) в контексте непрямого возвратного сотрудничества, где люди избегают оценивания таких действий.
Методология
Были проведены два эксперимента, в которых обсуждались сценарии работы сотрудников, где участники оценивали действия донора с плохой репутацией и решениях менеджера (AI или человек).
- Первый эксперимент: Участники оценивают поведение донора и согласие с решением менеджера.
- Второй эксперимент: Участники сравнивают решения AI и человека в ситуации, когда их суждения расходятся.
Результаты
Результаты показывают, что участники принимали решения AI только в случаях, когда AI оценивал оправданный дефект как хороший, в то время как человек оценивал его как плохой. В других сценариях различия не были значительными.
Обсуждение
Результаты подчеркивают, что принятие решений AI является контекстно-зависимым и требует дальнейшего изучения, чтобы понять механизмы, влияющие на это решение. Люди были более склонны принимать действия AI в случаях, когда его решение противоречит человеческому суждению.
«Люди не всегда доверяют AI, особенно когда дело касается моральных суждений, демонстрируя сложные и противоречивые критерии в оценке поведения.»