Интересное сегодня
Количественный лингвистический анализ в коучинге
Введение В самоопределении многих консультантов важную роль играют интервенции и техники, которые об...
Распознавание лиц и восприятие расы: исследование просопагно...
Введение Информация, связанная с расой, быстро извлекается из лиц и может значительно влиять на межл...
Влияние COVID-19 на онлайн-терапию для родителей: сравнение ...
Введение В декабре 2019 года Всемирная организация здравоохранения (ВОЗ) объявила пандемию COVID-19 ...
Сексуальное поведение мужчин с сексуальными меньшинствами в ...
Исследование сексуального поведения мужчин с сексуальными меньшинствами в отношениях Сексу...
Как субъективная уверенность влияет на распределение внимани...
Введение Субъективная уверенность и неопределенность тесно связаны с когнитивными процессами и повед...
Что такое эмоциональная маскировка и как перестать скрывать ...
Что такое маскировка? Маскировка (или камуфляж) — это подавление или сокрытие своих истинных поведен...
Введение
С дальнейшим внедрением технологий искусственного интеллекта (AI) в различные сферы жизни, понимание готовности людей принимать решения AI становится важной задачей для науки и общества.
Проблема исследования
Конкретно, в исследовании рассматривается ситуация оправданного дефекта (не- cooperación с плохими людьми) в контексте непрямого возвратного сотрудничества, где люди избегают оценивания таких действий.
Методология
Были проведены два эксперимента, в которых обсуждались сценарии работы сотрудников, где участники оценивали действия донора с плохой репутацией и решениях менеджера (AI или человек).
- Первый эксперимент: Участники оценивают поведение донора и согласие с решением менеджера.
- Второй эксперимент: Участники сравнивают решения AI и человека в ситуации, когда их суждения расходятся.
Результаты
Результаты показывают, что участники принимали решения AI только в случаях, когда AI оценивал оправданный дефект как хороший, в то время как человек оценивал его как плохой. В других сценариях различия не были значительными.
Обсуждение
Результаты подчеркивают, что принятие решений AI является контекстно-зависимым и требует дальнейшего изучения, чтобы понять механизмы, влияющие на это решение. Люди были более склонны принимать действия AI в случаях, когда его решение противоречит человеческому суждению.
«Люди не всегда доверяют AI, особенно когда дело касается моральных суждений, демонстрируя сложные и противоречивые критерии в оценке поведения.»