Влияние маркировки автомобильного ИИ как «доверительного» или «надежного» на оценку пользователей и принятие технологии

Влияние маркировки автомобильного ИИ как «доверительного» или «надежного» на оценку пользователей и принятие технологии

Интересное сегодня

Как субъективная уверенность влияет на распределение внимани...

Введение Субъективная уверенность и неопределенность тесно связаны с когнитивными процессами и повед...

Стресс родителей детей с нейроразвивающими расстройствами

Введение Синдром дефицита внимания и гиперактивности (СДВГ) и расстройство аутистического спектра (Р...

Психологические факторы риска и устойчивости посттравматичес...

Введение По данным реестра жертв в Колумбии, более девяти миллионов человек подверглись воздействию ...

Психологические факторы предотвращения самоубийств в Индонез...

Введение Всемирная организация здравоохранения (ВОЗ, 2014) признает самоубийство глобальной проблемо...

Связь между вербальной активностью и долголетием

Введение Недавнее исследование, опубликованное в журнале Psychological Science, выявило связь между ...

Как чувствительность к боли влияет на эмпатию при психопатии

Введение Психопатия – это личностная структура, характеризующаяся универсальными межличностными, афф...

figure 11
figure 11
figure 12
figure 12
figure 1
figure 1
figure 2
figure 2
figure 3
figure 3
figure 4
figure 4
figure 5
figure 5
figure 6
figure 6
figure 7
figure 7
figure 8
figure 8
figure 9
figure 9
figure 10
figure 10
Thumbnail 1
Thumbnail 2
Thumbnail 3
Thumbnail 4
Thumbnail 5
Thumbnail 6
Thumbnail 7
Thumbnail 8
Thumbnail 9
Thumbnail 10
Thumbnail 11
Thumbnail 12
Thumbnail 13
Thumbnail 14
Thumbnail 15
Читать короткую версию
Кликните еще раз для перехода

Введение

Широкое использование термина «доверительный ИИ» вызывает дебаты среди производителей и законодателей. Некоторые философы утверждают, что доверять машинам иррационально, и доверие должно быть направлено на людей, ответственных за разработку и внедрение ИИ. Другие, такие как Coeckelbergh, утверждают, что доверие к машинам должно быть распространено, как и к другим социальным агентам.

Те, кто выступают против доверия машинам, утверждают, что доверие может быть рационально применено только к агентам, чувствительным к нормативным ограничениям, действующим с благосклонностью или обладающим моральной чувствительностью. Современные машины не обладают этими качествами, поэтому многие специалисты по этике ИИ предлагают использовать понятие надежности вместо доверия.

Методы

Исследование использует однофакторный межгрупповой дизайн с 478 участниками, разделенными на две группы: «доверительный ИИ» и «надежный ИИ». Участники оценивали три сценария и заполняли модифицированную версию Модели принятия технологии (TAM), которая охватывает различные переменные, такие как воспринимаемая легкость использования, человекоподобное доверие и общее отношение.

Результаты

Маркировка ИИ как «доверительного» не значительно влияла на суждения участников по конкретным сценариям, но увеличивала воспринимаемую легкость использования и человекоподобное доверие, что указывает на влияние на удобство использования и антропоморфизацию восприятия пользователей.

Обсуждение

Исследование показало, что маркировка ИИ как «доверительного» не значительно влияет на оценки пользователей или принятие технологии, за исключением увеличения восприятия ИИ как заботящегося о благополучии людей. Эти результаты имеют важные практические и этические последствия для разработчиков и политиков.

Ограничения

Исследование имеет несколько ограничений, включая возможное влияние фрейминга на восприятие участников и необходимость дальнейших исследований для оценки влияния маркировки на другие технологии ИИ.

Заключение

Маркировка ИИ как «доверительного» или «надежного» не значительно влияет на оценки пользователей или принятие технологии, за исключением восприятия ИИ как заботящегося о благополучии людей. Эти результаты подчеркивают важность использования надежности вместо доверия в разработке и внедрении ИИ.

Короткие версии статей можно найти в телеграм-канале.

Посмотреть канал
Кликните еще раз для перехода