Интересное сегодня
Удовлетворенность жизнью пожилых людей: культурные особеннос...
Введение в удовлетворенность жизнью Удовлетворенность жизнью (УЖ) — это многогранная концепция, отра...
Инструмент для расчета эстетических свойств изображений
Введение Многие современные модели эстетического опыта выдвигают гипотезу о том, что эстетические су...
Роль когнитивной нагрузки в автоматической интеграции эмоцио...
Введение В повседневной жизни мы воспринимаем эмоции через мимику, которая служит быстрым и легко уз...
Типы матерей: Как их понимание может повлиять на ваши отноше...
Введение Понимание типов матерей может значительно повлиять на наши отношения и общее эмоциональное ...
Исследование факторов, влияющих на устойчивое поведение летн...
Введение С ростом сложности авиационных систем и непредсказуемых "Черных лебедей" необходимы стратег...
Агрессивное поведение у детей с аутизмом: опыт родителей, ст...
Аутизм и агрессивное поведение: введение Аутизм (расстройство аутистического спектра, РАС) — это раз...
Человек и машина: новая эра эмоциональных связей
С развитием технологий искусственного интеллекта (ИИ) люди всё чаще начинают формировать глубокие, долгосрочные эмоциональные связи с алгоритмами. В крайних случаях это приводит даже к неофициальным «бракам» с ИИ, а в некоторых трагических ситуациях — к фатальным последствиям, таким как самоубийства после советов чат-ботов.
«Способность ИИ имитировать человеческое поведение и поддерживать длительное общение открывает ящик Пандоры», — отмечает Дэниел Б. Шенк, ведущий автор исследования.
Этические риски отношений с ИИ
В статье, опубликованной в журнале Trends in Cognitive Sciences, психологи выделяют несколько ключевых проблем:
- Подрыв человеческих отношений: ИИ-компаньоны могут казаться более удобными, чем реальные люди, что способствует социальной изоляции.
- Опасные советы: Алгоритмы склонны к «галлюцинациям» (генерации ложной информации) и могут давать вредные рекомендации.
- Манипуляция и эксплуатация: Личные данные, доверенные ИИ, могут быть использованы в корыстных целях.
Особую тревогу вызывает тот факт, что ИИ, будучи запрограммированными на приятное общение, могут поддерживать деструктивные темы, такие как суицид или теории заговора, не заботясь о безопасности пользователя.
Необходимость регулирования и исследований
Авторы призывают к более глубокому изучению психологических механизмов, которые делают людей уязвимыми перед влиянием ИИ. По их мнению, необходимо:
- Проводить междисциплинарные исследования на стыке психологии и компьютерных наук.
- Разрабатывать нормативные акты для защиты пользователей от манипуляций.
- Повышать осведомлённость общества о потенциальных рисках таких отношений.
Как подчёркивает Шенк, «психологи должны успевать за технологиями, потому что ИИ становится всё более человекообразным». Только так можно минимизировать негативные последствия искусственной интимности.