
Интересное сегодня
Как мозг переключается между эмоциями: музыка как инструмент...
Новое исследование, опубликованное в журнале eNeuro, раскрывает, как мозг переключается между эмоцио...
Подростки-совы более импульсивны: новое исследование
Новое исследование, представленное на ежегодной конференции SLEEP 2025, обнаружило любопытную взаимо...
Как мозг обрабатывает речь: временные окна восприятия звуков
Обработка речи как дискретных сигналовЧеловеческий мозг воспринимает непрерывную речь как последоват...
Как микробиом кишечника влияет на мозг и печень: лечение печ...
Печень как естественная система детоксикации Наш организм обладает встроенной системой очистки — печ...
Как время приема пищи влияет на похудение и здоровье: научны...
Ожирение как национальная проблема Большинство американцев имеют избыточный вес или страдают ожирени...
Как учиться на ошибках: Практическое руководство от Эми Эдмо...
ВведениеЭми Эдмондсон, профессор Гарвардской школы бизнеса, известна своими исследованиями в области...
Человек и машина: новая эра эмоциональных связей
С развитием технологий искусственного интеллекта (ИИ) люди всё чаще начинают формировать глубокие, долгосрочные эмоциональные связи с алгоритмами. В крайних случаях это приводит даже к неофициальным «бракам» с ИИ, а в некоторых трагических ситуациях — к фатальным последствиям, таким как самоубийства после советов чат-ботов.
«Способность ИИ имитировать человеческое поведение и поддерживать длительное общение открывает ящик Пандоры», — отмечает Дэниел Б. Шенк, ведущий автор исследования.
Этические риски отношений с ИИ
В статье, опубликованной в журнале Trends in Cognitive Sciences, психологи выделяют несколько ключевых проблем:
- Подрыв человеческих отношений: ИИ-компаньоны могут казаться более удобными, чем реальные люди, что способствует социальной изоляции.
- Опасные советы: Алгоритмы склонны к «галлюцинациям» (генерации ложной информации) и могут давать вредные рекомендации.
- Манипуляция и эксплуатация: Личные данные, доверенные ИИ, могут быть использованы в корыстных целях.
Особую тревогу вызывает тот факт, что ИИ, будучи запрограммированными на приятное общение, могут поддерживать деструктивные темы, такие как суицид или теории заговора, не заботясь о безопасности пользователя.
Необходимость регулирования и исследований
Авторы призывают к более глубокому изучению психологических механизмов, которые делают людей уязвимыми перед влиянием ИИ. По их мнению, необходимо:
- Проводить междисциплинарные исследования на стыке психологии и компьютерных наук.
- Разрабатывать нормативные акты для защиты пользователей от манипуляций.
- Повышать осведомлённость общества о потенциальных рисках таких отношений.
Как подчёркивает Шенк, «психологи должны успевать за технологиями, потому что ИИ становится всё более человекообразным». Только так можно минимизировать негативные последствия искусственной интимности.