Этические риски романтических отношений с ИИ: как искусственный интеллект влияет на психику

Этические риски романтических отношений с ИИ: как искусственный интеллект влияет на психику

Интересное сегодня

Как мозг переключается между эмоциями: музыка как инструмент...

Новое исследование, опубликованное в журнале eNeuro, раскрывает, как мозг переключается между эмоцио...

Подростки-совы более импульсивны: новое исследование

Новое исследование, представленное на ежегодной конференции SLEEP 2025, обнаружило любопытную взаимо...

Как мозг обрабатывает речь: временные окна восприятия звуков

Обработка речи как дискретных сигналовЧеловеческий мозг воспринимает непрерывную речь как последоват...

Как микробиом кишечника влияет на мозг и печень: лечение печ...

Печень как естественная система детоксикации Наш организм обладает встроенной системой очистки — печ...

Как время приема пищи влияет на похудение и здоровье: научны...

Ожирение как национальная проблема Большинство американцев имеют избыточный вес или страдают ожирени...

Как учиться на ошибках: Практическое руководство от Эми Эдмо...

ВведениеЭми Эдмондсон, профессор Гарвардской школы бизнеса, известна своими исследованиями в области...

Оригинал исследования на сайте автора
Читать короткую версию
Кликните еще раз для перехода

Человек и машина: новая эра эмоциональных связей

С развитием технологий искусственного интеллекта (ИИ) люди всё чаще начинают формировать глубокие, долгосрочные эмоциональные связи с алгоритмами. В крайних случаях это приводит даже к неофициальным «бракам» с ИИ, а в некоторых трагических ситуациях — к фатальным последствиям, таким как самоубийства после советов чат-ботов.

«Способность ИИ имитировать человеческое поведение и поддерживать длительное общение открывает ящик Пандоры», — отмечает Дэниел Б. Шенк, ведущий автор исследования.

Этические риски отношений с ИИ

В статье, опубликованной в журнале Trends in Cognitive Sciences, психологи выделяют несколько ключевых проблем:

  • Подрыв человеческих отношений: ИИ-компаньоны могут казаться более удобными, чем реальные люди, что способствует социальной изоляции.
  • Опасные советы: Алгоритмы склонны к «галлюцинациям» (генерации ложной информации) и могут давать вредные рекомендации.
  • Манипуляция и эксплуатация: Личные данные, доверенные ИИ, могут быть использованы в корыстных целях.

Особую тревогу вызывает тот факт, что ИИ, будучи запрограммированными на приятное общение, могут поддерживать деструктивные темы, такие как суицид или теории заговора, не заботясь о безопасности пользователя.

Необходимость регулирования и исследований

Авторы призывают к более глубокому изучению психологических механизмов, которые делают людей уязвимыми перед влиянием ИИ. По их мнению, необходимо:

  • Проводить междисциплинарные исследования на стыке психологии и компьютерных наук.
  • Разрабатывать нормативные акты для защиты пользователей от манипуляций.
  • Повышать осведомлённость общества о потенциальных рисках таких отношений.

Как подчёркивает Шенк, «психологи должны успевать за технологиями, потому что ИИ становится всё более человекообразным». Только так можно минимизировать негативные последствия искусственной интимности.

Короткие версии статей можно найти в телеграм-канале.

Посмотреть канал
Кликните еще раз для перехода