
Интересное сегодня
Влияние материнской любви на личностное развитие детей
Введение Исследования показывают, что материнская любовь в раннем детстве играет важную роль в форми...
Использование интервенций на основе осознанности для улучшен...
Введение Атаксия — это неврологическое расстройство, при котором нарушается координация движений, чт...
Новая модель объединяет психологию и экономику, чтобы показа...
Новая модель, разработанная Стефанией Минарди из HEC Paris и Андреем Савочкиным из Университета Бокк...
История Сары: Выбор видеть мир лучше
Однажды польская еврейка по имени Сара рассказала мне эту историю: В начале Второй мировой войны, ко...
Исследование сенсорного ослабления в соматосенсорной области...
Введение Мы не только пассивно погружены в сенсорный мир, но и активно взаимодействуем с ним, произв...
Как наш мозг использует схемы и память для предсказания собы...
Введение Интеграция различных опытов позволяет нам выявлять закономерности в последовательности собы...
Человек и машина: новая эра эмоциональных связей
С развитием технологий искусственного интеллекта (ИИ) люди всё чаще начинают формировать глубокие, долгосрочные эмоциональные связи с алгоритмами. В крайних случаях это приводит даже к неофициальным «бракам» с ИИ, а в некоторых трагических ситуациях — к фатальным последствиям, таким как самоубийства после советов чат-ботов.
«Способность ИИ имитировать человеческое поведение и поддерживать длительное общение открывает ящик Пандоры», — отмечает Дэниел Б. Шенк, ведущий автор исследования.
Этические риски отношений с ИИ
В статье, опубликованной в журнале Trends in Cognitive Sciences, психологи выделяют несколько ключевых проблем:
- Подрыв человеческих отношений: ИИ-компаньоны могут казаться более удобными, чем реальные люди, что способствует социальной изоляции.
- Опасные советы: Алгоритмы склонны к «галлюцинациям» (генерации ложной информации) и могут давать вредные рекомендации.
- Манипуляция и эксплуатация: Личные данные, доверенные ИИ, могут быть использованы в корыстных целях.
Особую тревогу вызывает тот факт, что ИИ, будучи запрограммированными на приятное общение, могут поддерживать деструктивные темы, такие как суицид или теории заговора, не заботясь о безопасности пользователя.
Необходимость регулирования и исследований
Авторы призывают к более глубокому изучению психологических механизмов, которые делают людей уязвимыми перед влиянием ИИ. По их мнению, необходимо:
- Проводить междисциплинарные исследования на стыке психологии и компьютерных наук.
- Разрабатывать нормативные акты для защиты пользователей от манипуляций.
- Повышать осведомлённость общества о потенциальных рисках таких отношений.
Как подчёркивает Шенк, «психологи должны успевать за технологиями, потому что ИИ становится всё более человекообразным». Только так можно минимизировать негативные последствия искусственной интимности.