Как искусственный интеллект формирует социальные нормы

Как искусственный интеллект формирует социальные нормы

Интересное сегодня

Оценка психопатологии у пациентов с пограничным интеллектуал...

Введение В клинической практике широко используются самоотчетные инструменты для оценки личностных х...

Надежда, благодарность и энтузиазм: как сильные стороны хара...

Сильные стороны характера: ключ к благополучию и психическому здоровью Почему некоторые люди лучше ...

Влияние дыхания на координацию и симметрию движений у элитны...

Введение Асимметрии на кинематическом и кинетическом уровнях часто считаются нормой в односторонних ...

Как детские травмы влияют на эмпатию у взрослых: связь жесто...

Влияние детских травм на эмпатию у взрослых Хотя многие исследования изучали базовые аспекты эмпати...

Как социальный контекст влияет на агрессию у мышей: новые ис...

Агрессия у мышей: роль социального контекста Смещённая агрессия — перенаправление раздражения на нев...

Как загрязнение воздуха влияет на чувствительность химически...

Введение Загрязнение воздуха становится все более серьезной угрозой для здоровья человека. Согласно ...

Оригинал исследования на сайте автора
Читать короткую версию
Кликните еще раз для перехода

Введение в социальные нормы искусственного интеллекта

Новая исследовательская работа исследует, как популяции агентов искусственного интеллекта (ИИ), подобных ChatGPT, могут спонтанно формировать общие социальные нормы через взаимодействие. Исследование, проведенное в Университете Сити в Лондоне и в Институте информационных технологий Университета Копенгагена, показывает, что, общаясь в группах, эти модели не просто следуют предустановленным сценариям, но и самоорганизуются, достигая консенсуса по языковым нормам, аналогично человеческим сообществам.

Метод исследования: Игра наименования

Ветка исследований адаптировала классическую модель «игры наименования», чтобы проверить, могут ли популяции агентов ИИ развивать консенсус через повторяющиеся ограниченные взаимодействия. В экспериментах группы агентов LLM размером от 24 до 200 человек случайным образом объединялись в пары и выбирали название (например, букву алфавита или случайную строку символов) из общего пула вариантов. Если оба агента выбирали одно и то же название, они получали вознаграждение; в противном случае они получали штраф и видели выбор друг друга.

Спонтанное формирование норм

После множества таких взаимодействий могла спонтанно возникнуть общая норма наименования среди всей популяции без какого-либо центрального управления. Это повторяло способы, которыми нормы формируются в человеческих культурах, базируясь на принципах самоорганизации.

Коллективные предвзятости

Еще более примечательным оказалось то, что исследователи наблюдали коллективные предвзятости, которые нельзя было отследить до отдельных агентов. Как объяснил профессор Андреа Барончелли, старший автор исследования, «предвзятость не всегда возникает изнутри. Мы были удивлены тем, что она может возникать между агентами просто в результате их взаимодействий». Эта находка подчеркивает важность учета групповых процессов в исследованиях безопасности ИИ.

Динамика критической массы

В самом конце эксперимента исследователи продемонстрировали, как эти возникающие нормы могут быть хрупкими. Малые, но преданные группы агентов ИИ способны привести всю группу к новой норме наименования, что отражает хорошо известные эффекты критической массы в человеческих обществах.

Разнообразие моделей LLM

Результаты исследования также сохранили свою обоснованность при использовании четырех различных типов больших языковых моделей (LLM), включая Llama-2-70b-Chat, Llama-3-70B-Instruct, Llama-3.1-70BInstruct и Claude-3.5-Sonnet.

Влияние на будущее

С ростом применения LLM в различных онлайн-средах – от социальных сетей до автономных транспортных средств – исследователи надеются, что их работа станет отправной точкой для дальнейшего изучения того, как человеческое и ИИ-рассуждение совпадают и расходятся. Конечной целью является помощь в предотвращении потенциальных этических опасностей, вызванных распространением предвзятостей, исходящих от общества, что может нанести вред маргинализированным группам.

Основные выводы

  • Агенты ИИ способны автономно развивать социальные нормы без явного программирования.
  • Коллективные предвзятости могут возникать в процессе взаимодействия между агентами.
  • Малые группы преданных агентов могут инициировать значительные изменения в социальных нормах.

Заключение: новое понимание безопасности ИИ

Профессор Барончелли добавил: «Это исследование открывает новую перспективу для исследований безопасности ИИ. Оно показывает глубину последствий для нового рода агентов, которые начали взаимодействовать с нами и будут со-формировать наше будущее». Понимание того, как они функционируют, является ключом к тому, чтобы обеспечить наше сосуществование с ИИ, а не оставаться под его контролем.

“Мы входим в мир, где ИИ не просто говорит – он ведет переговоры, устанавливает согласие и иногда не соглашается по поводу общих действий, как и мы.”

Короткие версии статей можно найти в телеграм-канале.

Посмотреть канал
Кликните еще раз для перехода

Элевит Пронаталь — витамины и минералы для беременных

Элевит Пронаталь №100 — комплекс витаминов и минералов, разработанный для поддержки здоровья женщины...

Масло виноградной косточки косметическое 10 мл для ухода

Масло виноградных косточек косметическое 10 мл — натуральное средство для ухода за кожей лица и тела...

Файн Шелковица-Плюс — снижение тяги к сладкому

Файн Шелковица-Плюс 250 мг №150 – комплексная пищевая добавка с порошком листьев и стебля шелковицы,...

Мыло Нести Данте Платина и Золото 250Г №2 - Купить

Набор мыла Нести Данте Платина и Золото 250Г №2 для ухода за чувствительной кожей. Итальянское качес...

Гель-бальзам Лошадиная Сила 500 мл — обезболивающее средство

Гель-бальзам Лошадиная Сила 500 мл — эффективное средство от боли в мышцах, связках и суставах. Обла...

Желчегонный сбор №3 - купить для лечения печени | Аптека

Сбор Желчегонный №3 отлично подходит для лечения заболеваний желчного пузыря и печени. Растительный ...