Как искусственный интеллект формирует социальные нормы

Как искусственный интеллект формирует социальные нормы

Интересное сегодня

Как понимание в межрасовых и внутрирасовых отношениях влияет...

Введение Исследование рассматривает, как понимание и раскрытие информации в близких отношениях влияю...

Как предсказанная недостающая информация влияет на восприяти...

Введение Разработка быстрой и точной оценки сложных эмоциональных состояний людей представляет собой...

Влияние жестокого обращения в детстве на риск суицида среди ...

Введение Около 2,1 миллиона подростков и молодых людей в странах субсахарской Африки живут с вирусом...

Влияние личных качеств матерей на выбор домашнего воспитания

Введение После перехода к материнству многие женщины с высшим образованием выбирают оставить рабочие...

Критическая роль эмоциональной коммуникации для мотивированн...

Введение Принятие электромобилей (ЭМ) является критическим компонентом в снижении выбросов парниковы...

Психометрические свойства вопросника метакогниций MCQ-30 сре...

Введение В модели саморегуляции исполнительной функции (S-REF) предложено, что механизм, лежащий в о...

Оригинал исследования на сайте автора

Введение в социальные нормы искусственного интеллекта

Новая исследовательская работа исследует, как популяции агентов искусственного интеллекта (ИИ), подобных ChatGPT, могут спонтанно формировать общие социальные нормы через взаимодействие. Исследование, проведенное в Университете Сити в Лондоне и в Институте информационных технологий Университета Копенгагена, показывает, что, общаясь в группах, эти модели не просто следуют предустановленным сценариям, но и самоорганизуются, достигая консенсуса по языковым нормам, аналогично человеческим сообществам.

Метод исследования: Игра наименования

Ветка исследований адаптировала классическую модель «игры наименования», чтобы проверить, могут ли популяции агентов ИИ развивать консенсус через повторяющиеся ограниченные взаимодействия. В экспериментах группы агентов LLM размером от 24 до 200 человек случайным образом объединялись в пары и выбирали название (например, букву алфавита или случайную строку символов) из общего пула вариантов. Если оба агента выбирали одно и то же название, они получали вознаграждение; в противном случае они получали штраф и видели выбор друг друга.

Спонтанное формирование норм

После множества таких взаимодействий могла спонтанно возникнуть общая норма наименования среди всей популяции без какого-либо центрального управления. Это повторяло способы, которыми нормы формируются в человеческих культурах, базируясь на принципах самоорганизации.

Коллективные предвзятости

Еще более примечательным оказалось то, что исследователи наблюдали коллективные предвзятости, которые нельзя было отследить до отдельных агентов. Как объяснил профессор Андреа Барончелли, старший автор исследования, «предвзятость не всегда возникает изнутри. Мы были удивлены тем, что она может возникать между агентами просто в результате их взаимодействий». Эта находка подчеркивает важность учета групповых процессов в исследованиях безопасности ИИ.

Динамика критической массы

В самом конце эксперимента исследователи продемонстрировали, как эти возникающие нормы могут быть хрупкими. Малые, но преданные группы агентов ИИ способны привести всю группу к новой норме наименования, что отражает хорошо известные эффекты критической массы в человеческих обществах.

Разнообразие моделей LLM

Результаты исследования также сохранили свою обоснованность при использовании четырех различных типов больших языковых моделей (LLM), включая Llama-2-70b-Chat, Llama-3-70B-Instruct, Llama-3.1-70BInstruct и Claude-3.5-Sonnet.

Влияние на будущее

С ростом применения LLM в различных онлайн-средах – от социальных сетей до автономных транспортных средств – исследователи надеются, что их работа станет отправной точкой для дальнейшего изучения того, как человеческое и ИИ-рассуждение совпадают и расходятся. Конечной целью является помощь в предотвращении потенциальных этических опасностей, вызванных распространением предвзятостей, исходящих от общества, что может нанести вред маргинализированным группам.

Основные выводы

  • Агенты ИИ способны автономно развивать социальные нормы без явного программирования.
  • Коллективные предвзятости могут возникать в процессе взаимодействия между агентами.
  • Малые группы преданных агентов могут инициировать значительные изменения в социальных нормах.

Заключение: новое понимание безопасности ИИ

Профессор Барончелли добавил: «Это исследование открывает новую перспективу для исследований безопасности ИИ. Оно показывает глубину последствий для нового рода агентов, которые начали взаимодействовать с нами и будут со-формировать наше будущее». Понимание того, как они функционируют, является ключом к тому, чтобы обеспечить наше сосуществование с ИИ, а не оставаться под его контролем.

“Мы входим в мир, где ИИ не просто говорит – он ведет переговоры, устанавливает согласие и иногда не соглашается по поводу общих действий, как и мы.”

Короткие версии статей можно найти в телеграм-канале.

Посмотреть канал
Кликните еще раз для перехода