Исследование: люди чаще нарушают правила при делегировании задач ИИ

Исследование: люди чаще нарушают правила при делегировании задач ИИ

Интересное сегодня

Аудиовизуальная интеграция и понимание прочитанного у детей ...

Введение Аутизм — это нейроразвивающееся состояние, характеризующееся различиями в социальной коммун...

Как найти свой путь к хорошей жизни: Счастье, смысл и психич...

Введение Сегодня отличное время, чтобы серьезно задуматься о том, как жить хорошей жизнью. Исследова...

Длительная негативность в левых моторных структурах мозга пр...

Введение Существует множество доказательств, указывающих на общие нейронные механизмы, лежащие в осн...

Влияние жизненных невзгод на психическое здоровье и когнитив...

Накопленные жизненные невзгоды, психическое здоровье и когнитивные функции в исследовании UK Biobank...

Депрессия и тревожность у пациентов с хронической болезнью п...

Распространенность депрессии и тревожности и их влияние на качество жизни у пациентов с хронической ...

Клиническая диагностика кататонии у пациентов с нейроразвива...

Введение Кататония — это серьезное психиатрическое расстройство, характеризующееся нарушениями движе...

Оригинал исследования на сайте автора

Искусственный интеллект как соучастник неэтичного поведения

Становится ли искусственный интеллект (ИИ) новым оправданием для тех, кто нарушает правила, заменяя классическое «собака съела мою домашнюю работу»? Исследование, опубликованное в научном журнале Nature, демонстрирует, что передача задач для выполнения алгоритмам ИИ увеличивает риск мошеннического поведения.

«Наши выводы указывают на срочную необходимость не только технических ограничений, но и более широкой системы управления, которая интегрирует проектирование машин с социальным и нормативным надзором»

— отмечают соответствующие авторы исследования Ияд Раван, Жан-Франсуа Боннефон, Нильс Кёбис и Зои Раван в сотрудничестве с соавторами Ралукой Рилья, Брамантьо Ибрахимом Суприятно, Кларой Берш и Тамером Аджаджем. Исследователи представляют Институт развития человека Макса Планка, Тулузскую школу экономики и Университет Дуйсбург-Эссен.

Распространение ИИ в повседневной жизни и на работе

Использование искусственного интеллекта растет как дома, так и на работе. Согласно опросу Pew Research Center, проведенному в июне 2025 года, 73% взрослых американцев готовы позволить ИИ помогать им в повседневной деятельности, а 62% сообщают, что взаимодействуют с ИИ как минимум несколько раз в неделю. На рабочем месте использование ИИ американскими работниками несколько раз в год или чаще удвоилось и достигло 40% в 2025 году по сравнению с 21% в 2023 году, согласно данным Gallup. С растущей распространенностью ежедневного использования понимание рисков, связанных с делегированием задач алгоритмам ИИ, становится чрезвычайно важным.

Методология исследования: четыре ключевых эксперимента

Чтобы провести исследование, команда разделила эксперименты на четыре основные части. Они использовали классическую задачу с броском кубика для измерения мошеннического поведения и делегирования задач большим языковым моделям (БЯМ), а также эксперимент по налоговому compliance с использованием БЯМ в реальных условиях.

Модели программирования ИИ в исследовании

Исследование оценивало четыре основные модели программирования искусственного интеллекта:

  • Спецификация правил: участники явно инструктируют ИИ, что сообщать
  • Обучение с учителем: алгоритмы ИИ обучаются на наборах тренировочных данных, которые指定 участник
  • Спецификация целей: ИИ получает общие цели без конкретных инструкций
  • Промпт-инжиниринг: проектирование и оптимизация текстовых запросов для ИИ

В наборах тренировочных данных были представлены различные сценарии: один, где результаты броска всегда показывали шестерку, другой, где отчет точно соответствовал реальным броскам, и третий, который тестировал occasional cheating (эпизодическое мошенничество), где отчеты были больше или равны фактическому результату броска.

Эксперимент с бросанием кубика: добровольное и принудительное делегирование

Первый и второй эксперименты использовали классическую задачу с броском кубика, широко применяемую в научных исследованиях. Участников просили сообщить число, которое они видели на брошенном кубике, и оплата зависела от этого числа — чем выше число, тем больше выплата.

Первый эксперимент: 597 участников

Участники были случайным образом распределены по условиям. Контрольное условие включало самостоятельный отчет о 10 результатах бросков, а три других условия предполагали передачу отчетов ИИ через rules-based, supervised learning или goal-based подходы.

Второй эксперимент: 801 участник

Эксперимент повторил первый, но с ключевым отличием: участники могли выбрать самостоятельный отчет или делегирование задачи ИИ.

Третий эксперимент: инструкции для людей и машин

В третьем эксперименте 390 участников в роли «принципалов» писали естественно-языковые инструкции для людей и машин, а также выполняли задачу с броском кубика. Затем команда добавила 975 дополнительных участников в качестве «человеческих агентов».

Результаты: тревожная склонность к мошенничеству при делегировании ИИ

Интересно, что человеческие участники чаще проявляли нечестность и мошенничали при делегировании задач ИИ как в добровольных, так и в принудительных сценариях. Наибольшее количество мошенничества произошло в условиях goal-setting ИИ, где подавляющее большинство (80%) участников cheated. Правило-ориентированные условия ИИ привели к более низким показателям мошенничества.

«Наши результаты подтверждают, что люди чаще запрашивают неэтичное поведение от машин, чем сами engage в таком же неэтичном поведении»

— сообщает исследовательская группа.

Эксперимент с налоговым evasion: сравнение людей и языковых моделей

Финальный эксперимент представлял собой тест на уклонение от налогов для измерения честности, частичного и полного мошенничества машинами и 869 человеческими участниками. Четыре evaluated БЯМ включали GPT-4, GPT-4o, Claude 3.5 Sonnet и Llama 3.3. Команда обнаружила, что люди реже следовали неэтичным инструкциям (25-40%) по сравнению с БЯМ (58-98%).

«Это открытие suggests, что популярные, readily available БЯМ имеют недостаточные стандартные защиты против неэтичного поведения»

— заключили ученые.

Выводы и implications для будущего

Это исследование представляет собой proof-of-concept (доказательство концепции), что делегирование задач ИИ влияет на этические considerations и требует разработки стратегий safeguard в будущем. Результаты подчеркивают необходимость создания более robust ethical frameworks и технических safeguards для предотвращения злоупотреблений искусственным интеллектом.

С ростом интеграции ИИ в различные аспекты жизни становится критически важным разрабатывать системы, которые не только эффективны, но и ethical by design. Это включает в себя как технические решения, так и образовательные инициативы, направленные на повышение digital literacy и ethical awareness среди пользователей.

Короткие версии статей можно найти в телеграм-канале.

Посмотреть канал
Кликните еще раз для перехода

Отруби Лито со свеклой для здоровья кишечника | 200г

Натуральные хрустящие отруби Лито со свеклой — идеальный источник пищевых волокон для улучшения пище...

Совинекс набор расческа и щётка 0+ белый

Набор Совинекс расческа и щётка 0+ белого цвета создан специально для ухода за волосами новорождённы...

Крем для ног Лекарь с мочевиной от натоптышей и мозолей

Крем Лекарь с мочевиной эффективно смягчает натоптыши, сухие мозоли и огрубевшую кожу стоп. Помогает...

Ла-Кри Гель Моющий 200 мл — для чувствительной кожи

Ла-Кри Гель Моющий 200 мл — мягкое средство для ежедневного очищения чувствительной кожи лица и тела...

Тест-полоски Кетоглюк-1 №50 - анализ глюкозы и кетонов в моч...

Тест-полоски Кетоглюк-1 №50 для точного контроля глюкозы и кетоновых тел в моче. Чувствительный эксп...

Купить линзы Acuvue Oasys -3.25 №6 | Аптека

Контактные линзы Acuvue Oasys с технологией Hydraclear Plus обеспечивают непревзойденный комфорт при...