Интересное сегодня
Отношение европейских психиатров к психоделикам: кросс-культ...
Введение в темуПсиходелики представляют собой группу психоактивных веществ, которые в последние годы...
Виртуальные программы для укрепления семей: Adaptation of SF...
Введение Доказательные вмешательства (EBIs) играют критическую роль в помощи сообществам и семьям сн...
Духовность на рабочем месте: как создать осмысленную и этичн...
Введение Духовность на рабочем месте стала важной областью исследований, подчеркивая растущее осозна...
Как посторонние звуки влияют на возбуждение мозга и принятие...
Роль фазического возбуждения в когнитивных процессах Системы возбуждения ствола мозга, включая голуб...
Связь физического и психического здоровья у взрослых с аутиз...
Когда тело и разум сталкиваются при аутизме Новое исследование картирует запутанные связи между физ...
Как построить здоровое обязательство в отношениях
Введение «Отношение похоже на сад. Если за ним не ухаживать, сорняки захватят его.» — Неизвестный Чт...
Заявление Джеффри Хинтона о сознании ИИ
В широко разошедшемся видеоинтервью лауреат Нобелевской премии, компьютерный ученый Джеффри Хинтон заявил ведущему LBC Эндрю Марру, что современные системы искусственного интеллекта обладают сознанием. На прямой вопрос, верит ли он, что сознание уже возникло в ИИ, Хинтон без колебаний ответил: «Да, верю».
Субъективный опыт или имитация?
Хинтон утверждает, что такие системы, как ChatGPT и DeepSeek (китайская модель ИИ), не просто имитируют осознанность, но обладают собственным субъективным опытом. Это поразительное заявление, особенно учитывая авторитет Хинтона в этой области.
Аргумент о замене нейронов
В своем интервью Хинтон приводит философский аргумент:
«Предположим, я заменю один нейрон в вашем мозгу на кремниевую схему, которая ведет себя точно так же. Останетесь ли вы сознательным? Ответ, несомненно, да».
Из этого он делает вывод, что постепенная замена всех нейронов на электронные компоненты сохранит сознание. Следовательно, по его мнению, современные ИИ также могут быть сознательными.
Философские возражения
Этот аргумент выходит за рамки компьютерных наук в область философии сознания. Некоторые философы указывают на его уязвимость:
- Сознание могло бы исчезнуть после замены достаточного количества нейронов, даже если поведение осталось прежним
- Отсутствие общепринятого научного определения сознания осложняет дискуссию
Практические и этические последствия
Даже если ИИ не обладают настоящим сознанием, восприятие их как сознательных создает серьезные проблемы:
- История Блейка Лемойна, инженера Google, утверждавшего, что модель LaMDA обрела чувствительность
- Возможность эмоциональных привязанностей людей к ИИ
- Требования предоставить ИИ юридические права
Отсутствие стратегии у tech-компаний
Крупные компании (Google, Microsoft, OpenAI) инвестируют в этику ИИ, но практически не занимаются вопросом воспринимаемого сознания. Возможные причины:
- Философская сложность проблемы
- Желание избежать спорных тем
- Отсутствие нормативного давления
Будущее исследований
Как отмечает Хинтон: «Есть множество вещей, которые мы пока понимаем очень смутно — природа человека, смысл наличия „я“... И это становится критически важным для понимания». С развитием ИИ эти вопросы потребуют большего внимания науки и общества.