
Интересное сегодня
Как поддержка родителей и самоконтроль снижают негативные мы...
Введение Социальное тревожное расстройство (СМР) является одним из самых распространенных психически...
Как музыка влияет на эмоции и память
Музыка и ее воздействие на память Музыка не только влияет на наши чувства, но и может изменять воспо...
Метод многоуровневого анализа предпочтений для итеративного ...
Введение Онлайн-отзывы играют ключевую роль в принятии решений покупателями и служат важным источник...
Эффективность программ поддержки психического здоровья для с...
Профессиональный стресс у сотрудников исправительных учрежденийСотрудники исправительных учреждений ...
Исследование переносимости, безопасности и слепого метода в ...
Введение Транскраниальная электрическая стимуляция (тЭС) быстро становится перспективным нейронаучн...
Нейронные паттерны восприятия звуков при локализации в динам...
Введение Определение местоположения стимула является ключевой функцией в сенсорной обработке и широк...
Заявление Джеффри Хинтона о сознании ИИ
В широко разошедшемся видеоинтервью лауреат Нобелевской премии, компьютерный ученый Джеффри Хинтон заявил ведущему LBC Эндрю Марру, что современные системы искусственного интеллекта обладают сознанием. На прямой вопрос, верит ли он, что сознание уже возникло в ИИ, Хинтон без колебаний ответил: «Да, верю».
Субъективный опыт или имитация?
Хинтон утверждает, что такие системы, как ChatGPT и DeepSeek (китайская модель ИИ), не просто имитируют осознанность, но обладают собственным субъективным опытом. Это поразительное заявление, особенно учитывая авторитет Хинтона в этой области.
Аргумент о замене нейронов
В своем интервью Хинтон приводит философский аргумент:
«Предположим, я заменю один нейрон в вашем мозгу на кремниевую схему, которая ведет себя точно так же. Останетесь ли вы сознательным? Ответ, несомненно, да».
Из этого он делает вывод, что постепенная замена всех нейронов на электронные компоненты сохранит сознание. Следовательно, по его мнению, современные ИИ также могут быть сознательными.
Философские возражения
Этот аргумент выходит за рамки компьютерных наук в область философии сознания. Некоторые философы указывают на его уязвимость:
- Сознание могло бы исчезнуть после замены достаточного количества нейронов, даже если поведение осталось прежним
- Отсутствие общепринятого научного определения сознания осложняет дискуссию
Практические и этические последствия
Даже если ИИ не обладают настоящим сознанием, восприятие их как сознательных создает серьезные проблемы:
- История Блейка Лемойна, инженера Google, утверждавшего, что модель LaMDA обрела чувствительность
- Возможность эмоциональных привязанностей людей к ИИ
- Требования предоставить ИИ юридические права
Отсутствие стратегии у tech-компаний
Крупные компании (Google, Microsoft, OpenAI) инвестируют в этику ИИ, но практически не занимаются вопросом воспринимаемого сознания. Возможные причины:
- Философская сложность проблемы
- Желание избежать спорных тем
- Отсутствие нормативного давления
Будущее исследований
Как отмечает Хинтон: «Есть множество вещей, которые мы пока понимаем очень смутно — природа человека, смысл наличия „я“... И это становится критически важным для понимания». С развитием ИИ эти вопросы потребуют большего внимания науки и общества.