banner

Новости

May 22, 2023

Что загадочная китайская комната может рассказать нам о сознании

Опубликовано 3 августа 2023 г. | Отзыв от Девона Фрая

Представьте, что вы заперты в комнате, полной ящиков, заваленных бумагами со странными и загадочными символами. В центре комнаты стоит стол с массивной инструкцией по эксплуатации на простом английском языке, которую можно легко прочитать.

Хотя дверь заперта, в ней есть небольшая щель с латунной крышкой почтового ящика. Через него вы получаете сообщения с теми же загадочными символами, что и в комнате. Вы можете найти символы для каждого сообщения, которое вы получаете, в огромном руководстве по эксплуатации, которое затем сообщает вам, какую именно бумагу взять из ящиков и отправить через почтовый ящик в качестве ответа.

Без ведома человека, оказавшегося в ловушке внутри комнаты, загадочные символы на самом деле являются китайскими иероглифами. Человек внутри неосознанно вел связный разговор с людьми снаружи, просто следуя инструкциям по эксплуатации, но ничего не понимая и даже не осознавая ничего, кроме передаваемых и исходящих сообщений.

Эта история была задумана американским философом Джоном Сирлом1 в 1980 году и стала одной из самых влиятельных и наиболее цитируемых работ в области когнитивных наук и философии сознания, имеющей огромное значение для того, как мы видим компьютеры, искусственный интеллект (ИИ) и машины. разум (Коул, 2023).

Сирл (1980) использовал этот мысленный эксперимент, чтобы доказать, что компьютерные программы, которые также манипулируют символами в соответствии с установленными правилами, по-настоящему не понимают язык и не требуют какой-либо формы сознания, даже когда дают ответы, сравнимые с ответами человека.

В 2022 году инженер Google попал в заголовки газет, заявив, что программа искусственного интеллекта, над которой он работал, разумна и жива (Тику, 2022). Недавнее развитие языкового искусственного интеллекта, такого как ChatGPT, заставило многих людей взаимодействовать с ним так же, как с реальными людьми (см. «Почему ChatGPT кажется таким человечным?»).

Неудивительно, что многие пользователи искренне верят, что ИИ стал разумным (Davalos & Lanxon, 2023). Однако большинство экспертов не считают, что ИИ обладает сознанием (Davalos & Lanxon, 2023; Pang, 2023a), не в последнюю очередь из-за влияния аргумента Сирла о китайской комнате.

Сознание — сложная концепция, которую трудно определить и полностью понять (см. «Что такое сознание?» и «Множество измерений сознания»; Pang, 2023b; Pang, 2023c). Программы искусственного интеллекта, такие как ChatGPT, используют большие языковые модели (LLM), которые используют статистический анализ миллиардов предложений, написанных людьми, для создания результатов на основе прогнозирующих вероятностей (Pang, 2023a). В этом смысле это чисто математический подход, основанный на огромном количестве данных.

Хотя это огромное достижение и чрезвычайно сложная задача, по своей сути ИИ следует инструкциям, чтобы создать результат на основе входных данных, точно так же, как человек, застрявший в мысленном эксперименте в китайской комнате. От разума не требуется сложных результатов или даже прохождения теста Тьюринга, когда оценщик-человек не может отличить общение с машиной от другого человека (Oppy & Dowe, 2021).

Но есть еще один, более тревожный вывод из мысленного эксперимента Сирла: в китайской комнате находится сознательный человек, который совершенно не осознает, что общение происходит на китайском языке. Хотя у нас нет доказательств того, что ИИ обладает сознанием, давайте на мгновение предположим, что это так: сознательная часть вряд ли понимает свою собственную языковую модель и, будучи разумной, может не иметь ни малейшего представления о значении своей собственной языковой продукции — точно так же, как человек в китайской комнате.

Если бы ИИ был в сознании, он мог бы страдать от своего рода синдрома замкнутости (см. «Тайны разума, запертого внутри неотзывчивого тела»; Панг, 2023c). Неясно, удастся ли когда-нибудь преодолеть этот барьер.

ДЕЛИТЬСЯ