?

Log in

No account? Create an account
Logo

Что это я все о политике и о политике? Тут и другие темы есть, где я никак не пойму - то ли я дурак, то ли авторитеты с мировым именем. Я про известный аргумент "китайской комнаты" про невозможность создания искуственного интеллекта. Напомню его, если кто не в курсе.

Представим себе изолированную комнату, в которой находится Джон Сёрл, который не знает ни одного китайского иероглифа. Однако у него есть записанные в книге точные инструкции по манипуляции иероглифами вида «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два», но в этих инструкциях отсутствует информация о значении этих иероглифов и Сёрл просто следует этим инструкциям подобно компьютеру.
Наблюдатель, знающий китайские иероглифы, через щель передаёт в комнату иероглифы с вопросами, а на выходе ожидает получить осознанный ответ. Инструкция же составлена таким образом, что после применения всех шагов к иероглифам вопроса они преобразуются в иероглифы ответа. Фактически инструкция — это подобие компьютерного алгоритма, а Сёрл исполняет алгоритм так же, как его исполнил бы компьютер.
В такой ситуации наблюдатель может отправить в комнату любой осмысленный вопрос (например, «Какой цвет вам больше всего нравится?») и получить на него осмысленный ответ (например, «Синий»), как при разговоре с человеком, который свободно владеет китайской письменностью. При этом сам Сёрл не имеет никаких знаний об иероглифах и не может научиться ими пользоваться, поскольку не может узнать значение даже одного символа. Сёрл не понимает ни изначального вопроса, ни ответа, который сам составил. Наблюдатель, в свою очередь, может быть уверен, что в комнате находится человек, который знает и понимает иероглифы.
Таким образом Сёрл заключает, что хотя такая система и может пройти тест Тьюринга, но при этом никакого понимания языка внутри системы не происходит, а значит тест Тьюринга не является адекватной проверкой мыслительных способностей.

На мой взгляд, все, что доказывает это рассуждение - так это то, что ИскИн, как и любая другая программа, может исполняться на самой разной элементной базе, даже на такой экзотической. Да, этот контраргумент является достаточно очевидным, и его пытаются опровергнуть и сам Серл, и Пенроуз. Но вот как они это делают - вызывает у меня очередной фейспалм.

Начну с аргумента Серла.
В качестве контраргумента Сёрл предлагает заставить запомнить человека формальные правила ответов для системы. По мнению философа, система, которая теперь будет состоять только из человека, всё равно не сможет понять китайский язык

А про виртуальные машины Серл вообще слышал? Да? А тогда чего его удивляет, что система, на которой запускается виртуальная машина, может не иметь ни малейшего представления о том, что именно эта виртуальная машина делает?

Да и контраргумент Пенроуза не лучше.

как указывает Серл, это может привести к определенной форме дуализма. Дуализм — это философское мировоззрение, апологетом которого был в высшей степени влиятельный философ и математик XVII века Рене Декарт, утверждавший, что существуют две различные субстанции: «разумная субстанция» и обычная материя. Влияют ли они друг на друга, и если да, то каким образом — это уже отдельный вопрос. Ключевое положение этой точки зрения заключается в гипотезе о том, что «разумная субстанция» не может состоять из материи обычной и способна существовать независимо от нее. «Разумная субстанция» в представлениях сильного ИИ — это логическая структура алгоритма. Как я отмечал выше, ее физическое воплощение не имеет никакого значения. Алгоритм обладает неким бесплотным существованием, никак не связанным с конкретной физической реализацией. Насколько серьезно мы должны воспринимать такой вид существования — вопрос, к которому мне придется вернуться в следующей главе. Он представляет собой часть более глобального вопроса о платонистической реальности абстрактных математических объектов.
Пока же я обойду эту общую тему стороной и отмечу только, что сторонники сильного ИИ, по-видимому, принимают всерьез возможность подобного существования в случае алгоритмов, полагая, что те являются самой «сущностью» их мыслей, чувств, понимания и сознательного восприятия. В связи с этим Серл указал на примечательный в своей ироничности факт: теория сильного ИИ может привести к крайней форме дуализма — к той точке зрения, к которой сторонники сильного ИИ менее всего хотели бы иметь отношение!
В общем, из этого набора громких слов я понял только то - что в абсолютно точно той же степени это самое рассуждение применимо и к любому другому алгоритму. Даже к алгоритму перемножения двух чисел. Но Пенроуза это почему-то не подталкивает к выводу, что алгоритма перемножения двух чисел не существует.  Наверное потому, что вызванная различными значениями понятия "существовать" путаница оказывается слишком очевидной.

В общем, это я чего-то не понимаю, или философы и в самом деле написали более 750 статей на тему мысленного эксперимента, не стоящего и выеденного яйца?

Comments

Оценка искусственного интеллекта производится экспертом.
Вынимаем из будки женщину, которая на любой вопрос молчит, и загадочно улыбается, и засовываем туда робота, который так же на любой вопрос молчит, и загадочно улыбается.

Эксперт, требующий от женщин в будке странного очевидно идет нафиг.
И при этом Серль требует понимания от одного обьекта, в то время как процесс исполняется совершенно на другом. Все эти правила манипуляций - это способ обеспечения работы той виртуальной машины, которая и выполняет алгоритм. Сам же Серль выполняет роль хоста.

Для ясности заменим Серля на ИскИн. Этот ИскИн выделил часть своих ресурсов для запуска виртуальной машины, выполняющей алгоритм китайской комнаты. Очевидно, что он может не иметь ни малейшего понятия о действиях ИскИна китайской комнаты, работающего на виртуальной машине. Теперь заменяем первого ИскИна обратно на Серля.
И с тем, откуда рождается такой способ взаимодействия с информационным обьектом, который мы называем пониманием - мне тоже более менее понятно. Понимание - это такой способ свертки большого массива данных с выделением ключевых элементов, позволяющий эффективно манипулировать им. То есть, то что делает любая нейросеть глубокого обучения в процессе своей работы. Хоть естественная, хоть искуственная.
Они просто религиозные
Философов надо грузить на пароход и отправлять в стан идеологического противника. Дабы он мучался от бессмысленности заданных ими вопросов.

Все эти мысленные эксперименты базируются на ложной посылке о том, что интеллект - свойство индивида. В то время как интеллект это явно социальное явление. Тьюринг со своим тестом был куда ближе к интересным приложениям (что не удивительно, он не философствовал, а делом занимался - Энигму ломал).

Интеллект это то, что эффективным образом управляет поведением субъекта, в частности общением с другими субъектами. И если из определенных посылок субъект делает правильные выводы, позволяющие ему правильно взаимодействовать с окружающей средой, то кого, кроме философов, заинтересует "настоящее" там понимание или нет?
Доказательство невозможности создания искусственного интеллекта на основе модели фон Неймана является одним из домашних заданий в курсе "Вычислительные модели" из учёбы на степень бакалавра компьютерных наук. Вкратце доказательство: если интеллект, по определению, требует наличия безграничной способности адаптироваться к новым ситуациям, то искусственный интеллект на основе архитектуры фон Неймана невозможен, потому что количество состояний в конечном автомате в любой момент времени ограничено. Соответственно, существует ограниченное количество ситуаций, к которым алгоритм, реализуемый этим автоматом, сможет приспособиться в любой момент времени.

И о чём в таком случае остаётся вообще спорить?
ээ, как бы у нас в мозгу тоже конечное количество состояний, да и способности бесконечно адаптироваться мы не демонстрируем.
Во-первых, демонстрируем. Из всех живых существ на Земле у человека самый широкий ареал обитания. Достигает человек этого с помощью техники, понятно, но это и есть проявление интеллекта.

Во-вторых, механизмы запоминания сведений и принятия решений ещё не изучены. Может, там субатомные технологии, может, квантовые. Может, имеет значение взаимное расположение ориентированных молекул в разных клетках. Мы точно ещё не знаем. И потом, кто сказал, что в запоминании участвует только мозг? В лаборатории профессора Дж. Макконела Мичиганского университета был проведён эксперимент, который доказал, что запоминание и обучение зависят от РНК, а она не только в мозгу содержится. Но даже если говорить только о памяти и только о мозге, - 15 миллиардов нервных клеток с 10 тысячами аксонных связей у каждой - это значительно больше возможностей современной вычислительной техники.
Если по определению требуется идеальная способность адаптироваться, то человек интеллектом тоже не обладает (см. Когнитивные искажения). Если идеальной способности не требуется - то доказательство не работает.
Очевидно, что клиент китайской комнаты общается с создателем китайской комнаты, а не с её работником.

Ну так же, как читатель общается с писателем, а не с работником типографии.

Этот мысленный эксперимент сломался, несите следующий.
>В общем, это я чего-то не понимаю, или философы и в самом деле написали более 750 статей на тему мысленного эксперимента, не стоящего и выеденного яйца?

Может, я тоже чего-то не понимаю, но мне тоже всегда именно так и казалось.
>или философы и в самом деле написали более 750 статей на тему мысленного эксперимента, не стоящего и выеденного яйца?

Чтобы сказать да или нет, нужно прочитать эти 750 статей. %)

Сёрлевская "китайская комната" как модель сильного ИскИна заведомо неработоспособна. Это модель девочки из техподдержки, которая вне зависимости, понимает или нет, обязана отработать инструкцию, а то уволят.

В модели не хватает целеполагания, обратной связи и возможности переписывать инструкции. Без этого не получится ни искусственного, ни естественного интеллекта.
Logo

May 2017

S M T W T F S
 123456
78910111213
14151617181920
21222324252627
28293031   
Powered by LiveJournal.com