Химера | страница 52
— То есть, это такая как бы «Матрица», только с возможностью произвольного выхода из нее? А если все игроки разом оттуда уйдут, то никакого мира там просто не останется?
— Ну, да, сохранятся лишь массивы данных и доступ к ним. Только такого не бывает никогда. В этом мире куча живого народу задействовано, не говоря уж о виртуальных персонажах, за которыми ничего кроме компьютерных программ не стоит… Ты никогда не отличишь, с кем имеешь дело — с живым человеком или программой-роботом.
— А как быть с тестом Тьюринга?
— Ну и что? При чем тут тест Тьюринга? Ты же не сможешь никого протестировать. У тебя и времени-то не будет ни на какие тесты. Этот персонаж пошлет тебя куда подальше, да и уйдет. А ты в свою очередь будешь гадать: что это — хамство какого-то игрока или реакция программы. Ты не обольщайся: там даже король не имел абсолютной власти, а если его приказы и требования казались кому-то нелепыми и странными, то монарха свергали без лишних разговоров. Вот так… Кроме того, там же постоянно чьи-то живые мозги подключены и работают. Вносят свой вклад. А ты говоришь, тест Тьюринга.
— Офигеть можно, — сказал я…
С момента зарождения современной вычислительной техники умных людей занимал вопрос: можно ли построить машину, которая могла бы стать разумной. Попыткой поставить на твердую эмпирическую почву решение этой проблемы и стал тест, разработанный английским кибернетиком Аланом Тьюрингом. Первый вариант теста, опубликованный в 1950 году, был несколько запутанным и не вполне ясным, а современная версия теста Тьюринга предполагает следующий мысленный эксперимент. Группа экспертов общается с неизвестным субъектом. Они не видят своего собеседника и могут контактировать с ним только через какую-то изолирующую систему — например, терминал. Им разрешено задавать собеседнику какие угодно вопросы, вести разговор на совершенно произвольные темы. Если в конце эксперимента они не смогут сказать, общались они с человеком или с машиной, а на самом деле они разговаривали именно с машиной, то можно считать, что эта машина прошла тест Тьюринга. В этом случае понимается, что такая машина обладает искусственным разумом неотличимым внешне от разума людей. Нет нужды говорить, что сегодня ни один компьютер не может даже близко подойти к тому, чтобы пройти тест Тьюринга, хотя некоторые из них весьма неплохо работают в очень ограниченной области. Предположим, тем не менее, что в один прекрасный день некая машина все-таки прошла этот тест. Будет ли это означать, что она по-человечески разумна и обладает интеллектом? Черта с два! Джон Р. Сирл (John R. Searle, р.1932), преподаватель философии Калифорнийского университета в Беркли, разработал воображаемую схему, которая показывает, что ответ на этот вопрос будет отрицательным. Эта система под названием «Китайская комната» работает следующим образом. Вы сидите в комнате. В стене этой комнаты есть две щели. Через первую щель вам передают вопросы, написанные по-китайски. Предполагается, что вы, как и Джон Сирл, не знаете китайского. Если это не так, выберите какой-нибудь другой язык, неизвестный вам. Затем вы просматриваете книги с инструкциями типа: «Если вы получили такой-то набор символов, напишите на листке бумаги такой-то, отличный от исходного, набор символов и передайте его обратно через другую щель». Ясно, что если книги с инструкциями достаточно полны, «машина», состоящая из вас и комнаты, сможет пройти тест Тьюринга. При этом очевидно, что вам вовсе не обязательно понимать, что вы делаете. По мнению Сирла, это показывает, что даже если машина прошла тест Тьюринга, это еще не значит, что она понимает, что делает и обладает интеллектом.