Все новости
Фрагменты новых книг

Что-что проверяют тестом Тьюринга? Отрывок из книги о пределах искусственного интеллекта

© Shutterstock/FOTODOM
В издательстве "Альпина нон-фикшн" выходит книга дата-журналиста Мередит Бруссард, где автор объясняет, почему словосочетание "искусственный интеллект" (ИИ) не следует понимать буквально. ТАСС публикует отрывок о знаменитом тесте Тьюринга и чуть менее известном мысленном эксперименте под названием "Китайская комната"

Последние два года напоминают похмелье. Шумиха вокруг искусственного интеллекта и машинного обучения, которую раздули технологические компании в поисках инвесторов и прекраснодушные журналисты, наконец-то сходит на нет. Навскидку этому можно дать два объяснения.

Во-первых, замечательное — или ужасное — будущее из пресс-релизов, презентаций и статей до сих пор не наступило и, кажется, даже не приблизилось. Во-вторых, специалистов в области ИИ достали сказки и страшилки, проиллюстрированные Арнольдом Шварценеггером в кожанке. Они пишут все больше ясных и подробных памяток, где разбирают заблуждения насчет ИИ и дают советы редакторам, как преподносить очередную историю о нейронной чудо-сети. Кажется, это сработало.

Книгу "Искусственный интеллект: Пределы возможного" тоже можно читать как памятку. В ней Мередит Бруссард объясняет, как работают компьютеры и почему ИИ — это все те же программы, а не интеллект в привычном нам смысле. Разумеется, в этом разговоре не обойти тест Тьюринга.

Бруссард уточняет нюансы, которые почти всегда упускают из виду, и критикует Тьюринга. Правда, аргументация, касающаяся гендера, слабовата и как будто просто навеяна духом времени: в конце концов, тьюринговский экзаменатор может определять не пол, а другой атрибут. Что до "Китайской комнаты", то с Сёрлом спорят не меньше, чем с Тюрингом.

Но важнее в приведенном отрывке другое. Через "Китайскую комнату" Бруссард показывает на примере умных колонок, как с виду умное устройство на самом деле запрограммировано. И это только один пример. Все остальные смарт-гаджеты и системы, считает Бруссард, в этом смысле ничем не отличаются и в обозримом будущем отличаться не будут, если будут хоть когда-нибудь.

Большинство людей слышали про тест Тьюринга. Несмотря на название, в нем нет ничего общего с форматом анкеты, которую робот должен пройти, чтобы сойти за человека. В своей работе Тьюринг предложил сложный эксперимент, заключавшийся в беседе с машиной. Вопрос "могут ли машины мыслить?" он считал абсурдным и предлагал ответить на него результатами опросов общественного мнения. (Тьюринг был снобом от математики. Как многие в те времена и некоторые сегодня, он верил в превосходство математики над всеми прочими интеллектуальными изысканиями.) Вместо этого он предложил "игру в имитацию". Играют в нее мужчина (А), женщина (В) и экзаменатор (С). С сидит один в комнате и печатает вопросы для А и В. "Цель игры заключается в том, что экзаменатор должен определить, кто из остальных двоих женщина, а кто — мужчина. Ему они известны как X и Y, и в конце игры он говорит либо "X — это А, a Y — B", либо "X это B, a Y — А", — пишет Тьюринг.

Затем он предлагает определить, какие типы вопросов может задавать игрок С. Один из них о длине волос. А, мужчина, должен заставить игрока С ошибиться и потому лжет. В, женщина, хочет помочь С и говорит ей или ему, что он — женщина. Но ведь А может соврать и сказать то же самое. Их ответы записываются, чтобы окраска и тон голоса не дали экзаменатору никаких зацепок. Тьюринг продолжает: "Теперь мы спрашиваем: "Что произойдет, если вместо А будет играть компьютер? Будет ли экзаменатор ошибаться так же часто, как и в игре с женщиной и мужчиной?" Эти вопросы заменяют наш изначальный вопрос "могут ли машины мыслить?"

В случае, если экзаменатор не может по ответам определить, кто перед ним — человек или машина, компьютер признается разумным. В течение многих лет эта идея считалась фундаментальной для вычислительной теории. Невероятное количество чернил было потрачено на то, чтобы ответить на вызов Тьюринга и создать машину, отвечающую его требованиям. Впрочем, тот факт, что основой мысленного эксперимента является философски и культурно неточное определение гендера, ставит все предприятие под сомнение. Ведь представления Тьюринга уже не слишком соответствуют тому, что мы знаем о гендере. Это не бинарная оппозиция, но континуум. И длина волос уже не является маркером мужской или женской идентичности; каждый может коротко постричься. Более того, Тьюринг пишет, что "целью игры третьего игрока (В) является помощь экзаменатору". Игра, призванная выявить разумность, в которой женщина играет роль помощника? А мужчине говорят, что он может соврать? С критической точки зрения это абсурд, поскольку здесь поведение мужчины и женщины обусловлено гендерными физическими и моральными характеристиками.

Философские аргументы Тьюринга также не вызывают доверия. Вероятно, наиболее основательную критику можно обнаружить у философа Джона Сёрла — в его тезисе о китайской комнате. В 1989 году ему удалось собрать воедино все свои замечания в статье для журнала The New York Review of Books:

Цифровой компьютер — это устройство, оперирующее символами без какой-либо смысловой интерпретации. Люди же, напротив, в момент размышления заняты чем-то гораздо большим. Человеческое сознание обычно оперирует значимыми мыслями, чувствами и ментальным содержанием. И, поскольку символы сами по себе по определению не обладают значением (интерпретацией или семантикой) — если кто-то извне не наделил их значением, — формальных символов недостаточно для того, чтобы наполнить ментальное содержание.

Этот довод можно представить на примере монолингвального (владеющего только одним языком — прим. ТАСС) англоговорящего человека, запертого в комнате с книжкой, где сказано, как обращаться с китайскими иероглифами согласно логике компьютера. В принципе, этот человек сможет пройти тест Тьюринга, поскольку он способен производить корректные ответы на вопросы на китайском языке. Однако он не понимает ни слова на китайском, ведь он не знает, что каждый символ означает. Но, если он не понял китайский при помощи программы, запущенной на компьютере и предназначенной специально для "понимания" китайского, тогда ни один цифровой компьютер не способен понять, потому что ни одна программа не обладает тем, чем не обладает человек.

Тезис Сёрла, согласно которому возможность манипуляции символами не означает понимание, прослеживается и в 2017 году, когда популярность набирают голосовые интерфейсы. "Диалоговые" интерфейсы распространены, однако далеки от разумности.

Алекса от Amazon и другие голосовые помощники не понимают язык. Они всего лишь выдают ответные реакции на звуковые последовательности, которые люди называют вербальными командами. "Алекса, включи California Girls", — это голосовая команда, которую компьютер может выполнить. Здесь Алекса — это слово-триггер, предупреждающее компьютер о скором появлении команды. Включи — слово-триггер, означающее "найди MP3 файл в памяти устройства и отправь команду "проигрывать" вместе с названием файла MP3 аудиоплееру, выбранному мной ранее". Интерфейс запрограммирован так, чтобы воспринимать любое слово, следующее за "включи" и перед паузой (то есть до конца команды). Так, определенное значение задается переменной "название песни", которую система обнаруживает в памяти и отправляет в аудиоплеер. Это обычное и неопасное дело, поэтому не стоит думать, что машины все-таки восстанут и завоюют мир. В данный момент компьютер не способен определить, какую песню стоит включить — California Girls в исполнении Кэтти Перри или Beach Boys. Хотя эта проблема решается состязанием в популярности. Побеждает та, что обладает большим количеством воспроизведений всеми пользователями Алексы. И ее система проигрывает по умолчанию. Это хорошая новость для фанатов Кэтти Перри и не слишком хорошая для любителей Beach Boys.

Я прошу вас держать в голове идеи о сильном и слабом ИИ, а также не забывать об ограничениях. В этой книге мы будем придерживаться реального положения дел: мира, в котором есть неразумные вычислительные машины, которые мы называем умными. Кроме того, мы также обратимся к воображению — несомненно, мощному, чудесному и будоражащему, — которое, когда мы говорим о компьютерах, данных и технологиях, иногда загоняет нас в тупик. Я прошу вас не расстраиваться — как тот студент на научной ярмарке, — если вы столкнетесь с заблуждением о призраке внутри машины, как говорит коллега. В реальности внутри компьютера нет никакого маленького человека или симулятора мозга. На это можно реагировать разными способами: можно расстроиться, что то, о чем вы мечтали, невозможно, либо можно радоваться тому, что действительно становится возможно, когда искусственные устройства (компьютеры) работают вместе с по-настоящему сознательными существами (людьми). Я предпочитаю поступать именно так.