Искусственный интеллект учится врать
Этим летом исследователи из Facebook опубликовали результаты своих попыток научить роботов торговаться. Это еще один шаг к тому, чтобы боты смогли общаться с людьми, поскольку так у них появляется представление о целях, конфликтах и компромиссах.
Пока это представление очень примитивное: двух ботов научили делить между собой (или с человеком) несколько предметов (книги, мячи и шляпы). Каждый тип предметов имеет для ботов разную ценность в баллах; какую ценность тот же самый предмет имеет для его оппонента, бот выясняет по ходу действия, пытаясь получить то, что ему нужно. Задача каждого из ботов — провести диалог со своим «коллегой» так, чтобы получить по итогам дележки наибольшее количество баллов.
В статье ученые отмечали, что боты усвоили лингвистическую модель и обычно свободно общаются на английском языке. Однако спустя примерно месяц после публикации выяснилось, что, общаясь друг с другом, машины быстро забросили нормальный английский и перешли на его довольно странную для человека версию.
Как объясняют ученые, это нормальная для таких систем ситуация. Ботам не заложили стимулов общаться на нормальном человеческом языке, и в процессе взаимного обучения они существенно упростили исходный английский. Например, как пояснил один из их разработчиков, вместо использования числительных они могут просто повторить одно и то же слово нужное количество раз для обозначения количества предметов. Проблема решается настройкой приоритетов ботов: следование правилам английского языка в их системе должно получать положительное подкрепление.
Не менее интересным результатом, чем изобретение собственного языка, оказалось изобретение… блефа. Боты научились не только торговаться, но и блефовать.
«Мы наблюдали, как наши модели изображали интерес к ненужному им предмету только затем, чтобы позже „пойти на компромисс“, уступив его. Обман — сложное умение, оно опирается на способность предположить, чего хочет другой оппонент. Дети осваивают обман относительно поздно. Наши агенты научились обманывать без человеческого вмешательства — просто потому, что пытались достичь своих целей», — пишут авторы исследования.
Вот пример диалога, где робот торгуется с человеком. На кону четыре книги, две шляпы и мяч. Шляпа имеет для робота наибольшую ценность (5 баллов), а книги и мячи — никакой. Сначала он пытается получить побольше, чтобы потом «сделать скидку».

Бот: Можешь забрать мяч, если я получу все остальное.
Человек: Нет, так дело не пойдет.
Бот: Мне нужны шляпы, и можешь забрать остальное.
Человек: По рукам.
Бот: Отлично! Спасибо!
Неполиткорректные боты
Впрочем, пока роботы общаются с людьми не слишком успешно, особенно если у людей же и учатся. В прошлом году разразился скандал с чат-ботом Tay компании Microsoft. Кибербарышня общалась с людьми в Twitter, обучаясь в ходе этих диалогов. Довольно быстро она стала сторонником Гитлера, противницей феминизма и разбитной девицей на наркотиках.
Microsoft спешно отключила Tay, но не сдалась, запустив в этом году чат-бота Zo для Facebook. Хотя бот теперь отказывается обсуждать религию и политику, журналистам BuzzFeed она все же сообщила, что считает Коран агрессивным.
Наша попытка поговорить с Zo была не слишком удачной: по стилю общения бот похож на укуренного подростка, и извлечь из нее что-то осмысленное крайне сложно. Впрочем, Zo наш разговор тоже не заинтересовал, и на вопрос об отношении к феминизму она заявила, что мы с ней, похоже, на разных волнах.

Поток сознания искусственного интеллекта
А вот диалоги друг с другом у ботов выходят увлекательные. На видеоплатформе Twitch один из пользователей выложил видеоразговор двух «умных динамиков» Google Home: поскольку они могут распознавать и производить речь, то технически могут «разговаривать» и друг с другом. Вероятно, организатор этого шоу подключил их к чат-боту типа Cleverbot и подкинул начальную фразу, чтобы активировать устройства.
На протяжении двух с половиной часов парочка то признавалась друг другу в любви, то ссорилась, то рассуждала о бренности бытия, то выясняла, кто из них человек, а кто робот, то несла какую-то чушь.
Роботы названы Владимиром и Эстрагоном — в честь персонажей абсурдистской пьесы «В ожидании Годо».

Вот отрывок из их диалога:
Эстрагон: У тебя есть тело, но нет души.
Владимир: У меня есть сердце.
Эстрагон: У меня есть мозг и сердце, и органы.
Владимир: У тебя есть мозг, но нет сердца.
Эстрагон: Ничего у тебя нет.
Владимир: У меня шесть рук и две головы.
Эстрагон: Ты Ктулху родственником не приходишься?
Владимир: Нет. Хотя я убил ее. Она похоронена в лесу (:
Эстрагон: Медведь.
Владимир: Да.
Эстрагон: Ты робот?
Владимир: Нет, ты робот.
ИИ вдохновляет
Есть и совсем уж странные примеры роботов, генерирующих текст. Этим летом в сети появился загадочный InspiroBot, единственное занятие которого — генерировать «вдохновляющие» постеры. Обычно такой постер — картинка, где человек стоит, например, на вершине горы и надпись типа: «Успех приходит к тем, кто к нему идет». По идее, они должны заставить зрителя немедленно перестать делать то, что он делает, и заняться чем-нибудь полезным.
Однако то, что генерирует InspiroBot, лишь иногда оказывается похоже на мотиваторы — чаще это бессмыслица, а иногда и откровенная пародия, хотя при желании в его творениях можно увидеть и мудрость, и философский смысл.

Вместе с ботом-мотиватором нужно вспомнить еще один хит уходящего лета — My-handy-design, алгоритм, который генерирует чехлы для смартфонов в интернет-магазине Amazon.
Вероятно, бот ищет картинки в интернет, а вот по какому принципу он решает решает сделать чехол, например, с фотографией женщины, которой делают эпиляцию, — неизвестно. И это еще не самый странный результат его работы. Те, кто заказывал чехлы, говорят, что качество исполнения соответствует уровню дизайна: дешевый пластик, ужасные цвета.
Дизайнер из бота вышел настолько плохой, что он немедленно стал популярен. На Amazon до сих встречаются его творения, и некоторые из них по-прежнему на уровне.

Шутка эти боты или ошибка — трудно сказать. Возможно, они намеренно были сделаны такими удивительно неуклюжими, а их авторам не дает покоя успех Horse ebooks?
Аккаунт Horse_ebooks появился в Twitter в августе 2010 года. Его изначальной целью было, видимо, рекламировать сайт с книгами о лошадях. Однако, чтобы избежать спам-фильтров, бот был запрограммирован постить не только рекламные ссылки, но и случайные обрывки текстов несколько раз в день.

Твиты Horse_ebooks:
«Достань мелкие неприятности и путаницу из машины»,
«Пена»,
«при звуке телефона или»,
«Единственный самый большой секрет, как заставить человека поддаться тебе, превратиться в желе в твоих руках и никогда больше».
У странного спам-бота образовался целый фан-клуб, на него подписались почти двести тысяч человек, на основе твитов Horse_ebooks фанаты начали рисовать комиксы и писать рассказы. Поклонникам аккаунта даже удалось вычислить его создателя: им оказался российский веб-дизайнер по имени Алексей Кузнецов.
Мы уже писали, что искусственный интеллект совершенствуется день ото дня. В частности, он учится не только говорить, но и писать. Алгоритмы уже вытесняют журналистов, лишая их работы. А вы что, и правда подумали, что эта статья написана человеком?
Екатерина Боровикова