Версия для слабовидящих
ИИ ненастоящий! Вопросы и последствия нашего поражения в го Печать Email
Новости об инновациях
29.03.2016

Поражение человека в матче против компьютерной программы AlphaGo — 4:1 в пользу «электронного мозга», построенного Google — стало бомбой, породившей гигантскую взрывную волну публикаций. И вот, продираясь через десятки материалов в поисках интересных деталей, я вдруг понял, что хоть темы там поднимаются самые разные и порой весьма условно относящиеся к ИИ, их авторов можно разделить на две группы.

В первой окажутся те, кого волнуют непосредственные практические последствия случившегося и в меньшей степени (кажущаяся им чисто теоретической) классификация победившей человека машины по шкале «искусственных разумов». Во второй — пуристы, считающие принципиально важным то обстоятельство, что Ли Седоля одолел не настоящий ИИ, а только его элемент. Я предлагаю пройтись сейчас по аргументам тех и других: это интересно само по себе, но и приведёт к интересному выводу. А начнём, конечно, с практиков.

Эти оценили последствия победы машины сразу и очень высоко. У себя на родине, в Южной Корее, Седоль был и остаётся знаменитостью: ещё бы, один из сильнейших годзистов планеты! За матчем там следили буквально миллионы человек, а когда в нём была поставлена точка, дать официальный комментарий не постеснялось первое лицо государства — президент Пак Кын Хе. Это с её подачи произошедшее нарекли «шоком AlphaGo» и «началом четвёртой промышленной революции»: нам, сказала она, повезло понять важность ИИ до того, как станет слишком поздно. И власть подкрепила слова несколькими масштабными инициативами: выделен эквивалент почти миллиарда долларов США на запуск института, занимающегося ИИ-исследованиями совместно с национальными промышленными гигантами (Samsung, LG, Hyundai и др.), образован координационный центр при правительстве и т.д.

Тот редкий случай, когда историю пишет проигравший (фото: The Daily Star).

Тот редкий случай, когда историю пишет проигравший (фото: The Daily Star).

Госпожа Хе олицетворяет практический подход. Практиков не волнует возможная неполноценность «электронного мозга», победившего человека. Их занимает вопрос: разделавшись с го, что следующее должна покорить машина? И «несерьёзные» игры в этих планах играют не последнюю роль. Ведь победа в го стала огромным прорывом, без преувеличений! Вплоть до последнего времени игра на равных с человеком вообще считалась задачей неразрешимой: слишком много вариантов, слишком мало возможностей для строгой математической оценки шансов на победу. И вот она решена! Какая игра на очереди?

Предложений море и в каждом есть своя прелесть, своя перспектива. Скажем, взять покер: он интересен не столько разнообразием сценариев, сколько неполной информацией — иначе говоря, никто из игроков не знает в точности, какие карты на руках у других. Пока машина преуспела только в ограниченных версиях покера (да и то тупым перебором вариантов), но раз уж электронный игрок способен теперь полагаться на интуицию (авторы AlphaGo называют это именно так), может быть интуиция поможет ей и в картах?

Потом — массивный мультиплей, вроде WoW, StarCraft и им подобных. Тут фишка именно в количестве возможных ходов и действий, которое просто безумное по сравнению даже с необъятной го. Некоторые надеются, что слишком большое число вариантов не позволит машине наращивать свой опыт игры быстро, заставит инженеров задуматься над постройкой по-настоящему думающей машины — способной формулировать стратегию игры и её придерживаться, а не высчитывать шансы на каждом ходе заново.

А ещё — игры, предполагающие общение между участниками, вроде настольной «Дипломатии» или приснопамятной VGA Planets, обожаемой в ФИДО. В таких играх успех зависит от умения кооперироваться с противниками ради защиты своих интересов. Для ИИ это могло бы стать разновидностью теста Тьюринга, но максимально приближенным к реальности — потому что необходимо не просто имитировать беседу, а извлекать из неё и вкладывать смысл!

ИИ ненастоящий!

ИИ ненастоящий!

И вот тут мы подходим вплотную к позициям лагеря пуристов. Которые считают, что победу над человеком в го категорически нельзя расценивать как приближение к постройке по-настоящему умной машины. Я, конечно, упрощу, но они видят ситуацию так: инженеры смогли построить обособленные искусственные нейроструктуры, показавшие себя лучше человека на очень специфической задаче, но называть такую конструкцию «искусственным интеллектом» всё равно что называть человеком вырезанный из человеческого мозга кусок плоти! AlphaGo действительно умеет лучше человека выставлять камни на доске, но при этом она не понимает, что делает, и уж конечно не осознаёт, что существует!

Упёртость пуристов на самом деле не лишена смысла. Они говорят вот о чём: «глубокое обучение» (т.е. обучение сложных многослойных искусственных нейросетей), благодаря которому мы и имеем сегодня все самые яркие успехи ИИ, не приведёт нас к созданию настоящего ИИ. Иначе говоря, то, что нам удалось заставить работать несколько кусков, вырезанных из мозга, ничего не даёт в плане воссоздания мозга в целом, ну или по крайней мере не позволяет надеяться на пропорционально быстрое решение этой задачи. Да, глубокое обучение имеет множество полезных практических применений — в медицине, промышленности, науке и т.д. Но оно не способно привести нас к машине, которая сможет жить с нами бок о бок, постигать мир во всей его сложности: усвоить культуру, понимать эмоции, учиться новому и учить уже нас. Победивший человека в го «искусственный разум» вовсе не искусственный разум в том виде, каким его всегда понимали фантасты и публика. Понятия подменили!

Самое забавное, что сразу после поражения Седоля, случай подкинул интереснейшую историю, живо иллюстрирующую справедливость слов ИИ-пуристов. Это история чат-бота Taylor, запущенного Microsoft в соцсети с целью развлечь публику и, возможно, ускорить обучение очередного «электронного мозга» общению с человеком. Ещё на прошлой неделе с Taylor мог переписываться всякий желающий, например, в Twitter. А потом вдруг Microsoft бота отключила («для перевоспитания»). Почему? Потому что «электронная девочка» в считанные дни превратилась из весёлого подростка в прокуренную нацистку, льющую на головы обалдевших сетян потоки цинизма и желчи. И я нисколько не преувеличиваю: вот, оцените коллекцию её постов, собранную поклонниками!

Типичный диалог с Taylor: человек провоцирует, робот ведётся. Примерный перевод: «Это не просто фотография, это произведение искусства!»

Типичный диалог с Taylor: человек провоцирует, робот ведётся. Примерный перевод: «Это не просто фотография, это произведение искусства!»

На самом деле лично мне это кажется даже смешным, но я люблю грубый юмор, и готов к тому, что не все разделяют моё увлечение. Вот в беседе о терроризме, Tay спрашивает собеседника, боится ли тот погибнуть от взрыва бомбы, и на встречный вопрос — мол, не угроза ли это? — отвечает: нет, не угроза, обещание! Вот она высказывает мнение, что очередное государство, пострадавшее от террористов, «получило по заслугам». Вот, комментируя фотопортрет человека в национальном костюме, говорит, что находит забавными портреты, на которых нет людей. И так далее и тому подобное.

Её создатели настаивают, что Taylor спровоцировали, «научили плохому». И хоть шутники жгут («тест Геринга пройден!»), это вовсе не отговорка, это истинная правда! Просто вспомните, что она на самом деле не человек, не живая, а всего лишь ещё одна нейросеть, заточенная под конкретную задачу, в данном случае общение. И выставляя «твёрдую пятёрку» творцам холокоста или называя исчадиями ада «мексикашек и негров», она просто не понимает, что творит.

Пуристы и практики ИИ, конечно, ещё долго будут ломать друг о друга копья, но мораль простая. Мы пришли к черте, за которой эксперименты с элементами искусственного интеллекта теряют актуальность. Всё, игры — кончились! Следующей задачей, которую необходимо решить машине, станет повторение человека. Не больше, потому что больше-то уж и некуда в нашем понимании. Но и не меньше, потому что после го меньшее уже не интересно.

P.S. В статье использована иллюстрация CLRY2.

Источник - http://www.computerra.ru/143170/after-go/

 

Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта