English Deutsch
Новости
Мир антропологии

Сергей Марков «Искусственный интеллект против естественного невежества»

Александр Соколов: Когда я слышу про искусственный интеллект, я обычно вспоминаю две вещи (из того, что мне о нем говорили): с одной стороны, он невозможен, потому что машина не может чувствовать и осознать себя как личность, а с другой стороны, когда его создадут, роботы всех уничтожат. Надеюсь, вы развеете мои опасения. 

Я сегодня дебютирую в качестве спикера форума, и, на самом деле, когда меня пригласили выступить здесь, я немножко замешкался, потому что я специалист из области точных наук, и здесь пространства для лженауки все-таки гораздо меньше. То есть если вы сделаете поддельный самолет, то очень быстро выяснится, что вы какой-то неправильный ученый. Но на самом деле, помимо тех заблуждений и того мошенничества, которое может происходить в сфере людей, занимающихся созданием подобных систем, существует еще огромный слой дилетантских мнений по поводу того, что представляют собой системы искусственного интеллекта, на что они способы, на что они не способны. Вдобавок ко всему, особенно в последние годы, достаточно активно идут разговоры в публичной сфере о различных проблемах, связанных с опасностью соответствующих технологий. И тут-то уж, конечно, пространства для всяких странных идей достаточно много.

Но прежде чем говорить об искусственном интеллекте, так уж в научной среде повелось, и бородатые мужики (древнегреческие философы – прим.) традицию задолго до меня еще задали, то кто я такой, чтобы ей не следовать. Прежде чем о чем-то говорить, нужно дать определение, и если мы говорим об искусственном интеллекте, то что же мы под этим понимаем? На практике разные люди под этим понимают очень разные вещи.

Что понимают под этим специалисты, которые занимаются созданием систем искусственного интеллекта?

В принципе, в основу определения ИИ в науке принято класть инструментальный подход, и в основе этого лежит понятие интеллектуальной задачи. То есть если есть какая-то задача, которую люди традиционно решают при помощи своего естественного интеллекта, и мы создаем систему, которая автоматизирует решение такой задачи, то эта система является системой искусственного интеллекта. Понятно, что такое определение очень широкое, и под него подходит даже обычный калькулятор или арифмометр, или, прости господи, Антикитерский механизм, который был создан задолго до нашей эры. Для того, чтобы провести черту и отделить такие системы от систем с универсальным искусственным интеллектом два понятия. Сейчас они более или менее устоялись в таком виде: системы, которые предназначены для решения каких-то отдельных интеллектуальных задач – это так называемый слабый ИИ или прикладной ИИ. А вот гипотетическая система, которая сможет решать любые интеллектуальные задачи, которые решает естественный интеллект, ну или по крайней мере очень-очень широкий спектр таких задач – вот такая система называется Artificial General Intelligence, сильным или полным ИИ.

Очень много всякой чепухи происходит из-за того, что люди употребляют термин «искусственный интеллект», подразумевая под этим сильный ИИ. И, естественно, специалистам, которые занимаются созданием систем ИИ, говорят: «Слушайте, ну так вы ж не создали ИИ. ИИ не существует». А с другой стороны всем понятно, что есть куча разных интеллектуальных задач, которые при помощи машин мы решили достаточно хорошо: машины обыгрывают человека в шахматы, теперь еще и в го обыгрывают.

Про машинное обучение. На самом деле вот этот слайд просто для того, чтобы напугать. Он показывает, что квадратиков очень много, и системы машинного обучения и ИИ затрагивают почти все сферы человеческой деятельности на сегодняшний день. И вот та новая весна ИИ, которую мы сейчас переживаем – трудно придумать такое направление в человеческой деятельности, которое вообще не будет потенциально затронуто развитием подобных систем.

Хорошо, есть общественные заблуждения, но можно поискать поддельных ученых в области ИИ. Я насчет этой карикатуры всегда говорю, что это я. Но здесь история какая: оказывается, что пока еще для шарлатанства небольшое пространство осталось, хотя это скорее история курьезная. В частности, недавно я слышал байку о том, как один неудачливый стартапер с провалившимся проектом по распознаванию речи, когда его спросили, в чем проблема, почему он собрал инвестиции и потом все-таки не сделал систему распознавания речи, он сказал: «Ну, когда приходит инвестор, ты можешь посадить в соседнюю комнату человека, который будет слушать, что он будет говорить и быстро это печатать. Но когда задача заключается в том, чтобы сделать такую систему работающей, тут возникают некоторые трудности».

В этом смысле, наверное, самый известный исторический пример – это шахматный «Турок», автомат, созданный фон Кемпеленом. Это как бы машина, которая является неким символом систем ИИ, хотя, конечно, на самом деле это грамотно продуманное шарлатанство. Внутри этой машины сидел человек, была система зеркал, которая скрывала этого прячущегося внутри шахматиста, который при помощи рычажков, ниточек управлял движениями фигуры робота. Самое интересное, что тогда удалось обмануть очень многих людей, то есть умнейшие люди своего времени считали, что это вполне себе работающая машина, которая умеет играть в шахматы. То есть люди тогда верили, что при помощи шестеренок и каких-то механизмов, изготовленных механиком, можно создать систему ИИ.

Сейчас, конечно, нас такие вещи уже обмануть не могут, но подобные ложные представления о том, чем является современная система ИИ, и массовые заблуждения никуда не делись. Например, очень распространенным заблуждением является такое: машины на самом деле, решая интеллектуальные задачи, успешно решают их не потому, что они умные, а потому, что они очень быстрые. И на сегодняшний день это, наверное, практически общее мнение. Если вы спросите дилетанта, почему шахматная программа обыгрывает шахматиста, то он скорее всего скажет, что шахматная программа просто перебирает очень-очень-очень много позиций в секунду и поэтому может человека обыграть. А человек не может перебрать такое количество позиций.

С этим заблуждением на самом деле всё достаточно просто. Если вы посмотрите на количество позиций, которые нужно перебрать для того, чтобы решить какую-то сравнительно тривиальную шахматную задачу (вот на слайде мат в шесть ходов из какого-то сборника задачек), то в принципе любой перворазрядник эту задачку, немножко подумав, будет в состоянии решить. Но что будет, если мы сделаем машину, которая будет просто в лоб перебирать все варианты в этой позиции? В 1971 году «Каисса» – тогдашний чемпион среди шахматных программ – могла перебирать примерно 200 позиций в секунду. Если сравнить с современными машинами, то «Stockfish» на персональном компьютере 2015 года мог перебирать примерно миллион позиций в секунду. Мы видим, что рост достаточно большой. А если мы посмотрим на «DeepBlue», которые был, кстати, немножко раньше построен, но был специализированной машиной для шахмат, то здесь скорость перебора могла достигать и 300 миллионов позиций в секунду, то есть в 300 раз быстрее, чем современная персоналка. Казалось бы, какой огромный рост производительности – с двухсот позиций до сотен миллионов. Но чтобы решить вот эту задачку полным перебором, потребуется больше ста лет. Я даже посчитал точно – 356 лет «DeepBlue» пришлось бы перебирать все варианты, чтобы решить вот эту простую задачку. Я не смог найти современной шахматной программы, которая дольше 2-3 секунд задумывалась бы в этой позиции, и если вы возьмете, например, шахматную программу десятилетней давности и современную программу и заставите сыграть на одном и том же железе, на одном и том же компьютере, то разница в силе игры будет колоссальная. То есть тот прогресс, который мы наблюдаем в создании прикладного ИИ, связан не с прогрессом оборудования. Он связан с совершенствованием алгоритмов, с совершенствованием методов.

Еще один пример. Наверное, все знают про рисовые зернышки: мудрец пришел к падишаху, падишах ему был чем-то обязан и спросил «Чего ты хочешь?». Мудрец сказал: «Давай ты возьмешь шахматную доску, положишь на первую клеточку одно рисовое зернышко, на вторую – два, потом четыре, восемь, ну и так далее. На каждую следующую будешь класть в два раза больше зернышек риса». На что падишах сказал: «Ты, видать, дурачок какой-то. Зачем тебе горстка риса, которая там получится?» Но когда визири сели это всё дело считать, оказалось, что такого количества зерна скорее всего нет не только у этого падишаха, но и вообще на всей планете. Так вот представьте себе – в среднестатистической шахматной позиции возможно примерно 35 ходов. Представьте теперь такую же доску, но на каждое следующее поле вы будете класть не в два раза, а в 35 раз больше зернышек. Смысл в том, что где-то в районе этой клетки у вас закончится количество атомов во Вселенной, в видимой ее части. Это к вопросу о том, что как бы машины ни были быстры, они никогда за счет скорости не смогут решать такие задачи. Успешное решение таких задач возможно, только если мы будем немножко более хитро их решать, не так прямо, как думают некоторые люди.

А что, если мы сравним мозг человека с «мозгом» современных электронных машин?

У меня есть спекулятивный способ подсчета. Он заведомо некорректный, но он позволяет оценить масштаб. В среднестатистическом мозге 86 млрд нейронов и от 150 до 1000 трлн синапсов – у ребенка к трем годам их гораздо больше, чем у взрослого человека, но у взрослого 150 трлн примерно остается. Каждый синапс – это аналог примерно 1000 молекулярных триггеров. Если мы перемножим эти 150–1000 трлн на тысячу, то получим грубый эквивалент мозга в условных транзисторах – их будет, соответственно, от 150 квдрлн до 1 квнтлн. Для сравнения, у нас сейчас есть машины, центральный процессор которых состоит из 20 млрд транзисторов, но сейчас, я знаю, Intel выпускает новый процессор, в котором будет 30 млрд транзисторов. И вы понимаете, что разница в масштабах здесь, конечно, колоссальная. Правда, у машин есть одно преимущество – они действительно более быстрые. Тактовая частота процессоров может достигать нескольких гигагерц, 8 Гц для рекордного процессоров, для практического массового производства 4 Гц. И в принципе мы можем домножить эти числа на тактовую частоту мозга – она составляет примерно 1000 герц по данным современной нейрофизиологии. И мы увидим, что нам все-таки пока что не хватает в районе одного-двух порядков по производительности. Конечно, мы умеем собирать машины и из большого числа процессоров, но таким машинам свойственна определенная деградация производительности, потому что она там совсем не линейно растет – есть время на передачу данных между процессорами. В общем-то, примерные подсчеты таким образом или Рэя Курца (он чуть-чуть по-другому эти вычисления осуществляет, но результаты получаются примерно те же) показывают, что наши машины по производительности догонят наш мозг где-то к концу 2020-х годов. Те машины, которые мы используем сейчас, по сравнению с мозгом никакой не брутфорс (brute force), это наоборот очень слабенькие устройства, и для того, чтобы создавать системы, которые будут успешно и лучше человека решать те или иные интеллектуальные задачи, нам на самом деле нужно использовать какие-то весьма специфические алгоритмы, которые будут использовать специфические особенности этого процессора. Наоборот, брутфорс пока на стороне мозга человека. Просто люди обычно, сравнивая производительность этих двух машин, берут в основу какую-нибудь операцию, которую мозг традиционно выполняет медленно – например, устный счет. Да, мы не можем посоревноваться с компьютером в скорости осуществления этих операций, но если мы возьмем какую-нибудь более сложную операцию – например, распознавание образов, поворот, масштабирование изображения – то выяснится, что мозг гораздо более производителен, чем машины. Суммирование в мозгу, конечно, тоже происходит, и в принципе мы можем рассмотреть распространение сигналов через синапсы тоже как операции суммирования, просто мы это не осознаем как суммирование. Наш мозг постоянно суммирует огромное количество чисел, просто это остается в абсолютно бессознательном пространстве.

Насчет го. Почему эта история сама по себе интересна – потому что го долгое время было таким примером, который использовали, чтобы немножко унизить специалистов из области разработки ИИ. Говорили: «Хорошо, вот вы обыграли людей в шахматы, но го – это игра, в которой саккумулирована древняя китайская мудрость, это настоящее искусство. Либо вы никогда не создадите машину, которая будет хорошо играть в го, либо создадите ее очень и очень нескоро». Но события развивались достаточно внезапно. Долгое время программы, играющие в го, действительно топтались на уровне средненького любителя, пока не появилась программа AlphaGo, которая стала обыгрывать сильнейших игроков в го, причем практически всухую. С чем связан этот прогресс? Здесь тоже существует довольно распространенное заблуждение, потому что когда задают вопрос «чем отличается го от шахмат?» и говорят, что в го гораздо больше вариантов. Действительно, доска для го больше и количество возможных ходов в среднем, естественно, больше, и возможных партий в го тоже намного больше, чем в шахматах. Но ведь это количество вариантов больше для любой стороны – и для человека, который играет в го, количество вариантов тоже гораздо больше, поэтому такое объяснение совершенно несостоятельно. Дело не в том, что в го больше вариантов, дело в том, что те методы, которые мы использовали, были неадекватны задаче. В шахматах удобство заключается в том, что можно придумать такую функцию, которая будет, посмотрев на доску, быстро и более или менее неплохо оценивать текущую позицию. Просто посчитать количество материала у белых и у черных, посмотреть, на каких полях стоят фигуры, оценить пешечную структуру, оценить атаку на короля… В принципе, все эти вещи есть в шахматных учебниках, и люди эти особенности оценки шахматных позиций придумали еще за сто лет до того, как появились первые шахматные программы. И в этом смысле задача специалиста по ИИ при создании шахматных программ заключалась в том, чтобы качественно запрограммировать эти способы оценки позиций и добавить к этому какой-то более или менее интеллектуальный перебор, который позволит программе играть как минимум в силу людей. А в го такого не получается. Чтобы оценить позицию в го – фишек одинаковое количество у каждой стороны – нужно распознавать какие-то паттерны, какие-то шаблоны. До того, как появились свёрточные нейронные сети, эта проблема эффективно не решалась. Соответственно, когда появились свёрточные нейронные сети, которые использовались (сюрприз-сюрприз!) для распознавания образов, оказалось, что они являются прекрасным инструментом для оценки позиций в го. В общем, это было лишь вопросом времени – когда появятся программы, которые, используя этот инструмент, будут обыгрывать людей.

Есть разные фальшивые сенсации, которые периодически звучат в прессе. Виной их появления являются чаще всего журналисты, реже популяризаторы. Например, знаменитая история, как «программа за 72 часа самостоятельно научилась играть в шахматы», как программа за три дня научилась самостоятельно играть лучше гроссмейстеров и так далее. Если копнуть немножко вглубь (повезло, что я знаю автора этой системы, потому что мы с ним в свое время общались немножко на форумах шахматных программистов), то что на самом деле произошло? Сделали очередную программу, которая самостоятельно на основе статистического анализа выявляет определенные критерии оценки на основе шахматных позиций. То есть у нее не предзаданный набор правил, а извлечение фич – это называется automatic feature extraction. Ничего особо революционного не произошло, но в то же время товарищ Левенчук рассказал, что теперь-то после этого проекта сотни программистов, огромные команды, которые занимались шахматами, теперь не нужны, они теперь уволены. Я, когда это услышал, скажем так, сильно удивился – где все эти люди, где все эти деньги? Реально в компьютерных шахматах нет денег, и у самых крупных шахматных программ в команде обычно один-два человека. На этом никто не зарабатывает деньги и никаких сотен программистов там не было. Это просто было сказано для красного словца, а потом многократно усилено прессой, и вот у нас такая тыква.

Мы живем в эпоху, когда происходит борьба между двумя мощными направлениями в общественном искусстве и, возможно, в общественной мысли, как я их условно называю, неолуддизм и неожюльвернианство. Если вы посмотрите, как тема искусственного интеллекта и машин отражается в научной фантастике и, скажем, голливудском кино, то можно увидеть, что последние несколько десятилетий снималась совершенно чудовищная клюква на эту тему. Самый апофеоз – это фильм «Сквозь горизонт», где ученые хотели открыть портал для нуль-транспортировки, но открыли портал в ад. Я считаю, что это наивысшая точка. Всякие разные другие страшилки, допустим, машины-репликаторы, которые всех нас съедят и переделают на скрепки. В принципе, все эти сценарии вполне себе нормально обсуждаются в научной среде, но когда это превращается в искусство, то неизбежно упрощается, гиперболизируется и  становится источником каких-то совершенно невообразимых страхов.

Но, к счастью, есть и положительные тенденции. Есть (пока) тоненький-тоненький ручеек неожюльвернианства – это искусство, которое создает позитивный настрой в отношении развития технологий. Это кино вы наверняка видели, а если не видели, то советую посмотреть – оно называется «Transcendence» («Превосходство» в русском прокате). «Марсианин» - это, конечно, прекрасное кино на тему прогресса и технологий.

Если завершать всю эту историю, то стоит подумать: чего в плане прогресса технологий и в частности прогресса ИИ люди боятся. Здесь есть набор типичных сценариев. Первый сценарий, что есть какие-то злые ученые, которые при помощи создаваемых ими систем ИИ, преследуя свои какие-то корыстные цели, тем самым создадут какую-то дистопию или вообще нас всех уничтожат. Другая разновидность сценария – глупые ученые. Глупые ученые создадут систему, допустят в ней ошибку, и вот в силу этой ошибки, в силу неосторожности она тоже нанесет какой-то серьезный вред. Сумасшедшие ученые с сумасшедшими идеями – они не корыстные, просто свихнулись на фоне каких-то сверхценных идей. Ну и вариант, что система, изначально разработанная для решения каких-то задач, например, обороны, попадает в руки плохих политиков, и они ее тоже употребляют для того, чтобы всё поломать. Если посмотреть на все эти сценарии, что их объединяет – страх людей перед самими собой. Это не столько страх перед искусственным интеллектом как таковым, это страх перед нашим образом систем ИИ, который мы неизбежно переносим из каких-то человеческих качеств. Мы начинаем приписывать такой системе некий набор качеств людей и начинаем ее бояться.

Проблема с безопасностью не то чтобы лженаучна. Это серьезная проблема, но это не специфическая проблема ИИ. Дело в том, что наши технологии в принципе становятся всё более и более совершенными, и человечество становится всё более и более могущественным. В силу этого есть проблема дешевения апокалипсиса. В XIX веке, даже если бы все люди вместе собрались, у них не было бы возможности уничтожить биосферу или нанести ей какой-то серьезный ущерб. С появлением атомного оружия у нас такие инструменты появились. Для того, чтобы катастрофический сценарий нашел свое воплощение, нужно, чтобы огромное количество психов скоординировало свои действия – чтобы свихнулись руководители крупнейших стран, ядерных держав и так далее. Сейчас мы создаем, допустим, эффективные биотехнологии – мы можем уже представить себе сценарий (немножко высосать его из пальца), что есть какая-нибудь биотехлаборатория, которая создает чрезвычайно опасный вирус, который уничтожает людей по принципу, что их цвет кожи нам не нравится или какие-то другие качества. Потом оказывается, что эта лаборатория не одна, а столько, сколько цветов кожи существует. То есть опасность заключается не в самом искусственном интеллекте. В большинстве подобных сценариев ИИ легко можно заменить на свихнувшегося человека. Если вы подпустите идиота к красной кнопке, он может ее нажать, и неважно, является ли этот идиот искусственным или естественным.

Поэтому проблема на самом деле более широкая – какие должны быть приняты меры безопасности.

Например, когда появилось атомное оружие, мы себя все-таки не уничтожили, мы придумали способы контроля этой технологии. Конечно, были определенные эксцессы, были определенные проблемы, но человечество худо-бедно с этим справилось. Сама технология, развиваясь, дает нам инструменты для контроля тех рисков, которые возникают в связи с ее развитием. Ясно, что нельзя остановить развитие технологии – такой опции просто не существует. Но есть разумные способы использования технологий. Страхи здесь очень серьезно гипертрофированы. У меня есть отдельная лекция на эту тему. Если кому-то интересно, она называется «Легенда о големе в век искусственного интеллекта». Наверное, это всё, о чем я хотел рассказать сегодня.  


06 октября - Ученые Против Мифов в Москве

Catalog gominid Antropogenez.RU