Гэри Маркус — профессор Нью-Йоркского университета, специалист в области когнитивистики (науки о познании), в последнее время сконцентрировавшийся на проблемах искусственного интеллекта и связанной с ним технологии глубокого обучения (deep learning, DL). В большом интервью MIT Tech Review Маркус заявил, что у технологии есть явные ограничения, которых энтузиасты предпочитают не видеть. И для создания настоящего машинного интеллекта понадобится иной подход. Хайтек+ приводит самые важные моменты беседы.
Маркус называет себя «краткосрочным пессимистом и долгосрочным оптимистом», когда речь идет об ИИ. Он уверен, что вести работы по созданию общего ИИ для решения многих широких проблем, а не одной конкретной, нужно. Одна из важнейших причин этого — что нынешний «узкий ИИ», то есть алгоритмы на базе глубокого обучения, подходит к своему пределу.
Вы можете обучить ИИ играть на Atari лучше человека, но сделать хороший робомобиль никому не удается. Эта задача тоже довольно специализированная, но на стыке с реальным миром — который гораздо сложнее любого запрограммированного окружения.
Глубокое обучение хорошо проявляет себя в анализе корреляций, но алгоритмы не видят причинно-следственной связи и плохо воспринимают любую перемену условий. Сдвиньте элементы в компьютерной игре на три пикселя — и обученный ИИ потеряет эффективность. Сделайте поле для го не квадратным размера 19x19, а прямоугольным — и модель, обыгрывающую чемпионов, придется обучать заново.
Глубокому обучению недостает глубокого понимания.
«Общий ИИ [совсем другой] — это возможность решать разные проблемы на лету. А это полная противоположность го, где проблема не меняется уже 2000 лет», — говорит Маркус.
Поэтому, если мы хотим, чтобы алгоритмы прибавили в эффективности, их необходимо обучить видеть взаимосвязи и ориентироваться в окружающем мире. По словам Маркуса, с этим неплохо справляется «классический ИИ», но у него другой недостаток — необходимо очень подробно запрограммировать все связи. С учетом огромного количества разноплановой информации, которая нас окружает, просто написать «разумную машину» не получится.
Человек интуитивно ориентируется в окружающей обстановке на основе своего опыта, даже если условия меняются. «Наберите студентов-стажеров — и через несколько дней они начнут думать над любой проблемой — от юридической до медицинской. Просто потому потому, что они имеют общее представление о мире и умеют читать. Так что они могут внести вклад в самые разные вещи» — рассуждает в интервью Маркус.
Решения человека могут быть не идеальными, но чаще всего они достаточно хороши — благодаря эволюции, которая убивает за плохие решения. Однако у компьютеров такого механизма нет.
Маркус видит решение в некоем симбиозе классического ИИ, который видит взаимосвязи и получает решения понятным образом, и глубокого обучения. По-видимому, это будет некий свод правил касательно того, как работает окружающий мир и того, как выглядят наборы данных, которые можно получить и обработать.
Однако серьезная проблема в том, подчеркивает он, что большинство сторонников DL и слышать ничего не хотят о классическом программировании — машинное обучение кажется им всесильной технологией.
«Они хотят делать все с нейронными сетями и не использовать ничего, что выглядит как классическое программирование. Но есть проблемы, которые обычно решаются именно так — например, создание маршрута на картах Google», — возмущается ученый.
В поисках эффективности
Маркус убежден, что глубокое обучение лишь кажется универсальной технологией: невозможно, используя один единственный подход, и эффективно осмысливать тексты, и распознавать образы. С ростом сложности задач эти ограничения станут очевидными. Робомобили — лишь один из примеров того, что при решении многих проблем реального мира DL недостаточно. На том же плато довольно скромного уровня эта технология остановится и при решении серьезных задач из других областей знаний — химии, биологии или социологии. Даже умелый и разносторонний домашний робот-помощник выглядит сегодня нереальной задачей.
Дополнительный барьер в том, что энтузиасты требуют доверять алгоритмам, которые не могут объяснить свои решения и даже не видят причинно-следственные связи. Это значит, что риски их использования многократно возрастают при любом изменении условий на входе в «черный ящик».
Таким алгоритмам понадобится сотня лет, чтобы завоевать доверие людей, даже если они будут работать без сбоев, подчеркивает Маркус. А сбои случаются регулярно.
Профессор уверен, что настоящий общий ИИ должен осознать мир вокруг, уловить причинно-следственные связи и переключиться с одной задачи на другую. Это задачи не из области глубокого обучения, и, чтобы избежать «зимы ИИ», специалистам следует как можно скорее заняться интеграцией других подходов.
О том, как настоящий общий или сильный ИИ изменит окружающий нас мир, в интервью Хайтек+рассказал футуролог Сергей Переслегин. Он убежден, что контролировать такой ИИ с позиции силы у людей не выйдет, и нам придется вступить с ним в тяжелое эволюционное соревнование.