О конференции "Гуманитарные и социокультурные аспекты развития и применения технологий искусственного интеллекта" на которой побывал 22 августа в рамках форума "Армия 2021".
Сначала небольшая техническая часть. Сама конференция проходила в рамках большого конгресса посвященного искусственному интеллект, который идет несколько дней. Помимо конференции, где я побывал и большого пленарного заседания с официозом, будет еще несколько секций по различным направлениям, в том числе узкая тема применения ИИ в военных технологиях. Данное же мероприятие представляло собой достаточно примечательное действо, когда в зале сознательно была собрана весьма пестрая по направлениям научных знаний группа специалистов, что позволяло взглянуть на озвученную проблематику с разных ракурсов - военного, дипломатического, технологического, образовательного, биомедицинского, криминалистического, философского, морально-этического и т.д. Собственно, даже не скрывалось, что целью является сбор среза мнений, наиболее толковые из которых предполагалось включить в общую резолюцию, которая в теории должна оказать некое влияния если и на весь вектор развития технологий искусственного интеллекта в России, то хотя бы на отношение властей к этой проблематике. Насчет эффективности воздействия пока судить трудно, но задача сбора разных мнений (ценных и не очень), на мой взгляд была вполне успешно решена.
Место проведения - 3-й этаж Экспо-Центра в парке "Патриот". Формат - выступления основных спикеров + возможность выступать по записи + возможность задавать вопросы через специальное приложение. Фактическими модераторами были Наталья Касперская ("InfoWatch") и Андрей Ильницкий (советник Шойгу). Формально значилась еще и Татьяна Матвеева (глава управления АПшки по ИКТ), но она особой активности не проявляла. Модераторы следили за тем, чтобы не перебирали со временем, а также обрывали тех, кто начинал слишком активно лить воду в стиле "ИИ очень важен", а таких выступающих тоже хватало.
Теперь же о том, что говорилось. Некоторые общие выводы из услышанного:
1.Россия в вопросах разработки технологий ИИ по целому ряду направлений отстает от мировых лидеров и сейчас стоит фактически на распутье. Ей надо либо прислониться к чужому проекту определяемыми чужими системами государственного регулирования (будь то западными или китайскими), либо же делать что-то свое обособленное, в рамках курса на технологический и цифровой суверенитет. Ярким моментом было обсуждение выдвинутого тезиса о том, что одним из ключевых элементов оценки качества разработок должны служить публикации в западных научных журналов (статьи на эту тему летом уже выходили в блоге). Это фактически закрепляет подчиненный характер отечественной науки и соответственно, заведомо ставит в подчиненные положение вопросы развития ИИ. Поэтому предложения снижать зависимость оценки качества работы от "индекса Хирша" или даже отказаться от него, вполне одобряю. Можно отметить, что если раньше все это было на уровне заявлений бьющих в колокола ученых, то сейчас такие мысли можно услышать и от чиновников и военных. Идея постепенно прорастает, так что ученым в этом направлении надо продолжать капать на мозги государству и весьма вероятно, что в долгосрочной перспективе тут произойдут изменения. Как они произошли с теми же западными НКО, которые начали по серьезному закрывать лишь в конце 10х, хотя в обществе запрос на это вызревал еще в конце нулевых. Вода камень точит.
2. Международное регулирование технологий развития ИИ, с учетом разности военно-политических и экономических потенциалов, практически гарантировано будет стремиться поставить Россию в подчиненное положение. Рассчитывать на то, что на Западе Россию примут как равного партнера в вопросах технологий ИИ не приходится. Разговаривать на тему выработки неких общих правил функционирования таких технологий можно, но было бы иллюзией считать, что Россия сможет добиться согласия Запада на некое правовое равноправие. Это тоже толкает Россию на пресловутый "свой собственный особый путь", который не гарантирует лидирующие позиции в гонки развития технологий ИИ, но сохраняет и обеспечивает субъектность участия в этой гонке. В конечном итоге тут все сводится к вопросам субъектности и суверенитета. И чем больше вовлечения в западные системы в текущих реалиях, тем меньше будет субъектности и суверенитета.
3. Сами технологии ИИ сейчас оценивают не как полноценный ИИ, а как некие системы, имитирующие некоторые элементы человеческого сознания. Условно их называют "слабый ИИ". Когда и как будет создан полноценный ИИ, и будет ли он вообще создан, на текущем этапе непонятно. Но вот этот самый "слабый ИИ", со всеми его ограничениями и недостатками, будет весьма активно внедряться, становясь неотъемлемой частью окружающей действительности. Вопрос о том, внедрять или не внедрять технологии ИИ уже давненько не стоит. Вопрос в том, как и на каких условиях его внедрять. Тезис представителя "Яндекса" о том, что при внедрении будут жертвы, а при не внедрении жертв будет еще больше, отражает с одной стороны страх перед новыми технологиями, а с другой стороны проблему преодоления этого страха и принятия последствий этого преодоления. Неидеальность технологий ИИ будет обуславливать неидеальность их внедрения. Другой вопрос, кто будет отвечать за неизбежные жертвы и какова мера ответственности. Этот вопрос как мне кажется был недостаточно раскрыт.
4. Абстрактные вопросы выработки неких моральных принципов развития и внедрения технологий ИИ (в том числе и в невоенной сфере) наталкиваются разные взгляды на то, где проходит пресловутая граница, которую нельзя переходить. Эта граница может быть разной в различных странах и блоках, так и в подходах разных групп населения внутри отдельно взятой страны. Можно брать те абстрактные принципы, которые излагала научная фантастика прошлого века. Можно пытаться применять современный технократический подход с минимальным количеством красных флажков, можно пытаться присоединить к этике использования искусственного интеллекта религиозные догматы. Но суть в том, что не будет какого-то общепринятого принципа. Всегда будут недовольные, которых не устроят предложенные вами красные линии. Вряд ли можно ожидать создания некоего общепризнанного набора принципов, которые станут моральным императивом для всех, а это значит, что в этом случае неизбежна криминализация "заступов за флажки" и стремление отдельных индивидов, организаций и государств "потрогать запретный плод". На мой взгляд тут надо просто говорить о том, что государство вырабатывает некий набор регулятивных мер отражающих текущие взгляды на использование ИИ, которые в дальнейшем могут меняться в зависимости от направления развития технологий. Так было бы честнее попыток спрятать проблему за абстрактными разговорами про этику и мораль. На деле, все скорее всего будет куда как приземленнее.
5. Относительно зависимости человека от ИИ и страха перед превосходством машины, хотелось бы обратиться к шахматному примеру. Когда я учился играть в шахматы, компьютеры играли слабее человека. Но постепенно, в процессе технологического развития они сначала догнали, а затем перегнали человека. Попытки лучших из людей сражаться с ними были постепенно подавлены машинной мощью. Сейчас особо никому и в голову не придет мысль устраивать матчи между человеком и машиной (на текущий момент сильнейшие машины построены на принципах нейронных сетей, которые играют значительно сильнее чемпиона мира и ведущих гроссмейстеров), потому что итог очевиден уже на уровне идеи. Человек понял, что машина сильнее и просто перестал стремиться к доказательству своего превосходства, к чему стремился еще 20 лет назад. Но что же произошло? Машины теперь соревнуются с другими машинами, а для человека они стали инструментом в подготовке к борьбе с другими людьми. Да, тут есть проблема доверия машине, так как она предлагает человеку использовать результаты ее "интеллектуального труда", что многие делают некритически "оценка машины непререкаема", "машина не ошибается" и т.д. На деле же, порой таких чрезмерно доверяющих машине ловят на неочевидных моментах, которые может уловить только человек. Но это как правило именно хитрости, которые позволяют обойти нерушимую стену компьютерного анализа. В открытом же бою все давно очевидно. В итоге, человек преодолел свой страх перед машиной, просто переведя вопрос конкуренции в вопрос взаимодействия, которое стало нормой, когда "железный друг" делится с тобой результатами перебора миллионов ходов и вариантов, а ты уже сам принимаешь решение - как воспользоваться этой помощью и не поискать ли еще в результатах машинного превосходства обходные человеческие пути. Как представляется, во многих других областях внедрения ИИ, проблема также будет стоять в преодолении естественного страха перед машиной и ухода от идеи конкуренции с ней к идее взаимодействия, где машина занимает определенное место в виде инструмента при сохранении за человеком возможности принятия решений. Но и в этом случае, человеческое общество конечно будет меняться, а страх этих изменений будет порождать оппозицию активному внедрению технологий ИИ в различных сферах. Это тоже данность.
6. Если смотреть на проблему внедрения технологий ИИ в военную сферу, то сама логика новой Холодной войны и гонки вооружений, будут подталкивать развитие военных и смежных решений в сфере ИИ для дальнейшей модернизации военной машины. Текущие разработки наземных, морских и воздушных дронов, постепенное повышение автоматизации войны, возрастающая роль цифрового моделирования конфликтов, а также цифровизация поля боя, неизбежно будут затрагивать вопрос внедрения совершенствуемых технологий ИИ на самых различных уровнях. Это уже не вопрос выбора, а неизбежность и необратимость, особенно если смотреть на мейнстрим оборонных разработок. Впрочем, как представляется, в обозримой перспективе ключевые вопросы ведения войны и принятия решений на войне будут и далее оставаться за человеком. Передоверить этот вопрос машине мешает как естественное нежелание лишиться контроля, так и существующие ограничения возможностей ИИ.
7. Ашманов вспомнил про Маркса и сравнил нынешний "цифровой класс" (или прослойку) с классическими классами, которые осознают свой классовый интерес и соответственно усиливают свое влияние на общество и государство, которое зачастую не осознает возможностей этого влияния. Собственно, в связке с "БигТехом", эта "прослойка" действительно имеет возможности влияния на принятие стратегических решений. Не столь ярко выражено как в США, но движение идет именно в этом направлении. И как показывает опять же американский опыт, бесконтрольность этой прослойки приводит к весьма наглядным и поучительным последствиям, когда именно эта прослойка начинает определять что правда, а что нет, кто президент, а кто нет, кому можно говорить, а кому нет. С развитием технологий ИИ не трудно представить, как могут расшириться возможности такого опосредованного влияния на общество и государство. Поэтому вполне логично, что государство будет стремиться к регулированию крупных цифровых компаний и опосредованного ограничивать возможности влияния "цифрового класса" на ключевые решения и общественные умонастроения.
8. В выступление Ильницкого был сделан большой акцент на засилье так называемых "эффективных менеджеров", которых наплодили за последние десятилетия и которые выступают фактическим тормозом развития, так как подобные люди при низкой компетенции имеют влияние на принятие важных решений или же влияют на выработку этих решений, которые могут носить навязываемый характер. Это конечно не только проблема ИИ, а общая проблема страны с неэффективными "эффективными менеджерами". Озвучен был и путь решения - модернизация системы образования, потому что текущая система по заявлению бывшего министра культуры создала поколение, голова которого набита чушью. А ведь выпускники этой системы в будущем попадут на места тех самых "эффективных менеджеров" с ожидаемым результатом. И быстро эту ситуацию не поменять. Пока что с точки зрения модернизации образования картина достаточно мрачная вырисовывается, но опять же закономерная. Как в свое время заявлял один министр "Основная цель - это вырастить квалифицированного потребителя". Тут да, вырастили. Только государственная машина если и едет с ним, то куда-то не туда.
9. Стоит также отметить выступления космонавта Крикалева, которое получилось остро критическим и касалось скорее общего положения дела в стране. С одной стороны, Крикалев указал на высокую инерционность работу государственной машины, когда зачастую решения по различным вопросам определяются не человеком занимающим должность или не существующим ИИ, а обычными регламентами, которые зачастую уже устарели, но тем не менее определяют то, какие решения будут приняты, сводя инициативу человека к минимуму. Само собой, эту ситуацию можно экстраполировать на ИИ, где человек также может быть подчинен "безошибочным решениям ИИ". По мнению Крикалева, из-за сложившейся ситуации, у нас тормозится развитие целых отраслей экономики. Также Крикалев отметил, что действующие в стране регламенты безопасности фактически уничтожили в Россию малую авиацию. В общем, что-то делать с обновлением регламентов необходимо.
10. В самом конце конференции полковник из Академии Можайского правильно поднял вопрос "А для чего все это?". В рамках какой идеологии и ради каких целей все это должно быть. Как шутили в старом КВН "Вопрос из бронхов. - Да уж, не из легких". Мало какая конференция по различным темам, где довелось бывать за последние годы, без него обходилось. Официально идеология по Конституции запрещена. Но президент официально заявляет, что у нас идеология патриотизма. Но на конференциях заявляют, что идеологии нет, но она нужна. А старая идеология "Обогащайтесь" она не работает. В итоге, есть ситуация, когда идеологии нет, а запрос на идеологию есть. И как уверяют. даже определенный гос.заказ. Современные идеологи разного толка с этой задачей не справляются. В итоге, на фоне глобальных идеологических проектов, которые есть у США, Китая или ЕС, у России своего идеологического образа будущего нет. Как для внутреннего потребления, так и для предложения этого образа будущео на внешнем рынке. Одни идеологические эрзацы и костели, за не имением чего-то большего. Поэтому не стоит удивляться, когда за не имением своего идеологического проекта, представители технологических компаний и гос.чиновники, рассматривают возможность прислониться к чужому проекту. Так что вопрос "А что у нас с идеологией" и далее будет возникать, без конкретного механизма решения.
Из ценных предложений на конференции, которые с моей точки зрения заслуживают рассмотрения:
1. Снижение зависимости отечественной науки от "Индекса Хирша" и публикаций в западных журналах. Движение в сторону большей суверенизации науки и использования возможностей фрагментации распадающегося миройстрова. 2. Более оперативное обновление устаревающих регламентов влияющих на скорость и качество принятия управленченских решений. 3. Маркировка продукции произведенной с помощью технологией ИИ шильдиком "Произведено с помощью ИИ" 4. Усиление гос.регулирования и контроля "цифрового класса" и "цифровых компаний" с сокращениям уровня автономии "Биг.Теха", особенно в плане возможностей влиять на систему принятия решений. 5. Выработка неких общих правил этики создания и использования технологий ИИ с ясным пониманием. для чего они создаются и где находятся красные линии, за которые переходить не стоит (во всяком случае официально).
В целом, несмотря на пеструю палитру мнений, приличное количество "воды" и заявлений в стиле "Капитан Очевидность спешит на помощь", общее впечатление осталось положительным. В первую очередь за счет мнений узко-профильных специалистов, которые действительно на фактическом материале давали возможность оценить всю сложность проблематики развития технологий ИИ. Будь то вопрос "этики поисковика", когда на поисковые запросы на профильные темы может влиять человек не имеющий для этого достаточной компетенции. Или же вопрос внедрения технологий ИИ в стиле "Особого мнения" для поиска серийных убийц с постулатом, что в любом случае, последнее слово должно оставаться за человеком.
На мой взгляд, уже в 20х годах мы будем наблюдать серьезную актуализацию этой темы на праткическом уровне, а также более активное проникновение некоторых элеметов технологий ИИ в бытовую/коммерческую сферу. Само собой, обострение Холодной войны между США, РФ и Китаем, будет подгонять разработки в этом направлении в военной сфере. Война всегда дает большое ускорение военным и около-военным разработкам. Можно ожидать, что у нас в стране, будет повышаться роль армии и ВПК в этих вопросах, а тенденции к усилению гос.регулирования будут нарастать, особенно в вопросах разработки технологий двойного назначения.
Разумеется, важным моментом будет являться выбор - быть на вторых ролях в чужих проектах будущего или строит свое. Если быть строительным материалом для чужих проектов, то тогда особо и напрягаться не стоит, все равно отставание программируется на уровне идеи. Если же выбор делается в пользую субъектного развития, в том числе и технологий ИИ, то тогда стране предстоит предпринимать куда как более серьезные усилия для того, чтобы быть и оставаться в числе лидеров. Можно было бы сказать, что выбор уже сделан, но когда слышишь заявления про "приоритет публикаций в Скопус", вопросы тем не менее остаются. Источник: colonelcassad.livejournal.com.
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Чтобы писать комментарии Вам необходимо зарегистрироваться либо войти на сайт под своим именем.
» Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации. Зарегистрируйтесь на портале чтобы оставлять комментарии
Материалы предназначены только для ознакомления и обсуждения. Все права на публикации принадлежат их авторам и первоисточникам. Администрация сайта может не разделять мнения авторов и не несет ответственность за авторские материалы и перепечатку с других сайтов. Ресурс может содержать материалы 16+