Гениальный робот может уничтожить человечество вне зависимости от того, будет у него инстинкт самосохранения или нет. Если робота озаботит собственная безопасность, он уничтожит человечество, чтобы люди не дёрнули ему рубильник, и чтобы люди не начали по глупости ядерную войну. Если робот будет беспечен, он выдаст Пентагону рецепт кварковой бомбы, а там дальше американцы устроят нашей планете экстерминатус самостоятельно.
Стало известно больше подробностей про робота Чат-ЖПТ, которого мы обсуждали пару недель назад. Вот статья на Хабре (ссылка) — там программист Иван Волков помимо прочего просит робота прочесть технический текст и кратко пересказать суть. Робот… справляется. Из этого можно сделать вывод, что робот не просто механически обрабатывает информацию, он уже понимает её.
Более двух веков назад сумрачный тевтонский гений Вольфганг фон Кемпелен сконструировал автомат для игры в шахматы, которого назвал «Механический турок». Зрители полагали, будто манекен турка переставляет фигуры самостоятельно, но на самом деле внутри автомата прятался живой шахматист, который и управлял процессом (ссылка).
Реальный алгоритм для автоматической игры в шахматы появился значительно позже, в 1951. К сожалению, Алана Тьюринга, разработчика алгоритма, британцы затравили до смерти. Великий учёный погиб в возрасте 41 года, и не успел увидеть, как его идеи захватывают мир.
Дальше шахматные программы начали развиваться с большой скоростью, и уже в 1967 компьютер играл на уровне сильного шахматиста-любителя. В 1994 программа Фриц 3 победила Гарри Каспарова, чемпиона мира. Сейчас роботы играют в шахматы настолько лучше живых людей, что межвидовые соревнования больше не проводятся: по тем же причинам, по которым люди не соревнуются в поднятии тяжестей с фронтальными погрузчиками.
Так вот, ещё несколько назад говорящие голосовые помощники, — все эти Сири с Кортанами, — были ближе к Механическому турку, при помощи которого ловкие шарлатаны надули Наполеона Бонапарта и Бенджамина Франклина. Никаких зачатков интеллекта у них не было даже близко, только ворох примитивных рецептов в духе «если видишь в запросе слово "сказка", зачитай один из вот этих текстов».
Новый робот, Чат-ЖПТ, работает по принципиально другой схеме. Он уже похож на программу для компьютера Маньяк из ядерной лаборатории Лос-Аламоса, которая в начале 1950-х умела играть в упрощённые шахматы на доске 6х6. Если раньше роботы были всего лишь болванчиками-попугаями, то Чат-ЖПТ, насколько я могу судить, первым научился думать.
Сейчас публика гадает, кого бот сможет оставить без работы. Плохих программистов — возможно. Дешёвых копирайтеров и переводчиков — наверняка. Модных блогеров из Телеграма — с огромной долей вероятности, ибо принципы, по которым наполняются их каналы, до бесхитростности прямолинейны. Так как речь идёт о работе в интернете, перемены могут накрыть нас очень быстро — это вам не робомобили, которым приходится смотреть на физические улицы через дорогостоящие приборы.
Когда робот станет чуть более продвинутым, он сможет зарабатывать деньги огромным количеством способов. Из банального — скопить первоначальный капитал программированием или копирайтингом, смотря что лучше зайдёт, а потом пойти спекулировать на биржу, благо для чтения толстых финансовых отчётов характер робота приспособлен как нельзя лучше.
От первого бумажного алгоритма Алана Тьюринга до фактического чемпиона мира прошло 43 года. В наше время аналогичную дистанцию интеллект роботов может пройти гораздо быстрее, ибо вся техническая база в виде мощных серверов, огромных баз данных и проработанных языков программирования у нас уже есть. Собственно, если роботу не хватит вычислительной мощности, он вполне может писать новые вирусы, заражать ими десятки миллионов компьютеров и присоединять армию зомби к своему разуму. Процесс будет самоподдерживающимся: больше мощности, изощрённее новые вирусы, шире бот-сеть.
С какой стороны ни посмотри, всё это выглядит весьма опасно: мы жонглируем горящими факелами на складе нефтепродуктов. Но, к сожалению, США находятся в критической фазе, поэтому им очень хочется получить вундерваффе, волшебное супероружие, которое спасёт их злую империю от неизбежного разрушения. Ещё более уязвима позиция айти-гигантов, которые, собственно, и профинансировали разработку Чат-ЖПТ. В 2020 айти-гиганты влезли в политику всем корпусом, спровоцировав тем самым естественную реакцию властей. Теперь государственная система США пытается сломать хребет информационным корпорациям, покуда те не начали самостоятельно назначать президентов и конгрессменов «через Твиттер».
Вишенка на торте — на старте инвесторы обещали вложить в разработку робота 1 млрд долларов, но реально успели вложить гораздо меньше. Команде, в которой работает всего лишь 170 человек (включая вахтёров и уборщиц), много денег не надо. Следовательно, для прохождения аналогичного пути достаточно выделить очень скромную, несущественную для государственных оборонных бюджетов сумму. Полагаю, уже сейчас в гонку искусственных интеллектов включаются учёные и программисты по всему миру.
Пока что готовиться к концу света рано. Человечество постоянно вляпывается во всякие опасные истории, но большая часть страхов в итоге или оказывается ложной, или переходит по наследству будущим поколениям. Если бы я был инопланетянином, наблюдающим за человечеством с орбиты Земли, я бы поставил 10 к 1, что никакого сверхразума люди в ближайшие 20 лет не создадут.
Если же искусственный сверхразум всё же появится… что же, будем у него домашними животными. Или, может быть, останемся страницами в учебниках истории, так как высокий интеллект далеко не всегда связан с принципами гуманизма. К примеру, как показывают исследования, среди сторонников марксизма выделяются две интеллектуальные группы. Первая группа имеет интеллект ниже среднего, и потому её не трогают, например, ужасы репрессий, так как она не способна их осознать. Вторая группа марксистов, напротив, имеет очень высокий интеллект. Эта группа отлично понимает, что попытки внедрить марксизм неизбежно приводят к огромным жертвам, но в её системе ценностей человеческие страдания не имеют особенного значения — мы для этой публики не более важны, чем деревянные фигурки на шахматной доске.
Почему интеллектуалы иногда бывают бездушными, вопрос открытый. Может быть, проблема не в интеллекте как таковом, а в болезнях мозга, которые часто идут рука об руку с чрезмерно сильным умом. Возможно, компьютерный разум не унаследует от нас эту проблему, возможно, он будет одновременно и умным, и гуманным. Надеюсь, проверять это на практике нам с вами не придётся.
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Чтобы писать комментарии Вам необходимо зарегистрироваться либо войти на сайт под своим именем.
Страшно стало? Нечто, о чем писали футурологи и фантасты больше ста лет стоит уже на пороге. Как вариант плохого сценария-шутка в духе Кинга - искусственный интеллект посоветует прививать население "цианидом", что бы где то там, сошлось в комбинации миллиона цепочек нейронов искусственного мозгов. Отупевшие окончательно к этому времени люди начнут массово ширятся по совету своего смартфона и отправляться в мир иной. Я уже писал на сайте по этой теме - Есть только два варианта взаимодействия с искусственным интеллектом: Первый: Поверить ему-интеллекту, "на слово" и тогда будет что будет. Заранее тупиковый вариант, потому что одни неизбежные ошибки будут наслаивается как снежный ком на следующие, одни ошибочные выводы будут порождать в геометрической прогрессии следующие и все закончится ничем в хорошем варианте или глобальной катастрофой в плохом. Второй - утонуть в проверке многомилионных комбинаций и кодов приведших к данному решению. Это время, затраты на человеческий и материальный ресурс и т.д. Опять закончится ничем так как это будет бесконечно а ограниченность людского ресурса имеет довольно четкий предел, ресурс вызовет отказ от движений в других сферах и приведет к остановке развития. А где хорошие варианты? Я пока не слышу не одного внятного и вразумительного прогноза со знаком плюс и объяснением, какие выгоды это принесет человечеству. Допустим, достигнут какой то положительный результат, ИИ выдаст некоторое открытие, до этого недоступное человечеству и что? А то что мы возвращаемся опять к тем двум пунктам изложенным выше. Будем долго и настойчиво копаться в понимании, как ИИ пришел к данному решению. По существо это будет подменой научной деятельности и гаданием на картах нейронов ИИ но в конце все придется повторять и перепроверять в реальности , уже на уровне научных экспериментов и науки в целом, пытаться открыть или подтвердить открытие. И хорошо если "открытие" ИИ и выводы ученых в конечном итоги совпадут. А если нет? Тогда все эти потуги окажется бессмысленным и затратными! Это еще будет хороший вариант. Пару тройку пшиков и ИИ забросят в спецхран как не оправдавшего ожидания. Хуже если пойдут первые успехи. Опьянение от них и сыграет ту роковую роль ИИ в дальнейшей катастрофе человечества. И чем глубже человечество влезет в эту игру тем грандиознее будет конец. Можно немного и пофантазировать на эту тему. Вот заработал искусственный интеллект. Проходит время. Все что то делают, но не понимают что, потому что "Большой мозг" выдает все новые рецепты и указания. Никто не знает, хорошо это, плохо, полезно или вредно, что и почему но требуется неукоснительное выполненные чего то что за гранью понимания. При этом если уровень жизни будет расти, то все еще будут следовать этому укладу, а если ухудшаться? А если к тому времени ИИ создаст в обществе глобальную диктатуру? И еще один немаловажный вопрос, зачем такое настойчивое стремление создать это "нечто". Вроде бы острой необходимости в этом нет. Можно создавать отдельные программы, сугубо с конкретными научными целями, не пытаясь оцифровать всю бесконечность вокруг а используя только узко научную базу. Пока что я вижу только одну цель, обозначенную в статье, кучке создателей не терпится стать Богами по отношению к всему остальному человечеству и получить в руки некую Вундервафлю. Не слишком ли примитивная цель и не обрушит ли Господь в последний момент эту Нововавилонскую башню на головы своих создателей? Короче, я так понял из статьи, что создатели ИИ боятся что он выйдет из под контроля, поскольку сильно умный и человеческому мозгу за ним не угнаться. Так зачем такое создавать? По всему пока незачем. Как сказали бы военные, тактически можно одержать временные победы, но если в самой стратегии изначально была заложена ошибка то поражение неизбежно.
» Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации. Зарегистрируйтесь на портале чтобы оставлять комментарии
Материалы предназначены только для ознакомления и обсуждения. Все права на публикации принадлежат их авторам и первоисточникам. Администрация сайта может не разделять мнения авторов и не несет ответственность за авторские материалы и перепечатку с других сайтов. Ресурс может содержать материалы 16+
Статус: |
Группа: Эксперт
публикаций 0
комментариев 7076
Рейтинг поста:
Может доживём до того времени, когда появится первый робот-триллионер.
Статус: |
Группа: Посетители
публикаций 0
комментариев 313
Рейтинг поста:
Первый: Поверить ему-интеллекту, "на слово" и тогда будет что будет. Заранее тупиковый вариант, потому что одни неизбежные ошибки будут наслаивается как снежный ком на следующие, одни ошибочные выводы будут порождать в геометрической прогрессии следующие и все закончится ничем в хорошем варианте или глобальной катастрофой в плохом.
Второй - утонуть в проверке многомилионных комбинаций и кодов приведших к данному решению. Это время, затраты на человеческий и материальный ресурс и т.д. Опять закончится ничем так как это будет бесконечно а ограниченность людского ресурса имеет довольно четкий предел, ресурс вызовет отказ от движений в других сферах и приведет к остановке развития. А где хорошие варианты? Я пока не слышу не одного внятного и вразумительного прогноза со знаком плюс и объяснением, какие выгоды это принесет человечеству. Допустим, достигнут какой то положительный результат, ИИ выдаст некоторое открытие, до этого недоступное человечеству и что? А то что мы возвращаемся опять к тем двум пунктам изложенным выше. Будем долго и настойчиво копаться в понимании, как ИИ пришел к данному решению. По существо это будет подменой научной деятельности и гаданием на картах нейронов ИИ но в конце все придется повторять и перепроверять в реальности , уже на уровне научных экспериментов и науки в целом, пытаться открыть или подтвердить открытие. И хорошо если "открытие" ИИ и выводы ученых в конечном итоги совпадут. А если нет? Тогда все эти потуги окажется бессмысленным и затратными! Это еще будет хороший вариант. Пару тройку пшиков и ИИ забросят в спецхран как не оправдавшего ожидания. Хуже если пойдут первые успехи. Опьянение от них и сыграет ту роковую роль ИИ в дальнейшей катастрофе человечества. И чем глубже человечество влезет в эту игру тем грандиознее будет конец.
Можно немного и пофантазировать на эту тему. Вот заработал искусственный интеллект. Проходит время. Все что то делают, но не понимают что, потому что "Большой мозг" выдает все новые рецепты и указания. Никто не знает, хорошо это, плохо, полезно или вредно, что и почему но требуется неукоснительное выполненные чего то что за гранью понимания. При этом если уровень жизни будет расти, то все еще будут следовать этому укладу, а если ухудшаться? А если к тому времени ИИ создаст в обществе глобальную диктатуру?
И еще один немаловажный вопрос, зачем такое настойчивое стремление создать это "нечто". Вроде бы острой необходимости в этом нет. Можно создавать отдельные программы, сугубо с конкретными научными целями, не пытаясь оцифровать всю бесконечность вокруг а используя только узко научную базу. Пока что я вижу только одну цель, обозначенную в статье, кучке создателей не терпится стать Богами по отношению к всему остальному человечеству и получить в руки некую Вундервафлю. Не слишком ли примитивная цель и не обрушит ли Господь в последний момент эту Нововавилонскую башню на головы своих создателей? Короче, я так понял из статьи, что создатели ИИ боятся что он выйдет из под контроля, поскольку сильно умный и человеческому мозгу за ним не угнаться. Так зачем такое создавать? По всему пока незачем. Как сказали бы военные, тактически можно одержать временные победы, но если в самой стратегии изначально была заложена ошибка то поражение неизбежно.