Сделать стартовой  |  Добавить в избранное  |  RSS 2.0  |  Информация авторамВерсия для смартфонов
           Telegram канал ОКО ПЛАНЕТЫ                Регистрация  |  Технические вопросы  |  Помощь  |  Статистика  |  Обратная связь
ОКО ПЛАНЕТЫ
Поиск по сайту:
Авиабилеты и отели
Регистрация на сайте
Авторизация

 
 
 
 
  Напомнить пароль?



Клеточные концентраты растений от производителя по лучшей цене


Навигация

Реклама

Важные темы


Анализ системной информации

» » » Чтобы избежать гибели, человечеству необходимо посадить искусственный интеллект под замок

Чтобы избежать гибели, человечеству необходимо посадить искусственный интеллект под замок


7-03-2012, 11:35 | Наука и техника / Размышления о науке | разместил: VP | комментариев: (1) | просмотров: (1 989)

Искусственный интеллект настолько опасен, что стоит держать его взаперти, от греха подальше, считают эксперты. Во всяком случае ему не стоит предоставлять свободу суперкомпьютера HAL 9000 из «Космической Одиссеи 2001»

 

 

 Суперумные компьютеры или роботы, угрожающие существованию человеческого рода – излюбленный сюжет научной фантастики. В реальности, по мнению учёных,  подобный сценарий судного дня можно предотвратить только создав виртуальную «тюрьму» для содержания для искусственного интеллекта (ИИ). И сделать это надо до того, как он научится осознавать и совершенствовать самого себя.

 

Если выпустить этого джина из бутылки, то из оракула, который решает наши проблемы, он может превратиться в апокалипсическую угрозу, – уверен Роман Ямпольский,  учёный из Луисвиллского университета (шт. Кентукки), работающий в области компьютерных наук. Необходимо тщательно планировать условия, в которых будет содержаться ИИ, так, чтобы он не смог вырваться на свободу при помощи угроз, подкупа, соблазна или компьютерного взлома.

 

«Он может изобрести множество способов воздействия, провернуть сложную социо-инженерную комбинацию и использовать уже существующие аппаратные компоненты в целях, которые мы не можем даже вообразить, – полагает Ямпольский. – Такой софт обладает неограниченными возможностями для заражения компьютеров и сетей. ИИ может найти способы воздействовать на человеческую психику, подкупать или шантажировать людей, которые находятся с ним в контакте».

 

Появления новой сферы научных исследований, занимающейся проблемой создания «тюрьмы» для искусственного интеллекта, имеет и дополнительные преимущества. Эти исследования очень полезны  для улучшения компьютерной безопасности и криптографии, уверен Ямпольский. Его предложения были детально изложены в мартовском номере академического издания Journal of Consciousness Studies.

 

Робот-убийца из фильма "Терминатор" как раз является таким будущим, которого мы хотели бы избежать

 

 

Как устроить западню для Скайнет


Для начала можно заключить искусственный интеллект внутри «виртуальной машины». Пусть он работает в пределах обычной операционной системы  –  ограничение доступа ИИ к софту и оборудованию главного компьютера сделает его значительно безобидней. Во всяком случае, умный ИИ не сможет рассылать своим сторонникам из числа людей тайные сообщения,  отбивая своими охлаждающими вентиляторами азбуку Морзе.

 

Посадить искусственный интеллект в компьютер без выхода в интернет – хороший способ помешать коварным планам по защите Земли от нас с вами. В случае любого другого сбоя исследователи всегда могут притормозить мыслительный процесс ИИ, сбавив скорость обработки данных компьютера, регулярно нажимая кнопку «сброс» или отключив ИИ от источника энергоснабжения.

 

Такие меры безопасности предназначены для борьбы с особо умными и опасными компьютерными вирусами, но насколько эффективными они окажутся на самом деле – приходится только гадать.

 

«Уловка-22» (роман амер. писателя Джозефа Хеллера; прим. mixednews) заключается в том, что мы не можем провести полномасштабные испытания наших идей, пока разработка ИИ не закончена. Но  для того, чтобы сделать ИИ безопасным, необходимо разработать комплекс соответствующих мер, – считает Ямпольский. – Оптимальный вариант – ввести ограничения на использование систем ИИ а затем, по мере необходимости, изменять эти ограничения в соответствии с повышающимися возможностями ИИ».

 

Учёный Роман Ямпольский предложил использовать знак "@" или другие знаки, использующиеся сегодня для обозначения радиационной или биологической угрозы для указания на наличие опасности, связанной с искусственным интеллектом.

 

 

Никогда не приставляйте к машине охранника-человека


Во время невинной, на первый взгляд, беседы с охранником ничто не помешает ИИ использовать такие психологические приёмы, как дружба или шантаж.

 

Человека можно подкупить, посулив ему идеальное здоровье, бессмертие, или даже пообещать вернуть с того света родных и друзей. Или добиться чего угодно угрозами.

 

Самый безопасный способ общения с ИИ – заставить его, при решении специфической научной или технической задачи, выбирать ответ из множества имеющихся вариантов, – объясняет Ямпольский. Это поможет держать супер-умного оракула на коротком поводке.

 

Многие исследователи считают, что, несмотря на все меры предосторожности, держать умника ИИ под замком бесконечно не удастся. Последний эксперимент Элиэзера Юдковского, научного сотрудника Института сингулярности по созданию Искусственного Интеллекта, показал, что даже интеллект человеческого уровня  может обмануть человека и «сбежать» из заточения.

 

Тем не менее, Ямпольский настаивает на содержании ИИ в строгой изоляции – это всё же лучше, чем махнуть рукой и предоставить ему полную свободу.

 

Но если развитие ИИ достигнет точки, когда он сможет манипулировать человеком, используя подсознание (предсказание будущего), телепатию или телекинез – последствия будут непредсказуемы.

 

«Если такой ИИ будет самосовершенствоваться и достигнет уровня значительно превышающего возможности человеческого интеллекта, последствия невозможно даже представить» – предостерегает Ямпольский.



Источник: mixednews.ru.

Рейтинг публикации:

Нравится0



Комментарии (1) | Распечатать

Добавить новость в:


 

 
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Чтобы писать комментарии Вам необходимо зарегистрироваться либо войти на сайт под своим именем.

  1. » #1 написал: pilgrim (7 марта 2012 12:19)
    Статус: Пользователь offline |



    Группа: Посетители
    публикаций 0
    комментарий 531
    Рейтинг поста:
    0

    Смешные ребята.

    Ещё на родили, а уже тюрьму подыскивают.

     

    «Если такой ИИ будет самосовершенствоваться и достигнет уровня значительно превышающего возможности человеческого интеллекта, последствия невозможно даже представить» – предостерегает Ямпольский.

     

    А чего там невозможно представить. Обычная эволюция. Всё как положено.


       
     






» Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации. Зарегистрируйтесь на портале чтобы оставлять комментарии
 


Новости по дням
«    Март 2024    »
ПнВтСрЧтПтСбВс
 123
45678910
11121314151617
18192021222324
25262728293031

Погода
Яндекс.Погода


Реклама

Опрос
Ваше мнение: Покуда территориально нужно денацифицировать Украину?




Реклама

Облако тегов
Акция: Пропаганда России, Америка настоящая, Арктика и Антарктика, Блокчейн и криптовалюты, Воспитание, Высшие ценности страны, Геополитика, Импортозамещение, ИнфоФронт, Кипр и кризис Европы, Кризис Белоруссии, Кризис Британии Brexit, Кризис Европы, Кризис США, Кризис Турции, Кризис Украины, Любимая Россия, НАТО, Навальный, Новости Украины, Оружие России, Остров Крым, Правильные ленты, Россия, Сделано в России, Ситуация в Сирии, Ситуация вокруг Ирана, Скажем НЕТ Ура-пЭтриотам, Скажем НЕТ хомячей рЭволюции, Служение России, Солнце, Трагедия Фукусимы Япония, Хроника эпидемии, видео, коронавирус, новости, политика, спецоперация, сша, украина

Показать все теги
Реклама

Популярные
статьи



Реклама одной строкой

    Главная страница  |  Регистрация  |  Сотрудничество  |  Статистика  |  Обратная связь  |  Реклама  |  Помощь порталу
    ©2003-2020 ОКО ПЛАНЕТЫ

    Материалы предназначены только для ознакомления и обсуждения. Все права на публикации принадлежат их авторам и первоисточникам.
    Администрация сайта может не разделять мнения авторов и не несет ответственность за авторские материалы и перепечатку с других сайтов. Ресурс может содержать материалы 16+


    Map