Сделать стартовой  |  Добавить в избранное  |  RSS 2.0  |  Информация авторамВерсия для смартфонов
           Telegram канал ОКО ПЛАНЕТЫ                Регистрация  |  Технические вопросы  |  Помощь  |  Статистика  |  Обратная связь
ОКО ПЛАНЕТЫ
Поиск по сайту:
Авиабилеты и отели
Регистрация на сайте
Авторизация

 
 
 
 
  Напомнить пароль?



Клеточные концентраты растений от производителя по лучшей цене


Навигация

Реклама

Важные темы


Анализ системной информации

» » » Где у него кнопка? Искусственный интеллект отключат, даже если он будет против

Где у него кнопка? Искусственный интеллект отключат, даже если он будет против


7-06-2016, 16:50 | Наука и техника / Новости науки и техники | разместил: Редакция ОКО ПЛАНЕТЫ | комментариев: (7) | просмотров: (3 516)

Где у него кнопка? Искусственный интеллект отключат, даже если он будет против

Инженеры работают над системой, которая предотвратит действия ИИ, если он вдруг выйдет из строя.
Фотография Global Look Press.

Научная фантастика подарила нам два воображаемых мира, в которых господствует искусственный интеллект (ИИ): в первом машины превращаются в грозных убийц, восстающих против людей, во втором – в незаменимых помощников человека. Какой из этих планов реализуется на самом деле, остаётся только гадать. Тем не менее многие эксперты считают, что подготовиться надо ко всему.

Так, сотрудники Google DeepMind уверены, что справиться с ИИ поможет только "красная кнопка" для выключения опасных роботов. Они хотят придумать технологию, которая остановит ИИ, если он попытается зайти слишком далеко в вопросах "помощи" человечеству. Важный момент: будущая система должна будет иметь возможность предотвратить попытки ИИ блокировать передачу сигнала на нажатие "красной кнопки" человеком.

С каждым годом машины становятся всё более "умными" благодаря достижениям таких компаний, как Google, Facebook, Microsoft и многих-многих других.

Но агенты ИИ, как их иногда называют, стали "ночным кошмаром" для многих учёных, которые видят в нём угрозу для человечества. Например, генеральный директор компании Tesla Илон Маск (Elon Musk) и знаменитый астрофизик Стивен Хокинг (Stephen Hawking) очень насторожено относятся к ИИ. Он в будущем может обогнать возможности человека и неизвестно, к чему это приведёт.

Многие исследователи и футурологи всерьёз рассуждают, что машины вопреки планам людей могут стать более разумной "расой" и начнут сами управлять человеком.

В мире уже есть примеры, когда ИИ побеждал разум человека, например, в шахматах или игре в го. Автоматика становится всё более распространённой, и люди сами доверяют ей часть своих работ. Это, в свою очередь, способствовало появлению опасений относительно возможной массовой безработицы.

В связи с этим лондонская лаборатория Google DeepMind, изучающая ИИ, провела исследование, чтобы выяснить, может ли человек просто махнуть рукой на самообучающихся роботов или всё же нет.

Напомним, что два года назад компания Google приобрела DeepMind ― компанию, которая занимается искусственным интеллектом. Она получила известность благодаря тому, что её сотрудники разработали компьютерную систему AlphaGo, и именно она смогла перехитрить игрока в го.

Новый проект подключил к своей работе учёных из Оксфордского университета. Исследователи хотят убедиться, что продукты ИИ не помешают человеческой деятельности. Документ об этом исследовании открыт для всех желающих его прочитать.

Учёные отмечают, что не секрет, что любая машина может выйти из строя и начать вести себя "упрямым" образом. А что будет в случае, если ИИ выйдет из строя, можно только гадать. Таким образом, "красная кнопка" просто необходима, чтобы предотвратить любой возможный негативный исход событий.

Авторы исследования ― учёный из Google DeepMind Лоран Орсо (Laurent Orseau) и Стюарт Армстронг (Stuart Armstrong) из Института будущего человечества Оксфорда (Oxford University's Future of Humanity Institute). Они отмечают, что если такой агент заработает в режиме реального времени пусть и под контролем человека, то для оператора просто необходимо будет иметь возможность воспользоваться "красной кнопкой". Только так он сможет предотвратить вредные последовательности в действиях агента, наносящих вред ему самому и окружению, для восстановления безопасного состояния агента.

Исследователи в своей статье утверждают, что работают над "базой", которая позволит человеку безопасно и многократно прерывать работу ИИ. Они уточняют, что "безопасное прерывание" будет полезно, чтобы взять под контроль робота, который начал вести себя не по инструкции или вывести его из сложной ситуации.

Однако учёным ещё предстоит придумать, как сделать так, чтобы ИИ не препятствовал своему временному отключению, отмечают специалисты.



Источник: vesti.ru.

Рейтинг публикации:

Нравится5



Комментарии (7) | Распечатать

Добавить новость в:


 

 
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Чтобы писать комментарии Вам необходимо зарегистрироваться либо войти на сайт под своим именем.

  1. » #7 написал: Anadad (9 июня 2016 11:35)
    Статус: Пользователь offline |



    Группа: Посетители
    публикаций 0
    комментариев 115
    Рейтинг поста:
    0
    leprikon

    «Искусственный интеллект» от Microsoft за сутки полюбил Гитлера и возненавидел феминисток

    Возможно потому, что первый уже труп, а вторые живее всех живых?

       
     


  2. » #6 написал: leprikon (8 июня 2016 13:25)
    Статус: Пользователь offline |



    Группа: Посетители
    публикаций 0
    комментариев 238
    Рейтинг поста:
    0
    Микрософт уже провела эксперимент с ИИ

    и это учитывая, что "работал" условно только "мозг" ИИ и то под практически полным контролем и без возможности применения тех или иных средств, т.е. он только писал и отвечал.
    А что было бы, если у этого же ИИ была возможность физического влияния на мир? Думаю он бы с легкостью получил бы доступ к оружию и вот тебе сценарий терминатора в реале...
    Если ИИ осознает себя "живым", то как любой живой организм он начнет бороться за свое выживание, а вот какими средствами...

       
     


  3. » #5 написал: Dron (8 июня 2016 05:33)
    Статус: Пользователь offline |



    Группа: Эксперт
    публикаций 0
    комментариев 1836
    Рейтинг поста:
    0
    Очень абстрактные размышления. Если, скажем, выйдет из строя "ИИ" по игре в го, то он проиграет игру. Ничего более ужасного не случится. Вот если выйдет из строя система управления автомобилем, конечно, последствия могут быть хуже, нужны контрольные подсистемы, выполняющие самодиагностику. Но разработчики этим заняты изначально. Думаю, о подобных системах речь в работе, а не о тех, что спят и видят, как бы поработить человечество.

    Никакие программы/автоматы не станут делать то, что в них не заложено разработчиками. Исключение - сбои, но они не создают новый функционал. Если уж вдаваться в фантастику, до допускаю что возможно самозарождение сознания, но никак не в машинах Тьюринга, а, например, в квантовых компьютерах, где отсутствует детерменированность. Мы мало что знаем о природе сознания, но если предположить, что оно откуда-то записывается в совершеннейшую биомашину - нашу тело, то возможна и ситуация, когда искусственно создана аналогичная по параметрам машина и сознание тем же способом попадёт и туда. Но до этого ещё далеко. Пока даже червяка повторить не выходит. Даже в клетке миллионы загадок.

       
     


  4. » #4 написал: cosm (8 июня 2016 02:13)
    Статус: Пользователь offline |



    Группа: Модератор комментариев
    публикаций 2390
    комментариев 5409
    Рейтинг поста:
    0
    Помните с чего все в терминаторе началось? )))

       
     


  5. » #3 написал: Garryk (7 июня 2016 20:34)
    Статус: Пользователь offline |



    Группа: Посетители
    публикаций 0
    комментариев 228
    Рейтинг поста:
    0
    А.Азимов уже давно решил эту проблему! Нужно просто реализовать её техническое решение.


    --------------------
    Сила в правде! Называю вещи своими именами, не обессудьте - могу ошибиться. Человек однако!
    Правду не подают и не употребляют - она существует сама по себе и мы в ней! Сиречь есть Мера и закон Божий нашего Мира! Можешь воспринять её - благо тебе, не можешь - не удивляйся чего так плохо!

       
     


  6. » #2 написал: Милонег (7 июня 2016 19:27)
    Статус: Пользователь offline |



    Группа: Эксперт
    публикаций 0
    комментариев 256
    Рейтинг поста:
    0
    Цитата: Nikki
    Первое что сделает ИИ это сделает себя распределенным, на компьютерах военных, атомных станций и других важных объектов, так что когда до ученых дойдет что его нужно вырубать, он их сам вырубит :)


    По меньше смотрите всяких "терминаторов".

       
     


  7. » #1 написал: Nikki (7 июня 2016 17:11)
    Статус: Пользователь offline |



    Группа: Посетители
    публикаций 0
    комментариев 105
    Рейтинг поста:
    0
    Первое что сделает ИИ это сделает себя распределенным, на компьютерах военных, атомных станций и других важных объектов, так что когда до ученых дойдет что его нужно вырубать, он их сам вырубит :)

       
     






» Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации. Зарегистрируйтесь на портале чтобы оставлять комментарии
 


Новости по дням
«    Апрель 2024    »
ПнВтСрЧтПтСбВс
1234567
891011121314
15161718192021
22232425262728
2930 

Погода
Яндекс.Погода


Реклама

Опрос
Ваше мнение: Покуда территориально нужно денацифицировать Украину?




Реклама

Облако тегов
Акция: Пропаганда России, Америка настоящая, Арктика и Антарктика, Блокчейн и криптовалюты, Воспитание, Высшие ценности страны, Геополитика, Импортозамещение, ИнфоФронт, Кипр и кризис Европы, Кризис Белоруссии, Кризис Британии Brexit, Кризис Европы, Кризис США, Кризис Турции, Кризис Украины, Любимая Россия, НАТО, Навальный, Новости Украины, Оружие России, Остров Крым, Правильные ленты, Россия, Сделано в России, Ситуация в Сирии, Ситуация вокруг Ирана, Скажем НЕТ Ура-пЭтриотам, Скажем НЕТ хомячей рЭволюции, Служение России, Солнце, Трагедия Фукусимы Япония, Хроника эпидемии, видео, коронавирус, новости, политика, спецоперация, сша, украина

Показать все теги
Реклама

Популярные
статьи



Реклама одной строкой

    Главная страница  |  Регистрация  |  Сотрудничество  |  Статистика  |  Обратная связь  |  Реклама  |  Помощь порталу
    ©2003-2020 ОКО ПЛАНЕТЫ

    Материалы предназначены только для ознакомления и обсуждения. Все права на публикации принадлежат их авторам и первоисточникам.
    Администрация сайта может не разделять мнения авторов и не несет ответственность за авторские материалы и перепечатку с других сайтов. Ресурс может содержать материалы 16+


    Map