Сделать стартовой  |  Добавить в избранное  |  RSS 2.0  |  Информация авторамВерсия для смартфонов
           Telegram канал ОКО ПЛАНЕТЫ                Регистрация  |  Технические вопросы  |  Помощь  |  Статистика  |  Обратная связь
ОКО ПЛАНЕТЫ
Поиск по сайту:
Авиабилеты и отели
Регистрация на сайте
Авторизация

 
 
 
 
  Напомнить пароль?



Клеточные концентраты растений от производителя по лучшей цене


Навигация

Реклама

Важные темы


Анализ системной информации

» » » Искусственный интеллект рождает страхи. Почему Илон Маск, Билл Гейтс и Стивен Хокинг боятся ИИ

Искусственный интеллект рождает страхи. Почему Илон Маск, Билл Гейтс и Стивен Хокинг боятся ИИ


5-07-2015, 11:30 | Наука и техника / Размышления о науке | разместил: Редакция ОКО ПЛАНЕТЫ | комментариев: (0) | просмотров: (3 093)

Искусственный интеллект рождает страхи. Почему Илон Маск, Билл Гейтс и Стивен Хокинг боятся ИИ

Стремительное развитие искусственного интеллекта рождает опасения за будущее человечества у ряда величайших ученых и IT-предпринимателей современности. «Газета.Ru» разобралась, почему Илон Маск, Билл Гейтс и Стивен Хокинг верят в повторение сюжета «Терминатора» в реальной жизни.

Илон Маск на днях пожертвовал $7 млн на исследования Future of Life Institute по безопасности искусственного интеллекта (ИИ). В 2014 году основатель Tesla, PayPal и SpaceX уже направил на эти цели $10 млн и успел получить более 300 исследовательских проектов по контролю за «умными» компьютерными системами, из которых самолично отобрал 37 наиболее перспективных идей.

Эксцентричный миллиардер никогда не скрывал своих опасений по поводу стремительного развития искусственного интеллекта. Так, в прошлогоднем интервью CNBC он открыто заявил, что данная технология «может быть опаснее, чем ядерное оружие», а люди сегодня недооценивают потенциал развития искусственного разума.

При этом Маск подчеркнул, что не стремится вернуть ранее пожертвованные Future of Life Institute средства.

«Это не инвестиции в перспективный проект, и я не рассчитываю получить с этого прибыль. Я просто хочу контролировать ситуацию с развитием искусственного интеллекта», — отметил миллиардер.

В рамках мероприятия Vanity Fair New Establishment Summit в 2014 году Маск снова поднял тему опасности искусственного интеллекта для человечества. «Если машины запрограммированы на рекурсивное самоулучшение, их функции могут оказать на нас пагубное влияние. Скажем, если задачей машины является избавление от почтового спама, она может решить, что гораздо легче избавиться от людей», — привел пример основатель Tesla.

Тем не менее Маск признает и полезность искусственного интеллекта в ряде рабочих процессов. Однако, по мнению миллиардера, все они должны тщательно контролироваться для предотвращения выхода разумных компьютеров из-под контроля.

Если же механизмы контроля не будут достаточно сильны, то сценарий таких фильмов, как «Терминатор», может стать реальностью уже в обозримой перспективе.

«Порой трудно осознать, насколько стремительными темпами развивается индустрия искусственного интеллекта. Существует риск, что нечто действительно опасное случится в ближайшие пять лет. Самое большее — десять лет. И это не тот случай, когда поднимают ложную тревогу без малейшего понимания научной дисциплины», — отмечал миллиардер в дискуссии на сайте Edge.org.

Позицию Маска полностью разделяет и сооснователь Microsoft Билл Гейтс. В ходе онлайн-чата с пользователями Reddit в январе 2015 года он отметил, что человечество должно быть обеспокоено развитием технологий искусственного интеллекта.

По его словам, уже в ближайшем будущем машины начнут выполнять большой объем работы за человека, но еще не будут обладать суперинтеллектом. К этому процессу Гейтс относится позитивно, но подчеркивает необходимость тщательного контроля за «умными» компьютерами.

«Однако через несколько десятилетий искусственный интеллект станет достаточно сильным, чтобы вызвать беспокойство. Я согласен с Илоном Маском и другими на этот счет и не понимаю, почему некоторые люди не разделяют этих опасений», — подчеркнул Гейтс.

При этом, по мнению сооснователя Microsoft, сначала машины начнут выполнять ту работу, которая «важна для вас и придает смысл жизни», а затем искусственный интеллект эволюционирует в состояние, «конфликтующее с целями человеческих систем».

Стремительного развития ИИ опасается и известный астрофизик Стивен Хокинг. В недавнем интервью BBC ученый прямо заявил, что искусственный интеллект может положить конец существованию человечества.

По мнению Хокинга, компьютерные программы обладают огромным потенциалом к быстрой адаптации, в то время как человечество ограничено рамками медленной биологической эволюции. В итоге человеческая раса элементарно проиграет машинам конкуренцию за существование на планете.

На конференции Zeitgeist 2015 в Лондоне Хокинг и отметил, что искусственный интеллект превзойдет человеческий разум уже в течение ближайших ста лет.

«До того, как это случится, нам необходимо сделать все возможное, чтобы цели компьютеров совпадали с нашими», — подчеркнул он.

А недавно астрофизик совместно с Илоном Маском опубликовал открытое письмо к разработчикам искусственного интеллекта, в котором сделал упор на важность сохранения контроля над процессом. «Наше будущее — это гонка между растущей мощью технологий и мудростью, с которой мы их используем», — подытожил ученый.

Отметим, что в конце июня Google представила результаты тестирования нового искусственного интеллекта компании. И некоторые ответы ИИ действительно подтверждают опасения Хокинга и Маска.

Так, на вопрос «Каков смысл жизни?» машина ответила «жить вечно». А аморальным искусственный интеллект Google считает «тот факт, что у вас есть ребенок». В то же время Биллу Гейтсу о своей судьбе волноваться не стоит, ведь машина считает, что «он хороший человек».



Источник: cont.ws.

Рейтинг публикации:

Нравится0



Комментарии (0) | Распечатать

Добавить новость в:


 

 
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Чтобы писать комментарии Вам необходимо зарегистрироваться либо войти на сайт под своим именем.





» Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации. Зарегистрируйтесь на портале чтобы оставлять комментарии
 


Новости по дням
«    Ноябрь 2024    »
ПнВтСрЧтПтСбВс
 123
45678910
11121314151617
18192021222324
252627282930 

Погода
Яндекс.Погода


Реклама

Опрос
Ваше мнение: Покуда территориально нужно денацифицировать Украину?




Реклама

Облако тегов
Акция: Пропаганда России, Америка настоящая, Арктика и Антарктика, Блокчейн и криптовалюты, Воспитание, Высшие ценности страны, Геополитика, Импортозамещение, ИнфоФронт, Кипр и кризис Европы, Кризис Белоруссии, Кризис Британии Brexit, Кризис Европы, Кризис США, Кризис Турции, Кризис Украины, Любимая Россия, НАТО, Навальный, Новости Украины, Оружие России, Остров Крым, Правильные ленты, Россия, Сделано в России, Ситуация в Сирии, Ситуация вокруг Ирана, Скажем НЕТ Ура-пЭтриотам, Скажем НЕТ хомячей рЭволюции, Служение России, Солнце, Трагедия Фукусимы Япония, Хроника эпидемии, видео, коронавирус, новости, политика, спецоперация, сша, украина

Показать все теги
Реклама

Популярные
статьи



Реклама одной строкой

    Главная страница  |  Регистрация  |  Сотрудничество  |  Статистика  |  Обратная связь  |  Реклама  |  Помощь порталу
    ©2003-2020 ОКО ПЛАНЕТЫ

    Материалы предназначены только для ознакомления и обсуждения. Все права на публикации принадлежат их авторам и первоисточникам.
    Администрация сайта может не разделять мнения авторов и не несет ответственность за авторские материалы и перепечатку с других сайтов. Ресурс может содержать материалы 16+


    Map