Центр по изучению глобальных рисков (CSER) будет изучать угрозы, связанные с разработками в области биотехнологии, искусственной жизни, нанотехнологии и изменения климата.
Ученые заявили, что игнорировать возможность потенциального восстания роботов было бы «рискованным».
Опасения, что машины могут занять наше место на планете, послужили основой сюжета ряда популярных научно-фантастических фильмов. Пожалуй, наиболее прославилась Skynet, враждебная компьютерная система из фильма «Терминатор». Получив самосознание, Skynet вступила в борьбу после первого же запуска американскими военными.
Но, несмотря на то, что концепция «машин умнее нас» порождает эфемерные фантазии, по мнению исследователей, она требует глубокого изучения.
«Серьезность этих рисков пока трудно оценить, но сама мысль кажется поводом для беспокойства, учитывая то, как много поставлено на карту», - пишут ученые на сайте CSER.
Учредителями проекта CSER являются профессор философии в Кембридже Хью Прайс, профессор космологии и астрофизики Мартин Рис и соучредитель Skype Яан Таллинн.
«Прогноз о том, что спустя некоторое время в этом или следующем столетии жизнь вырвется за рамки биологии, похоже, имеет под собой основания», – сказал профессор Прайс в интервью агентству Франс пресс. Он считает целью проекта – обратить внимание респектабельных научных кругов на эту тенденцию.
Прайс добавил, что, когда роботы и компьютеры станут умнее людей, мы можем оказаться во власти «машин, которые не являются злобными по природе, но чьи интересы просто не включают нас».
Чтобы дать шанс человеческой расе на выживание, центр начинает работу в следующем году.
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Чтобы писать комментарии Вам необходимо зарегистрироваться либо войти на сайт под своим именем.
Правозащитные организации призывают предотвратить восстание машин
Уровень и темпы развития современных робототехнических технологий, интеллектуальных систем и военной техники заставляют многих людей задуматься о том, что сценарий серии научно-фантастических фильмов "Терминатор" уже перестает быть просто фантастикой. Понимая это, группа людей, борющихся за права человека, решила нанести превентивный удар по самой возможности появления тех, кого они называют "роботами-убийцами". И сделали они это весьма убедительным образом.
Организация Human Rights Watch и Международная организация прав человека при Гарварде (Harvard Law's International Human Rights Clinic) опубликовали доклад на 50 страницах, который имеет название "Losing Humanity: The Case Against Killer Robots". В этом докладе присутствует убедительная просьба к правительствам всех стран остановить разработки автоматических систем вооружения, которые могут принять самостоятельные решения и запустить спусковой механизм без должного уровня контроля человека над этим.
Специалисты Human Rights Watch провели обширные исследования в области разработки военных роботов, в этом деле им помогали общепризнанные эксперты в этой области, включая Ноэля Шарки (Noel Sharkey), профессора в области искусственного интеллекта и робототехники университета Шеффилда. Призыв к запрету разработок роботов-убийц может показаться некоторым людям преждевременным, пока вы не рассмотрите ситуацию, сложившуюся в этой области. Эффективное и широкое применение военных беспилотных летательных аппаратов, существование вооруженных роботов, несущих оружие и способных открывать огонь, подобных системе Phalanx компании Raytheon, разработка новых автономных летательных аппаратов типа X47B, которые могут выполнять поставленные боевые задачи в автоматическом режиме и многое другое.
Стив Гуз (Steve Goose), директор отдела вооружений Human Rights Watch, пишет в докладе: "Контроль человека за средствами роботизированной войны очень важен с точки зрения уменьшения так называемых косвенных потерь, потерь гражданских лиц во время ведения боевых действий. ... Очень важно остановить разработку роботов-убийц сейчас, прежде чем они появятся на вооружении разных стран. Но, поскольку правительства многих стран уже занимаются широким инвестированием подобных проектов, будет очень тяжело убедить и заставить их бросить это занятие пока не стало поздно. … Действовать нужно начинать уже прямо сейчас, прежде чем роботы-убийцы перейдут грань между научной фантастикой и реальностью".
И если все вышесказанное не является для вас достаточно убедительным, то рекомендую просмотреть нижеприведенный видеоролик, который сможет изменить ваши взгляды на надвигающуюся проблему роботов-убийц.
Прайс добавил, что, когда роботы и компьютеры станут умнее людей, мы можем оказаться во власти «машин, которые не являются злобными по природе, но чьи интересы просто не включают нас».
Прям как у людей. Ничего личного, просто бизнес!
» Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации. Зарегистрируйтесь на портале чтобы оставлять комментарии
Материалы предназначены только для ознакомления и обсуждения. Все права на публикации принадлежат их авторам и первоисточникам. Администрация сайта может не разделять мнения авторов и не несет ответственность за авторские материалы и перепечатку с других сайтов. Ресурс может содержать материалы 16+
Статус: |
Группа: Гости
публикаций 0
комментариев 0
Рейтинг поста:
Правозащитные организации призывают предотвратить восстание машин
Уровень и темпы развития современных робототехнических технологий, интеллектуальных систем и военной техники заставляют многих людей задуматься о том, что сценарий серии научно-фантастических фильмов "Терминатор" уже перестает быть просто фантастикой. Понимая это, группа людей, борющихся за права человека, решила нанести превентивный удар по самой возможности появления тех, кого они называют "роботами-убийцами". И сделали они это весьма убедительным образом.
Организация Human Rights Watch и Международная организация прав человека при Гарварде (Harvard Law's International Human Rights Clinic) опубликовали доклад на 50 страницах, который имеет название "Losing Humanity: The Case Against Killer Robots". В этом докладе присутствует убедительная просьба к правительствам всех стран остановить разработки автоматических систем вооружения, которые могут принять самостоятельные решения и запустить спусковой механизм без должного уровня контроля человека над этим.
Специалисты Human Rights Watch провели обширные исследования в области разработки военных роботов, в этом деле им помогали общепризнанные эксперты в этой области, включая Ноэля Шарки (Noel Sharkey), профессора в области искусственного интеллекта и робототехники университета Шеффилда. Призыв к запрету разработок роботов-убийц может показаться некоторым людям преждевременным, пока вы не рассмотрите ситуацию, сложившуюся в этой области. Эффективное и широкое применение военных беспилотных летательных аппаратов, существование вооруженных роботов, несущих оружие и способных открывать огонь, подобных системе Phalanx компании Raytheon, разработка новых автономных летательных аппаратов типа X47B, которые могут выполнять поставленные боевые задачи в автоматическом режиме и многое другое.
Стив Гуз (Steve Goose), директор отдела вооружений Human Rights Watch, пишет в докладе: "Контроль человека за средствами роботизированной войны очень важен с точки зрения уменьшения так называемых косвенных потерь, потерь гражданских лиц во время ведения боевых действий. ... Очень важно остановить разработку роботов-убийц сейчас, прежде чем они появятся на вооружении разных стран. Но, поскольку правительства многих стран уже занимаются широким инвестированием подобных проектов, будет очень тяжело убедить и заставить их бросить это занятие пока не стало поздно. … Действовать нужно начинать уже прямо сейчас, прежде чем роботы-убийцы перейдут грань между научной фантастикой и реальностью".
И если все вышесказанное не является для вас достаточно убедительным, то рекомендую просмотреть нижеприведенный видеоролик, который сможет изменить ваши взгляды на надвигающуюся проблему роботов-убийц.
http://www.dailytechinfo.org/military/4221-borcy-za-prava-cheloveka-vystupayut-p
rotiv-razrabotki-robotov-ubiyc.html
видео - в "теле" основной новости
Статус: |
Группа: Посетители
публикаций 0
комментариев 1415
Рейтинг поста: