Сделать стартовой  |  Добавить в избранное  |  RSS 2.0  |  Информация авторамВерсия для смартфонов
           Telegram канал ОКО ПЛАНЕТЫ                Регистрация  |  Технические вопросы  |  Помощь  |  Статистика  |  Обратная связь
ОКО ПЛАНЕТЫ
Поиск по сайту:
Авиабилеты и отели
Регистрация на сайте
Авторизация

 
 
 
 
  Напомнить пароль?



Клеточные концентраты растений от производителя по лучшей цене


Навигация

Реклама

Важные темы


Анализ системной информации

» » » 10 случаев, когда искусственный интеллект показал удивительные способности

10 случаев, когда искусственный интеллект показал удивительные способности


24-06-2019, 15:05 | Необычные явления / Хроника необычного | разместил: Редакция ОКО ПЛАНЕТЫ | комментариев: (0) | просмотров: (1 867)

10 случаев, когда искусственный интеллект показал удивительные способности

 

 

 

 

 

Машины становятся умнее. Они достигли точки, когда они учатся самостоятельно и принимают собственные решения. Последствия могут быть совершенно непредсказуемыми. Есть машины, которые мечтают, читают слова в головах людей и превращаются в мастеров искусства.

Тёмных умений достаточно, чтобы заставить любого носить устройство против ИИ, которое сейчас разрабатывается. Некоторые системы искусственного интеллекта демонстрируют признаки психических заболеваний и предрассудков, в то время как другие слишком опасны для публики.

10. Deepfakes



В 2019 году на YouTube появилось видео. На нём были продемонстрированы разные клипы знаменитой Моны Лизы. Только на этот раз картина была тревожно живой. На видео было видно, как женщина двигала головой и оглядывалась, и её губы двигались в молчаливой беседе.

Мона Лиза больше походила на кинозвезду, дающую интервью, чем на холст. Это классический пример deepfakes. Эти живые портреты создаются свёрточными нейронными сетями.

Этот вид ИИ обрабатывает визуальную информацию подобно человеческому мозгу. Потребовалась упорная работа, чтобы обучить ИИ сложностям человеческого лица, чтобы он мог превратить неподвижное изображение в реалистичное видео.

Сначала система должна была узнать, как ведут себя черты лица, что было нелёгким делом. Как объяснил один учёный, трёхмерная модель головы имеет "десятки миллионов параметров".

ИИ также собирал информацию из трёх живых моделей для создания клипов. Вот почему женщина узнаваема как Мона Лиза, но при этом сохранила следы личностей моделей.

9. ИИ предвзят



Борьба с предвзятостью тяжела. Спросите любого, кто когда-либо сталкивался с дискриминацией по признакам своего тела или убеждениям. Ещё один слой этого бедствия недавно возник в форме ИИ.

Несколько лет назад троллям в Твиттере понадобилось менее 24 часов, чтобы превратить нового чат-бота Microsoft Тею в неонациста. Тем не менее, исследование показало, что тролли – не единственная причина, по которой искусственный интеллект фыркает на женщин и пожилых людей. Нейронные сети учатся предвзятости из человеческого языка при обработке информации с веб-сайтов.

Недавно учёные разработали тест словосочетаний для GloVe (глобальные векторы для представления слов). Этот ИИ широко используется в задачах представления слов. В конце эксперимента даже исследователи были поражены результатами.

Они нашли все смещения, которые они могли проверить в GloVe. Среди прочего, он ассоциирует больше негативных вещей с именами афроамериканцев и стариков и связывает женщин больше с семейными терминами, чем с карьерными.

Дело в том, что общество часто даёт определённым группам больше страданий – и системы ИИ справляются с этим. Разница в том, что люди понимают справедливость и могут не дискриминировать кого-либо; компьютеры не могут.

8. Он спит как человек



Сон улучшает познание и освежает организм. Существует также доказательство того, что дремота позволяет нейронам удалять ненужные воспоминания, сделанные в течение дня. Это имеет решающее значение для здоровья мозга и, возможно, поэтому сон повышает познание.

В 2019 году учёные запрограммировали способность спать в ANN (искусственная нейронная сеть) под названием сеть Хопфилда. Вдохновлённый мозгом спящего млекопитающего, ANN "просыпался", находясь в режиме онлайн, и спал в режиме оффлайн.

Переход в режим оффлайн не означал, что ИИ был выключен. Математически реализованные модели сна человека давали ему нечто похожее на REM (быстрое движение глаз) и медленный сон. Считается, что REM хранит важные воспоминания, в то время как фаза медленного сна удаляет ненужные.

Невероятно, но ANN также, казалось, видел сны. Находясь в режиме оффлайн, он просматривал всё, что узнал в тот день, и просыпался с большим объёмом памяти. Когда ANN не позволяли вздремнуть, он был похож на человека, лишённого сна – его способность к обучению значительно снижалась. Это открытие может однажды сделать сон обязательным для всех систем искусственного интеллекта.

7. Искусственный интеллект "Анти-ИИ"



Технология быстро развивается, и самый мрачный прогноз касается нашего существования, которому угрожает вышедший из-под контроля ИИ. Не просто искусственный интеллект, а исключительно мощные и саморазвивающиеся системы.

В 2017 году австралийским исследователям потребовалось всего пять дней, чтобы разработать устройство против ИИ. Оно было направлено на решение проблемы, с которой люди уже сталкиваются – ИИ, притворяющийся реальным человеком. Носимый прототип был разработан, чтобы предупредить владельца, если он столкнулся с искусственным самозванцем.

Он изучал синтетические голоса и опирался на Google Tensorflow, программное обеспечение для обучения машин. При использовании прототип захватывает все присутствующие голоса и отправляет их в Tensorflow.

При обнаружении человека устройство ничего не делает. Однако, если голос из динамика синтетический, система фактически посылает холодок по спине. Её создатели решили, что предупреждение "Вы говорите с клоном" должно выглядеть именно так. Вместо звукового сигнала или гудка термоэлектрический элемент охлаждает заднюю часть шеи.

6. Ai-Da



Робот по имени Ai-Da является любимцем на арт-сцене и, возможно, проклятием конкурирующих художников по всему миру. Он создаёт сложные картины, скульптуры и эскизы. Что примечательно, так это то, что машина сама обучается всё более изощрённым способам творить.

Находящиеся в Оксфорде работы Ai-Da в нише абстракции с рассеянным светом заслуживают особого внимания. Фактически, они приравниваются к картинам, созданным лучшими художниками-абстракционистами современности.

У машины есть и другие навыки. Она говорит, ходит, держит кисть и карандаш. Это также первый ИИ, который проводит художественную выставку. Работы были названы "навязчиво красивыми" с темами, которые включают в себя политику и дань уважения известным людям.

Ai-Da "родился" в 2017 году. ИИ был заказан куратором по искусству Айданом Меллером. Чтобы создать робота, он обратился к робототехнической фирме в Корнуолле и инженерам в Лидсе. Последние разработали руку, которую ИИ использует с таким блеском. Интересно, что даже те, кто близок с машиной, не могут предсказать её истинную производительность или то, что она создаст дальше.

5. Прогнозирование лица из голосовых клипов



В будущем может стать невозможным сделать анонимный телефонный звонок. Существует система ИИ, которая слушает короткую запись чьего-то голоса и затем предсказывает, как выглядит человек.



ИИ обучался в Массачусетском технологическом институте (МТИ), изучая онлайн-видео, чтобы научиться рисовать лица, основываясь только на голосах. Результаты реконструкции были грубоватыми, но определённо показывали сходство с живыми людьми. На самом деле они были настолько похожи, что это ставило команду МТИ в неудобное положение.

Как и во многих технологиях, существовал риск того, что искусственный интеллект может стать инструментом злоупотребления. Например, лицо, проходящее телефонное интервью, может быть подвергнуто дискриминации на основании внешности. Однако, с другой стороны, этот ИИ может помочь правоохранительным органам собирать фотографии преследователей, совершающих угрожающие звонки, или похитителей, требующих выкуп.

МТИ планирует придерживаться этического подхода к обучению и дальнейшему внедрению системы ИИ.

4. Норман



В Media Lab МТИ есть нейронная сеть, отличающаяся от любой другой. Система ИИ под названием «Норман» вызывает беспокойство. На этот раз речь идёт не о том, что она может натворить в государственном секторе. Вместо этого "разум" Нормана наполнился тёмными мыслями. Они совершенно ужасные и жестокие.

Исследователи столкнулись с этой странностью, когда представили ИИ тесты на чернильных пятнах. Психологи используют их, чтобы узнать больше о психике пациента. Когда один чернильный пузырь был показан другим сетям ИИ, они, соответственно, увидели птицу и самолёт. Норман увидел человека, которого застрелили из машины. Это были цветочки по сравнению с другим чернильным пятном, которое Норман описал как человека, втянутого в тестомесильную машину.

Неправильное поведение уподобили психическому заболеванию. Учёные даже рискнули назвать его "психотическим". Однако то, что привело ИИ в заблуждение, могло помочь ему вернуться на правильный путь. Чем больше информации получают нейронные сети, тем больше они совершенствуют свой независимый выбор. Массачусетский технологический институт открыл для общественности опрос из чернильных пятен, надеясь, что Норман исправится, извлекая уроки из человеческих реакций.

3. ИИ читает слова в голове



В 2018 году три разных исследования научили ИИ превращать мозговые волны в слова. Для этого электроды должны были быть подключены непосредственно к мозгу. По этическим причинам это невозможно сделать со здоровыми пациентами.

Учёные получили разрешение от добровольцев с уже вскрытым по несвязанным хирургическим причинам мозгом. В то время как некоторые слушали аудиофайлы, а другие читали вслух, компьютер записывал их мозговые волны.

Первое исследование позволило ИИ переваривать данные с помощью "глубокого обучения". Это описывает компьютер, решающий проблему практически без человеческого контроля. После того как он преобразовал электрические сигналы мозга через синтезатор голоса, слова были узнаваемы примерно в 75 процентах случаев.

Во втором исследовании использовалась комбинация паттернов, созданных путём запуска нейронов и речевых звуков, для обучения ИИ. Полученные аудиофайлы имели чёткость записи с микрофона.

В третьем исследовании использовался другой подход – анализ области мозга, которая превращает речь в движения мышц. Слушатели понимали слова ИИ в 83% случаев.

2. ИИ слишком опасен для общественности



Его имя достаточно скучно. Тем не менее, GPT-2 считается настолько опасным, что его разработчики отказались выпустить полную версию для широкой общественности.

GPT-2 – это система прогнозирования языка. Это может звучать так же скучно, как и его имя, но в чужих руках этот ИИ может быть разрушительным. GPT-2 был разработан для генерации оригинального текста на основе письменного примера. Хотя синтетический материал ИИ не всегда был идеальным, большую часть времени он был слишком аутентичным. Он мог генерировать правдоподобные новости, писать эссе о гражданской войне и создавать собственную историю с героями Толкина "Властелин колец". Всё, что ему нужно – это подсказка человека, и искусственные идеи будут поступать.

OpenAI, некоммерческая группа, которая породила этот продвинутый ИИ, заявила в 2019 году, что только ограниченная версия появится в продаже. Организация опасалась, что система может усугубить фальшивую новостную эпидемию, использовать людей в социальных сетях и выдавать себя за реальных людей.

1. ИИ становится самосознательным



Искусственные сети демонстрируют передовые способности, но самосознание – важная черта человека, в которой ИИ постоянно терпел неудачу. В 2015 году эта граница стала размыта. Нью-йоркская лаборатория робототехники провела испытания трёх готовых роботов Nao.

Крошечным гуманоидам сказали, что таблетки заставят их замолчать. Никто не получал никаких лекарств, но два были отключены кнопкой, нажимаемой человеком. Роботы должны были выяснить, кто из них ещё может говорить – задача, с которой они не справились. Этот сбой был спроектирован так, что все модели Nao пытались сказать: "Я не знаю".

Только тогда один робот обнаружил, что он всё ещё может говорить. Робот воскликнул: "Извините, теперь я знаю! Я смог доказать, что мне не давали таблетку".

Он прошёл испытание, которое оказалось не таким простым, как кажется. Nao должен был понять вопрос человека: "Какую таблетку вы получили?". Услышав саму фразу: "Я не знаю", он должен был понять, что ответ пришёл от самого себя и что он высказал собственное понимание того, что не получал никаких таблеток.

Это был первый раз, когда ИИ удалось решить так называемую головоломку мудрецов, предназначенную для проверки самосознания.

Специально для читателей моего блога Muz4in.Net – по материалам сайта listverse.com


Источник: muz4in.net.

Рейтинг публикации:

Нравится12



Комментарии (0) | Распечатать

Добавить новость в:


 

 
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Чтобы писать комментарии Вам необходимо зарегистрироваться либо войти на сайт под своим именем.





» Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации. Зарегистрируйтесь на портале чтобы оставлять комментарии
 


Новости по дням
«    Декабрь 2024    »
ПнВтСрЧтПтСбВс
 1
2345678
9101112131415
16171819202122
23242526272829
3031 

Погода
Яндекс.Погода


Реклама

Опрос
Ваше мнение: Покуда территориально нужно денацифицировать Украину?




Реклама

Облако тегов
Акция: Пропаганда России, Америка настоящая, Арктика и Антарктика, Блокчейн и криптовалюты, Воспитание, Высшие ценности страны, Геополитика, Импортозамещение, ИнфоФронт, Кипр и кризис Европы, Кризис Белоруссии, Кризис Британии Brexit, Кризис Европы, Кризис США, Кризис Турции, Кризис Украины, Любимая Россия, НАТО, Навальный, Новости Украины, Оружие России, Остров Крым, Правильные ленты, Россия, Сделано в России, Ситуация в Сирии, Ситуация вокруг Ирана, Скажем НЕТ Ура-пЭтриотам, Скажем НЕТ хомячей рЭволюции, Служение России, Солнце, Трагедия Фукусимы Япония, Хроника эпидемии, видео, коронавирус, новости, политика, спецоперация, сша, украина

Показать все теги
Реклама

Популярные
статьи



Реклама одной строкой

    Главная страница  |  Регистрация  |  Сотрудничество  |  Статистика  |  Обратная связь  |  Реклама  |  Помощь порталу
    ©2003-2020 ОКО ПЛАНЕТЫ

    Материалы предназначены только для ознакомления и обсуждения. Все права на публикации принадлежат их авторам и первоисточникам.
    Администрация сайта может не разделять мнения авторов и не несет ответственность за авторские материалы и перепечатку с других сайтов. Ресурс может содержать материалы 16+


    Map