ОКО ПЛАНЕТЫ > Новость дня > Как искусственный интеллект изменит нас

Как искусственный интеллект изменит нас


7-03-2019, 09:05. Разместил: Редакция ОКО ПЛАНЕТЫ

 

 

Как искусственный интеллект изменит нас

изменение.jpg

Хорошо это или плохо, но роботы изменят человека, а именно его способность к альтруизму, любви и дружбе.

Страх того, что роботы могут изменить нашу жизнь – главная тема научной фантастики на протяжении десятилетий. Еще в 1940-х годах, когда взаимодействие людей и ИИ все еще казалось далеким будущим, Айзек Азимов установил свои знаменитые «Три закона робототехники». Их главная задача – не дать роботам причинить нам вред. Первый - «робот не может причинить вред человеку, или своим бездействием допустить, чтобы человеку был причинен вред», - основываясь на понимании того, что роботы будут напрямую взаимодействовать с людьми во благо и во зло. Подумайте о классических научно-фантастических сюжетах: C-3PO и R2-D2 работают с повстанцами, чтобы разрушить Империю в «Звездных войнах», или HAL 9000 от 2001 года: «Космическая одиссея» и «Ава» из «Ex Machina» хотят убить их мнимых хозяев. Но вся эта фантастика не обращает внимание на потенциально более значимые вещи: ИИ может влиять на то, как мы, люди, взаимодействуем друг с другом.

Конечно, инновации изменили образ жизни людей. Появление городов где-то между 5 000 и 10 000 лет назад означало, что кочевания будет меньше, а плотности населения – больше. Мы адаптировались как индивидуально, так и коллективно (например, у нас могла развиться устойчивость к инфекциям, в результате этих новых обстоятельств). Совсем недавно изобретение новых технологий, включая печатный станок, телефон и Интернет, произвело революцию в процессах хранения и передачи информации.

Однако какими бы важными не были эти нововведения, они не изменили фундаментальные аспекты человеческого поведения, а именно то, что я называю «социальным набором»: важнейший набор способностей, которые мы развивали на протяжении сотен тысяч лет (любовь, дружба, сотрудничество, обучение). Они есть во всем мире, независимо от того, городское население или сельское, и использует ли оно современные технологии.

Но появление искусственного интеллекта может многое разрушить. Тем более, что машины создаются для того, чтобы выглядеть и вести себя как мы, глубоко проникать в нашу жизнь. Они могут изменить нашу любовь, дружбу или доброту - не только в отношениях с машинами, но и друг с другом.

Рассмотрим некоторые эксперименты в моей лаборатории в Йельском университете. В первом эксперименте небольшие группы людей работали вместе с гуманоидными роботами, чтобы в виртуальном мире прокладывать железнодорожные пути. Каждая группа состояла из трех человек и маленького робота, который сидел за квадратным столом и работал на планшетах. Робот был запрограммирован на то, чтобы совершать случайные ошибки и признавать их: «Извините, ребята, я допустил ошибку», - заявлял он с энтузиазмом. «Я знаю, что в это трудно поверить, но роботы тоже допускают ошибки».

Как оказалось, этот неуклюжий робот помог группам эффективнее работать, улучшая их общение. Они были более расслабленными и общительными, утешали неопытных членов группы и смеялись вместе с ними. По сравнению с контрольными группами, чей робот делал только некоторые заявления, группы с извиняющимся роботом были более способны к сотрудничеству.

В другом виртуальном эксперименте мы разделили 4000 человек на группы по 20 человек и назначили «друзей», которые сформировали социальную сеть. Затем группам дали задание: каждому человеку нужно было выбрать один из трех цветов, но никто не мог угадать выбор назначенных друзей. В нескольких группах были боты, запрограммированные на случайные ошибки. Люди, которые напрямую взаимодействовали с этими ботами, были более гибкими и старались избегать того, что могло бы работать для данного человека, но не для группы в целом. Более того, подобная гибкость разошлась по всей сети, охватывая даже тех людей, которые напрямую не работали с ботами. В результате, группы с ботами, склонными к ошибкам, все время превосходили группы с правильными ботами.

Оба этих исследования демонстрируют, что в том, что я называю «гибридными системами», где в социальном плане взаимодействуют люди и роботы, правильный вид ИИ может усовершенствовать отношение людей друг к другу. Другие выводы также подтверждают это. Например, ученый Кевин Мангер заставил определенный вид ботов вмешаться в ситуацию, когда люди в Интернете отправляли друг другу расистские оскорбления. Он показал, что при определенных обстоятельствах бот, который просто напоминает людям, что их цель – это человек со своими чувствами и эмоциями, может сократить расистские оскорбления за период больше месяца.

Но появление ИИ в нашей социальной среде может заставить нас вести себя менее продуктивно и менее этично. В еще одном эксперименте, в котором изучалось влияние ИИ на «трагедию достояния человечества» - идею о том, что эгоцентричные действия отдельных людей могут нанести ущерб общим интересам - мы дали нескольким тысячам субъектов деньги для онлайн игры. В каждом раунде испытуемым говорили, что они могут либо сохранить свои деньги, либо пожертвовать часть или все их соседям. Если они пожертвуют деньги, то соседи получат удвоенную сумму. В начале игры две трети игроков поступали альтруистично. В конце концов, они поняли, что щедрость к соседям может пробудить и щедрость к ним самим, установив норму взаимодействия. Однако с эгоистичной точки зрения лучший результат – сохранение собственных денег и получение денег от соседей. В этом эксперименте мы обнаружили, что несколько добавленных ботов (изображающих игроков-людей), которые вели себя эгоистично и свободно, могли заставить группу также вести себя. В конце концов, люди вообще перестали сотрудничать. Таким образом, боты превратили щедрых людей в эгоистичных.

Давайте сделаем паузу, чтобы обдумать результаты такого открытия. Сотрудничество – ключевая черта нашего вида, необходимая для общественной жизни. А доверие и щедрость имеют решающее значение для того, чтобы отличить успешную группу от неуспешной. Если все участвуют и жертвуют для блага группы, каждый может получить выгоду. Однако когда такое поведение изменяется, то само понятие общественного блага исчезает, и все страдают. Тот факт, что ИИ может существенно снизить нашу способность вместе работать, чрезвычайно важен.

Мы уже сталкиваемся с реальными примерами того, как ИИ может испортить человеческие отношения за пределами лаборатории. Исследование, в котором участвовало 5,7 миллиона пользователей Твиттера в преддверии президентских выборов в США 2016 года, показало, что троллинг и злонамеренные российские аккаунты, в том числе управляемые ботами, регулярно ретвитились аналогично другим безобидным аккаунтам, особенно сильно влияя на консервативных пользователей. Воспользовавшись нашими склонностями к совместной работе и взаимному обучению - черты социального набора - боты повлияли даже на тех людей, с которыми они не были связаны напрямую, помогая разделить электорат страны.

ИИ и сейчас влияет на нас ежедневно. Родители, наблюдая за тем, как их дети грубо выкрикивают команды таким цифровым помощникам, как Алекса или Сири, начали беспокоиться о том, что эта грубость перейдет и на их отношения с людьми. Дети, которые растут вместе с ИИ, а не с людьми, могут не получить необходимые навыки для эмпатической связи, - сказал эксперт по технологиям Шерри Теркл Алексею Мадригал из The Atlantic после того, как он купил игрушечного робота для сына.

Так как цифровых помощников становится все больше и больше, мы привыкли разговаривать с ними так, как будто они – разумные существа; Джудит Шулевиц рассказала, что некоторые люди начинают относиться к ним как к друзьям и терапевтам. Сама Шулевиц говорит, что она признается помощнику Google в том, в чем не призналась бы даже своему мужу. Если нам станет удобнее разговаривать с нашими устройствами, что произойдет с браком и дружбой? Разработчики и программисты обычно создают такие устройства, чьи ответы помогают нам почувствовать себя лучше, но могут и не помочь критически проанализировать ситуацию и принять болезненные истины. Когда ИИ проникает в нашу жизнь, мы можем столкнуться с тем, что он, возможно, будет тормозить наши эмоции и подавлять глубинные человеческие связи, делая наши отношения друг с другом менее взаимными или более нарциссическими.

Все это может в конечном итоге преобразовать человеческое общество. Хотим ли мы, чтобы машины влияли на доброту детей? Хотим ли мы, чтобы машины влияли на сексуальные отношения взрослых?

Кэтлин Ричардсон, антрополог из Университета Де Монтфорт в Великобритании, очень волнуется из-за последнего вопроса. Как директор Кампании Против Секс-Роботов, она ​​предупреждает, что они могут отвернуть пользователей от реальной близости. Другие предполагают, что роботы могут радикально улучшить секс между людьми. В своей книге 2007 года «Любовь и секс с роботами» Дэвид Леви рассматривает положительные последствия «романтично привлекательных и сексуально желаемых роботов». Он думает, что некоторые люди предпочтут роботов (предсказание подтверждается японцем, который в прошлом году «женился» на искусственной интеллектуальной голограмме). С секс-роботами не нужно будет бояться болезней, передающимся половым путем, или нежелательной беременности. И они могли бы предоставить возможности беспроблемных экспериментов и практики, помогая людям стать «виртуозными любовниками».

Задолго до того, как большинство из нас столкнется с дилеммами ИИ в интимной сфере, мы будем бороться с более банальными ситуациями. Эпоха без водителей, в конце концов, пришла. Такие транспортные средства обещают существенно сократить усталость и рассеянность водителей, тем самым предотвращая несчастные случаи. Но как еще они могут повлиять на людей? Вождение - это современный вид социального взаимодействия, требующий высокого уровня сотрудничества и социальной координации. Я беспокоюсь о том, что автомобили без водителей лишат нас возможности использовать эти способности, вследствие чего они просто атрофируются.

Мало того, что эти машины лишат людей способности принимать важные решения (например, какого пешехода ударить, когда столкновение неизбежно), они также будут влиять на людей без прямого контакта. Например, водители, которые некоторое время находились рядом с автономным транспортным средством, движущимся с постоянной, неизменной скоростью, могут быть менее внимательными на дороге, тем самым увеличивая вероятность несчастных случаев в окружении только реальных водителей. С другой стороны, опыт может показать то, что автономные транспортные средства, движущиеся в полном соответствии с правилами дорожного движения, на самом деле улучшают работу человека.

В любом случае, мы бы безрассудно пользовались новыми формами ИИ, не принимая во внимание такие внешние социальные эффекты. Мы должны приложить те же усилия и изобретательность, с которыми мы подходим к аппаратным средствам и программному обеспечению, которые бы позволили автономному автомобилю управлять влиянием ИИ на тех, кто находится вне автомобиля. В конце концов, мы устанавливаем стоп-сигналы на задней части вашего автомобиля не только ради вас, но и ради других людей.

В 1985 году, примерно через четыре десятилетия после того, как Айзек Азимов представил свои законы робототехники, он добавил еще один к своему списку: робот никогда не должен делать что-то, что могло бы навредить человечеству. Но он боролся с тем, как можно оценить такой вред. «Человек - это конкретный объект», - писал он позже. «Травму человека можно оценить. Человечество - это абстракция ».

Внимание к внешним социальным эффектам может помочь. В других областях внешние эффекты приводят к правилам, законам и требованиям демократического контроля. Независимо от того, говорим ли мы о корпорации, загрязняющей водоснабжение, или о пассивном курении в офисном здании, как только действия некоторых людей начинают влиять на других людей, общество может вмешаться. Поскольку влияние ИИ на взаимодействие между людьми должно быть интенсивным, а движение быстрыми и масштабными, мы должны систематически исследовать, какие побочные эффекты могут возникнуть, и обсудить, как их регулировать в интересах общего блага.

Уже сейчас группа исследователей и практиков, в том числе ученых-компьютерщиков, инженеров, зоологов и социологов, собирается вместе, чтобы развить область «поведения машин», в надежде поставить наше понимание ИИ на более надежную теоретическую и техническую базу. Эта область рассматривает роботов не просто как объекты, созданные человеком, но как новый класс социальных партнеров.

Это очень важно. В недалеком будущем машины с искусственным интеллектом, могут, благодаря программированию или независимому обучению (способность, которую мы им дадим), проявлять формы интеллекта и поведения, которые могут показаться нам странными. Людям нужно будет быстро отличить просто необычное поведение от поведения, которое действительно угрожает им. Больше всего нас должны волновать те аспекты ИИ, которые влияют на социальную жизнь человека, на черты, которые на протяжении тысячелетий помогали нашему виду выживать.

Философ Томас Гоббс утверждал, что коллективный договор не дает людям стать дезорганизованными и жестокими. Он был не прав. Задолго до того, как мы сформировали правительства, эволюция предоставила людям социальный набор, который позволил нам мирно и хорошо жить вместе. В мире до ИИ генетически унаследованные способности к любви, дружбе, сотрудничеству и обучению продолжали помогать нам жить в обществе.

К сожалению, у людей нет времени, чтобы развить такие же способности для жизни с роботами. Поэтому мы должны принять меры, чтобы они могли жить с нами и не разрушать нас. Поскольку ИИ активно внедряется в нашу жизнь, нам все же может потребоваться новый социальный договор - договор с машинами, а не с другими людьми.


Вернуться назад