Ключевая часть самоощущения – это представление о том, что человек – это нечто большее, чем его тело. Это тема наших исследований. Вместе с философом Лори Полом и моим бывшим студентом и коллегой Томером Уллманом мы работаем над статьей, которую назвали
М. Ф.: Это тот же принцип, что и в обратном проектировании интеллекта?
Дж. Т.: Да, мы пытаемся понять один простой аспект нашего «я». Я называю его простым, но это только небольшая частичка набора вещей, которые можно называть сознанием. Специалисты в сфере ИИ, особенно те, кто занимается сильным ИИ, говорят, что работают над машинами, которые могут самостоятельно думать или учиться. Но такая машина обязательно должна себя осознавать.
У современных ИИ-систем, будь то беспилотные автомобили или такие программы, как AlphaGo, ничего подобного нет. Эти системы рекламируются как «самообучающиеся». Но без собственной личности они не понимают, что они делают. Человек, играющий в го, осознает процесс игры. Если он решает научиться играть в го, это будет его решение. Человек может попросить научить его, может практиковаться с другими. Он принимает множество решений, руководствуясь тем, как он себя ощущает в разные моменты времени. Если мы хотим получить систему с интеллектом уровня человека, ее нужно научить делать то, что сейчас делают инженеры. Другой вопрос – нужны ли нам такие машины?
М. Ф.: Какие опасности, на ваш взгляд, несет в себе ИИ в краткосрочной и долгосрочной перспективе?
Дж. Т.: Сейчас много говорят о сингулярности и суперинтеллектуальных машинах, которые решат захватить мир, потому что их цели окажутся несовместимыми с существованием людей. Я допускаю, что в далеком будущем может произойти что-то подобное, но лично меня это не беспокоит. Как я говорил выше, мы пока понятия не имеем, как добавить машинам ощущение себя. Соответственно, мысль о том, что они внезапно решат захватить мир, в настоящий момент абсурдна.
Честно говоря, у нас есть более актуальные поводы для беспокойства. Например, опасности, связанные со все более мощными алгоритмами, которые мы разрабатываем, пытаясь приблизиться к сильному ИИ. Они могут быть использованы как для полезных, так и для злонамеренных действий.
Я думаю, что ИИ-сообщество все больше осознает необходимость заниматься рисками, которые грозят нам в краткосрочной перспективе, будь то вопросы конфиденциальности или прав человека. Или то, как повальная автоматизация повлияет на экономику и рынок труда.
На протяжении почти всей истории существования человечества люди находили какой-то источник заработка и тратили первую часть жизни на приобретение профессиональных навыков. А дальше профессия могла кормить их до самой смерти. При необходимости можно было переквалифицироваться, но большинству этого просто не требовалось.
Сейчас же из-за постоянно развивающихся технологий рабочие места чаще меняются, появляются или исчезают. За время жизни человека это может произойти несколько раз. Разумеется, технологические изменения, из-за которых исчезали целые направления деятельности, случались всегда, но раньше этот процесс занимал намного больше времени. Когда-нибудь всем в течение жизни придется неоднократно переобучаться. И думать об этом следует уже сейчас.
М. Ф.: Возможна ли ситуация, при которой большинство окажется не в состоянии угнаться за постоянно меняющимися технологиями? Не лучше ли рассмотреть идею универсального базового дохода?
Дж. Т.: Я не думаю, что мы столкнемся с подобной ситуацией. Люди – устойчивый и гибкий вид. Да, возможно, наши способности к обучению и переподготовке ограничены. Но сейчас мы понятия не имеем, какие виды деятельности в будущем получат статус работы и начнут использоваться для получения средств к существованию.
Меня сильнее волнует куда более масштабная и неотложная проблема – изменение климата. Исследования в сфере ИИ способствуют ее приближению. Компьютеры все чаще используются для ИИ-приложений, майнинга криптовалют и прочих вещей, увеличивающих потребление энергии. На мой взгляд, те, кто занимается исследованиями ИИ, должны подумать о том, как их деятельность влияет на климат и как внести позитивный вклад в решение этой проблемы. Сейчас на этот аспект принято не обращать внимания.
Возникают проблемы и в сфере прав человека. Например, ИИ-технологии можно применять для шпионажа. Понятно, что исследователи не могут предотвратить или запретить использование технологий в злонамеренных целях, но они могут придумать какие-то контрмеры, например, дать людям возможность выяснять, когда за ними следят. Но эти моральные проблемы обязательно нужно решать.
М. Ф.: Как вы считаете, способно ли государство гарантировать применение ИИ в позитивном ключе с помощью регуляционных мер?