М. Ф.: Как вы предлагаете бороться с последствиями введения вашей технологии, особенно в условиях демократии? Достаточно посмотреть на социальные сети, с которыми возникло множество проблем. Ведь речь идет о новом уровне социального взаимодействия.
Б. Дж.: Ничего неожиданного не будет. Люди вполне предсказуемо начнут использовать новые инструменты в собственных интересах. Для заработка, получения статуса, уважения и преимущества перед другими. Это было, есть и будет… если мы не займемся улучшением себя. Если не сможем выйти за собственные пределы и сформировать человечество 3.0 или 4.0. Проблема в том, что прямо сейчас у нас нет инструментов для подобных улучшений.
М. Ф.: Но то, что вы предлагаете, невозможно без регулирования со стороны. Потому что, скорее всего, многие не захотят повышать именно моральный уровень, если сочтут его невыгодным.
Б. Дж.: На мой взгляд, к этой проблеме нужно подходить иначе. В вашей формулировке вопроса подразумевается, что правительство – единственная группа, способная разрешить конфликт интересов. На самом деле это не так. Люди сами могут создавать сообщества для регулирования происходящего.
Во-вторых, вы утверждаете, что каждый человек имеет право сам выбирать, какой уровень морали и этики ему нужен. Но если оглянуться назад, мы увидим, что почти все биологические виды, существовавшие в течение четырех с лишним миллиардов лет, уже вымерли. Люди сейчас в трудном положении, и каждый должен это осознать.
Например, недавно вышли книги
Люди же продолжают действовать наобум. Зачастую мы обращаем внимание на то, что происходит вокруг, только после того, как наступит кризисная ситуация. Но невозможно двигаться вперед, ничего не планируя. Мы же, как вид, ничего не планируем. А уже пора задуматься, как сохранить то, что нам важно.
М. Ф.: Давайте поговорим об ИИ в целом. Используют ли его ваши компании?
Б. Дж.: Да, компании, в которые я инвестировал, используют ИИ и машинное обучение для продвижения научных открытий, чем бы они ни занимались – разработкой лекарств, поиском новых белков или созданием физических продуктов.
Недавно Генри Киссинджер написал в журнал
М. Ф.: Илон Маск и Ник Бостром выражают обеспокоенность сценарием быстрого взлета и проблемой выравнивания. Они боятся, что ИИ может выйти из-под контроля. Но я слышал, что улучшение когнитивных способностей позволит нам лучше контролировать ИИ. Это действительно так?
Б. Дж.: Я благодарен Нику Бострому за то, что он вдумчиво рассуждает об опасностях, которые может нести с собой ИИ. Он инициировал обсуждения и великолепно все сформулировал. Нужно пытаться предвидеть нежелательные последствия и думать, как их не допустить.
А вот Илон Маск своими непродуманными и крайне эмоциональными высказываниями вызвал негативную реакцию и страх у людей, которые не могут разумно и аргументированно рассуждать на тему ИИ. Мне кажется, что люди, как вид, должны быть скромнее, признавать собственные когнитивные ограничения и искать способы себя улучшить. Тот факт, что пока эта задача не является приоритетной, показывает, что нам, как виду, не хватает смирения.
М. Ф.: Как вы относитесь к международной гонке вооружений в сфере ИИ? Может ли эта конкуренция привести к позитивным результатам? Нужно ли нам менять промышленную политику, чтобы не оказаться в числе отстающих?
Б. Дж.: Так устроен современный мир. Конкурируют отдельные люди и целые государства. Каждый преследует собственные интересы. И если мы не поменяем природу человека, ничего не изменится.