Меню категорий
SharesPro
31.05.2020 17:21
0
Как старейшие британские университеты пытаются защитить человечество от рисков ИИ

Оксфорд и Кембридж, старейшие университеты Британии и одни из старейших в мире, пристально следят за развивающейся сферой искусственного интеллекта (ИИ), которая была провозглашена технологией, которая приведет к новой промышленной революции и изменит мир, каким мы его знаем. За последние несколько лет каждое из многовековых учреждений потратило миллионы фунтов на исследование возможных рисков, связанных с машинным будущим.

Умные алгоритмы уже могут превзойти людей в определенных задачах. Например, они могут побить лучших игроков в мире в невероятно сложных играх, таких как шахматы и го, и они могут обнаружить раковые опухоли на маммограмме намного быстрее, чем это может сделать врач-клиницист. Машины могут также определить разницу между кошкой и собакой или идентифицировать случайного человека, просто взглянув на фотографию его лица. Они также могут переводить языки, водить автомобили и поддерживать температуру дома. Но, вообще говоря, они все еще не очень-то умные: во многих аспектах их способности не соответствуют уровню развития среднего семилетнего ребенка.

Основная проблема заключается в том, что ИИ не может работать в многозадачном режиме. Например, игровой ИИ еще не может нарисовать картинку. Другими словами, ИИ сегодня очень «узок» в своем интеллекте. Тем не менее, ученые в области компьютерных наук, такие как Google и Facebook, стремятся сделать ИИ более «доступным» в предстоящие годы, и это глубоко обеспокоило некоторых заметных мыслителей.

Познакомьтесь с профессором Бостром

Ник Бостром (Nick Bostrom), 47-летний шведский философ и эрудит, основал Институт будущего человечества (FHI) в Оксфордском университете в 2005 году, чтобы оценить, насколько опасным ИИ и другие потенциальные угрозы могут быть для человеческого рода.

В главном фойе здания института — сложные уравнения, недоступные большинству людей, — написаны на досках рядом с такими словами, как «безопасность ИИ» и «управление ИИ». Задумчивые студенты из других отделов приходят и уходят, занимаясь повседневными делами. Интервью с Бостромом, трансгуманистом, который считает, что мы можем и должны дополнить наши тела технологиями, которые помогут устранить старение как причину смерти, — редкость.

«Я довольно осторожен с исследованиями и размышлениями, поэтому у меня как бы «аллергия» на планирование слишком большого количества встреч», — говорит он.

Высокий, худощавый и гладко выбритый, Бостром поразил некоторых исследователей искусственного интеллекта своей открытостью, развивая идею о том, что однажды — в не столь отдаленном будущем — машины станут главной «расой» на Земле. Он не заходит так далеко, чтобы сказать, когда именно наступит этот день, но он считает, что этот день достаточно близок, чтобы мы беспокоились об этом. Если (и когда) машины разовьют искусственный интеллект на уровне человека, они смогут быстро стать еще умнее и развить суперинтеллект, — считает Бостром. На данный момент никто не знает, что будет дальше.

Ученый-оптимист скажет, что сверхразумные машины освободят людей от работы и позволят им жить в какой-то утопии, где есть изобилие всего, что они могут когда-либо пожелать. Ученый-пессимист скажет, что они решат, что люди больше не нужны, и уничтожат нас всех. Миллиардер Илон Маск, у которого сложные отношения с исследователями искусственного интеллекта, порекомендовал книгу Бострома «Суперинтеллект» в Твиттере.

Институт Бострома получил около $20 млн с момента его создания. Около $14 млн из этой суммы поступит от проекта Open Philanthropy Project, фонда исследований и грантов со штаб-квартирой в Сан-Франциско.  Остальные деньги поступили от таких благодетелей, как Маск и Европейский исследовательский совет.

Расположенный в скромном здании на извилистой дороге у главной торговой улицы Оксфорда, институт полон математиков, ученый компьютерных наук, врачей, неврологов, философов, инженеров и политологов. Эксцентричные мыслители со всего мира приезжают сюда, чтобы поговорить за чашкой чая о том, что может ждать человечество впереди.

«У многих людей есть тяга к разным областям знаний, и они часто интересуются более чем одной областью, — говорит Бостром.

Команда FHI за последние годы увеличилась с четырех до 60 человек. 

«Через год или полтора мы приблизимся к 100 (человек)», — говорит Бостром. 

По словам Бострома, культура в институте представляет собой смесь научных кругов, стартапов и неправительственных организаций, что говорит о том, что эта смесь приводит к «интересному творческому пространству возможностей», где присутствует «чувство миссии и срочности».

Опасности И.И.

По словам Бострома, если ИИ каким-то образом станет намного более мощным, существует три основных способа, которыми он может в конечном итоге причинить вред. И вот они:

  • ИИ может сделать что-то плохое для людей.
  • Люди могут делать что-то плохое друг другу, используя ИИ.
  • Люди могут совершать плохие поступки с помощью ИИ (в этом случае ИИ будет иметь своего рода моральный статус).

«Каждая из этих категорий является правдоподобной версией того, где что-то может пойти не так», – говорит Бостром.

Что касается машин, обращающихся против людей, Бостром говорит, что если ИИ станет действительно мощным, то «сам ИИ может иметь потенциальный риск, что он сделает что-то отличное от того, что предполагал кто-то, что может быть вредным».

Что касается злодеяний человека против человека с помощью ИИ, здесь уже есть прецедент, поскольку люди уже использовали другие технологические открытия в целях войны или унетения. Вспомните, например, атомные бомбардировки Хиросимы и Нагасаки. Бостром говорит, что необходимо выяснить, как снизить риск подобного с участием ИИ, добавив, что это легче сказать, чем сделать.

На вопрос о том, сильнее ли он беспокоится о появлении сверхразумных машин, чем когда его книга была опубликована, в 2014 году, Бостром ответил, что сроки сократились.

«Я думаю, что прогресс был быстрее, чем ожидалось, учитывая всю эту революцию глубокого обучения за последние шесть лет и все остальное», — говорит он. Когда Бостром написал книгу, в мире было немного людей, которые всерьез исследовали потенциальную опасность ИИ. — «Сейчас существует эта небольшая, но процветающая область научной работы по безопасности ИИ с рядом инициативных групп».

Несмотря на то, что существует вероятность того, что что-то пойдет не так, Бостром говорит, что важно помнить, что у ИИ есть захватывающие преимущества, и он не хочет, чтобы его считали человеком, который предсказывает конец света.

«Я думаю, что теперь меньше нужно подчеркивать, в первую очередь, недостатки ИИ», — говорит он, подчеркивая, что его взгляды на ИИ сложны и неоднозначны.

Применяя осторожное мышление к массовым вопросам

Бостром говорит, что цель института FHI — «применить тщательное мышление к общим вопросам человечества». Институт не просто смотрит в следующий год или следующие 10 лет, он рассматривает вечность.

«ИИ интересовал меня с самого начала, и я имею в виду, начиная с 90-х годов, — говорит Бостром. — Это большой фокус для меня, можно сказать, почти одержимость».

Развитие технологий является одним из нескольких вероятных способов, которые могут привести к изменению «состояния человека» с точки зрения Бострома. ИИ является одной из тех технологий, но в FHI есть группы, которые занимаются вопросами биобезопасности (вирусы и т. д.), молекулярной нанотехнологии, технологий наблюдения, генетики и биотехнологий (совершенствование человека).

Если говорить об ИИ, у FHI есть две группы; одна из нх выполняет техническую работу по проблеме выравнивания ИИ, а другой рассматривает проблемы управления, которые возникнут по мере того, как машинный интеллект становится все более мощным.

Группа выравнивания ИИ разрабатывает алгоритмы и пытается выяснить, как гарантировать, что сложные интеллектуальные системы ведут себя так, как мы предполагаем. Это предполагает согласование их с «человеческими предпочтениями», говорит Бостром.

Экзистенциальные риски

Находясь примерно в 66 милях, ученые университета Кембриджа также изучают угрозы человеческому существованию, хотя и с несколько иной точки зрения. Исследователи из Центра по изучению экзистенциального риска (CSER) оценивают биологическое оружие, пандемии и, конечно же, ИИ.

«Одна из наиболее активных областей деятельности касается ИИ», — сказал соучредитель CSER лорд Мартин Рис (Lord Martin Rees) в своем предыдущем интервью в Тринити-колледже.

Рис, известный космолог и астрофизик, который был президентом престижного Королевского общества с 2005 по 2010 год, ушел в отставку, поэтому его роль в CSER является добровольной, но он по-прежнему активно вовлечен.

По словам Риса, важно, чтобы любой алгоритм, определяющий судьбу людей, можно было объяснить людям. 

«Если вы попали в тюрьму или лишены кредита по какому-либо алгоритму, вы имеете право получить объяснение, чтобы понять причины. Конечно, в настоящее время это проблема, потому что в таких алгоритмах, как AlphaGo (алгоритм Go-Playing Google DeepMind), примечательным является то, что создатели программы не понимают, как она на самом деле работает. Это настоящая дилемма, и они знают об этом».

Идея CSER была задумана летом 2011 года во время беседы в кабине Копенгагена между кембриджским академиком Хью Прайсом (Huw Price) и соучредителем Skype Яаном Таллином (Jaan Tallinn), чьи пожертвования составляют 7-8% от общего финансирования центра и приравниваются к сотням тысяч фунтов.

«Я ехал в такси с человеком, который думал, что его вероятность умереть в результате несчастного случая, связанного с искусственным интеллектом, выше, чем вероятность сердечно-сосудистых заболеваний или рака, — писал Прайс о своей поездке на такси с Таллинном. — Я никогда не встречал никого, кто считал бы это столь насущной причиной для беспокойства, не говоря уже о тех, кто так твердо стоит на ногах в бизнесе программного обеспечения».

CSER изучает, как ИИ может использоваться в войне, а также анализирует некоторые долгосрочные проблемы, о которых писали такие люди, как Бостром. Также рассматривается вопрос о том, как ИИ может стимулировать науку о климате и цепочки поставок сельскохозяйственных продуктов питания.

«Мы стараемся рассматривать как положительные, так и отрицательные стороны технологии, потому что наша настоящая цель — сделать мир более безопасным», — говорит Шон Эгейтаре (Seán ÓhÉigeartaigh), исполнительный директор CSER и бывший коллега Бострома. Эгейтаре, который имеет докторскую степень в области геномики в Тринити-колледже в Дублине, говорит, что CSER в настоящее время осуществляет три совместных проекта с FHI.

Внешними консультантами являются Бостром и Маск, а также другие эксперты по искусственному интеллекту, такие как Стюарт Рассел (Stuart Russell) и Мюррей Шанахан (Murray Shanahan) из DeepMind. Покойный Стивен Хокинг при жизни также был советником.

Будущее интеллекта

Центр разведки будущего Leverhulme (FOI) был открыт в Кембридже в 2016 году, и сегодня он находится в том же здании, что и CSER, в двух шагах от лодок на реке Кам.  Здание — не единственное, что разделяют центры — персонал тоже частично совпадает, и существует множество исследований, охватывающих оба отдела.

При поддержке фонда Leverhulme, выделяющего более 10 млн фунтов стерлингов, центр призван поддерживать «инновационное мышление на голубом небе», считает Эгейтаре, один из его разработчиков.

Был ли действительно нужен еще один из этих исследовательских центров? Эгейтаре думает, что да.

«Стало ясно, что будут, наряду с техническими возможностями и проблемами, правовые темы для изучения, экономические темы, социальные науки, — сказал он. — Как мы можем обеспечить, чтобы искусственный интеллект приносил пользу всем в глобальном обществе? Вы изучаете такие вопросы, как кто участвует в процессе разработки? С кем консультируются? Как работает управление? Как мы можем гарантировать, что маргинальные сообщества имеют право голоса?»

Цель FOI состоит в том, чтобы заставить компьютерных специалистов и специалистов по машинному обучению работать рука об руку с людьми из политики, социальных наук, риска и управления, этики, культуры, критической теории и так далее. В результате центр должен иметь возможность взглянуть на весь спектр возможностей и проблем, которые ИИ ставит перед обществом.

«Объединяя людей, которые думают об этих вещах с разных точек зрения, мы можем выяснить, какие сценарии могут быть вполне правдоподобными, а какие лучше оспорить», — сказал Эгейтаре.

Подписывайтесь на SharesPro в социальных сетях:
Telegram: t.me/sharespro
Instagram: www.instagram.com/sharespro/

Войдите, чтобы оставлять комментарии.

Получить консультацию