Элиезер Юдковски: биография

Элиезер Шломо Юдковский — один из активнейших рационалистов современной Америки, компьютерный исследователь и популяризатор идеи «дружелюбного искусственного интеллекта».

Родился 11 сентября 1979 года. Сооснователь и исследователь в неправительственной исследовательской организации «Институт исследований машинного интеллекта», которая и издаёт его книги. Элиезер Юдковский — автор философского романа «Гарри Поттер и методы рационализма», публиковавшегося частями в интернете в период с 2010 по 2015 год. В нём Гарри растёт в семье оксфордского учёного и перед путешествием в Хогвартс учится у него методам рационального мышления.

 

С кругом «спекулятивных реалистов», насколько известно, не имеет никакой связи. Его имя часто упоминается в связи с Робином Хансоном, на протяжении нескольких лет (с 2006-го по 2009-й) они были двумя основными авторами блога «Преодолевая предрассудок», который существовал на деньги Института будущего человечества в Оксфорде.

Иногда имя Юдковского можно услышать в связи с Рэймондом Курцвейлом. Он философствующий представитель сообщества техно-гиков, недоступный и непонятный, таким образом, большей части гуманитарной публики, к которой принадлежат почти все читатели спекулятивных реалистов. Оно и не удивительно, ведь он часто обращается к логико-математическому языку, вероятностным и статистическим выводам, экспозированным при помощи формул и таблиц.

Научные интересы

Юдковский — сооснователь и научный сотрудник Института Сингулярности по созданию Искусственного Интеллекта Singularity Institute for Artificial Intelligence (SIAI). Внес большой вклад в развитие института. Он — автор книги «Создание дружественного ИИ» («Creating Friendly AI» 2001), статей «Уровни организации универсального интеллекта» («Levels of Organization in General Intelligence», 2002), «Когерентная экстраполированная воля» («Coherent Extrapolated Volition», 2004) и «Вневременная теория принятия решений» («Timeless Decision Theory», 2010). Его последними научными публикациями являются две статьи в сборнике «Риски глобальной катастрофы» (2008) под редакцией Ника Бострома, а именно «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков». Юдковский не обучался в ВУЗах и является автодидактом без формального образования в области ИИ.

Юдковский исследует те конструкции ИИ, которые способны к самопониманию, самомодификации и рекурсивному самоулучшению (Seed AI), а также такие архитектуры ИИ, которые будут обладать стабильной и позитивной структурой мотивации (Дружественный искусственный интеллект). Помимо исследовательской работы, Юдковский известен своими объяснениями сложных моделей на неакадемическом языке, доступном широкому кругу читателей, например, см. его статью «Интуитивное объяснение теоремы Байеса» «An Intuitive Explanation of Bayes' Theorem».

Юдковский был вместе с Робином Хансоном одним из главных авторов блога Overcoming Bias (преодоление предубеждений). В начале 2009 года он участвовал в организации блога Less Wrong, нацеленного на «развитие рациональности человека и преодоление когнитивных искажений». После этого Overcoming Bias стал личным блогом Хансона. Материал, представленный на этих блогах, был организован в виде цепочек постов, которые смогли привлечь тысячи читателей — см. например, цепочку «теория развлечений».

Юдковский автор нескольких научно-фантастических рассказов, в которых он иллюстрирует некоторые темы, связанные с когнитивной наукой и рациональностью.

Карьера

  • 2000. Юдковский основывает Институт Сингулярности (Singularity Institute, позже переименованный в MIRI).
  • 2006. Юдковский присоединяется к коллективному блогу Overcoming Bias и начинает писать тексты, которые позже стали «Цепочками».
  • 2009. На основе записей Юдковского на Overcoming Bias создаётся знаменитый коллективный блог LessWrong.com.
  • 2010-2015. Юдковский пишет ГПиМРМ.
  • 2013. Юдковский публикует последние посты на LessWrong.com и перестаёт писать на сайт. По состоянию на 2017 год, большую часть публично доступных текстов Юдковский публикует на Facebook и Аrbital

 

Мысленный эксперимент

Представьте себе невероятно умный искусственный сверхинтеллект, запертый в виртуальном мире — скажем, просто в табакерке. Вы не знаете, будет он злобным, дружелюбным или нейтральным. Все, что вы знаете, так это то, что он хочет выйти из табакерки и что вы можете взаимодействовать с ним через текстовый интерфейс. Если ИИ будет действительно сверхразумным, сможете ли вы проговорить с ним пять часов и не поддаться на его уговоры и манипуляции — не открыть табакерку?

Этот мысленный эксперимент предложил Элиезер Юдковский, научный сотрудник Научно-исследовательского института машиностроения (MIRI). В MIRI состоит много ученых, которые исследуют риски развития искусственного сверхинтеллекта; хотя его даже не появилось пока, он уже привлекает внимание и разжигает дебаты.

Юдковский утверждает, что искусственный сверхинтеллект может говорить все, что только может, чтобы убедить вас: тщательное рассуждение, угрозы, обман, построение раппорта, подсознательное внушение и так далее. Со скоростью света ИИ выстраивает сюжет, зондирует слабости и определяет, как наиболее легко убедить вас. Как выразился теоретик экзистенциальных угроз Ник Бостром, «мы должны полагать, что сверхинтеллект сможет достичь всего, что поставит целью».

Эксперимент с ИИ из табакерки вызывает сомнения в нашей способности контролировать то, что мы могли бы создать. Он также заставляет нас осмыслить довольно причудливые возможности того, чего мы не знаем о нашей собственной реальности.

Статьи на русском

Е. Юдковский. Систематические ошибки в рассуждениях, потенциально влияющие на оценку глобальных рисков. Е. Юдковский. Искусственный интеллект как позитивный и негативный фактор глобального риска. Е. Юдковский. Вглядываясь в Сингулярность. Е. Юдковский. Таблица критических ошибок Дружественного ИИ. Е. Юдковский. Три школы сингулярности. Е. Юдковский. Уровни организации универсального интеллекта.