Рэй Соломонов - Ray Solomonoff

Рэй Соломонофф (25 июля 1926 г. - 7 декабря 2009 г.) был изобретателем алгоритмической вероятности , своей Общей теории индуктивного вывода (также известной как универсальный индуктивный вывод) и основателем алгоритмической теории информации . Он был основоположником искусственного интеллекта, основанного на машинном обучении , прогнозировании и вероятности . Он распространил первый отчет о несемантическом машинном обучении в 1956 году.

Соломонов впервые описал алгоритмическую вероятность в 1960 году, опубликовав теорему, положившую начало теории сложности Колмогорова и алгоритмической теории информации . Впервые он описал эти результаты на конференции в Калифорнийском технологическом институте в 1960 г. и в отчете от февраля 1960 г. «Предварительный отчет по общей теории индуктивного вывода». Он разъяснил эти идеи более полно в своих публикациях 1964 года «Формальная теория индуктивного вывода», часть I и часть II.

Алгоритмическая вероятность - это математически формализованная комбинация бритвы Оккама и принципа множественных объяснений. Это машинно-независимый метод присвоения значения вероятности каждой гипотезе (алгоритму / программе), объясняющей данное наблюдение, при этом простейшая гипотеза (кратчайшая программа) имеет наивысшую вероятность, а все более сложные гипотезы получают все более малые вероятности.

Соломонов основал теорию универсального индуктивного вывода , которая основана на прочных философских основах и уходит корнями в колмогоровскую сложность и алгоритмическую теорию информации . Теория использует алгоритмическую вероятность в байесовской структуре. Универсальный априор берется над классом всех вычислимых мер; никакая гипотеза не будет иметь нулевой вероятности. Это позволяет использовать правило Байеса (причинно-следственной связи) для предсказания наиболее вероятного следующего события в серии событий и его вероятности.

Хотя он больше всего известен алгоритмической вероятностью и своей общей теорией индуктивного вывода , за всю свою жизнь он сделал много других важных открытий, большинство из которых были направлены на достижение его цели в области искусственного интеллекта: разработка машины, которая могла бы решать сложные задачи с использованием вероятностных методов.

История жизни до 1964 года

Рэй Соломонов родился 25 июля 1926 года в Кливленде, штат Огайо , в семье еврейских русских иммигрантов Филиппа Джулиуса и Сары Машман Соломоновы. Он учился в средней школе Гленвилля, которую окончил в 1944 году. В 1944 году он поступил на военно-морской флот США в качестве инструктора по электронике. В 1947–1951 годах он учился в Чикагском университете у таких профессоров, как Рудольф Карнап и Энрико Ферми , и получил степень магистра физики в 1951 году.

С ранних лет его двигала чистая радость математических открытий и желание исследовать то, чего раньше никто не делал. В возрасте 16 лет, в 1942 году, он начал искать общий метод решения математических задач.

В 1952 году он встретил Марвина Мински , Джона Маккарти и других, интересовавшихся машинным интеллектом. В 1956 году Мински, Маккарти и другие организовали Дартмутскую летнюю исследовательскую конференцию по искусственному интеллекту , на которую Соломонов был одним из первых 10 приглашенных - он, Маккарти и Мински были единственными, кто остался все лето. Именно для этой группы искусственный интеллект был впервые назван наукой. Компьютеры в то время могли решать очень конкретные математические задачи, но не более того. Соломонов хотел задать более важный вопрос: как сделать машины более разумными и как компьютеры могут использовать для этой цели вероятность.

История работы до 1964 года

Он написал три статьи, две с Анатолем Рапопортом , в 1950–52 годах, которые считаются самым ранним статистическим анализом сетей.

Он был одним из 10 участников Летнего исследовательского проекта по искусственному интеллекту в Дартмуте 1956 года . Он написал и распространил среди участников доклад: «Машина индуктивного вывода». Он рассматривал машинное обучение как вероятностное, с акцентом на важность обучающих последовательностей и на использование частей предыдущих решений проблем при построении пробных решений для новых проблем. Он опубликовал версию своих открытий в 1957 году. Это были первые статьи о вероятностном машинном обучении.

В конце 1950-х он изобрел вероятностные языки и связанные с ними грамматики. Вероятностный язык присваивает значение вероятности каждой возможной строке.

Обобщение концепции вероятностных грамматик привело его к открытию в 1960 году «Алгоритмической вероятности и общей теории индуктивного вывода».

До 1960-х годов обычный метод расчета вероятности основывался на частоте: взятии отношения благоприятных результатов к общему количеству испытаний. В своей публикации 1960 года и, более полно, в своих публикациях 1964 года Соломонов серьезно пересмотрел это определение вероятности. Он назвал эту новую форму вероятности «алгоритмической вероятностью» и показал, как использовать ее для предсказания в своей теории индуктивного вывода. В рамках этой работы он разработал философское основание для использования правила причинности Байеса для предсказания.

Основная теорема того, что позже было названо колмогоровской сложностью, была частью его общей теории. Написав в 1960 году, он начинает: «Рассмотрим очень длинную последовательность символов ... Мы будем считать такую ​​последовательность символов« простой »и имеющей высокую априорную вероятность, если существует очень краткое описание этой последовательности - используя, конечно, какой-то предусмотренный метод описания. Точнее, если мы будем использовать только символы 0 и 1 для выражения нашего описания, мы присвоим вероятность 2 - N последовательности символов, если ее кратчайшее возможное двоичное описание содержит N цифры ".

Вероятность относится к конкретной универсальной машине Тьюринга . Соломонов показал и в 1964 году доказал, что выбор машины, хотя она и может добавлять постоянный множитель, не сильно изменит отношения вероятностей. Эти вероятности не зависят от машины.

В 1965 году аналогичные идеи независимо опубликовал русский математик Колмогоров . Когда он узнал о работе Соломонова, он признал Соломонова, и в течение нескольких лет работы Соломонова были более известны в Советском Союзе, чем в западном мире. Однако общее мнение в научном сообществе заключалось в том, чтобы связывать этот тип сложности с Колмогоровым, которого больше интересовала случайность последовательности. Алгоритмическая вероятность и универсальная (Соломонова) индукция стали ассоциироваться с Соломоновым, который был сосредоточен на предсказании - экстраполяции последовательности.

Позже, в той же публикации 1960 года, Соломонов описывает свое расширение теории единственного кратчайшего кода. Это алгоритмическая вероятность. Он заявляет: «Казалось бы, если существует несколько различных методов описания последовательности, каждому из этих методов следует придать определенный вес при определении вероятности этой последовательности». Затем он показывает, как эту идею можно использовать для генерации универсального априорного распределения вероятностей и как она позволяет использовать правило Байеса в индуктивном выводе. Индуктивный вывод путем суммирования прогнозов всех моделей, описывающих конкретную последовательность, с использованием подходящих весов, основанных на длинах этих моделей, позволяет получить распределение вероятностей для расширения этой последовательности. С тех пор этот метод предсказания получил название индукции Соломонова .

Он расширил свою теорию, опубликовав ряд отчетов, приведших к публикациям в 1964 году. В статьях 1964 года дается более подробное описание алгоритмической вероятности и индукции Соломонова, представляющих пять различных моделей, включая модель, широко известную как универсальное распределение.

История работы с 1964 по 1984 год

Другие ученые, участвовавшие в Дартмутской летней конференции 1956 года (например, Ньюэлл и Саймон ), разрабатывали отрасль искусственного интеллекта, в которой использовались машины, управляемые правилами «если-то», основанными на фактах. Соломонов развивал ветвь искусственного интеллекта, которая фокусировалась на вероятности и предсказании; его конкретный взгляд на ИИ описывал машины, которые управлялись распределением алгоритмической вероятности. Машина генерирует теории вместе с соответствующими вероятностями для решения проблем и по мере развития новых проблем и теорий обновляет распределение вероятностей теорий.

В 1968 году он нашел доказательство эффективности алгоритмической вероятности, но, главным образом, из-за отсутствия всеобщего интереса в то время, опубликовал его только через 10 лет. В своем отчете он опубликовал доказательство теоремы о сходимости.

Спустя годы после открытия алгоритмической вероятности он сосредоточился на том, как использовать эту вероятность и индукцию Соломонова в реальном прогнозировании и решении проблем для ИИ. Он также хотел понять более глубокие последствия этой системы вероятностей.

Одним из важных аспектов алгоритмической вероятности является то, что она является полной и невычислимой.

В отчете 1968 года он показывает, что алгоритмическая вероятность является полной ; то есть, если есть какая-либо описываемая закономерность в теле данных, алгоритм алгоритмической вероятности в конечном итоге обнаружит эту закономерность, требуя относительно небольшой выборки этих данных. Алгоритмическая вероятность - единственная система вероятностей, которая, как известно, завершена таким образом. Как необходимое следствие своей полноты, это не поддается расчету . Невозможно вычислить, потому что некоторые алгоритмы - подмножество частично рекурсивных - никогда не могут быть оценены полностью, потому что это займет слишком много времени. Но эти программы, по крайней мере, будут признаны возможными решениями. С другой стороны, любая вычислимая система неполна . Всегда будут описания вне области поиска этой системы, которые никогда не будут подтверждены или рассмотрены, даже через бесконечное количество времени. Вычислимые модели прогнозирования скрывают этот факт, игнорируя такие алгоритмы.

Во многих своих статьях он описывал, как искать решения проблем, и в 1970-х и начале 1980-х разработал то, что, по его мнению, было лучшим способом обновить машину.

Однако использование вероятности в ИИ не было полностью гладким. В первые годы развития искусственного интеллекта актуальность вероятности была проблематичной. Многие в сообществе ИИ считали, что вероятность в их работе неприменима. В области распознавания образов действительно использовалась форма вероятности, но поскольку не было широко обоснованной теории того, как включить вероятность в какую-либо область ИИ, в большинстве областей она вообще не использовалась.

Однако были такие исследователи, как Перл и Питер Чизмен, которые утверждали, что вероятность можно использовать в искусственном интеллекте.

Примерно в 1984 году на ежегодном собрании Американской ассоциации искусственного интеллекта (AAAI) было решено, что вероятность никоим образом не имеет отношения к ИИ.

Сформировалась группа протеста, и в следующем году на собрании AAAI был проведен семинар, посвященный «Вероятности и неопределенности в ИИ». Этот ежегодный семинар продолжается и по сей день.

В рамках протеста на первом семинаре Соломонов сделал доклад о том, как применить универсальное распределение к задачам в ИИ. Это была ранняя версия системы, которую он разрабатывал с того времени.

В этом отчете он описал разработанную им методику поиска. В задачах поиска наилучший порядок поиска - это время , где - время, необходимое для проверки испытания, и вероятность успеха этого испытания. Он назвал это «концептуальным размером прыжка» проблемы. Методика поиска Левина приближается к этому порядку, и поэтому Соломонов, изучавший работы Левина, назвал этот метод поиска Lsearch.

История работы - более поздние годы

В других статьях он исследовал, как ограничить время, необходимое для поиска решений, писал о поиске с ограничением ресурсов. Пространство поиска ограничено доступным временем или стоимостью вычислений, а не вырезанием пространства поиска, как это делается в некоторых других методах прогнозирования, таких как минимальная длина описания.

На протяжении всей своей карьеры Соломонов был обеспокоен потенциальными преимуществами и опасностями ИИ, обсуждая их во многих своих опубликованных отчетах. В 1985 году он проанализировал вероятную эволюцию ИИ, предложив формулу, предсказывающую, когда он достигнет «Точки бесконечности». Эта работа - часть истории размышлений о возможной технологической сингулярности .

Первоначально методы алгоритмической индукции экстраполировали упорядоченные последовательности строк. Нужны были методы для работы с другими видами данных.

В отчете 1999 года универсальное распределение и связанные с ним теоремы сходимости обобщаются на неупорядоченные наборы строк, а в отчете 2008 года - на неупорядоченные пары строк.

В 1997, 2003 и 2006 годах он показал, что невычислимость и субъективность являются необходимыми и желательными характеристиками любой высокоэффективной индукционной системы.

В 1970 году он основал свою собственную компанию Oxbridge Research и продолжил там свои исследования, за исключением периодов работы в других учреждениях, таких как Массачусетский технологический институт, Саарский университет в Германии и Институт искусственного интеллекта Далле Молле в Лугано, Швейцария. В 2003 году он стал первым лауреатом Колмогоровской премии Исследовательского центра компьютерного обучения при Лондонском университете Ройал Холлоуэй, где он прочитал первую лекцию Колмогорова. Соломонов совсем недавно был приглашенным профессором в CLRC.

В 2006 году он выступал на AI @ 50 , «Дартмутская конференция по искусственному интеллекту: следующие пятьдесят лет», в ознаменование пятидесятой годовщины первоначальной летней исследовательской группы в Дартмуте. Соломонов был одним из пяти первоначальных участников, которые присутствовали на нем.

В феврале 2008 года он выступил с основным докладом на конференции «Современные тенденции в теории и применении компьютерных наук» (CTTACS), проходившей в Университете Нотр-Дам в Ливане. После этого он прочитал короткую серию лекций и начал исследования новых приложений алгоритмической вероятности.

Алгоритмическая вероятность и индукция Соломонова имеют много преимуществ для искусственного интеллекта. Алгоритмическая вероятность дает чрезвычайно точные оценки вероятности. Эти оценки можно пересмотреть с помощью надежного метода, чтобы они оставались приемлемыми. Он очень эффективно использует время поиска. Помимо оценок вероятности, «алгоритмическая вероятность» имеет для ИИ еще одно важное значение: множество моделей дает нам множество различных способов понимания наших данных;

Описание жизни и работы Соломонова до 1997 г. содержится в "The Discovery of Algorithmic Probability", Journal of Computer and System Sciences, Vol 55, No. 1, pp 73–88, August 1997. Статья, а также большая часть остальные, упомянутые здесь, доступны на его веб-сайте на странице публикаций .

В статье, опубликованной в год его смерти, в журнальной статье о Соломонове говорилось: «Ученый, придерживающийся самых традиционных взглядов, понимает свою науку, используя единственную« текущую парадигму »- способ понимания, который наиболее популярен в настоящее время. Более творческий подход ученый понимает свою науку по-разному, и ему легче создавать новые теории, новые способы понимания, когда «текущая парадигма» больше не соответствует текущим данным ».

Смотрите также

  • Мин Ли и Пол Витаньи , Введение в сложность Колмогорова и ее приложения. Springer-Verlag, NY, 2008, включает исторические заметки о Соломонове, а также описание и анализ его работ.
  • Универсальный искусственный интеллект Маркуса Хаттера

использованная литература

внешние ссылки