Заде Л.А.

 

РОЛЬ МЯГКИХ ВЫЧИСЛЕНИЙ И НЕЧЕТКОЙ ЛОГИКИ В ПОНИМАНИИ, КОНСТРУИРОВАНИИ И РАЗВИТИИ ИНФОРМАЦИОННЫХ / ИНТЕЛЛЕКТУАЛЬНЫХ СИСТЕМ[1]

 

Сущность мягких вычислений (Soft Computing) состоит в том, что в отличие от традиционных, жестких вычислений, они нацелены на приспособление к всеобъемлющей неточности реального мира. Руководящим принципом мягких вычислений является: «терпимость к неточности, неопределенности и частичной истинности для достижения удобства манипулирования, робастности, низкой стоимости решения и лучшего согласия с реальностью». Исходной моделью для мягких вычислений служит человеческое мышление.

Мягкие вычисления не являются отдельной методологией. Это, скорее, объединение, партнерство различных направлений. Главными партнерами в этом объединении являются нечеткая логика, нейровычисления, генетические вычисления и вероятностные вычисления с более поздним включением хаотических систем, сетей доверия и разделов теории обучения.

В ближайшие годы повсеместное распространение интеллектуальных систем несомненно окажет глубокое влияние на сами способы зарождения, конструирования, производства, использования и взаимодействия интеллектуальных систем. Именно в этой перспективе основные вопросы, связанные с мягкими вычислениями и интеллектуальными системами, рассматриваются в этой статье.

 

1. Введение

 

Чтобы увидеть эволюцию нечеткой логики в ближайшей перспективе, важно заметить, что мы присутствуем при завершении информационной революции. Продукты этой революции видны всем: Интернет, Всемирная Паутина, мобильные телефоны, факсимильные машины и бортовые компьютеры с мощными возможностями по обработке информации стали частью повседневной жизни. Революция произошла. Центральная роль информации почти во всех наших делах становится фактом, который трудно оспаривать.

Гораздо менее заметной, но потенциально столь же или даже более важной, чем информационная революция, является революция в области интеллектуальных систем. Артефактами этой революции являются созданные человеком системы, которые обладают способностями рассуждать, учиться на своем или чужом опыте и принимать разумные решения без человеческого вмешательства. Термин «коэффициент машинного интеллекта», сокращенно КМИ (MIQ, Machine Intelligence Quotient) введен мною для характеристики меры интеллекта создаваемых человеком систем. В этом плане интеллектуальная система может пониматься как система с высоким КМИ.

Я еще не раз остановлюсь на КМИ ниже. Вопрос, который хотелось бы поднять сейчас, состоит в следующем. Мы говорим об искусственном интеллекте уже более четырех десятилетий. Почему же ИИ оказалось нужно так много времени, чтобы получить видимые результаты?

Приведем пример, имеющий отношение к этому вопросу. Когда я был преподавателем Колумбийского университета, то написал статью под названием «Думающие машины – новая область в электротехнике», которая была опубликована в студенческом журнале [1]. В первом параграфе этой статьи я процитировал ряд заголовков, появившихся в популярной прессе того времени. Один из заголовков гласил: «Электрический мозг, способный переводить иностранные языки, создан». Моя статья была опубликована в январе 1950, примерно за шесть лет до появления самого термина «искусственный интеллект». Сейчас очевидно, что машина- переводчик не могла быть создана в 1950-м году или ранее. Просто необходимые методологии и технологии тогда отсутствовали.

Теперь мы ведем себя гораздо скромнее, чем в то время. Трудности построения систем, которые могли бы имитировать человеческие рассуждения и познавательные способности, оказались значительно большими, чем предполагалось ранее. Даже сегодня, имея в нашем распоряжении широкий набор мощных средств, мы все еще не способны построить машины, которые могли бы делать то, что многие дети делают с легкостью. Например, машины, понимающие волшебные сказки, способные чистить апельсин или есть пищу ножом и вилкой.

Позвольте здесь вернуться к понятию КМИ. Основное отличие между традиционным коэффициентом интеллектуальности КИ (IQ) и КМИ состоит в том, что КИ является более или менее постоянным, тогда как КМИ изменяется со временем и машинно-зависим. Более того, характеристики КМИ и КИ не совпадают. Например, распознавание речи может быть важной характеристикой для КМИ, но в случае КИ считается тривиальным свойством, всегда имеющимся в наличии.

Пока мы не имеем даже согласованного множества тестов, чтобы измерять КМИ некоторой системы, созданной человеком, например, портативной видеокамеры. Но я верю, что такие тесты будут скоро придуманы, и в конце концов понятие КМИ станет играть важную роль в измерении машинного интеллекта.

В действительности, мы только начинаем входить в век интеллектуальных систем. Почему для того, чтобы это случилось, потребовалось так много времени?

По моему мнению, главная причина такова. До недавнего времени основные инструментарии в арсенале ИИ были сконцентрированы на манипулировании символами и логике предикатов, в то время как численные методы оказались в немилости. Сегодня стало вполне очевидным, что манипулирование символами и логика предикатов имеют серьезные ограничения при работе со многими проблемами реального мира. Это касается таких областей как компьютерное зрение, распознавание речи, распознавание рукописей, понимание образов, поиск в мультимедийных базах данных, планирование движений, рассуждения здравого смысла, управление неопределенностью, и многих других областей, связанных с машинным интеллектом.

 

2. Мягкие вычисления и нечеткая логика

 

В течение ряда прошедших лет наша способность понимать, конструировать и развивать машины с высоким КМИ значительно усилилась в результате появления мягких вычислений. Мягкие вычисления (SC) – это не какая-то отдельная методология. Скорее, это консорциум вычислительных методологий, которые коллективно обеспечивают основы для понимания, конструирования и развития интеллектуальных систем. В этом объединении главными компонентами SC являются нечеткая логика (FL), нейровычисления (NC), генетические вычисления (GC) и вероятностные вычисления (PC). Позднее в этот конгломерат были включены рассуждений на базе свидетельств (evidential reasoning), сети доверия (belief networks), хаотические системы и разделы теории машинного обучения. По сравнению с традиционными жесткими вычислениями, мягкие вычисления более приспособлены для работы с неточными, неопределенными или частично истинными данными/ знаниями. Руководящим принципом мягких вычислений является: «терпимость к неточности, неопределенности и частичной истинности для достижения удобства манипулирования, робастности, низкой стоимости решения и лучшего согласия с реальностью».

В мягких вычислениях весьма важно то, что составляющие их методологии являются в большей степени синергетическими и взаимодополняющими, чем соперничающими. Таким образом, во многих случаях более высокого КМИ можно достигнуть путем совместного использования FL, NC, GC и PC, чем путем их применения по отдельности. Более того, существует много проблем, которые не могут быть решены только каким-то одним средством: нечеткой логикой, нейровычислениями, генетическими вычислениями или вероятностными рассуждениями. Это подвергает сомнению позиции тех, кто во всеуслышание заявляет, что его любимый инструментарий, будь то FL, NC, GC или PC, может решить все проблемы. По мере распространения мягких вычислений число приверженцев таких односторонних точек зрения будет неуклонно сокращаться.

Каждая из составляющих методологий имеет много возможностей для ее использования в рамках мягких вычислений. Нечеткая логика лежит в основе методов работы с неточностью, зернистой структурой (гранулированной) информацией, приближенных рассужденияй и, что наиболее важно, вычислений со словами (Computing with Words). Нейровычисления отражают способность к обучению, адаптации и идентификации. В случае генетических вычислений, речь идет о возможности систематизировать случайный поиск и достигать оптимального значения характеристик. Вероятностные вычисления обеспечивают базу для управления неопределенностью и проведения рассуждений, исходящих из свидетельств.

Системы, в которых FL, NC, GC и PC используются в некоторой комбинации, называются гибридными системами. Наиболее известными системами этого типа являются так называемые нейро-нечеткие системы. Мы начинаем также строить нечетко-генетические системы, нейро-генетические системы и нейро-нечетко-генетические системы. По моему мнению, в конечном итоге большинство систем с высоким КМИ будут гибридными системами. В будущем широкое распространение интеллектуальных систем будет иметь глубокое влияние на сами способы, с помощью которых интеллектуальные системы конструируются, производятся и взаимодействуют.

Каково место нечеткой логики в мягких вычислениях? Прежде, чем ответить на этот вопрос, мне хотелось бы прояснить общее недоразумение относительно того, что такое нечеткая логика и что она должна нам давать. Источником путаницы является то, что термин нечеткая логика используется в двух различных смыслах. В узком смысле, нечеткая логика – это логическая система, являющаяся расширением многозначной логики. Однако, даже для нечеткой логики в узком смысле, список основных операций очень отличается как по духу, так и по содержанию от списка основных операций для систем многозначных логик.

В широком смысле слова, который сегодня преобладает, нечеткая логика равнозначна теории нечетких множеств, т.е. классов с неточными, размытыми границами [2]. Таким образом, нечеткая логика, понимаемая в узком смысле, является разделом нечеткой логики в широком смысле.

Важной характеристикой нечеткой логики является то, что любая теория T может быть фаззифицирована (fuzzified) и, следовательно, обобщена путем замены понятия четкого множества в T понятием нечеткого множества. Таким способом можно прийти к нечеткой арифметике, нечеткой топологии, нечеткой теории вероятностей, нечеткому управлению, нечеткому анализу решений… Выигрышем от фаззификации является большая общность и лучшее соответствие модели действительности. Однако с нечеткими числами труднее оперировать, чем с четкими числами. Более того, значения большинства нечетких понятий зависят от контекста и/или приложения. Это та цена, которую необходимо заплатить за лучшее согласие с реальностью.

 

3. Гранулирование информации

 

В основе методов работы с нечеткими понятиями лежит одна важнейшая особенность. Речь идет о гранулировании информации (Information Granulation) и его роли в человеческих рассуждениях, взаимодействиях и формировании концепций. Далее я попытаюсь объяснить, почему гранулирование информации играет существенную роль в оперировании нечеткими понятиями и, в частности, в рассуждениях и вычислениях со словами, а не с числами.

Понятие гранулирования информации послужило мотивировкой для написания большинства моих ранних работ по нечетким множествам и нечеткой логике. По существу, все человеческие понятия являются нечеткими, так как они получаются в результате группировки (clumping) точек или объектов, объединяемых по сходству. Тогда нечеткость подобных групп (clumps) есть прямое следствие нечеткости понятия сходства. Простыми примерами таких групп являются понятия «средний возраст», «деловая часть города», «немного облачно», «бестолковый» и др. Будем называть данную группу «гранулой» (granule).

В естественном языке (ЕЯ) слова играют роль меток гранул. В этой ипостаси они служат для сжатия данных. Сжатие данных с помощью слов является ключевым аспектом человеческих рассуждений и формирования понятий.

В нечеткой логике гранулирование информации лежит в основе понятий лингвистической переменной и нечетких правил типа «если, …, то» [3, 4]. Эти понятия были формально введены в 1973 году в статье “Основы нового подхода к анализу сложных систем и процессов принятия решений” [5]. Сегодня почти все приложения нечеткой логики используют эти понятия. С исторической точки зрения, интересно заметить, что введение этих понятий было встречено со скептицизмом и враждебностью многими известными членами научного истеблишмента.

Важность нечетких правил связана с тем, что такие правила близки человеческой интуиции. В нечеткой логике нечеткие правила играют центральную роль в языке нечетких зависимостей и команд (Fuzzy Dependency and Command Language, FDCL). С неформальной точки зрения, это как раз тот язык, который используется в большинстве приложений нечеткой логики.

При сравнении нечеткой логики с другими методологиями существенный момент, который часто не осознается, состоит в том, что исходной посылкой в решении, получаемом с помощью нечеткой логики, является человеческое решение. Таким образом, нечеткое логическое решение обычно представляет собой человеческое решение, выраженное в FDCL. Здесь вполне понятным примером может служить задача парковки автомобиля, в которой целью является установка автомобиля рядом с обочиной и почти параллельно ей. Нечетко-логическим решением проблемы парковки был бы набор нечетких «если-то»-правил, которые описывают то, как человек паркует автомобиль. Напротив, проблему парковки тяжело решить в контексте классического управления, поскольку в нем отправной точкой является не человеческое решение, а описание конечного состояния, начального состояния, ограничений и уравнений движения.

Другим примером, иллюстрирующим суть гранулирования информации, является следующий. Рассмотрим ситуацию, в которой субъект A разговаривает по телефону с субъектом B, которого A не знает. За короткое время разговора, скажем, за 10-20 секунд, A может сформировать грубую оценку возраста B, выраженную, например, следующим образом:

“Вероятность того, что B очень молодой, очень малая”,

“Вероятность того, что B молодой, малая”,

“Вероятность того, что B средних лет, большая”,

“Вероятность того, что B старый, малая”,

“Вероятность того, что B очень старый, очень малая”.

 

Эти оценки могут интерпретироваться как гранулярное представление вероятностного распределения P возраста B. В символической форме P может быть представлено нечетким графом:

P = очень малая\очень молодой + малая\молодой + большая\средних лет + малая\старый + очень малая\очень старый

В этом выражении + означает оператор объединения, а терм типа «малая\старый» означает, что «малая» есть лингвистическая вероятность того, что B – «старый». Здесь важным моментом является то, что человек может формировать такие оценки, используя лингвистические, т.е. гранулированные значения возраста и вероятностей. В то же время человек не может думать на основе численных оценок в форме «Вероятность того, что субъекту B  25 лет равна 0.012». 

Следует заметить, что во многих случаях человек оценил бы возраст B термином «средних лет», опуская его вероятность. Пропуск вероятностей может быть оправданным, если существует так называемое p-доминантное значение в вероятностном распределении, т.е. такое значение, вероятность которого доминирует вероятности других значений. Пропуск вероятностей играет ключевую роль в приближенном рассуждении [6].

Гранулирование информации лежит в центре человеческих рассуждений, взаимодействий и формирования понятий. В рамках нечеткой логики оно играет ключевую роль в вычислениях со словами (CW). Вычисления со словами можно рассматривать как один из наиболее важных результатов нечеткой логики. Что это такое? Как следует из названия, при вычислениях со словами объектами вычислений являются слова, а не числа, причем слова играют роль меток гранул. Очень простыми примерами CW являются следующие суждения:

 

«Дана молодая, а Танди на несколько лет старше, чем Дана»

(Танди is (молодая + несколько) лет

 

«Большинство студентов –молодые и большинство молодых студентов одиноки (не имеют семьи)»

(большинство2 студентов одиноки)

 

В этих примерах «молодой», «несколько» и «большинство» суть нечеткие числа, + есть операция сложения в нечеткой арифметике, а «большинство2»–это квадрат от «большинство» в нечеткой арифметике.

В западных культурах существует глубоко заложенная традиция оказывать большее почтение числам, чем словам. Но для любой традиции приходит время, когда ее разумное объяснение оказывается неудовлетворительным и она ставится под сомнение. С моей точки зрения, сейчас пришло время задаться вопросом обоснованности традиции больше верить числам, чем словам.

В этой ситуации необходима система, которая позволяет выражать данные в виде предложений естественного языка. Это как раз то, что пытаются обеспечить вычисления со словами. Исходным моментом в вычислениях со словами является набор предложений, выраженных на ЕЯ. Этот набор называется множеством исходных данных (Initial Data Set, IDS). Желаемые ответы или заключения также выражаются в терминах ЕЯ. Этот набор называется множеством конечных (терминальных) данных (Terminal Data Set, TDS). Проблема состоит в достижении TDS, стартуя с IDS.

Очень простым примером является следующий: множество исходных данных состоит из предложения «Большинство шведов высокие», а множеством конечных данных есть ответ на вопрос «Какова средний рост шведов?» Предполагается, что ответ имеет форму «Средний рост шведов есть A», где A–лингвистическое значение роста. В этом примере цель CW – вычислить A по информации, заложенной во множестве исходных данных.

В вычислениях со словами слова играют роль нечетких ограничений (constraints), а все предложение интерпретируется как нечеткое ограничение на переменную. Например, предложение «Мэри молода» интерпретируется как нечеткое ограничение на возраст Мэри. В символьной записи:

Мэри is молода = Возраст(Мэри) is молодой

 

В этом выражении = представляет собой операцию разъяснения (explicitation), Возраст (Мэри) – ограничиваемую переменную, а «молодой» – нечеткое отношение, которое ограничивает Возраст(Мэри).

В общем случае, если p – предложение на ЕЯ, то результат разъяснения p называется канонической формой p. В своей основе, каноническая форма предложения p делает явным (explicit) неявное (implicit) нечеткое ограничение на p и, таким образом, служит для определения значения p как ограничения на переменную. В более общей постановке каноническая форма p представляется как

X isr R,

где X–лингвистически ограничиваемая переменная, например, Возраст(Мэри), R – ограничивающее нечеткое отношение, например, «молодой», и isr – переменная, в которой r – дискретная переменная, значения которой определяют роль R по отношению к X. В частности, если r=d, то isd обозначается как «is», и ограничение «X is R» называется дизъюнктивным. В этом случае R определяет распределение возможности для X. Какова причина трактовать r как переменную? Богатство естественных языков делает необходимым использование широкого разнообразия ограничений для представления значений предложения, выраженного средствами ЕЯ. В вычислениях со словами основными типами ограничений, которые используются в дополнение к дизъюнктивному типу, являются: конъюнктивный, вероятностный, обычность (usuality), случайное множество, грубое множество, нечеткий граф и функциональные типы. Каждый из этих типов соответствует конкретному значению r. 

В вычислениях со словами первый шаг в определении множества конечных данных состоит в разъяснении, т.е. в представлении предложений из IDS в их канонической форме. Следующий шаг включает распространение ограничений (constraint propagation), которое осуществляется в результате использования правил вывода нечеткой логики. В сущности, правила вывода в нечеткой логике могут интерпретироваться как правила распространения ограничений. Третий и завершающий шаг в вычислении множества конечных данных включает ретрансляцию (retranslation) выведенных ограничений в предложения, выраженные на ЕЯ. В нечеткой логике это требует использования лингвистической аппроксимации.

Следует понимать, что отмеченные выше шаги могут требовать широкого использования обычных вычислений с числами. Однако, здесь вычисления со словами находятся на авансцене, тогда как обычные вычисления проходит как бы за занавесом и скрыты от взгляда пользователя.

Итак, что должны обеспечить методы CW? Возможность вывода из множества исходных данных, в котором информация выражается в виде предложений на ЕЯ, открывает пути для формулировки и решения многих важных проблем, в которых имеющаяся информация не является достаточно точной для использования традиционных методов. Для иллюстрации предположим, что имеется задача максимизации функции, описанной словами в виде нечетких «если-то»-правил:

Если X is малое, то Y is малое,

Если X is среднее, то Y is среднее,

Если X is большое, то Y is малое,

в которых значения «малое», «среднее» и «большое» определены с помощью их функций принадлежности.

Другая подобная задача заключается в следующем. Предположим, что ящик содержит десять шаров разного размера, из которых несколько больших, и немного малых. Какова вероятность того, что случайно вытянутый шар не является ни большим, ни малым?

В этих примерах, предложения, содержащиеся в множестве исходных данных, довольно просты. Действительная проблема состоит в разработке систем вычислений со словами, способных справиться с предложениями значительно большей сложности, которые выражают знания о реальном мире.

В этом контексте, вычисления со словами есть раздел нечеткой логики. В моем представлении, в ближайшие годы вычисления со словами должны превратиться в важнейшее научное направление, обеспечивающее эффективную работу с всеобъемлющей неточностью и неопределенностью реального мира [6]. В этой перспективе исходной моделью для вычислений со словами, нечеткой логики и мягких вычислений является человеческий разум.

 

4. Выводы

 

Понимание, конструирование и развитие информационных/ интеллектуальных систем представляет собой серьезный вызов всем тем, кто вовлечен в разработку и приложения нечеткой логики и мягких вычислений. Будем надеяться, что наши усилия внесут определенный вклад в создание общества, в котором информационные/ интеллектуальные системы будут служить улучшению человеческого благосостояния и интеллектуальной свободы.

 

Литература

 

1.    Zadeh L.A.  Thinking Machines – a New Field in Electrical Engineering// Columbia Eng,. –1950. –№ 3.

2.    Zadeh L.A.  Toward a Theory of Fuzzy Systems// Aspect Network and System Theory. – New York: Rinehart and Winston, 1971.

3.    Zadeh L.A.  The Concept of a Linguistic Variable and its Application to Approximate Reasoning, Part 1, 2 and 3// Information Sciences. – 1975. – Vol. 8. – P.199-249, 301-357 and Information Sciences.–1976. – Vol. 9. –P. 43-80. Имеется русский перевод: Заде Л.А. Понятие лингвистической переменной и его применение к принятию приближенных решений. – М.: Мир, 1976.

4.    Zadeh LA:  The Calculus of Fuzzy If-Then Rules// AI Expert. –1992. –Vol. 7. – P. 23-27.

5.    Zadeh L.A.  Outline of a New Approach to the Analysis of Compex Systems and Decision Processes// IEEE Transactions on Systems, Man and Cybernetics.–1973.–Vol. SMC 3.–P.28–44. Имеется русский перевод: Заде Л.А. Основы нового подхода к анализу сложных систем и процессов принятия решений// Математика сегодня. – М.: Знание, 1974. – С.5-49.

6.    Zadeh L.A, Yager R.R.  Uncertainty in Knowledge Base. – Berlin: Springer-Verlag, 1991.

 



[1] Перевод с англ. И.З. Батыршина

Хостинг от uCoz