Герман Алексеевич Голицын, к сожалению недавно ушедший от нас то, что я буду сегодня доклад

Вид материалаДоклад

Содержание


Определенность образа.
Конкретность образа.
2. Снижение четкости (увеличение уровня шума).
Подобный материал:

Дискуссионная трибуна


__________________________________________________


В этом номере мы продолжаем публикацию материалов научного семинара «Отражение образного мышления и интуиции специалиста в системах искусственного интеллекта»


Фоминых И.Б.


ИНТЕГРАЦИЯ ЛОГИЧЕСКИХ И ОБРАЗНЫХ МЕТОДОВ ОТРАЖЕНИЯ ИНФОРМАЦИИ В СИСТЕМАХ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА


В этом докладе мне хотелось бы обрисовать контуры новой парадигмы в ИИ, предполагающей интеграцию логических и образных механизмов интеллектуальной деятельности.


Сначала немного об истоках. Примерно лет 30 назад в Институте нейрофизиологии им. И.М.Сеченова под руководством Петра Кузьмича Анохина (известного ученика Сеченова) возник некий коллектив, который объединил совсем молодых еще людей разных профессий – нейрофизиологов, математиков, инженеров. Среди них мне хотелось бы выделить троих. Это Герман Алексеевич Голицын, к сожалению недавно ушедший от нас (то, что я буду сегодня докладывать, в значительной степени базируется на его оригинальных разработках [1-3], и вскоре в издательстве «Русский дом» должна выйти в свет его книга «Информация и творчество» [4], где при изложении широко используется аппарат статистической термодинамики). Затем это Елена Николаевна Винарская, известная своими работами по системе знаний и ценностей человека [5]. И, наконец, это Леонид Борисович Емельянов-Ярославский. Его книгу «Индуктивный квазибиологический вывод», вышедшую в издательстве «Наука» примерно в 1990 г. большинство здесь присутствующих, наверное, знают. Мне также посчастливилось работать в этой группе, хотя я пришел в нее чуть позже.


Тогда была эра бионики, на слуху были имена Н.М.Амосова, А.В.Напалкова, В.В.Чавчанидзе, ряда других. Это был первый виток развития современного комплекса научных дисциплин, широко использующих биологические аналогии, т.е. стремящихся учесть принципы и механизмы поведения живых организмов при разработке искусственных систем.


Вот Дмитрий Александрович Поспелов, который в очень образной форме сделал свой доклад о роли и моделировании образов в ИИ*, использовал понятие «топляков», которое мне очень близко. Действительно, сейчас некоторые идеи и представления почти тридцатилетней давности заново всплывают. Наверное, это неслучайно. Обратимся к истории ИИ, которая началась в 1969 г. после издания трудов Первой международной объединенной конференции по ИИ в Вашингтоне **. Именно в это

___________________________________________________________________________


* Доклад Д.А.Поспелова «Метафора, образ и символ в познании мира» опубликован в журнале «Новости искусственного интеллекта»-1998.-№1.-С.94-114.

** Это не совсем так. Скорее в 1969 г. после Первой объединенной конференции термин ИИ обрел широкое международное гражданство, но самое начало этой дисциплине положил исторический Дартмутский семинар 1955 г. – Прим. ред.


время прервалась эра «наивного» образного подхода, которая уступила свое место логической парадигме. А сегодня уже логическая парадигма испытывает если не кризис, то явные «сбои». Несмотря на то, что я сам волей судьбы был причастен и к построению логических решателей задач, и к разработке экспертных систем, мне были яcно видны ограничения чисто логического подхода. Их не помогают полностью преодолеть ни немонотонная логика, ни нечеткая логика. Особенно, это касается вопросов решения творческих задач, которые сплошь и рядом встречаются в человеческой деятельности. Здесь не привлекая понятия интуиции, аналогий и образного мышления трудно что-либо сделать. Конечно, не одни мы пришли к этому выводу. Так в США аналогичными проблемами занимается ряд исследователей, среди которых мне хотелось бы выделить Р.Линскера. Правда, известные мне работы Р.Линскера датируются концом 80-х – началом 90-х годов, и после этого я, к сожалению, не знаю, во что они вылились.


Как же должна строиться новая парадигма в ИИ? Ключевое слово здесь, пожалуй, «синтез». Она должна быть синтетической в том смысле, что, не отвергая полностью логическую парадигму, нужно усилить образную составляющую интеллекта. Но синтез должен быть не поверхностным, а глубинным. Глубинный синтез означает снятие противоречий, существующих в тезисе и антитезисе, и возникновение нового качества. В контексте интеллектуальных систем синтез означает, что для повышения потенциальных возможностей систем необходимо использовать гибридные подходы, сочетающие образный и логический методы обработки информации во взаимосвязи и взаимосодействии. Приведу простой пример. Кто-то смотрит на предмет и говорит, что по форме это скорее квадрат или прямоугольник, а кто-то другой считает его кругом. Как разрешить это противоречие? Только с помощью синтеза. Здесь может быть поверхностный синтез – «квадратура круга». Но это не решение проблемы. Решение вопроса есть цилиндр – структура, сочетающая и круги, и прямоугольники. Вот вам пример более глубокого синтеза.


Именно такую ситуацию мы имеем сегодня в искусственном интеллекте. Исторически сложилось так, что в ИИ используется традиционное исчисление предикатов и его расширения, включая неклассические логики. Но этого недостаточно. Существует хорошо разработанный аппарат непрерывной математики. Нужно шире его применять в ИИ.


Для реализации гибридных систем ИИ нового класса необходимо осознать, хотя бы в очень упрощенной форме, чем отличается образ от понятия, образное (интуитивное) мышление от понятийного (логического), как соотносятся четкая и нечеткая логики, какова роль эмоций в поведении.


В наших работах, как один из возможных подходов, используется аппарат статистической термодинамики, опирающийся на вероятностные представления. Как показал А.Н.Колмогоров, вероятность можно трактовать в более широком смысле – как концентрацию или «концентрирование» (и это близко к тому, о чем сегодня говорил Дмитрий Александрович). Иными словами, необязательно отождествлять вероятность с бросанием костей и ожиданием, выпадет ли черное или белое.


Наша концепция основана на принципе максимума [1]. Что это такое? Принцип максимума исходит из гипотезы, что поведение любой адаптивной системы – биологической, технической или социальной – требует обеспечения максимума информации для ее наилучшей адаптации к среде. Количественной мерой адаптации является взаимная информация между стимулами или условиями решения задачи и реакциями, которая определяется в виде


I(x,y) = log[р(х/у)/р(х)] = log[р(х,у)/р(х),р(у)], (1)

где р(х/у) - условная вероятность события х при условии наступления события у; р(х), р(у) - безусловные вероятности событий х и у соответственно;

р(х,у) - вероятность комбинации событий (х,у) или взаимная вероятность.


Это выражение имеет достаточно ясный физический смысл: если событие (условие) у повышает вероятность события х (так, что p(x/у) больше p(х)), то значит между событиями x и y есть связь. И мерой этой связи служит взаимная информация I(x,y). Будем рассматривать события x и y как реализацию значений некоторых случайных дискретных переменных X и Y. В общем случае, переменные X,Y являются векторами, т.е. содержат несколько компонент. Теперь можно определить среднюю взаимную информацию между переменными X и Y следующим образом:


I(X,Y) = xyp(x,y)log[p(x/y)/p(x)] = y p(y) x p(x/y) log [p(x/y)/p(x)] = H(X)-H(X/Y), (2)

где H(X) = - xy p(x,y) log p(x) - безусловная энтропия (разнообразие или собственная информация, содержащаяся в x); H(X/Y) = -xy p(x,y)log p(x/y) = - y p(y) x p(x/y)log p(x/y) - условная энтропия, отражающая наличие помех в «информационном канале», неоднозначностей в связях между Х и Y или «разнообразие ошибок», возникающих при передаче информации между X и Y.


Итак, взаимная вероятность представляет собой функционал качества. Если взаимная вероятность между стимулами и реакциями достаточно большая, но меньше единицы, то по логарифму мы получаем отрицательную реакцию системы.


Здесь еще важен принцип, называемый положительной обратной связью*. Если в технических системах наиболее широко применяется принцип отрицательной обратной связи, предполагающий управление по критерию минимизации нежелательного отклонения или рассогласования между входным и выходным сигналом, то в биологических системах ведущее место занимает принцип положительной обратной связи, основанный на идее увеличения желательного отклонения.


Взаимная вероятность при некоторых условиях может увеличиваться быстрее, чем вероятности p(x) и p(y) в отдельности. В конце концов после преодоления некоторого порога по принципу положительной обратной связи получаем максимум.


З.Б.Рахманова


А как определяются эти пороги? В каждом конкретном случае свой конкретный порог?


И.Б.Фоминых


Об этом чуть позже. Что еще нужно сейчас уточнить? Категории «Образ» и «Понятие». Каково главное различие между ними и как его описать? Исходя из вероятностной концепции, основное различие между образом и понятием состоит в том


* В зарубежной литературе для науки о положительных обратных связях и связанных с ними процессах самоорганизации было даже предложено название «Кибернетика-2» в отличие от обычной кибернетики (общей теории управления), изучающей отрицательные обратные связи. К числу наиболее заметных представителей «второй кибернетики» относятся У.Р.Эшби, С.Бир, Г.фон Ферстер, Г.Паск, Г.Бейтсон. – Прим. ред.


что понятие есть совокупность объектов и моделируется некоторым равномерным распределением, а образ – колоколообразное или холмообразное распределение.


Отсюда вытекают особенности образа по сравнению с понятием. Каковы эти особенности? Вначале перечислим их. Это определенность, ассимиляция, кумулятивность, целостность и конкретность [6].


1. Определенность образа. Образ отличается от понятия значительно большей определенностью своих признаков. Здесь об этом в своем докладе уже упоминал Дмитрий Александрович. Например, если мы говорим «яблоко», то российский человек чаще всего представит себе антоновку, т.е. зеленое яблоко, а южанин – скорее красное или желтое яблоко, скажем, королевский апорт. Понятие же охватывает некоторую область в пространстве признаков. Так если имеется n признаков, то образ представляет собой гиперхолм в n-мерном пространстве, а понятие – гиперплато.

2. Ассимиляция. Это очень важная особенность, тесно связанная с понятием аттрактора. Вот здесь Валерий Борисович Тарасов употребил термин «синергетический ИИ». Как известно, в последнее время бурно развивается синергетика – наука о самоорганизующихся системах. Она становится своего рода «нервным узлом», посылающим импульсы многим другим наукам, в том числе и ИИ. Действительно, сейчас в ИИ настал момент, когда интеграция разнородных школ и даже дисциплин дает «приток живой крови». В нашей модели образа понятия синергии и аттрактора используются в том смысле, что вершина холма как точка наибольшей информативности притягивает к себе соседние точки (значения признаков), ассимилируя близкие представления. Поэтому «типичный образ» и способен замещать множество «близких образов». Эффект ассимиляции делает образ малочувствительным к небольшим отклонениям его признаков. Получается cвоего рода эффект воронки, когда все, что попадает в ближайшую окрестность образа, как бы наслаивается и обогащает его.


В отличие от образа, у понятия подобных аттракторов нет. Единство понятия обеспечивается не эффектом ассимиляции, а семиотическим путем, с помощью общего знака (символа), который ассоциируется со всеми комбинациями признаков, входящих в понятие, и служит их представителем.


3. Кумулятивность. Важное различие между образом и понятием состоит в том, что повторение образа меняет его распределение вероятностей, делая его более крутым и высоким. Это определяет кумулятивность образа. Для понятия повторение не имеет смысла - равномерное распределение вероятностей не меняет формы, иначе оно перестает быть равномерным. Из этого следует важный факт: в классической логике принятие или непринятие высказывания определяются его истинностью или ложностью раз и навсегда. И повторение здесь ничего не может изменить. Напротив, в образном мышлении многократное повторение какой-то идеи может перевести ее из подпорогового состояния в надпороговое и кардинальным образом изменить отношение к ней субъекта - с негативного на позитивное. Это свойство образа играет важную роль в процессах творчества: простое многократное повторение условий задачи может перевести решение из бессознательного на уровень сознания. В этом же направлении действует и эффект положительной обратной связи, лавинообразно переводящий систему в новое состояние.


4. Целостность. Следует отметить, что целостность образа обеспечивается наличием тесных, неразрывных связей между признаками, которые позволяют по нескольким известным или наблюдаемым признакам восстановить остальные - отсутствующие или искаженные. Целостность позволяет распространить эффект ассимиляции с одного признака на другие. Действительно, если правильно задается хотя бы одна из координат вершины гиперхолма x, то тем самым определяются наиболее вероятные (наиболее информативные) значения и остальных координат - y,z и т.д. Этим образ отличается от понятия, которое таким свойством не обладает.


Задав значение одного из признаков понятия, мы определяем лишь сечение гиперплато, т.е. некоторые диапазоны изменений остальных признаков, некоторое множество равновероятных значений, из которых ни одно не является предпочтительным. Иначе говоря, признаки образа связаны достаточно прочными ассоциациями, тогда как у понятия такие связи между признаками отсутствуют, признаки существуют в значительной степени независимо друг от друга.


5. Конкретность образа. Итак, признаки образа всегда присутствуют вместе, в «единой упряжке», так что в этой целостности часто бывает просто невозможно вычленить какой-то один. Обычно при попытке намеренно убрать какой-то признак происходит его спонтанное самовосстановление. Это определяет конкретность образа. Напротив, признаки понятия легко отделяются друг от друга, абстрагируются и могут задаваться и рассматриваться по отдельности. Поэтому понятие может иметь разные, сколь угодно высокие степени абстрактности, тогда как образ просто не может быть абстрактным: лишенный части своих признаков он перестает быть образом.


Теперь, для того, чтобы вскрыть различия между образным и понятийным механизмами обработки информации, дадим определение задачи на языке теории множеств и теории вероятностей. Задачей будем называть такое описание объекта, когда заданы значения только некоторых его признаков (условия задачи) и нужно найти (восстановить) значения остальных признаков (решение задачи).


Пусть в пространстве признаков имеется некоторое множество возможных решений. Каждое условие (предпосылка), накладывая на него ограничение, задает свое подмножество решений. Конъюнкции условий соответствует пересечение этих множеств, внутри которого и должны лежать решения. Как работает классическая, четкая логика? Если предпосылки не противоречат друг другу, то последовательное нанизывание конъюнкций приводит к тому, что пересечение множеств сужается, стягивается к единственному выводу (решению), который и появляется на выходе системы. Если же какие-то две предпосылки противоречат друг другу, то соответствующие множества не пересекаются и возникает тупик - множество выводов (решений) оказывается пустым. В частности, если одна из предпосылок является ложной, то она может вступить в противоречие с одной из истинных предпосылок - тогда система заходит в тупик и останавливается. Но это еще не худший случай. Еще хуже, когда такой противоречащей предпосылки среди истинных не окажется - тогда логическая система доходит до конца и выдает ложный вывод.


В нечеткой логике положение несколько лучше, поскольку здесь принадлежность к данному множеству в принципе не обращается в нуль (хотя может быть и очень малой). Ложная предпосылка и здесь задает ложное множество решений. Но это множество является размытым и потому не исключает возможности других решений. Конъюнкция с другими, истинными предпосылками не приводит систему в тупик, множество решений никогда не остается пустым. Поэтому возможен своего рода «туннельный эффект»: постепенное накопление правильных предпосылок и фактов способно повысить правдоподобие верного вывода (лежащего за пределами ложного множества) настолько, что он в конце концов преодолеет ложную предпосылку и появится на выходе системы. Ложная предпосылка создает определенный порог для правильного вывода, но порог этот в принципе преодолим. Для четкой же логики порог является абсолютным, бесконечно высоким, и вывод, лежащий за пределами принятой однажды ложной предпосылки, остается навсегда недоступным.


Если два каких-то подмножества не пересекаются, множество решений оказывается пустым и соответствующие условия задачи оказываются противоречивыми, то это как раз наиболее интересная ситуация, поскольку большинство нетривиальных творческих задач (например, изобретательских) как раз и содержат противоречия в своих исходных посылках.


Анализ показывает, что противоречие часто возникает потому, что исходное множество представлений субъекта ограничено (локальная точка зрения). Это значит, что подмножества, соответствующие условиям задачи, не пересекаются внутри этого исходного множества, но вполне могут пересекаться за его пределами. Следовательно, необходима какая-то технология, какие-то приемы выхода за пределы ограниченного исходного множества. Трудность создания такой технологии состоит в том, что само существование этого ограничения обычно не осознается.


Таким образом, многие проблемы в решении сложных, творческих задач, которые требуют преодоления каких-то ограничений, выхода за пределы исходного множества представлений, сплошь и рядом обусловлены именно присутствием в человеческом мышлении, ложных, притом очень часто неосознаваемых, предпосылок – всякого рода предрассудков, заблуждений, неверных представлений и пр. Вся история науки и техники - это история борьбы с предрассудками, их преодоления, в котором интуиция играла первостепенную роль. Планер мог быть изобретен уже в древнем Египте или древнем Китае. Никаких технических препятствий к этому не было. Мешал только предрассудок - убеждение, что человеку не дано летать. Очки и линзы были известны за 300 лет до изобретения телескопа. Соединить две линзы и получить телескоп мешало убеждение, что поскольку уже одна линза дает «искаженное» изображение, то от двух вообще ничего хорошего ждать не приходится.


Обычный путь возникновения ограничений в изобретательской и конструкторской практике - когда за отправную точку новой конструкции берется какой-то известный прототип и начинается его «улучшение». При этом многие черты прототипа некритически наследуются новой конструкцией. Часто случается, что ситуация изменилась, появились новые материалы, открытия, технологические процессы, которые снимают прежде неизбежные ограничения, но изобретатель о них просто не знает или забывает.


Отсюда следует важная роль интуиции, образного мышления: интуиция позволяет преодолевать предрассудки, не осознавая их. В целом, можно утверждать, что интуиция - это особая технология решения творческих задач, которая позволяет бессознательно преодолевать предрассудки.


Мало, однако, просто понять роль интуиции в творчестве. Нужно уметь ее стимулировать, заставить работать. Здесь остановимся на двух приемах, достаточно простых и не требующих особых пояснений.


1.Повторение. В систему, работающую по четкой логике, достаточно ввести какое-то знание лишь один раз. Оно будет либо истинным, либо ложным и никакое повторение ничего здесь не в силах изменить. (Плато, соответствующее понятию, не меняет своей формы от повторения). Часто эта истина механически распространяется и на системы с нечеткой логикой. Однако здесь дело обстоит совсем иначе. Высота холма и крутизна его склонов возрастают с повторением. При этом может случиться, что растущий холм поглотит лежащий рядом малый холм и система перейдет от локального максимума вероятности к глобальному. Известно, что просто повторяя человеку какую-то сомнительную (с его точки зрения) идею можно в конце концов добиться признания ее истинности и отказа его от прежних представлений. В этом, как известно, состоит один из приемов пропаганды. Точно так же можно «переубедить» наше подсознание, которое находится в плену какого-то предрассудка. Просто повторяя и закрепляя в памяти условия задачи, можно добиться того, что однажды обратившись к ней в очередной раз, мы находим ее решенной. И удивляемся, как это столько раз проходили мимо столь очевидного решения. Прием выглядит настолько простым, что часто ему не уделяют должного внимания, между тем практика вполне подтверждает его эффективность.

2. Снижение четкости (увеличение уровня шума). Степень нечеткости границ множества зависит от крутизны «гиперхолма». Пусть «гиперхолм», соответствующий решению, стал более высоким, чем тот, который описывает исходное представление (например, в результате того же повторения). Тогда снижение четкости («размывание») может привести к тому, что малый (локальный) экстремум будет поглощен глобальным, барьер между ними снят и система сделает прежде невозможный скачок от старого представления к новому. У человека такое снижение четкости (и как следствие - самые неожиданные скачки мысли) происходит, например, во сне, или под влиянием алкоголя. Разумеется, на компьютере, необязательно воспроизводить эти приемы буквально (особенно последний). Известный метод «имитации отжига», практикуемый при обучении нейронных сетей, показывает, как такие вещи могут быть реализованы в технике.


Теперь кратко обрисуем, что такое эмоции и какую они играют роль в поведении адаптивных систем [1]. Из теории оптимального управления известно, что мало задать функционал или целевую функцию системы - этот глобальный критерий оптимальности не может служить непосредственным руководством к действию. На основе этого критерия должно быть получено еще и локальное правило («закон управления»), задающее в каждых конкретных условиях значение управляющего параметра как функцию этих условий. Именно закон управления позволяет - с учетом динамики системы и наложенных на нее ограничений - реализовать оптимальное поведение, доставляющее минимум функционалу. Эмоции в живых организмах и выполняют функцию такого локального критерия управления, подсказывая организму, где хорошо и где плохо в данных конкретных условиях. Аналоги эмоций можно найти и в технических, и даже в простейших физических системах. Например, шарик, скатывающийся в лунку,подчиняется глобальному принципу минимума потенциальной энергии. Однако непосредственное движение в каждой конкретной ситуации направляется локальным критерием - силой, которая является градиентом от потенциала по пространственным координатам. Эмоции для живого существа и являются своеобразными «психическими силами», направляющими его поведение.


Если рассматривать адаптивную техническую систему, поведение которой подчиняется некоторому экстремальному принципу, то и здесь производные от целевой функции по соответствующим координатам можно рассматривать как обобщенные силы. Они выполняют в поведении и обучении такой системы те же функции, что и эмоции в поведении живого организма. В частности, если поведение нейросети подчинено требованию минимума суммарной квадратичной ошибки на выходе сети, то производные от такой целевой функции по синаптическим весам играют роль сил, меняющих (модифицирующих) эти весовые коэффициенты, т.е. обеспечивающих возможность самообучения сети. Как известно, именно на использовании этих производных (которые, правда, не называют силами) основано и правило обучения персептрона (дельта-правило), и правило Хебба в сетях Хопфилда и, наконец, известный метод обратного распространения ошибки в нейросетях.


Поэтому так важно, чтобы активационные функции нейронов были не ступенчатыми, кусочно-равномерными, а сглаженными, размытыми. Только в этом последнем случае в пространстве синаптических весов существует аналог эмоции - градиент целевой функции, указывающий правильное направление изменения весов. В случае равномерных распределений такой локальный критерий отсутствует и сеть «не знает», в каком направлении следует модифицировать веса, чтобы достичь оптимума. Иными словами, она не способна самообучаться на основе собственного внутреннего критерия, поскольку не включается процесс «сотворчества», собственной внутренней активности системы. Есть известное понятие – «паралич нейросети», когда нейрон выходит на плато своей активационной характеристики и дальнейшее самообучение становится невозможным. Более подробные сведения о нейросетях как возможной технологии реализации гибридных интеллектуальных систем, сочетающих образные и логические методы обработки информации, даны в [6,7].


Можно сказать, что для сети с четкой логикой паралич - обычное состояние. Тем не менее оба типа логики присутствуют в мышлении человека, и каждый хорош на своем месте. Так четкая логика позволяет существенно сокращать процесс обучения, когда дело касается дедуктивной системы знаний: достаточно выучить аксиомы, а выводы из них могут быть получены дедуктивным путем. И здесь четкая логика незаменима, потому что достоверность ее выводов не уменьшается, как бы ни была длинна цепочка рассуждений.


До сих пор в нашем докладе речь шла в основном о достоинствах образного мышления по сравнению с понятийным. Необходимо сказать и о недостатках. Образ - это всегда представление более конкретное, чем понятие. Обычно в качестве образа выделяется единственная, наиболее правдоподобная совокупность признаков. Если понятие целиком охватывает соответствующий класс объектов, включает в себя все возможные значения признаков, то образ обычно описывает только один наиболее типичный объект этого класса. Для образного мышления характерно сужение множества рассматриваемых представлений, которое нередко становится нежелательным, когда это относится к условиям задач.


Рассматривая полученные выводы применительно к работе гибридной нейро-экспертной системы, можно сказать, что если все предпосылки правильны, то предпочтительнее понятийное мышление и четкая логика. Но разве можно гарантировать правильность всех предпосылок, если они заимствуются у человека, которому свойственно ошибаться? Известно, что даже самым опытным и квалифицированным экспертам присущи заблуждения, предрассудки, ложные представления. Их источник - ограниченность опыта эксперта, его слишком узкая специализации и пр. Более того, чем больше опыт эксперта в какой-то конкретной области, тем прочнее и предрассудки, тем выше пороги, создаваемые ими на пути правильных выводов.


Еще более сложная ситуация возникает, когда предпосылки вводятся в систему в условиях оперативного управления, особенно в экстремальных ситуациях. Неполнота и противоречивость поступающей информации, дефицит времени для ее сбора и анализа, стресс, ведущий к сужению сознания и потере части информации - все это способствуют возникновению у человека ложных представлений о ситуации. В качестве примера можно привести аварию на Чернобыльской АЭС. С самого начала возникла ложная предпосылка о характере аварии, что и определило все выводы и неадекватные действия персонала.


В идеале именно нейро-экспертная система реального времени могла бы выдавать в этом случае наиболее объективные и взвешенные рекомендации. Однако если такая система будет работать только на основе четкой логики, то введя в нее ложное представление о характере аварии в качестве одной из предпосылок, мы либо загоним ее в тупик, либо получим ложные выводы. И здесь полезно обращение к «интуитивному», нейросетевому уровню системы, работающему на нечеткой логике. Постепенное накопление реальных фактов может сформировать в стороне от ложного множества правильный вывод, который в конце концов позволит преодолеть ложную предпосылку и появится на выходе системы.

Литература


1. Голицын Г.А., Петров В.М. Информация - поведение - творчество. - М.: Наука, 1991. – 224 с.

2. Голицын Г.А., Петров В.М. Гармония и алгебра живого. - М: Знание, 1990.-128 с.

3. Голицын Г.А., Фоминых И.Б. О моделировании интуиции на ЭВМ// Динамические интеллектуальные системы в управлении и моделировании. Материалы семинара. - М., 1996, с.81-84.

4. Голицын Г.А. Информация и творчество. - М.: Русский мир (в печати).

5. Винарская Е.Н. Ценностный подход к развитию вычислительной техники. - М.: НИЦЭВТ, 1986.

6. Голицын Г.А., Фоминых И.Б. Нейронные сети и экспертные системы: перспективы интеграции// Новости искусственного интеллекта. – 1996. - №4. - С.121-145.

7. Попов Э.В., Фоминых И.Б., Кисель Е.Б, Шапот М.Д. Статические и динамические экспертные системы. - М.: Финансы и статистика, 1996. - 320с.