Скачайте в формате документа WORD


Технология извлечения знаний из нейронных сетей апробация, проектирование ПО, использование в психолингвистике

Министерство образования Российской Федерации

Омский Государственный ниверситет

Математический факультет

Горбань Павел Александрович

ТЕХНОЛОГИЯ ИЗВЛЕЧЕНИЯ ЗНАНИЙ ИЗ НЕЙРОННЫХ СЕТЕЙ:

ПРОБАЦИЯ, ПРОЕКТИРОВАНИЕ ПО,

ИСПОЛЬЗОВАНИЕ В ПСИХОЛИНГВИСТИКЕ

Дипломная работа

Научный руководитель:

Член-корреспондент РАН

В.В. Шайдуров


53.Goh T.-H. Semantic Extraction Using Neural Network Modelling and Sensitivity Analisys / Proc. IJCNN 1993, Nagoya, Japan. - Vol.1. - pp.1031-1034.

54.Howlan S.J., Hinton G.E. Simplifying Neural Network by Soft Weight Sharing / Neural Computations, 1992. Vol.4. №4. - pp.473-493.

55.Keegstra H., Jansen W.J., Nijhuis J.A.G., Spaanenburg L., Stevens H., Udding J.T. Exploiting Network Redundancy for Low-Cost Neural Network Realizations / Proc. I ICNN 1996, Washington, DC, USA. Vol.2. - pp.951-955.

56.Chen A.M., Lu H.-M., Hecht-Nielsen R. On the Geometry of Feedforward Neural Network Error Surfaces // Neural Computations, 1993. - 5. pp. 910-927.

57.

58.Gorban A.N., Mirkes Ye.M., Tsaregorodtsev V.G. Generation of explicit knowledge from empirical data through pruning of trainable neural networks / Int. Joint Conf. on Neural Networks, Washington, DC, USA, 1.

59.Ishibuchi H., Nii M. Generating Fuzzy If-Then Rules from Trained Neural Networks: Linguistic Analysis of Neural Networks / Proc. 1996 I ICNN, Washington, DC, USA. Vol.2. - pp.1133-1138.

60.Lozowski A., Cholewo T.J., Zurada J.M. Crisp Rule Extraction from Perceptron Network Classifiers / Proc. 1996 I ICNN, Washington, DC, USA. Plenary, Panel and Special Sessions Volume. - pp.94-99.

61.Lu H., Setiono R., Liu H. Effective Data Mining Using Neural Networks / I Trans. on Knowledge and Data Engineering, 1996, Vol.8, №6. - pp.957-961.

62.Duch W., Adamczak R., Grabczewski K. Optimization of Logical Rules Derived by Neural Procedures / Proc. 1 IJCNN, Washington, DC, USA, 1.

63.Duch W., Adamczak R., Grabczewski K. Neural Optimization of Linguistic Variables and Membership Functions / Proc. 1 ICONIP, Perth, Australia.

64.Ishikawa M. Rule Extraction by Successive Regularization / Proc. 1996 I ICNN, Washington, DC, USA. Vol.2. - pp.1139-1143.

65.Sun R., Peterson T. Learning in Reactive Sequential Decision Tasks: the CLARION Model / Proc. 1996 I ICNN, Washington, DC, USA. Plenary, Panel and Special Sessions Volume. - pp.70-75.

66.Gallant S.I. Connectionist Expert Systems / Communications of the ACM, 1988, №31. - pp.152-169.

67.Saito K., Nakano R. Medical Diagnostic Expert System Based on PDP Model / Proc. I ICNN, 1988. - pp.255-262.

68.Fu L.M. Rule Learning by Searching on Adapted Nets / Proc. I, 1991. - pp.590-595.

69.Towell G., Shavlik J.W. Interpretation of Artificial Neural Networks: Mapping Knowledge-based Neural Networks into Rules / Advances in Neural Information Processing Systems 4 (Moody J.E., Hanson S.J., Lippmann R.P. eds.). Morgan Kaufmann, 1992. - pp. 977-984.

70.Fu L.M. Rule Generation From Neural Networks / I Trans. on Systems, Man. and Cybernetics, 1994. Vol.24, №8. - pp.4-1124.

71.Yi L., Hongbao S. The N-R Method of Acquiring Multi-step Reasoning Production Rules Based on NN / Proc. 1996 I ICNN, Washington, DC, USA. Vol.2. - pp.1150-1155.

72.Towell G., Shavlik J.W., Noodewier M.O. Refinement of Approximately Correct Domain Theories by Knowledge-based Neural Networks / Proc. I'90, Boston, MA, USA, 1990. - pp.861-866.

73.Towell G., Shavlik J.W. Extracting Refined Rules from Knowledge-based Neural Networks / Machine Learning, 1993. Vol.13. - pp. 71-101.

74.Towell G., Shavlik J.W. Knowledge-based Artificial Neural Networks / Artificial Intelligence, 1994. Vol.70, №3. - pp.119-165.

75.Opitz D., Shavlik J. Heuristically Expanding Knowledge-based Neural Networks / Proc. 13 Int. Joint Conf. on Artificial Intelligence, Chambery, France. Morgan Kaufmann, 1993. - pp.1360-1365.

76.Opitz D., Shavlik J. Dynamically Adding Symbolically Meaningful Nodes to Knowledge-based Neural Networks / Knowledge-based Systems, 1995. - pp.301-311.

77.Craven M., Shavlik J. Learning Symbolic Rules Using Artificial Neural Networks / Proc. 10 Int. Conf. on Machine Learning, Amherst, MA, USA. Morgan Kaufmann, 1993. - pp.73-80.

78.Craven M., Shavlik J. Using Sampling and Queries to Extract Rules from Trained Neural Networks / Proc. 11 Int. Conf. on Machine Learning, New Brunswick, NJ, USA, 1994. - pp.37-45.

79.Medler D.A., McCaughan D.B., Dawson M.R.W., Willson L. When Local int't Enough: Extracting Distributed Rules from Networks / Proc. 1 IJCNN, Washington, DC, USA, 1.

80.Craven M.W., Shavlik J.W. Extracting Comprehensible Concept Representations from Trained Neural Networks / IJCAI Workshop on Comprehensibility in Machine Learning, Montreal, Quebec, Canada, 1995.

81.Andrews R., Diederich J., Tickle A.B. A Survey and Critique of Techniques for Extracting Rules from Trained Artificial Neural Networks / Knowledge Based Systems, 1995, №8. - pp.373-389.

82.Craven M.W., Shavlik J.W. Using Neural Networks for Data Mining / Future Generation Computer Systems, 1997.

83.  Craven M.W., Shavlik J.W. Rule Extraction: Where Do We Go From Here? Department of Computer Sciences, University of Wisconsin, Machine Learning Research Group Working Paper 99-1. 1.

84.  Michalski R.S. A Theory and Methodology of Inductive Learning / Artificial Intelligence, 1983, Vol.20. - pp.-161.

85.  McMillan C., Mozer M.C., Smolensky P. The Connectionist Scientist Game: Rule Extraction and Refinement in a Neural Network / Proc. X Annual Conf. of the Cognitive Science Society, Hillsdale, NJ, USA, 1991. Erlbaum Press, 1991.

86.Language, meaning and culture: the selected papers of C. E. Osgood / ed. by Charles. E. Osgood and Oliver C. S. Tzeng. New York (etc.) : Praeger, 1990 X, 402 S.

87. и анализ выборов американских президентов, основанный на технологии производства явных знаний из данных // Материалы VII Международной научной студенческой конференции "Cтудент и научно-технический прогресс": Информационные технологии. Новосибирск, НГУ, 1

Публикации автора по теме диплома

1.     "Нейрокомпьютеры": разработка, применение. 2002, No 4. С. 14-19.

2.     (Электронная версия: ссылка более недоступна scripts/ trans.pl/rus/ cyrillic/ awse/ CONFER/ MCE99/ 072.htm )

3.     Gorban P.A. Relations between Social, Economic and Political Traits of USA Political Situation. Abstract: USA-NIS Neurocomputing Opportunities Workshop, Washington, DC, July 12-17, 1. ссылка более недоступна wldb/ Witali/ / P2_2.htm

4.    

5.    

6.    

Благодарности

втор благодарен своему научному руководителю, всем сотрудника группы "Нейрокомп" и, в особенности, В.Г. Царегородцеву за внимание к работе, поддержку и разрешение использовать результаты совместных работ в дипломе. Я существенно использовал в дипломной работе описание программы НейроПро (В.Г. Царегородцев), технический отчет с обзором экспертных систем (А. Батуро), также лекции проф. А.Н. Горбаня по нейронным сетям.


Приложение 1. Плакаты для защиты диплома.

ТЕХНОЛОГИЯ ИЗВЛЕЧЕНИЯ ЗНАНИЙ ИЗ НЕЙРОННЫХ СЕТЕЙ:

¨ АПРОБАЦИЯ,

¨ ПРОЕКТИРОВАНИЕ ПО,

¨ ИСПОЛЬЗОВАНИЕ В ПСИХОЛИНГВИСТИКЕ

ЦЕЛЬ РАБОТЫ

¨            апробация гибкой технологии извлечения знаний из нейронных сетей, настраиваемой с четом предпочтений пользователя;

¨            тестирование, пробная эксплуатация и разработка новой версии программных средств, реализующих данную технологию;

¨            проведение исследований индивидуальных пространств смыслов на основе данной технологии.


ОСНОВНЫЕ ЗАДАЧИ РАБОТЫ

¨            анализ разработанных методов извлечения явных знаний из нейронных сетей с казанием их ограничений и областей применимости;

¨            апробация гибкой настраиваемой на основе предпочтений пользователя технологии извлечения знаний, опирающейся на предварительное проведение комплексного упрощения нейронной сети, выполняющегося с четом сформированных пользователем требований к результирующему виду извлекаемых знаний;

¨            тестирование, пробная эксплуатация и разработка новой версии программных средств, реализующих данную технологию;

¨            усовершенствование метода семантического дифференциала Осгуда при помощи технологии разреживания обучаемых нейронных сетей.


НЕЙРОНЫ, СЕТИ, ОБУЧЕНИЕ

Формальный нейрон

Слоистая сеть

ОБУЧЕНИЕ - МИНИМИЗАЦИЯ ОШИБКИ НА ПРИМЕРАХ С ИЗВЕСТНЫМ ОТВЕТОМ


МЕТОДЫ (АЛГОРИТМЫ)

ОБРАТНОГО РАСПРОСТРАНЕНИЯ

Вычисление сложной функции многих переменных представим, как движение по графу: в каждой его вершине производится вычисление простой функции (рис. а).

Вычисление градиента (для оптимизации) представляется обратным движением (рис. б).

Рис. а. Прохождение вершины t в прямом направлении.

а

Рис. б. Прохождение вершины t в обратном направлении.


Схематическое представление вычисления сложной функции одного переменного и ее производных.


ЗАДАЧА ИЗВЛЕЧЕНИЯ ЗНАНИЙ ИЗ НЕЙРОННОЙ СЕТИ

вырезание "всего лишнего"

нейросеть логически прозрачная нейросеть

данные неявные знания явные знания

Нейросеть в ходе обучения формирует неявные знания, в ходе прощения сети достигается логически прозрачная структура сети, удовлетворяющая некоторым заданным требованиям, и по ней сети возможно записать правила принятия решения в явном виде.

Результатом процесса извлечения знаний должен являться набор правил, который с заданной точностью решает заданное число примеров обучающей выборки


ЗНАЧИМОСТЬ И ПРОЩЕНИЕ

Показатели значимости - оценки изменения значения штрафной функции после некоторой модификации нейросети.

Показатели значимости нулевого порядка, основаны на рассмотрении абсолютной величины веса синапса.

Показатели значимости первого порядка оценивают по линейному приближению изменение значения штрафной функции после модификации.

Показатели значимости второго порядка используют второе тейлоровское приближение изменения штрафной функции после модификации.


КРИТЕРИИ ЛОГИЧЕСКОЙ ПРОЗРАЧНОСТИ

1. Чем меньше слоев нейронов в сети, тем сеть более логически прозрачна. В более сложных случаях: чем меньше нейронов в каждом из имеющихся путей прохождения сигналов в сети от входа к выходу, тем лучше.

2. Чем меньше число нейронов в каждом слое сети, тем лучше.

3. Чем меньше входных сигналов сети, тем лучше.

4. Чем меньше число приходящих на нейрон сигналов, тем лучше.

5. Чем меньше общее число синапсов в сети, тем лучше.

6. Необходимо приведение значений настраиваемых параметров сети к конечному набору выделенных значений.

Упрощение (контрастирование) нейронной сети строится как последовательный процесс исключения из сети наименее значимого элемента, уменьшающий нужный показатель, и дальнейшего подучивания сети. Если после шага упрощения невозможно доучивание сети до требуемой точности, то возвращаемся к сети, полученной на предыдущем шаге, и завершаем процесс прощения.


МЕТОД СЕМАНТИЧЕСКОГО ДИФФЕРЕНЦИАЛА

Слова осмысляются человеком не через "толковый словарь", через ощущения, переживания. Определить смысл слова - значит выделить этот комплекс переживаний. Путь к смыслу через качественные признаки понятия.

ГИПОТЕЗА ОСГУДА Ц

СУЩЕСТВУЮТ КООРДИНАТЫ СМЫСЛА:

все существенные свойства понятия определяются на основании небольшого числа базисных свойств

Базисное свойство 1

Базисное свойство 2

Базисное свойство 3

.

Свойство 1

Свойство 2

Свойство 3

Свойство 4

Свойство 5



Cлово


Основной базис Осгуда:

Оценка (Хороший-Плохой),

Сила (Сильный-Слабый),

ктивность (Активный-Пассивный)


ОТЛИЧИЕ НАШЕЙ ПОСТАНОВКИ

ОТ ЗАДАЧИ ОСГУДА

У Осгуда

У нас

Ищется базис для всех носителей языка (Средний базис).

Ищется базис для индивидуального носителя языка (Базис индивидуальных смыслов).

Ищутся линейные связи.

Ищутся нелинейные связи (параметр, характеризующий регулярность связи - число нейронов).

У Осгуда признаки, не восстанавливаемые по базисным, выбрасываются, как незначимые.

У нас объекты, признаки которых не дается восстановить, рассматриваются как особые, характеризующие индивидуальные отклонения (лпсихоналитические).

ОТЛИЧИЕ НАШИХ РЕЗУЛЬТАТОВ

ОТ РЕЗУЛЬТАТОВ ОСГУДА

У Осгуда

У нас

Пространство смыслов трехмерно, ошибка предсказания свойств велика.

Размерность пространства смыслов индивидуальна, само пространство есть объединение типового MAN-многообразия с небольшим числом точек лпсихоналитических больших отклонений. Именно их наличие не позволяет дать точное лтрехмерное (среднекультурное) предсказание.

КООРДИНАТЫ И ОСОБЫЕ ТОЧКИ ИНДИВИДУАЛЬНЫХ СМЫСЛОВЫХ ПРОСТРАНСТВ

Определяющий набор признаков 1-го человека (размерность 7):


Умный - глупый

Шумный - тихий

Разумный - неразумный

Плотный - рыхлый

ДружественныйЦвраждебный

Страшный - не страшный

Опасный - безопасный.


Исключения: горшок, теорема, наука, деньги

2-го человека (размерность 6):


Сильный - слабый

Приятный - неприятный

Опасный - безопасный

Страшный - не страшный

ДружественныйЦвраждебный

Удобный - неудобный.


Исключения: работа, жена, наука, деньги, тортик

3-го человека (размерность 2):


Приятный - неприятный

Опасный - безопасный.

Исключения: нет


ОСНОВНЫЕ РЕЗУЛЬТАТЫ РАБОТЫ,

ПОЛУЧЕННЫЕ ЛИЧНО АВТОРОМ

1.     Предложены следующие приемы, прощающие и делающие более гибким процесс вербализации (семантического анализа - осмысления в терминах проблемной области) извлеченного из сети набора правил:

a)      На основе гипотезы о неединственности извлекаемых правил и учитывая, что разные фрагменты сети (поднаборы правил) будут более или менее правдоподобны и интерпретируемы, предложено конструирование новой, более понятной пользователю нейронной сети из наиболее просто интерпретируемых фрагментов других сетей, решающих ту же задачу.

b)     Предложено добавление выходного сигнала некоторого фрагмента сети (содержательно интерпретируемого и правдоподобного с точки зрения пользователя) в качестве нового интегрального признака в число независимых признаков таблицы данных, и решение задачи извлечения знаний на основе полученного расширенного набора признаков.

2.     Разработано техническое задание на новую версию программы-нейроимитатора, реализующую предложенные технологии.

3.     совершенствован метод семантического дифференциала Осгуда при помощи технологии разреживания обучаемых нейронных сетей. Проведена серия экспериментов, заключающихся в исследовании индивидуальных смысловых пространств, проинтерпретированы их результаты.

4.     Предложена гипотеза о структуре индивидуального пространства смыслов: оно состоит из многообразия малой размерности, задаваемого культурой (лман-многообразия от немецкого безличного местоимения man) и сравнительно небольшого множества индивидуальных отклонений, которые могут быть важны для диагностики.


Приложение 2. Статья: Горбань П.А. Нейросетевой анализ структуры индивидуального пространства смыслов. "Нейрокомпьютеры": разработка, применение. 2002, No 4. С. 14-19.

Нейросетевой анализ структуры индивидуального пространства смыслов

П.А.Горбань

Усовершенствован метод семантического дифференциала Осгуда при помощи технологии разреживания обучаемых нейронных сетей. Проведена серия экспериментов, заключающихся в исследовании индивидуальных смысловых пространств, проинтерпретированы их результаты. Предложена гипотеза о структуре индивидуального пространства смыслов: оно состоит из многообразия малой размерности, задаваемого культурой (лман-многообразия от немецкого безличного местоимения man) и сравнительно небольшого множества индивидуальных отклонений, которые могут быть важны для диагностики. Каждая культура имеет небольшое количество специфических для нее ман -многообразий (субкультур).

The method of the semantic differential by Osgood was improved using the technology of pruning neural networks. The series of the experiments, consists of the research of the individual meaning space was made, and there given an interpretation of their results. A hypothesis about the structure of the individual meaning space, concluding in that this consists of the manifold of small dimention (man-manifold, from the german indefinite pronoun man) and a small quantity of individual divertions, which could be important for the psychodiagnostics, was proposed. Every culture have a small amount of its specific man-manifolds (subcultures).

Слова осмысляются человеком не через "толковый словарь", через ощущения, переживания. За каждым словом у человека стоит несколько этих базовых переживаний: собака - это что-то маленькое, добродушненькое, пушистое, с мокрым язычком, Е, но это и здоровенный, грозно рычащий зверь со злобными глазами, огромными клыками, Е. Большинство слов кодирует некоторые группы переживаний, ощущений, и определить смысл слова, то есть эти самые переживания - довольно сложная задача.

Дж. Осгуд с совторами в работе под названием Измерение значений ввели для решения этой задачи метод семантического дифференциала (обзор литературы дан в работе [1]). Они предложили искать координаты слова в пространстве свойств следующим образом. Был собран некоторый набор слов (например, "мама", "папа" и т.д.) и набор признаков к этим словам (таких, как близкий - далекий, хороший - плохой, и т.д.), и опрашиваемые люди оценивали слова по этим шкалам. Затем отыскивался минимальный набор координат смысла, по которому можно восстановить все остальные. Было выделено 3 базовых координаты смысла, по которым все остальные можно предсказать достаточно точно: сильный - слабый, активный - пассивный и хороший - плохой. С другой стороны, выявились огромные различия между культурами, например, у японцев и американцев очень многие вещи имеют существенно разные смысловые характеристики.

Существуют различные способы выделения основных признаков (базовых координат), например, метод главных компонент, факторный анализ и др. В данной работе используются нейросетевые методы. Разработка технологии сокращения описания и извлечения знаний из данных с помощью обучаемых и разреживаемых нейронных сетей началась в 90-е годы XX века (см., например, [2-4]) и к настоящему времени созданы библиотеки нейросетевых программ даже для PC, позволяющие строить полуэмпирические теории в различных областях [5-7].

В данной работе с помощью нейроимитатора исследовались индивидуальные смысловые пространства. Был создан вопросник, в котором определяются координаты (от Ц10 до 10) 40 слов по 27 параметрам и были проведены эксперименты на нескольких людях.

Слова:


43.  Папа

44.  Мама

45.  Болезнь

46.  Детский сад

47.  Школа

48.  Собака

49.  Кот

50.  Воробей

51.  Ворона

52.  Апельсин

53.  Яблоко

54.  Дед Мороз

55.  Дерево

56.  Змея

57.  Еда

58.  Тортик

59.  Горшок

60.  Брат

61.  Сестра

62.  Работа

63.  Деньги

64.  Квартира

65.  Муж (жена)

66.  Дедушка

67.  Бабушка

68.  Музыка

69.  Президент

70.  Парламент

71.  Политика

72.  Наука

73.  Политик

74.  ченый

75.  Теорема

76.  Выборы

77.  Коммунизм

78.  Доказательство

79.  Россия

80.  Америка

81.  Китай

82.  Израиль

83.  Религия

84.  Бог


Параметры:


28.  Плотный - рыхлый

29.  Молодой - старый

30.  Светлый - темный

31.  Разумный - неразумный

32.  Холодный - горячий

33.  Быстрый - медленный

34.  Близкий - далекий

35.  Пугливый - бесстрашный

36.  Страшный - не страшный

37.  Спокойный - беспокойный

38.  Веселый - грустный

39.  добный - неудобный

40.  Красивый - некрасивый

41.  Опасный - безопасный

42.  Приятный - неприятный

43.  Ручной - дикий

44.  тонченный - грубый

45.  мный - глупый

46.  Шумный - тихий

47.  Ласковый - грубый

48.  Большой - маленький

49.  Дружественный - враждебный

50.  Мягкий - твердый

51.  Добрый - злой

52.  Активный - пассивный

53.  Хороший - плохой

54.  Сильный - слабый


В экспериментах отыскивался минимальный набор координат смысла, по которому можно восстановить все остальные с точностью до тенденции (т.е. с точностью до 3 баллов). Это делалось при помощи нейросетевого имитатора NeuroPro [5]. Следует отметить, что предсказание с точностью до 3 баллов фактически соответствует переходу от 21-балльных шкал (от Ц10 до 10) к традиционным 7-балльным (от Ц3 до 3).

С помощью NeuroPro возможно получение показателей значимости входных сигналов для принятия нейросетью решения, показателей чувствительности выходного сигнала сети к изменению входных сигналов, показателей значимости и чувствительности по отдельным примерам выборки.

За начальную архитектуру была взята слоистая нейронная сеть, состоящая из трех слоев по 10 нейронов в каждом. Далее проводились последовательно следующие операции.

3)      Обучение нейронной сети с максимальной допустимой ошибкой обучения 0.49 балла (такая ошибка приводит к тому, что после округления ошибка обучения фактически равна 0). Как показал опыт, такой ошибки обучения чаще всего достаточно для предсказаний с требуемой точностью, то есть для ошибки обобщения, меньшей 3 баллов.

4)      Из входных сигналов выбирался наименее значимый и исключался, после чего проводилось повторное обучение нейросети с новыми входными сигналами и прежней ошибкой обучения.

Эта процедура проводилась до тех пор, пока нейросеть могла обучиться. В результате этих операций были получены минимальные определяющие наборы признаков (т.е. наборы входных сигналов, оставшиеся после сокращения их числа).

Для разных людей получены очень разные результаты (первые результаты представлены в [8]), совсем непохожие на результаты Осгуда. Вот типичные примеры:

Определяющий набор признаков 1-го человека (размерность 7):

Умный - глупый, шумный - тихий, разумный - неразумный, плотный - рыхлый, дружественный - враждебный, страшный - не страшный, опасный - безопасный.

2-го человека: сильный - слабый, приятный - неприятный, опасный - безопасный, страшный - не страшный, дружественный - враждебный, добный - неудобный (размерность 6).

3-го человека: приятный - неприятный, опасный - безопасный (размерность 2).

Представляет интерес, что Осгудовские признаки почти не представлены в большинстве наборов. В связи с этим было решено проверить, можно ли предсказать значения произвольно выбранных признаков при помощи набора Осгуда (ошибка обучения в экспериментах допускалась 0.49 балла). Практически во всех случаях нейронные сети обучались с приемлемой ошибкой обучения, но ошибка обобщения в экспериментах со скользящим контролем (нейронные сети обучались по всем словам, кроме 2-х - 3-х, потом тестировались на этих словах) часто была недопустимо велика (5-9 баллов).

После этого проводились следующие эксперименты: нейронная сеть обучалась предсказывать значения параметров по же определенному минимальному набору признаков на одной половине слов, далее она тестировалась на словах из другой половины. При этом для большинства слов нейронные сети давали довлетворительные прогнозы по всем параметрам (с точностью до 3 баллов), но почти во всех случаях обнаруживались одно - два слова, для которых сразу по нескольким признакам ошибка нейронных сетей была очень велика.

Итак, для каждого человека обнаруживается многообразие сравнительно малой размерности, в небольшой окрестности которого лежат почти все слова.

При осмыслении этого возникает гипотеза, связанная с тем, что отношение человека к большинству вещей, событий и т.д. не индивидуально, сформировано культурой, в которой этот человек рос, его окружением и поэтому зависит от сравнительно небольшого числа признаков. В связи с этим и могли появиться многообразия малой размерности, в небольшой окрестности которых лежат почти все слова. Назовем их манЦмногообразиями (от немецкого неопределенного местоимения man (некто)). Вероятно, для каждой определенной культуры имеется небольшое количество различных ман-многообразий, специфичных для нее. В ходе воспитания человек присваивает одно из типичных манЦмногообразий. Например, определяющий набор признаков 3-го человека представляется основным набором признаков и для животных: опасность и приятность имеют прямой химический аналог и соответствуют ровню адреналина, эндорфинов и энкефалинов.

Обнаружено, что у большинства людей есть слова, которые неожиданно "выпадают" из ман-многообразий, ‑ отстоят от них довольно далеко. Вероятно, это слова, с которыми у человека связаны какие-либо сильные переживания, ощущения, что приводит к появлению "индивидуальности" оценки или же слова, свое истинное отношение к которым человек пытается скрыть. Есть еще один тип таких точек, специфичных для каждой отдельной культуры (или субкультуры), особое отношение к которым сформировано самой культурой (например, в России - Великая Отечественная, в мусульманских странах - бог). Интерпретация "индивидуальных точек" может дать полезную психодиагностическую информацию, анализ особенных точек культуры - культурологическую. Возможно проведение культурологических исследований путем сравнения особенностей и закономерностей для различных культур.

Уже первые опыты показывают, что набор индивидуальных точек дает яркий и знаваемый портрет личности, общекультурные особенности пока не были изучены, так как требуют более масштабных исследований.

В перспективе результаты работы могут быть использованы во многих областях, где требуется информация о психологии и психическом здоровье человека, могут быть применены для создания компьютерных психодиагностических методик, выявляющих и анализирующих индивидуальные особенности и скрытые напряжения и т.п.

Литература

1.       Language, meaning and culture: the selected papers of C. E. Osgood / ed. by Charles. E. Osgood and Oliver C. S. Tzeng. New York (etc.) : Praeger, 1990 X, 402 S.

2.       Горбань А.Н. Обучение нейронных сетей. М.: изд. Р-США СП "ParaGraph", 1990. - 160с. (English Translation: AMSE Transaction, Scientific Siberian, A, 1993, Vol. 6. Neurocomputing, рp.1-134).

3.       Le Cun Y., Denker J.S., Solla S.A. Optimal Brain Damage / Advances in Neural Information Processing Systems 2. - Morgan Kaufmann, 1990. - pp.598-605.

4.       McMillan C., Mozer M.C., Smolensky P. The Connectionist Scientist Game: Rule Extraction and Refinement in a Neural Network / Proc. X Annual Conf. of the Cognitive Science Society, Hillsdale, NJ, USA, 1991. Erlbaum Press, 1991.

5.       Царегородцев В.Г. Производство полуэмпирических знаний из таблиц данных с помощью обучаемых искуственных нейронных сетей // Методы нейроинформатики. Красноярск: Изд-во КГТУ, 1998.

6.       Gorban A.N., Mirkes Ye.M., Tsaregorodtsev V.G. Generation of explicit knowledge from empirical data through pruning of trainable neural networks / Int. Joint Conf. on Neural Networks, Washington, DC, USA, 1.

7.       Tsaregorodtsev V.G., Nazimova D.I., Nozhenkova L.F. Neural Identification of the Zonal Classes and Siberian Forest Formations Based on Climatic Parameters / Proc. Int. Symposium "Biodiversity and Dynamics of Ecosystems in North Eurasia", Novosibirsk, Aug. 2. Vol.4. Part 1. - pp.37-39.

8.      Горбань П.А. Нейросетевая реализация метода семантического дифференциал и анализ выборов американских президентов, основанный на технологии производства явных знаний из данных // Материалы VII Международной научной студенческой конференции "Cтудент и научно-технический прогресс": Информационные технологии. Новосибирск, НГУ, 1


Горбань Павел Александрович (1982 г.р.) Ц

Студент 4 курса математического факультета КрасГУ.

Область научных интересов: нейроинформатика, теория групп.