Дипломная работа по предмету Математика и статистика

  • 161. Технология извлечения знаний из нейронных сетей: апробация, проектирование ПО, использование в психо...
    Дипломы Математика и статистика

     

    1. Лорьер Ж.-Л. Системы искусственного интеллекта. М.: Мир, 1991. - 568с.
    2. Искусственный интеллект. В 3-х кн. Кн. 2. Модели и методы: Справочник / Под ред. Д.А.Поспелова. М.: Радио и связь, 1990. - 304с.
    3. Хафман И. Активная память. М.: Прогресс. 1986. - 309с.
    4. Бонгард М.М. Проблема узнавания. М.: Наука, 1967. - 320с.
    5. Загоруйко Н.Г. Методы обнаружения закономерностей. М.: Наука, 1981. - 115с.
    6. Гаек П., Гавранек Т. Автоматическое образование гипотез. М.: Наука, 1984. - 278с.
    7. Гуревич Ю.В., Журавлев Ю.И. Минимизация булевых функций и и эффективные алгоритмы распознавания // Кибернетика. - 1974, №3. - с.16-20.
    8. Искусственный интеллект. В 3-х кн. Кн. 1. Системы общения и экспертные системы: Справочник / Под ред. Э.В.Попова. М.: Радио и связь, 1990. - 464с.
    9. Айвазян С.А., Енюков И.С., Мешалкин Л.Д. Прикладная статистика: Основы моделирования и первичная обработка данных. М.: Финансы и статистика, 1983. - 471с.
    10. Загоруйко Н.Г. Гипотезы компактности и -компактности в алгоритмах анализа данных // Сибирский журнал индустриальной математики. Январь-июнь, 1998. Т.1, №1. - с.114-126.
    11. Браверман Э.М., Мучник И.Б. Структурные методы обработки эмпирических данных. М.: Наука, 1983. - 464с.
    12. Дуда Р., Харт П. Распознавание образов и анализ сцен. М.: Мир, 1976. - 512с.
    13. Цыпкин Я.З. Информационная теория идентификации. М.: Наука, 1995. - 336с.
    14. Айзерман М.А., Браверман Э.М., Розоноер Л.И. Метод потенциальных функций в теории обучения машин. - М.: Наука, 1970. - 240с.
    15. Россиев Д.А. Самообучающиеся нейросетевые экспертные системы в медицине: теория, методология, инструментарий, внедрение. Автореф. дисс. … доктора биол. наук. Красноярск, 1996.
    16. Горбань А.Н. Обучение нейронных сетей. М.: изд. СССР-США СП "ParaGraph", 1990. - 160с. (English Translation: AMSE Transaction, Scientific Siberian, A, 1993, Vol. 6. Neurocomputing, рp.1-134).
    17. Горбань А.Н., Россиев Д.А. Нейронные сети на персональном компьютере. Новосибирск: Наука, 1996. - 276с.
    18. Нейроинформатика / А.Н. Горбань, В.Л. Дунин-Барковский, А.Н. Кирдин и др. Новосибирск: Наука, 1998. - 296с.
    19. Ежов А.А., Шумский С.А. Нейрокомпьютинг и его применение в финансах и бизнесе. М.: МИФИ, 1998.
    20. Миркес Е.М. Нейрокомпьютер: проект стандарта. Новосибирск, Наука, 1998.
    21. Kwon O.J., Bang S.Y. A Design Method of Fault Tolerant Neural Networks / Proc. ICNN 1994, Seoul, Korea. - Vol.1. - pp. 396-400.
    22. Горбань А.Н., Царегородцев В.Г. Методология производства явных знаний из таблиц данных при помощи обучаемых и упрощаемых искусственных нейронных сетей // Труды VI Международной конференции "Математика. Компьютер. Образование" / - М.: Прогресс-традиция, 1999. - Ч.I. - С.110-116.
    23. Царегородцев В.Г. Извлечение явных знаний из таблиц данных при помощи обучаемых и упрощаемых искусственных нейронных сетей // Материалы XII Международной конференции по нейрокибернетике. - Ростов-на-Дону. Изд-во СКНЦ ВШ. 1999.- 323с. - С.245-249.
    24. Reed R. Pruning Algorithms - a Survey / IEEE Trans. on Neural Networks, 1993, Vol.4, №5. - pp.740-747.
    25. Depenau J., Moller M. Aspects of Generalization and Pruning / Proc. WCNN'94, 1994, Vol.3. - pp.504-509.
    26. Гилев С.Е., Коченов Д.А., Миркес Е.М., Россиев Д.А. Контрастирование, оценка значимости параметров, оптимизация их значений и их интерпретация в нейронных сетях // Доклады III Всероссийского семинара “Нейроинформатика и ее приложения”. Красноярск, 1995.- С.66-78.
    27. Weigend A.S., Rumelhart D.E., Huberman B.A. Generalization by Weights-elimination with Application to Forecasting / Advances in Neural Information Processing Systems. Morgan Kaufmann, 1991. Vol.3. - pp. 875-882.
    28. Yasui S. Convergence Suppression and Divergence Facilitation for Pruning Multi-Output Backpropagation Networks / Proc. 3rd Int. Conf. on Fuzzy Logic, Neural Nets and Soft Computing, Iizuka, Japan, 1994. - pp.137-139.
    29. Yasui S. A New Method to Remove Redundant Connections in Backpropagation Neural Networks: Inproduction of 'Parametric Lateral Inhibition Fields' / Proc. IEEE INNS Int. Joint Conf. on Neural Networks, Beijing, Vol.2. - pp.360-367.
    30. Yasui S., Malinowski A., Zurada J.M. Convergence Suppression and Divergence Facilitation: New Approach to Prune Hidden Layer and Weights in Feedforward Neural Networks / Proc. IEEE Int. Symposium on Circuits and Systems 1995, Seattle, WA, USA. Vol.1. - pp.121-124.
    31. Malinowski A., Miller D.A., Zurada J.M. Reconciling Training and Weight Suppression: New Guidelines for Pruning-efficient Training / Proc. WCNN 1995, Washington, DC, USA. Vol.1. - pp.724-728.
    32. Krogh A., Hertz J. A Simple Weight Decay can Improve Generalization / Advances in Neural Infromation Processing Systems 4, 1992. - pp. 950-957.
    33. Kamimura R., Nakanishi S. Weight-decay as a Process of Redundancy Reduction / Proc. WCNN, 1994, Vol.3. - pp.486-489.
    34. Karnin E.D. A Simple Procedure for Pruning Back-propagation Trained Network / IEEE Trans. on Neural Networks, June 1990. Vol. 1, No.2. - pp.239-242.
    35. Le Cun Y., Denker J.S., Solla S.A. Optimal Brain Damage / Advances in Neural Information Processing Systems 2. - Morgan Kaufmann, 1990. - pp.598-605.
    36. Hassibi B., Stork D.G., Wolff G. Optimal Brain Surgeon: Extensions and Performance Comparisions / Advances in Neural Information Processing Systems 6, 1994. pp.263-270.
    37. Гилев С.Е. Алгоритм сокращения нейронных сетей, основанный на разностной оценке вторых производных целевой функции // Нейроинформатика и ее приложения : Тезисы докладов V Всеросс. семинара, 1997. Красноярск. КГТУ. 1997. - 190с. - C.45-46.
    38. Tanpraset C., Tanpraset T., Lursinsap C. Neuron and Dendrite Pruning by Synaptic Weight Shifting in Polynomial Time / Proc. IEEE ICNN 1996, Washington, DC, USA. Vol.2. - pp.822-827.
    39. Kamimura R. Principal Hidden Unit Analysis: Generation of Simple Networks by Minimum Entropy Method / Proc. IJCNN 1993, Nagoya, Japan. - Vol.1. - pp.317-320.
    40. Mozer M.C., Smolensky P. Using Relevance to Reduce Network Size Automatically / Connection Science. 1989. Vol.1. - pp.3-16.
    41. Mozer M.C., Smolensky P. Skeletonization: A Technique for Trimming the Fat from a Network via Relevance Assessment / Advances in Neural Network Information Processing Systems 1, Morgan Kaufmann, 1989. - pp.107-115.
    42. Watanabe E., Shimizu H. Algorithm for Pruning Hidden Units in Multi Layered Neural Network for Binary Pattern Classification Problem / Proc. IJCNN 1993, Nagoya, Japan. - Vol.1. - pp.327-330.
    43. Yoshimura A., Nagano T. A New Measure for the Estimation of the Effectiveness of Hidden Units / Proc. Annual Conf. JNNS, 1992. - pp.82-83.
    44. Murase K., Matsunaga Y., Nakade Y. A Back-propagation Algorithm which Automatically Determines the Number of Association Units / Proc. IJCNN, Singapore, 1991. - Vol.1. - pp.783-788.
    45. Matsunaga Y., Nakade Y., Yamakawa O., Murase K, A Back-propagation Algorithm with Automatic Reduction of Association Units in Multi-layered Neural Network / Trans. on IEICE, 1991. Vol. J74-DII, №8. - pp.1118-1121.
    46. Hagiwara M. Removal of Hidden Units and Weights for Back Propagation Networks / Proc. IJCNN 1993, Nagoya, Japan. - Vol.1. - pp.351-354.
    47. Majima N., Watanabe A., Yoshimura A., Nagano T. A New Criterion "Effectiveness Factor" for Pruning Hidden Units / Proc. ICNN 1994, Seoul, Korea. - Vol.1. - pp. 382-385.
    48. Царегородцев В.Г. Производство полуэмпирических знаний из таблиц данных с помощью обучаемых искусственных нейронных сетей // Методы нейроинформатики. Красноярск: Изд-во КГТУ, 1998. - 205c. - C.176-198.
    49. Sietsma J., Dow R.J.F. Neural Net Pruning - Why and How / Proc. IEEE IJCNN 1988, San Diego, CA. Vol.1. - pp. 325-333.
    50. Sietsma J., Dow R.J.F. Creating Artificial Neural Network that Generalize / Neural Networks, 1991. Vol.4, No.1. - pp.67-79.
    51. Yamamoto S., Oshino T., Mori T., Hashizume A., Motoike J. Gradual Reduction of Hidden Units in the Back Propagation Algorithm, and its Application to Blood Cell Classification / Proc. IJCNN 1993, Nagoya, Japan. - Vol.3. - pp.2085-2088.
    52. Sarle W.S. How to measure importance of inputs? SAS Institute Inc., Cary, NC, USA, 1999. ftp://ftp.sas.com/pub/neural/importance.html
    53. Goh T.-H. Semantic Extraction Using Neural Network Modelling and Sensitivity Analisys / Proc. IJCNN 1993, Nagoya, Japan. - Vol.1. - pp.1031-1034.
    54. Howlan S.J., Hinton G.E. Simplifying Neural Network by Soft Weight Sharing / Neural Computations, 1992. Vol.4. №4. - pp.473-493.
    55. Keegstra H., Jansen W.J., Nijhuis J.A.G., Spaanenburg L., Stevens H., Udding J.T. Exploiting Network Redundancy for Low-Cost Neural Network Realizations / Proc. IEEE ICNN 1996, Washington, DC, USA. Vol.2. - pp.951-955.
    56. Chen A.M., Lu H.-M., Hecht-Nielsen R. On the Geometry of Feedforward Neural Network Error Surfaces // Neural Computations, 1993. - 5. pp. 910-927.
    57. Гордиенко П. Стратегии контрастирования // Нейроинформатика и ее приложения : Тезисы докладов V Всероссийского семинара, 1997 / Под ред. А.Н.Горбаня. Красноярск. КГТУ. 1997. - 190с. - C.69.
    58. Gorban A.N., Mirkes Ye.M., Tsaregorodtsev V.G. Generation of explicit knowledge from empirical data through pruning of trainable neural networks / Int. Joint Conf. on Neural Networks, Washington, DC, USA, 1999.
    59. Ishibuchi H., Nii M. Generating Fuzzy If-Then Rules from Trained Neural Networks: Linguistic Analysis of Neural Networks / Proc. 1996 IEEE ICNN, Washington, DC, USA. Vol.2. - pp.1133-1138.
    60. Lozowski A., Cholewo T.J., Zurada J.M. Crisp Rule Extraction from Perceptron Network Classifiers / Proc. 1996 IEEE ICNN, Washington, DC, USA. Plenary, Panel and Special Sessions Volume. - pp.94-99.
    61. Lu H., Setiono R., Liu H. Effective Data Mining Using Neural Networks / IEEE Trans. on Knowledge and Data Engineering, 1996, Vol.8, №6. pp.957-961.
    62. Duch W., Adamczak R., Grabczewski K. Optimization of Logical Rules Derived by Neural Procedures / Proc. 1999 IJCNN, Washington, DC, USA, 1999.
    63. Duch W., Adamczak R., Grabczewski K. Neural Optimization of Linguistic Variables and Membership Functions / Proc. 1999 ICONIP, Perth, Australia.
    64. Ishikawa M. Rule Extraction by Successive Regularization / Proc. 1996 IEEE ICNN, Washington, DC, USA. Vol.2. - pp.1139-1143.
    65. Sun R., Peterson T. Learning in Reactive Sequential Decision Tasks: the CLARION Model / Proc. 1996 IEEE ICNN, Washington, DC, USA. Plenary, Panel and Special Sessions Volume. - pp.70-75.
    66. Gallant S.I. Connectionist Expert Systems / Communications of the ACM, 1988, №31. pp.152-169.
    67. Saito K., Nakano R. Medical Diagnostic Expert System Based on PDP Model / Proc. IEEE ICNN, 1988. pp.255-262.
    68. Fu L.M. Rule Learning by Searching on Adapted Nets / Proc. AAAI, 1991. - pp.590-595.
    69. Towell G., Shavlik J.W. Interpretation of Artificial Neural Networks: Mapping Knowledge-based Neural Networks into Rules / Advances in Neural Information Processing Systems 4 (Moody J.E., Hanson S.J., Lippmann R.P. eds.). Morgan Kaufmann, 1992. - pp. 977-984.
    70. Fu L.M. Rule Generation From Neural Networks / IEEE Trans. on Systems, Man. and Cybernetics, 1994. Vol.24, №8. - pp.1114-1124.
    71. Yi L., Hongbao S. The N-R Method of Acquiring Multi-step Reasoning Production Rules Based on NN / Proc. 1996 IEEE ICNN, Washington, DC, USA. Vol.2. - pp.1150-1155.
    72. Towell G., Shavlik J.W., Noodewier M.O. Refinement of Approximately Correct Domain Theories by Knowledge-based Neural Networks / Proc. AAAI'90, Boston, MA, USA, 1990. - pp.861-866.
    73. Towell G., Shavlik J.W. Extracting Refined Rules from Knowledge-based Neural Networks / Machine Learning, 1993. Vol.13. - pp. 71-101.
    74. Towell G., Shavlik J.W. Knowledge-based Artificial Neural Networks / Artificial Intelligence, 1994. Vol.70, №3. - pp.119-165.
    75. Opitz D., Shavlik J. Heuristically Expanding Knowledge-based Neural Networks / Proc. 13 Int. Joint Conf. on Artificial Intelligence, Chambery, France. Morgan Kaufmann, 1993. - pp.1360-1365.
    76. Opitz D., Shavlik J. Dynamically Adding Symbolically Meaningful Nodes to Knowledge-based Neural Networks / Knowledge-based Systems, 1995. - pp.301-311.
    77. Craven M., Shavlik J. Learning Symbolic Rules Using Artificial Neural Networks / Proc. 10 Int. Conf. on Machine Learning, Amherst, MA, USA. Morgan Kaufmann, 1993. - pp.73-80.
    78. Craven M., Shavlik J. Using Sampling and Queries to Extract Rules from Trained Neural Networks / Proc. 11 Int. Conf. on Machine Learning, New Brunswick, NJ, USA, 1994. - pp.37-45.
    79. Medler D.A., McCaughan D.B., Dawson M.R.W., Willson L. When Local int't Enough: Extracting Distributed Rules from Networks / Proc. 1999 IJCNN, Washington, DC, USA, 1999.
    80. Craven M.W., Shavlik J.W. Extracting Comprehensible Concept Representations from Trained Neural Networks / IJCAI Workshop on Comprehensibility in Machine Learning, Montreal, Quebec, Canada, 1995.
    81. Andrews R., Diederich J., Tickle A.B. A Survey and Critique of Techniques for Extracting Rules from Trained Artificial Neural Networks / Knowledge Based Systems, 1995, №8. - pp.373-389.
    82. Craven M.W., Shavlik J.W. Using Neural Networks for Data Mining / Future Generation Computer Systems, 1997.
    83. Craven M.W., Shavlik J.W. Rule Extraction: Where Do We Go From Here? Department of Computer Sciences, University of Wisconsin, Machine Learning Research Group Working Paper 99-1. 1999.
    84. Michalski R.S. A Theory and Methodology of Inductive Learning / Artificial Intelligence, 1983, Vol.20. pp.111-161.
    85. McMillan C., Mozer M.C., Smolensky P. The Connectionist Scientist Game: Rule Extraction and Refinement in a Neural Network / Proc. XIII Annual Conf. of the Cognitive Science Society, Hillsdale, NJ, USA, 1991. Erlbaum Press, 1991.
    86. Language, meaning and culture: the selected papers of C. E. Osgood / ed. by Charles. E. Osgood and Oliver C. S. Tzeng. New York (etc.) : Praeger, 1990 XIII, 402 S.
    87. Горбань П.А. Нейросетевая реализация метода семантического дифференциала и анализ выборов американских президентов, основанный на технологии производства явных знаний из данных // Материалы XXXVII Международной научной студенческой конференции "Cтудент и научно-технический прогресс": Информационные технологии. Новосибирск, НГУ, 1999
  • 162. Тригонометрические уравнения
    Дипломы Математика и статистика

    В изучении тригонометрических функций можно выделить следующие этапы:. Первое знакомство с тригонометрическими функциями углового аргумента в геометрии. Значение аргумента рассматривается в промежутке (0о;90о). На этом этапе учащиеся узнают, что sin, сos, tg и ctg угла зависят от его градусной меры, знакомятся с табличными значениями, основным тригонометрическим тождеством и некоторыми формулами приведения.. Обобщение понятий синуса, косинуса, тангенса и котангенса для углов (0о;180о). На этом этапе рассматривается взаимосвязь тригонометрических функций и координат точки на плоскости, доказываются теоремы синусов и косинусов, рассматривается вопрос решения треугольников с помощью тригонометрических соотношений.. Введение понятий тригонометрических функций числового аргумента.. Систематизация и расширение знаний о тригонометрических функциях числа, рассмотрение графиков функций, проведение исследования, в том числе и с помощью производной.

  • 163. Упругопластическая деформация трубы
    Дипломы Математика и статистика

     

    1. Александров А.В., Потапов В.Д. Основы теории упругости и пластичности. М.: Высшая школа, 1990. 400 с.
    2. Бородин Н.А. Сопротивление материалов. М.: Машиностроение, 1992. 224 с.
    3. Вульман С.А. О решении осесимметричных упругопластических задач методом малого параметра. Изв. АН СССР, Механика твердого тела, 1969, №3.
    4. Ершов Л.В., Ивлев Д.Д. Упругопластическое состояние конической трубы, находящейся под действием внутреннего давления. Вестник МГУ, 1957, №2.
    5. Ершов Л.В., Ивлев Д.Д. Упругопластическое состояние эллиптической трубы, находящейся под действием внутреннего давления. Изв. АН СССР, 1957, №9.
    6. Ивлев Д.Д. Метод возмущений в теории упругопластического тела. М.:Наука, 1978. 208 с.
    7. Ивлев Д.Д. Приближенное решение упругопластических задач теории идеальной пластичности. Докл. АН СССР, 1957, т.113, №2.
    8. Ивлев Д.Д. Приближенное решение плоских упругопластических задач теории идеальной пластичности. Вестник МГУ, 1957, №5.
    9. Самуль В.И. Основы теории упругости и пластичности. М.: Высшее образование, 1982. 264 с.
    10. Тимошенко С.П. , Гудгер Дж. Теория упругости. М.: Наука, 1979. 560 с.
  • 164. Уравнение Дирака в квантовой теории
    Дипломы Математика и статистика

    Все другие произведения матриц с помощью перестановочных соотношений могут быть сведены к одной из шестнадцати. Множитель i вставлен для того, чтобы квадрат каждого элемента был равен +1. Обозначим элементы в выписанном порядке при помощи (l=1, 2, …,16). Замечаем, что с точностью до множителей или произведение любых двух элементов всегда равно третьему. Для каждого элемента , за исключением , всегда можно найти такой элемент , что . Это утверждение мы докажем, но для этого укажем элемент для каждого . Так, для l=2, …,5, т.е. для элементов второй строки списка, ; в случае третьей строки, например, элементу соответствует , так как ; для всей четвертой строки , а для пятой в качестве можно выбрать, например, . Отсюда следует, что след любой матрицы с равен нулю, так как

  • 165. Уравнение Лапласа, решение задачи Дирихле в круге методом Фурье
    Дипломы Математика и статистика

    Однако остаются иные задачи, имеющие также весьма серьезное значение, которые отличаются вполне определенным пространственным характером. Так, если скважина, вскрывшая продуктивный песчаник, полностью не проходит сквозь него, то течение в той части песчаника, которая не вскрыта забоем скважины, будет иметь компонент скорости, направленный вверх и влекущий жидкость в скважину. По отношению к общим методам решения пространственных задач следует заметить, что все те методы, которые были рассмотрены нами в приложении к плоским системам, за исключением только одного из них, имеют свои аналоги в том случае, когда в систему включается третья координата. Только метод сопряженных функций не имеет своего аналога для случая трехмерного уравнения Лапласа. Все же для решения практических задач мы находим, что имеющиеся в нашем распоряжении методы вполне достаточны для получения искомых результатов. Численные методы решения - методы, заменяющие исходную краевую задачу дискретной задачей, содержащей конечное число N неизвестных, нахождение которых с соответствующей точностью позволяет определить решение исходной задачи с заданной точностью ; N зависит от и стремится к при .

  • 166. Устойчивость и стабилизация движений относительно части переменных при постоянно действующих возмуще...
    Дипломы Математика и статистика

    Начиная с середины 70-х годов прошлого столетия (второй этап исследований) круг вопросов, решаемых в рамках данной проблемы, значительно расширился. В числе их оказались следующие направления исследований.

    1. Дальнейшее развитие метода функций Ляпунова применительно к задаче устойчивости и стабилизации по части переменных при постоянно действующих возмущениях (п.д.в.) для систем обыкновенных дифференциальных уравнений. Потребность в этом, в частности, возникла вследствие ряда выявленных на первом этапе исследований существенных трудностей при переносе основных теорем метода функций Ляпунова на случай задачи устойчивости и стабилизации по части переменных при постоянно действующих возмущениях (Озиранер А.С, Румянцев В.В.[26], Гермаидзе В.Е. , Красовский Н.Н. [10]).
    2. В работах К. Кордуняну [37], Каримова А.У.[14], Озиранера А.С. [25], Мики К., Масамиси А., Шойси С. [39], Игнатьева А.О.[13] метод функции Ляпунова используется для решения задач устойчивости по части переменным при постоянно действующих возмущениях и сохранения устойчивости. Одной из особенностей задачи устойчивости и стабилизации по части переменных при постоянно действующих возмущениях является ее отличный, в сравнении со случаем устойчивости и стабилизации при постоянно действующих возмущениях по отношению ко всем переменным, характер взаимоотношений с задачей частичной устойчивости при структурных (параметрических) возмущениях. Это видно уже на примере асимптотической устойчивости по отношению к части переменных линейной стационарной системы, которая, будучи устойчива по этим переменным при постоянно действующих возмущениях, может, вообще говоря, терять устойчивость по указанным переменным даже при малых возмущениях своих коэффициентов. Именно задачи частичной устойчивости (стабилизации), в отличии от задач устойчивости (стабилизации) по всем переменным, становятся строгой математической базой для многих важных современных исследований.
  • 167. Устойчивость по Ляпунову
    Дипломы Математика и статистика

    Итак, мы должны проверить знак вдоль траектории. Для этого надо знать саму траекторию. Хотя в данном примере это можно сделать, но метод должен быть рассчитан на систему общего вида, для которого нельзя выписать явно и тем самым нельзя проверить нужное неравенство. Поэтому мы будем требовать, чтобы функция была неположительной как функция двух независимых переменных по крайней мере в некоторой окрестности . Это условие можно проверить непосредственно по правым частям системы не зная решения. В нашем примере именно так и будет, поскольку всюду на плоскости , а тем самым вдоль любой траектории, и устойчивость тривиального решения гарантирована. Функция и есть функция Ляпунова для рассмотренного примера. Она имеет вид квадратичной формы, хотя в принципе можно было взять любую другую функцию, лишь бы она была положительной всюду, кроме точки , где она обращается в нуль, а выражение было неположительное. Обратимся теперь к формулировке некоторых общих теорем, в основу которых положена эта идея. Будем исследовать тривиальное решение системы .

  • 168. Факторизації чотирьохмірних симплектичних груп
    Дипломы Математика и статистика

     

    1. Монахов В.С. Введення в теорію кінцевих груп і їхніх класів. - К., 2004
    2. Каргаполов М.І., Мерзляків Ю.И., Основи теорії груп. - К., 2004
    3. Хол Ф., Теорія груп. - К., 2003
    4. Горенстейн Д., Кінцеві прості групи: введення в їхню класифікацію., - К., 2003
    5. Казарін Л.С., Факторізації кінцевих груп розв'язними підгрупами // Укр. мат. журн. 1991. Т.43, N 7 - і 8. С.947 - і 950.
    6. Mitchel H.H., Determination of the finite quaternary linear groups. Trans. Amer. Math. Soc. V.14, 1913. p.123--142.
    7. Liebek M.W., Praeqer C.E., Saxl J., The maximal factorizations of the finite simple groups and their automorphism groups. Mem. Amer. Math. Soc. V.86, N.432. p.1--151.
    8. Suzuki M., A new type of simple groups of finite order. Proc. Nat. Acad. Sci. US 46, 1960. p.868--870.
  • 169. Функциональные уравнения на оси и полуоси
    Дипломы Математика и статистика

    Для нахождения решений общих функциональных уравнений развит ряд методов, например, метод бесконечных степенных рядов, метод последовательных приближений, метод Галеркина (метод моментов), метод касательных гипербол, метод Чебышева (касательных парабол), метод Ньютона-Канторовича и его модификации, метод наискорейшего спуска и др., а также методы вариации параметра (прямые, итерационные и комбинированные) определенных типов и их различные модификации, в том числе и с последовательной аппроксимацией обратного оператора. Общие методы применяются к решению различных конкретных функциональных уравнений математического анализа. Кроме того, существуют специальные методы решения конкретных функциональных уравнений, в том числе и численные методы, например, метод сеток и др. Метод вариации параметра, метод Ньютона-Канторовича и некоторые другие из указанных методов имеют также и теоретическое значение, так как с их помощью можно делать заключение о существовании, единственности и области расположения решения функционального уравнения, не находя самого решения, что подчас не менее важно, чем фактическое значение решения. Ниже рассмотрим несколько методов решения.

  • 170. Функция Дирихле и ее свойства
    Дипломы Математика и статистика

    Функция f называется измеримой по Лебегу на отрезке [a,b], если для любого А ? ? множество {х: х ? [a,b] ; f(x) < A} измеримо по Лебегу. Для функции Дирихле если А < 0 то множество таких х пустое, а значит измеримое. Если 0 < A < 1 или А > 1, то мера множества таких х равна длине отрезка [a,b] - также существует. Значит функция Дирихле измерима по Лебегу. А так как установлено, что ее жорданова мера равна 0, то и лебегова мера тоже будет равна 0.

  • 171. Цепи Маркова в теории вероятности и их приложения
    Дипломы Математика и статистика

    Задача о наилучшем выборе. Положим ?0(0)=1 и обозначим: ?(1) - порядковый номер первого предмета, оказавшегося наилучшим среди всех осмотренных ранее; ?(2)-порядковый номер следующего наилучшего среди всех осмотренных до него предметов и т. д. Цепочка ?(0)>?(1)>?(2)... обрывается на некотором ?-м шаге, если предмет с порядковым номером ?(?) оказывается абсолютно наилучшим, так что и среди не осмотренных еще предметов нет лучшего. Число ? является случайным, поскольку случайным является сам порядок осмотра. Введем состояния ?1, ?2, …?m, ?m+1, охарактеризовав их следующим образом: ?i при i=1, …, т означает, что предмет с порядковым номером i (т. е. i-й по счету осмотренный предмет) является наилучшим среди всех ранее осмотренных; ?m+1 означает, что уже осмотрен абсолютно наилучший предмет. Если положить ?(n) = ?m+1, при всех п>?, то последовательность ?(0)>?(1)>?(2)... образует цепь Маркова.

  • 172. Численные методы решения обыкновенных дифференциальных уравнений и систем
    Дипломы Математика и статистика

    численный метод дифференциальное уравнение

    1. Н.С. Пискунов. Дифференциальное и интегральное исчисление.
    2. Лабораторные работы по курсу Вычислительная математика и применение ЭВМ, методическое пособие. - Ленинград, 1987. - 160 с.
    3. Турчак Л.И. Основы численных методов. - М.: Наука, 1987. -
    4. Воробьева Г.Н., Данилова А.Н.. Практикум по вычислительной математике, М.:Высшая школа, 1991. 208 с.
    5. Информатика. Программирование в среде Турбо Паскаль 7.0. Лабораторные работы 1-3, 4-6, 7-9. СПб.: СПГГИ, 2003.
    6. Турбо Паскаль 7.0. Киев, Торгово-издательское бюро BHV, 1997.
    7. Вычислительная техника и программирование. Практикум по программированию. - М.:Высшая школа, 1990 / Под ред. А.В. Петрова - 400 с.
  • 173. Численные характеристики дискретных случайных величин
    Дипломы Математика и статистика

    При экспериментальном изучении какого-либо явления с целью установления его закономерностей приходится наблюдать его многократно в одинаковых условиях. При этом под одинаковыми условиями мы понимаем одинаковые значения всех количественных характеристик контролируемых факторов. Все неконтролируемые факторы будут при этом различными. Вследствие этого действие контролируемых факторов будет практически одинаковым при разных наблюдениях одного и того же явления. В этом как раз и проявляются законы данного явления. Случайные же отклонения от закономерности, вызванные действием неконтролируемых факторов, будут различными при разных наблюдениях, причем предвидеть заранее, какими они будут при данном конкретном наблюдении, принципиально невозможно. Роль случайностей в разных явлениях различна. В некоторых явлениях случайные отклонения от закономерностей настолько малы, что их можно не учитывать. Однако есть и такие явления, в которых невозможно подметить никаких закономерностей, и случайность играет основную роль. Примером такого явления может служить движение малой частицы твердого вещества, взвешенной в жидкости, так называемое броуновское движение. Под действием толчков огромного количества движущихся молекул жидкости частица движется совершенно беспорядочно, без всякой видимой закономерности. В подобных явлениях сама случайность является закономерностью. При многократном наблюдении случайных явлений в них самих можно заметить определенные закономерности. Изучив эти закономерности, человек получает возможность в известной степени управлять случайными явлениями, ограничивать их влияние, предсказывать результаты их действия и даже целенаправленно использовать их в своей практической деятельности. Так, например, можно проектировать измерительные системы, обладающие максимальной доступной точностью, радиоприемные устройства с максимальной помехозащищенностью, обладающие минимальным уровнем шумов, системы управления движением летательных аппаратов, обеспечивающие наибольшую возможную точность навигации или наименьшее действие «болтанки» на летательный аппарат. Можно также проектировать технические системы, обладающие заданной надежностью. Изучением закономерностей массовых случайных явлений занимается особая математическая наука - теория вероятностей. Методы теории вероятностей, называемые вероятностными или статистическими, дают возможность производить расчеты, позволяющие делать определенные практические выводы относительно случайных явлений. Как и всякая прикладная наука, теория вероятностей нуждается в исходных экспериментальных данных для расчетов. Раздел теории вероятностей, изучающий методы обработки результатов опытов и получения из них необходимых данных, называется математической статистикой.

  • 174. Элективный курс "Подготовка к Единому государственному экзамену по математике" как одна из форм развития продуктивного мышления
    Дипломы Математика и статистика

    В последнее время у нас и за рубежом часто обсуждается вопрос о недостатках традиционных программ преподавания математики в школе. Эти программы не содержат основных принципов и понятий современной математической науки, не обеспечивают должного развития продуктивного мышления учащихся, не обладают преемственностью и цельностью по отношению к начальной, средней и высшей школе. При их модернизации особое значение придают подведению теоретико-множественного фундамента под школьный курс (эта тенденция отчетливо проявляется и у нас, и за рубежом). Ее реализация в преподавании (особенно в начальных классах) неизбежно ставит ряд трудных вопросов перед детской и педагогической психологией и перед дидактикой, ибо сейчас почти нет исследований, раскрывающих особенности развития продуктивного мышления ребенка Построение математики как целостного учебного предмета - весьма сложная задача, требующая приложения совместных усилий педагогов и математиков, психологов и логиков. В связи с этим актуальный характер приобретает проблема поиска новых подходов к построению системы школьного математического образования, которая должна быть адекватной существующей обстановке, учитывать особенности социокультурных изменений, происходящих в обществе, а также соответствовать современным тенденциям развития образовательной политики страны. Важным моментом решения этой общей задачи является выделение понятий, которые должны вводиться в начальном курсе изучения математики. Они составляют фундамент для построения всего учебного предмета. От исходных понятий, усвоенных детьми в начальной школе, во многом зависит общая ориентировка в математической действительности, развитие продуктивного мышления, предоставляет благоприятные возможности для воспитания воли, трудолюбия, настойчивости в преодолении трудностей, упорства в достижении целей, что в свою очередь существенно влияет на последующее продвижение в этой области знаний. Важно при этом подчеркнуть, что сегодня математика, как живая наука с многосторонними связями, оказывающая существенное влияние на развитие других наук и практики, является базой научно-технического прогресса и важной компонентой развития личности. Поэтому в качестве одного из основополагающих принципов новой концепции в «математике для всех» на первый план выдвинута идея приоритета развивающей функции обучения математике. В соответствии с этим принципом центром методической системы обучения математике становится не изучение основ математической науки как таковой, а познание окружающего человека мира средствами математики и, как следствие, к динамичной адаптации человека к этому миру, к социализации личности.

  • 175. Элементарное изложение отдельных фрагментов теории подгрупповых функторов
    Дипломы Математика и статистика

    Оказывается, что свойства таких решеток тесно связаны со свойствами групп, входящих в . Отметим, например, что если содержится в классе конечных групп, то решетка является цепью тогда и только тогда, когда для некоторого простого числа класс состоит из элементарно-абелевых -групп. С другой стороны, решетка является цепью тогда и только тогда, когда все группы из являются -группами. Покажем, что в общем случае не является подрешеткой в . Для этого достаточно установить, что если - класс всех конечных групп и ,, где и - различные простые числа, то функтор не является замкнутым. Пусть , где - группа порядка , a - группа порядка . Понятно, что и . Таким образом, если бы функтор был бы замкнутым, то мы бы имели Но, как нетрудно заметить, во множество входят лишь такие подгруппы из для которых имеет место одно из двух: или . Это означает, что . Следовательно, функтор не является замкнутым.

  • 176. Элементы комбинаторики
    Дипломы Математика и статистика

    Решить задачи:

    1. «Вороне где-то Бог послал кусочек сыра», колбасы, хлеба и шоколада. «На ель Ворона взгромоздясь, позавтракать совсем уж было собралась, да призадумалась»: если есть кусочки по очереди, то из скольких вариантов придется выбирать?
    2. Сколькими способами можно из 25 учащихся выбрать 5 для участия в школьном марафоне?
    3. Сколькими способами могут быть распределены золотая и серебряная медали по итогам первенства по футболу, если число команд 12?
    4. В классе 7 человек успешно занимаются математикой. Сколькими способами можно выбрать из них двоих для участия в математической олимпиаде?
    5. Из 12 солдат нужно в разведку послать 5. Сколькими способами это можно сделать?
    6. Учащимся дали список из 10 книг, которые рекомендуется прочитать во время каникул. Сколькими способами ученик может выбрать из этого списка 6 книг?
    7. Назовем симпатичными числа, в записи которых используют только нечетные числа. Сколько существует четырехзначных симпатичных чисел?
    8. Сколько пятизначных чисел можно составить, используя только цифры 3 и 5?
    9. «Проказница Мартышка, Осел, Козел и косолапый Мишка затеяли сыграть квартет». Сколькими способами они могут распределить четыре имеющихся у них инструмента?
    10. «Проказница Мартышка, Осел, Козел и косолапый Мишка затеяли сыграть квартет». На складе 12 музыкальных инструментов. Мишке поручили принести со склада 8 любых инструментов. Сколько вариантов выбора есть у мишки?
    11. Гера, Афина и Афродита попросили Париса не только назвать самую красивую из них, но и указать, кто «на втором и третьем местах». Сколько есть вариантов ответа?
    12. Из 15 членов туристической группы надо выбрать трех дежурных. Сколькими способами можно сделать этот выбор?
    13. В магазине «Филателия» продается 8 различных наборов марок, посвященных «Дню Победы». Сколькими способами можно сформировать из них 3 набора?
    14. Сколько существует способов составить расписание уроков на один день из 6 предметов?
    15. Алфавит племени тумба-юмба состоит из букв А, У, С. Словом является любая последовательность из 4 букв. Сколько слов в языке этого племени?
    16. Сколькими способами можно выложить в ряд красный, зеленый, черный, синий кубики?
    17. Из колоды в 36 карт вынимают 5 карт. Найдите число всех возможных вариантов выбора.
    18. В классе 27 учеников, из которых нужно выбрать троих: первый ученик должен решить задачу, второй сходить за мелом, третий пойти дежурить в столовую. Сколькими способами это можно сделать?