Математика и статистика

  • 2121. Теория статистики (Станкин)
    Информация пополнение в коллекции 12.01.2009

    Сводные индексы представляют собой соотношение сумм произведений индексируемых величин и их соизмерителей. В качестве соизмерителей могут выступать: трудоемкость изготовления продукции (t), цена единицы продукции (p), себестоимость единицы продукции (z). Название сводного индекса определяется изменяющимся (индексируемым) показателем. Индексируемый показатель записывают в числителе на уровне отчетного периода, в знаменателе - на уровне базисного периода или на уровне планового задания. Если индексируется качественный показатель (цена, трудоемкость, себестоимость), то соответствующий ему количественный соизмеритель фиксируется на уровне отчетного периода. Если индексируется количественный показатель, то соответствующий ему качественный соизмеритель фиксируется на уровне базисного периода или на уровне планового задания. Исходя из этого, сводный индекс цен запишется:

  • 2122. Теория статистических методов
    Курсовой проект пополнение в коллекции 09.12.2008

    Обследуемые единицы отбираются так, чтобы, опираясь на полученные по этим единицам данные, составить правильное представление о явлении в целом. Поэтому одной из существенных особенностей несплошного наблюдения является организация отбора единиц обследуемой совокупности способами: основного массива, монографическим, анкетным и выборочным наблюдением. Способ основного массива предусматривает отбор единиц совокупности, преобладающих по изучаемому признаку. Данный способ не обеспечивает отбора единиц, которые представляли бы все части совокупности. Монографическое наблюдение - детальное описание небольшого числа единиц совокупности. Типическая монография, как один из способов изучения особенностей единиц совокупности, предусматривает отбор из состава всей совокупности качественно однородных единиц одного типа. Собираются сведения по 1-3 единицам с индивидуальными значениями признака, близкими к типичным значениям признака в группе. К числу недостатков типической монографии относится субъективный выбор единиц наблюдения, когда руководствуются только общим представлением об их характерных особенностях. Кроме того, число отобранных единиц невелико, не соответствуют численности самой группы, и полученные данные не позволяют изучить распределение единиц (состав, долю) в пределах отдельной группы. Большая уверенность в репрезентативности данных, полученных типической монографией, достигается, если выбор единиц основан на данных ранее выполненных сплошных наблюдений. Анкетный способ предусматривает раздачу анкет (иногда анкеты публикуют) всем единицам совокупности для специальных обследований, например с целью изучения регулярности доставки почтовой корреспонденции, мнений по отдельным вопросам. Анкеты заполняются добровольно и поэтому не всегда обеспечивается репрезентативность выборки. Программа анкетного обследования содержит узкий круг вопросов, ответы на которые часто дают только заинтересованные лица. Большое распространение получает метод интервью, когда опрос ведется путем личного общения по специально разработанной программе. Такой метод широко применяется в социологических исследованиях. Наиболее совершенным с научной точки зрения видом несплошного наблюдения является выборочное наблюдение. Выборочное наблюдение представляет собой такой вид статистического наблюдения, при котором обследованию подвергается некоторая часть единиц изучаемой совокупности, отобранная в определенном строго научном порядке, с целью последущей характеристики всей совокупности. Сплошное и несплошное статистическое наблюдение осуществляется различными способами: непосредственным наблюдением, опросом и документированной записью. Источником сведений служит опрос. По способу регистрации фактов опрос имеет разновидности: экспедиционный способ, саморегистрация, корреспондентский способ и документированная запись. Экспедиционный способ предусматривает сбор сведений на месте возникновения факта. Специальный регистратор производит опрос и сам записывает ответ. Этот способ обеспечивает точную информацию, но требует значительных затрат времени, труда и средств. Саморегистрация осуществляется с участием специального регистратора на месте сбора сведений. Регистратор только разъясняет порядок ответов на поставленные вопросы в бланке, а ответы даются обычно представителями организаций и предприятий. Этот способ требует значительных затрат времени и средств, а также привлечения высококлалифицированных статистических работников. Корреспондентский способ предполагает рассылку статистическими и другими органами управления специально разработанных бланков и инструкций по их заполнению хозяйствующим субъектам или специально выделенным лицам корреспондентам для изучения определенного вопроса. Сведения поступают в установленные сроки по почте, телеграфом или доставляются нарочным. Способ не требует особых затрат, но качество информации зависит от уровня знаний и степени подготовки корреспондентов. Документированная запись - основная форма статистического наблюдения является основным источником расчета статистических показателей.

  • 2123. Теория теней Беруни
    Информация пополнение в коллекции 27.03.2008

    Наш великий предок Беруни скончался в 440 году хиджры, то есть 13 декабря 1048 года мелодий в возрасте 75 лет в городе Газна. В книге «Номойи донишворон» («Письма учёных»), опубликованной в Тегеране (1878), о последних мгновеньях жизни учёного рассказывается: «Беруни был тяжело болен, он доживал свои последние дни. Как-то, когда он на какойто миг пришёл в себя, его взгляд упал на друга, учёного Абулхасана Валвалижи, тогда Беруни попросил друга растолковать ему новые положения о наследстве. Абулхасан ответил, что для этого сейчас ещё не время. Посмотрев на друга, Беруни сказал: «О, мой великий друг, каждый, кто приходит в этот мир, непременно когданибудь умрёт, но разум диктует мне, что сейчас самое время осознать суть того, о чём ты когда-то мне и упоминал. Поэтому лучше мне умереть, зная об этом, чем умереть в незнании». Затем Абулхасан начал разъяснять то, о чём просил Беруни. Спустя несколько минут, Беруни уснул вечным сном. Это была последняя беседа учёного о науке».

  • 2124. Теория устойчивости
    Реферат пополнение в коллекции 09.12.2008

    Графически каждый комплексный корень можно представить точкой на плоскости. Поэтому, в свою очередь, каждый из сомножителей уравнения (14) можно представить в виде разности двух векторов ( - i ), как это показано на рис.12,а. Положим теперь, что = j ; тогда определяющей является точка на мнимой оси (рис.12,б). При изменении от - до + векторы j - 1 и j - 1 комплексных корней и 1 повернуться против часовой стрелки, и приращение их аргумента равно + , а векторы j - 2 и j - 2 повернутся по часовой стрелке, и приращение их аргумента равно - . Таким образом, приращение аргумента arg( j - i ) для корня характеристического уравнения i , находящегося в левой полуплоскости, составит + , а для корня, находящегося в правой полуплоскости, - . Приращение результирующего аргумента arg D( j ) равно сумме приращений аргументов его отдельных сомножителей. Если сре1ди n корней характеристического уравнения m лежит в правой полуплоскости, то приращение аргумента составит

  • 2125. Теория флюксий
    Информация пополнение в коллекции 12.01.2009

    В понятиях и терминологии метода флюксий с полной отчётливостью отразилась глубокая связь математических и механических исследований Ньютона. Понятие непрерывной математической величины Ньютон вводит как абстракцию от различных видов непрерывного механического движения. Линии производятся движением точек, поверхности - движением линий, тела - поверхностей, углы - вращением сторон ит.д. Переменные величины Ньютон назвал флюентами (текущими величинами, от лат. fluo - теку). Общим аргументом текущих величин - флюент - является у Ньютона "абсолютное время", к которому отнесены прочие, зависимые переменные. Скорости изменения флюент Ньютон назвал флюксиями, а необходимые для вычисления флюксий бесконечно малые изменения флюент - "моментами" (у Лейбница они назывались дифференциалами). Таким образом, Ньютон положил в основу понятия флюксий (производной) и флюенты (первообразной, или неопределённого интеграла). И. Ньютон в своём методе флюксий и флюент (1666 и следующие гг.) ввёл знаки для последовательных флюксий (производных) в виде

  • 2126. Теория цепных дробей
    Информация пополнение в коллекции 12.01.2009

    Отметим без доказательства следующие свойства разложений квадратических иррациональностей:

    1. при разложении квадратного корня и целого положительного числа, не являющегося полным квадратом, период начинается со второго звена;
    2. чисто периодическая цепная дробь получается тогда и только тогда, когда квадратическая иррациональность больше 1, а сопряженная иррациональность лежит в интервале (-1; 0) (это свойство было доказано Э. Галуа в 1828 году. Он доказал также, что в случае чисто периодического разложения сопряженная квадратическая иррациональность имеет те же элементы, но расположенные в обратном порядке).
  • 2127. Теория электрического тока
    Информация пополнение в коллекции 12.01.2009

    Это явление наблюдается при включении силового трансформатора. При включении трансформатор начинает гудеть, то есть колебаться в верх и в низ. Колебания силового трансформатора можно так же ощутить коснувшись его рукой. Вы почувствуете его вибрацию. Представленный выше опыт практически повторяет силовой трансформатор. Только колебания шара не происходят в верх в низ на одном месте а колеблются в верх в верх в верх. Подобный процесс хорошо видно при катании детей на скейтборде. Ребёнок может начать движение не отталкиваясь не от чего, а резко перемещая массу своего тела в одну сторону, и плавно возвращая его в исходную точку. При этом происходит движение в заданном направлении. Здесь практически представлена модель скейтбордиста, только в микромире.

  • 2128. Теорія і практика обчислення визначників
    Контрольная работа пополнение в коллекции 02.04.2011

    Рішення. Для обчислення визначника скористаємося методом виділення лінійних множників. Насамперед відзначимо, що вихідний визначник є багаточленом 4-го степеня відносно х. Крім того, при х = 2 перший і другий рядки співпадають, тобто визначник дорівнює нулеві. Отже, х = 2 є коренем багаточлена. Далі зауважуємо, що при х = 6, х = 12, х = 20 перший рядок співпадає з третім, четвертим і пятим рядком відповідно. Виходить, ми встановили всі чотири корені полінома, тобто

  • 2129. Теорія ймовірностей та математична статистика
    Контрольная работа пополнение в коллекции 18.11.2009

     

    1. Записати вибірку у вигляді:
    2. варіаційного ряду;
    3. статистичного ряду частот;
    4. статистичного ряду відносних частот.
    5. Побудувати полігон, гістограму та кумуляту для вибірки, поданої у вигляді таблиці частот.
    6. Обчислити числові характеристики варіаційного ряду розподілу:
    7. середнє арифметичне значення;
    8. моду;
    9. медіану;
    10. дисперсію;
    11. середнє квадратичне відхилення;
    12. коефіцієнт варіації.
    13. Пояснити зміст обчислених числових характеристик.
  • 2130. Теорія ймовірності та її застосування в економіці
    Контрольная работа пополнение в коллекции 16.07.2010

     

    1. Дідиченко М.П. Теорія ймовірностей та математична статистика: Навчальний посібник для студентів економічних спеціальностей. - Харків, 1996. - 208 с.
    2. Гмурман В.Е. Теория вероятностей и математическая статистика: Учеб. пособ. для студ. вузов. - 7. изд., стереотип. - М.: Высшая школа, 2001. - 479 с.
    3. Задорожня Т.М., Коляда Ю.В., Мамонова Г.В. Збірник задач з теорії ймовірності та математичної статистики (для студентів економічних спеціальностей): Навч. посіб. для студ. вищ. навч. закл. / Державна податкова адміністрація України; Академія держ. податкової служби України. - Ірпінь: Академія ДПС України, 2001. - 76 с.
    4. Колемаев В.А. Теория вероятностей в примерах и задачах. Учеб. пособие. - М.: ГУУ, 2001. - 87 с.
    5. Малайчук В.П., Петренко О.М., Рожковський В.Ф. Основи теорії ймовірності і математичної статистики: Навч. посібник / Дніпропетровський національний ун-т. - Д.: РВВ ДНУ, 2001. - 163 с.
    6. Салтыкова О.А. Теория вероятностей и математическая статистика: Учеб. пособие / Восточный ин-т экономики, гуманитарных наук, управления и права. - Уфа: Восточный университет, 2001. - 77 с.
    7. Тимченко Л.С. Теорія ймовірностей та математична статистика: Навчально-методичний посібник для самостійної роботи студентів економічних спеціальностей. Харків: ХДПУ, 1999. - 140 с.
    8. Трошин Л.И. Теория вероятностей: Учеб. - практ. пособие / Государственный комитет РФ по статистике; Межотраслевой ин-т повышения квалификации руководящих работников и специалистов в области учета и статистики - М.: МИПК учета и статистики, 2001. - 232 с.
    9. Фетисова Т.М., Тарасова О.Ю., Потапов В.И. Теория вероятностей и математическая статистика: Учеб. пособие по решению задач / Южно-Уральский гос. ун-т. Златоустовский филиал. Кафедра высшей математики №3. - Челябинск: Издательство ЮУрГУ, 2000. - 82 с.
    10. Фигурин В.А., Оболонкин В.В. Теория вероятностей и математическая статистика: Учеб. пособие для студ. естеств. спец. вузов. - Минск: Новое знание, 2000. - 206 с.
    11. Филиппенко В.И. Элементы теории вероятностей: Учеб. пособие по курсу "Теория вероятностей" / Криворожский гос. педагогический ин-т. - Кривой Рог, 1993. - 40 с.
  • 2131. Теорія систем та системний аналіз
    Контрольная работа пополнение в коллекции 30.07.2010

    Бальні шкали оцінки знань учнів. Потреба суспільства в офіційному визначенні ступеня кваліфікованості тих, хто вчиться, незалежно від того, де, коли та як вони здобувають освіту, сприяла запровадженню загальноприйнятих шкал оцінювання знань учнів у балах. Усі відчувають, зокрема й на власному досвіді, неточність, приблизність цієї шкали. Один із методів поліпшення шкали балів полягає в збільшенні кількості градацій. Однак і це не розв'язує проблеми, і викладачі неофіційно (для себе) уводять додаткові градації додають до балів плюси, мінуси, крапки. Навіть застосовуючи 100-бальну шкалу, деякі викладачі використовують дробові бали. Усе це відбувається тому, що не існує ні абсолютного взірця, єдиного для всіх людей, ні навіть умовного загальнодоступного стандарту на зразок еталонів твердості чи висоти хвиль, і знання можна оцінювати тільки в порядковій шкалі. Проте мало хто (не тільки з учнів, але й з викладачів) розуміє, що бальна шкала належить до класу порядкових. Доходить до того, що навіть в офіційних питаннях, що впливають на долі людей, підраховують середньоарифметичний бал величину, що не має змісту в порядковій шкалі! Порядкова шкала Черчмена й Акоффа. У соціологічних дослідженнях часто виявляється корисним запропонувати опитуваному не тільки впорядкувати заданий перелік альтернатив, але й зазначити, хоча б грубо, силу переваги. Проілюструємо цей метод вимірювання на прикладі.

  • 2132. Тепловое излучение его законы
    Статья пополнение в коллекции 12.01.2009

    Практически вся информация из космоса поступает в виде электромагнитных волн. Область астрономии, которая занимается измерением количества энергии, приходящей к наблюдателю от небесных тел, называется астрофотометрией. Основным понятием астрофотометрии является световой поток. Энергия электромагнитных волн, проходящая за единицу времени через площадку облучаемой поверхности, называется потоком излучения. Поток излучения характеризует мощность излучения и выражается в ваттах. Поток зависит от ориентации площадки. Глаз человека воспринимает сравнительно узкий диапазон электромагнитных волн, он наиболее чувствителен к длинам волн около 550 нм. Поэтому выделенную из всего потока излучения мощность, на которую реагирует глаз человека, называют световым потоком ? и выражают в люменах (лм). Световой поток, падающий на единичную площадку некоторой поверхности, называется освещенностью и обозначается Е. Единица измерения освещенности Е в физике люкс (лк). 1 лк = 1 лм/м2. Интенсивность (или яркость) I это поток лучистой энергии, проходящий через единичную площадку (S), перпендикулярную данному лучу, в единице телесного угла (?) в единицу времени ((?t). Спектральная интенсивность это интенсивность в единичном интервале частот (??). Стерадиан телесный угол, вырезающий на сфере с центром в его вершине поверхность, площадь которой равна квадрату радиуса сферы R. Площадь поверхности сферы 4?R2, поэтому полный телесный угол равен 44? стерадиан. Тогда I = ER2. Освещенности E1 и E2, создаваемые одним и тем же источником на расстояниях R1 и R2, изменяются обратно пропорционально квадратам этих расстояний. Исторически сложилось, что в астрономии употребляются звездные величины. Они связаны с освещенностью следующей формулой:

  • 2133. Тест числа на простоту
    Информация пополнение в коллекции 15.12.2009

    Тест на простоту представляет собой критерий того, что число n не является простым. Если n "проходит" этот тест, то оно, возможно, простое число. Если оно "проходит" целый набор тестов на простоту, то весьма вероятно, что оно действительно является простым. С другой стороны, если n не проходит хотя бы одного теста на простоту, то оно совершенно определенно является составным. Однако при этом остается нерешенной трудная задача нахождения простых делителей числа n (задача факторизации). В общем случае для разложения на множители большого числа, о котором известно, что оно составное (поскольку оно не прошло теста на простоту), требуется порядка величины. Надежность криптосистемы RSA основывается на том предположении, что значительно легче найти два чрезвычайно больших простых числа n и q, чем, зная n=p*q, но не p или q, найти делители числа n.

  • 2134. Тетриметрия
    Информация пополнение в коллекции 12.01.2009

    При титровании необходимо установить количество рабочего раствора, эквивалентное количеству определяемого вещества. Для этой цели к исследуемому раствору приливают постепенно титрант до тех пор, пока не будет достигнуто эквивалентное отношение. Этот момент называется точкой эквивалентности. Признаком достижения точки эквивалентности служит приобретение раствором определенного значения рН. Поэтому в качестве индикаторов метода нейтрализации служат вещества, окраска которых меняется в зависимости от изменения величины рН. К ним относятся лакмус, метиловый оранжевый, фенолфталеин и многие другие вещества. Окраска каждого из них изменяется внутри определенного узкого интервала значений рН, причем этот интервал зависит только от свойств данного индикатора и совершенно не зависит от природы реагирующих между собой кислоты и основания. Благодаря этому перемена окраски индикатора происходит, как правило, не строго в точке эквивалентности, а с известным отклонением от нее. Такое отклонение влечет за собой некоторую ошибку, называемую индикаторной ошибкой титрования. Величина этой ошибки может колебаться в весьма широких пределах в зависимости от того, какой взят индикатор и какие основание и кислота реагируют между собой. При правильном выборе индикатора ошибка не выходит за обычные пределы аналитических погрешностей и может во внимание не приниматься. Наоборот, если индикатор взят неподходящий, ошибка окажется весьма значительной.

  • 2135. Техника интегрирования и приложения определенного интеграла
    Контрольная работа пополнение в коллекции 22.04.2010

     

    1. Чтобы изменить порядок интегрирования, установим пределы интегрирования для внешнего интеграла по переменной у. Как видно из рисунка, наименьшее значение которое принимает у в точке А(1;0) равно 0, а наибольшее значение в точке В(5; 4) равно 4. Т.О. новые пределы интегрирования: 0 нижний, 4 верхний.
  • 2136. Технология извлечения знаний из нейронных сетей: апробация, проектирование ПО, использование в психо...
    Дипломная работа пополнение в коллекции 15.10.2007

     

    1. Лорьер Ж.-Л. Системы искусственного интеллекта. М.: Мир, 1991. - 568с.
    2. Искусственный интеллект. В 3-х кн. Кн. 2. Модели и методы: Справочник / Под ред. Д.А.Поспелова. М.: Радио и связь, 1990. - 304с.
    3. Хафман И. Активная память. М.: Прогресс. 1986. - 309с.
    4. Бонгард М.М. Проблема узнавания. М.: Наука, 1967. - 320с.
    5. Загоруйко Н.Г. Методы обнаружения закономерностей. М.: Наука, 1981. - 115с.
    6. Гаек П., Гавранек Т. Автоматическое образование гипотез. М.: Наука, 1984. - 278с.
    7. Гуревич Ю.В., Журавлев Ю.И. Минимизация булевых функций и и эффективные алгоритмы распознавания // Кибернетика. - 1974, №3. - с.16-20.
    8. Искусственный интеллект. В 3-х кн. Кн. 1. Системы общения и экспертные системы: Справочник / Под ред. Э.В.Попова. М.: Радио и связь, 1990. - 464с.
    9. Айвазян С.А., Енюков И.С., Мешалкин Л.Д. Прикладная статистика: Основы моделирования и первичная обработка данных. М.: Финансы и статистика, 1983. - 471с.
    10. Загоруйко Н.Г. Гипотезы компактности и -компактности в алгоритмах анализа данных // Сибирский журнал индустриальной математики. Январь-июнь, 1998. Т.1, №1. - с.114-126.
    11. Браверман Э.М., Мучник И.Б. Структурные методы обработки эмпирических данных. М.: Наука, 1983. - 464с.
    12. Дуда Р., Харт П. Распознавание образов и анализ сцен. М.: Мир, 1976. - 512с.
    13. Цыпкин Я.З. Информационная теория идентификации. М.: Наука, 1995. - 336с.
    14. Айзерман М.А., Браверман Э.М., Розоноер Л.И. Метод потенциальных функций в теории обучения машин. - М.: Наука, 1970. - 240с.
    15. Россиев Д.А. Самообучающиеся нейросетевые экспертные системы в медицине: теория, методология, инструментарий, внедрение. Автореф. дисс. … доктора биол. наук. Красноярск, 1996.
    16. Горбань А.Н. Обучение нейронных сетей. М.: изд. СССР-США СП "ParaGraph", 1990. - 160с. (English Translation: AMSE Transaction, Scientific Siberian, A, 1993, Vol. 6. Neurocomputing, рp.1-134).
    17. Горбань А.Н., Россиев Д.А. Нейронные сети на персональном компьютере. Новосибирск: Наука, 1996. - 276с.
    18. Нейроинформатика / А.Н. Горбань, В.Л. Дунин-Барковский, А.Н. Кирдин и др. Новосибирск: Наука, 1998. - 296с.
    19. Ежов А.А., Шумский С.А. Нейрокомпьютинг и его применение в финансах и бизнесе. М.: МИФИ, 1998.
    20. Миркес Е.М. Нейрокомпьютер: проект стандарта. Новосибирск, Наука, 1998.
    21. Kwon O.J., Bang S.Y. A Design Method of Fault Tolerant Neural Networks / Proc. ICNN 1994, Seoul, Korea. - Vol.1. - pp. 396-400.
    22. Горбань А.Н., Царегородцев В.Г. Методология производства явных знаний из таблиц данных при помощи обучаемых и упрощаемых искусственных нейронных сетей // Труды VI Международной конференции "Математика. Компьютер. Образование" / - М.: Прогресс-традиция, 1999. - Ч.I. - С.110-116.
    23. Царегородцев В.Г. Извлечение явных знаний из таблиц данных при помощи обучаемых и упрощаемых искусственных нейронных сетей // Материалы XII Международной конференции по нейрокибернетике. - Ростов-на-Дону. Изд-во СКНЦ ВШ. 1999.- 323с. - С.245-249.
    24. Reed R. Pruning Algorithms - a Survey / IEEE Trans. on Neural Networks, 1993, Vol.4, №5. - pp.740-747.
    25. Depenau J., Moller M. Aspects of Generalization and Pruning / Proc. WCNN'94, 1994, Vol.3. - pp.504-509.
    26. Гилев С.Е., Коченов Д.А., Миркес Е.М., Россиев Д.А. Контрастирование, оценка значимости параметров, оптимизация их значений и их интерпретация в нейронных сетях // Доклады III Всероссийского семинара “Нейроинформатика и ее приложения”. Красноярск, 1995.- С.66-78.
    27. Weigend A.S., Rumelhart D.E., Huberman B.A. Generalization by Weights-elimination with Application to Forecasting / Advances in Neural Information Processing Systems. Morgan Kaufmann, 1991. Vol.3. - pp. 875-882.
    28. Yasui S. Convergence Suppression and Divergence Facilitation for Pruning Multi-Output Backpropagation Networks / Proc. 3rd Int. Conf. on Fuzzy Logic, Neural Nets and Soft Computing, Iizuka, Japan, 1994. - pp.137-139.
    29. Yasui S. A New Method to Remove Redundant Connections in Backpropagation Neural Networks: Inproduction of 'Parametric Lateral Inhibition Fields' / Proc. IEEE INNS Int. Joint Conf. on Neural Networks, Beijing, Vol.2. - pp.360-367.
    30. Yasui S., Malinowski A., Zurada J.M. Convergence Suppression and Divergence Facilitation: New Approach to Prune Hidden Layer and Weights in Feedforward Neural Networks / Proc. IEEE Int. Symposium on Circuits and Systems 1995, Seattle, WA, USA. Vol.1. - pp.121-124.
    31. Malinowski A., Miller D.A., Zurada J.M. Reconciling Training and Weight Suppression: New Guidelines for Pruning-efficient Training / Proc. WCNN 1995, Washington, DC, USA. Vol.1. - pp.724-728.
    32. Krogh A., Hertz J. A Simple Weight Decay can Improve Generalization / Advances in Neural Infromation Processing Systems 4, 1992. - pp. 950-957.
    33. Kamimura R., Nakanishi S. Weight-decay as a Process of Redundancy Reduction / Proc. WCNN, 1994, Vol.3. - pp.486-489.
    34. Karnin E.D. A Simple Procedure for Pruning Back-propagation Trained Network / IEEE Trans. on Neural Networks, June 1990. Vol. 1, No.2. - pp.239-242.
    35. Le Cun Y., Denker J.S., Solla S.A. Optimal Brain Damage / Advances in Neural Information Processing Systems 2. - Morgan Kaufmann, 1990. - pp.598-605.
    36. Hassibi B., Stork D.G., Wolff G. Optimal Brain Surgeon: Extensions and Performance Comparisions / Advances in Neural Information Processing Systems 6, 1994. pp.263-270.
    37. Гилев С.Е. Алгоритм сокращения нейронных сетей, основанный на разностной оценке вторых производных целевой функции // Нейроинформатика и ее приложения : Тезисы докладов V Всеросс. семинара, 1997. Красноярск. КГТУ. 1997. - 190с. - C.45-46.
    38. Tanpraset C., Tanpraset T., Lursinsap C. Neuron and Dendrite Pruning by Synaptic Weight Shifting in Polynomial Time / Proc. IEEE ICNN 1996, Washington, DC, USA. Vol.2. - pp.822-827.
    39. Kamimura R. Principal Hidden Unit Analysis: Generation of Simple Networks by Minimum Entropy Method / Proc. IJCNN 1993, Nagoya, Japan. - Vol.1. - pp.317-320.
    40. Mozer M.C., Smolensky P. Using Relevance to Reduce Network Size Automatically / Connection Science. 1989. Vol.1. - pp.3-16.
    41. Mozer M.C., Smolensky P. Skeletonization: A Technique for Trimming the Fat from a Network via Relevance Assessment / Advances in Neural Network Information Processing Systems 1, Morgan Kaufmann, 1989. - pp.107-115.
    42. Watanabe E., Shimizu H. Algorithm for Pruning Hidden Units in Multi Layered Neural Network for Binary Pattern Classification Problem / Proc. IJCNN 1993, Nagoya, Japan. - Vol.1. - pp.327-330.
    43. Yoshimura A., Nagano T. A New Measure for the Estimation of the Effectiveness of Hidden Units / Proc. Annual Conf. JNNS, 1992. - pp.82-83.
    44. Murase K., Matsunaga Y., Nakade Y. A Back-propagation Algorithm which Automatically Determines the Number of Association Units / Proc. IJCNN, Singapore, 1991. - Vol.1. - pp.783-788.
    45. Matsunaga Y., Nakade Y., Yamakawa O., Murase K, A Back-propagation Algorithm with Automatic Reduction of Association Units in Multi-layered Neural Network / Trans. on IEICE, 1991. Vol. J74-DII, №8. - pp.1118-1121.
    46. Hagiwara M. Removal of Hidden Units and Weights for Back Propagation Networks / Proc. IJCNN 1993, Nagoya, Japan. - Vol.1. - pp.351-354.
    47. Majima N., Watanabe A., Yoshimura A., Nagano T. A New Criterion "Effectiveness Factor" for Pruning Hidden Units / Proc. ICNN 1994, Seoul, Korea. - Vol.1. - pp. 382-385.
    48. Царегородцев В.Г. Производство полуэмпирических знаний из таблиц данных с помощью обучаемых искусственных нейронных сетей // Методы нейроинформатики. Красноярск: Изд-во КГТУ, 1998. - 205c. - C.176-198.
    49. Sietsma J., Dow R.J.F. Neural Net Pruning - Why and How / Proc. IEEE IJCNN 1988, San Diego, CA. Vol.1. - pp. 325-333.
    50. Sietsma J., Dow R.J.F. Creating Artificial Neural Network that Generalize / Neural Networks, 1991. Vol.4, No.1. - pp.67-79.
    51. Yamamoto S., Oshino T., Mori T., Hashizume A., Motoike J. Gradual Reduction of Hidden Units in the Back Propagation Algorithm, and its Application to Blood Cell Classification / Proc. IJCNN 1993, Nagoya, Japan. - Vol.3. - pp.2085-2088.
    52. Sarle W.S. How to measure importance of inputs? SAS Institute Inc., Cary, NC, USA, 1999. ftp://ftp.sas.com/pub/neural/importance.html
    53. Goh T.-H. Semantic Extraction Using Neural Network Modelling and Sensitivity Analisys / Proc. IJCNN 1993, Nagoya, Japan. - Vol.1. - pp.1031-1034.
    54. Howlan S.J., Hinton G.E. Simplifying Neural Network by Soft Weight Sharing / Neural Computations, 1992. Vol.4. №4. - pp.473-493.
    55. Keegstra H., Jansen W.J., Nijhuis J.A.G., Spaanenburg L., Stevens H., Udding J.T. Exploiting Network Redundancy for Low-Cost Neural Network Realizations / Proc. IEEE ICNN 1996, Washington, DC, USA. Vol.2. - pp.951-955.
    56. Chen A.M., Lu H.-M., Hecht-Nielsen R. On the Geometry of Feedforward Neural Network Error Surfaces // Neural Computations, 1993. - 5. pp. 910-927.
    57. Гордиенко П. Стратегии контрастирования // Нейроинформатика и ее приложения : Тезисы докладов V Всероссийского семинара, 1997 / Под ред. А.Н.Горбаня. Красноярск. КГТУ. 1997. - 190с. - C.69.
    58. Gorban A.N., Mirkes Ye.M., Tsaregorodtsev V.G. Generation of explicit knowledge from empirical data through pruning of trainable neural networks / Int. Joint Conf. on Neural Networks, Washington, DC, USA, 1999.
    59. Ishibuchi H., Nii M. Generating Fuzzy If-Then Rules from Trained Neural Networks: Linguistic Analysis of Neural Networks / Proc. 1996 IEEE ICNN, Washington, DC, USA. Vol.2. - pp.1133-1138.
    60. Lozowski A., Cholewo T.J., Zurada J.M. Crisp Rule Extraction from Perceptron Network Classifiers / Proc. 1996 IEEE ICNN, Washington, DC, USA. Plenary, Panel and Special Sessions Volume. - pp.94-99.
    61. Lu H., Setiono R., Liu H. Effective Data Mining Using Neural Networks / IEEE Trans. on Knowledge and Data Engineering, 1996, Vol.8, №6. pp.957-961.
    62. Duch W., Adamczak R., Grabczewski K. Optimization of Logical Rules Derived by Neural Procedures / Proc. 1999 IJCNN, Washington, DC, USA, 1999.
    63. Duch W., Adamczak R., Grabczewski K. Neural Optimization of Linguistic Variables and Membership Functions / Proc. 1999 ICONIP, Perth, Australia.
    64. Ishikawa M. Rule Extraction by Successive Regularization / Proc. 1996 IEEE ICNN, Washington, DC, USA. Vol.2. - pp.1139-1143.
    65. Sun R., Peterson T. Learning in Reactive Sequential Decision Tasks: the CLARION Model / Proc. 1996 IEEE ICNN, Washington, DC, USA. Plenary, Panel and Special Sessions Volume. - pp.70-75.
    66. Gallant S.I. Connectionist Expert Systems / Communications of the ACM, 1988, №31. pp.152-169.
    67. Saito K., Nakano R. Medical Diagnostic Expert System Based on PDP Model / Proc. IEEE ICNN, 1988. pp.255-262.
    68. Fu L.M. Rule Learning by Searching on Adapted Nets / Proc. AAAI, 1991. - pp.590-595.
    69. Towell G., Shavlik J.W. Interpretation of Artificial Neural Networks: Mapping Knowledge-based Neural Networks into Rules / Advances in Neural Information Processing Systems 4 (Moody J.E., Hanson S.J., Lippmann R.P. eds.). Morgan Kaufmann, 1992. - pp. 977-984.
    70. Fu L.M. Rule Generation From Neural Networks / IEEE Trans. on Systems, Man. and Cybernetics, 1994. Vol.24, №8. - pp.1114-1124.
    71. Yi L., Hongbao S. The N-R Method of Acquiring Multi-step Reasoning Production Rules Based on NN / Proc. 1996 IEEE ICNN, Washington, DC, USA. Vol.2. - pp.1150-1155.
    72. Towell G., Shavlik J.W., Noodewier M.O. Refinement of Approximately Correct Domain Theories by Knowledge-based Neural Networks / Proc. AAAI'90, Boston, MA, USA, 1990. - pp.861-866.
    73. Towell G., Shavlik J.W. Extracting Refined Rules from Knowledge-based Neural Networks / Machine Learning, 1993. Vol.13. - pp. 71-101.
    74. Towell G., Shavlik J.W. Knowledge-based Artificial Neural Networks / Artificial Intelligence, 1994. Vol.70, №3. - pp.119-165.
    75. Opitz D., Shavlik J. Heuristically Expanding Knowledge-based Neural Networks / Proc. 13 Int. Joint Conf. on Artificial Intelligence, Chambery, France. Morgan Kaufmann, 1993. - pp.1360-1365.
    76. Opitz D., Shavlik J. Dynamically Adding Symbolically Meaningful Nodes to Knowledge-based Neural Networks / Knowledge-based Systems, 1995. - pp.301-311.
    77. Craven M., Shavlik J. Learning Symbolic Rules Using Artificial Neural Networks / Proc. 10 Int. Conf. on Machine Learning, Amherst, MA, USA. Morgan Kaufmann, 1993. - pp.73-80.
    78. Craven M., Shavlik J. Using Sampling and Queries to Extract Rules from Trained Neural Networks / Proc. 11 Int. Conf. on Machine Learning, New Brunswick, NJ, USA, 1994. - pp.37-45.
    79. Medler D.A., McCaughan D.B., Dawson M.R.W., Willson L. When Local int't Enough: Extracting Distributed Rules from Networks / Proc. 1999 IJCNN, Washington, DC, USA, 1999.
    80. Craven M.W., Shavlik J.W. Extracting Comprehensible Concept Representations from Trained Neural Networks / IJCAI Workshop on Comprehensibility in Machine Learning, Montreal, Quebec, Canada, 1995.
    81. Andrews R., Diederich J., Tickle A.B. A Survey and Critique of Techniques for Extracting Rules from Trained Artificial Neural Networks / Knowledge Based Systems, 1995, №8. - pp.373-389.
    82. Craven M.W., Shavlik J.W. Using Neural Networks for Data Mining / Future Generation Computer Systems, 1997.
    83. Craven M.W., Shavlik J.W. Rule Extraction: Where Do We Go From Here? Department of Computer Sciences, University of Wisconsin, Machine Learning Research Group Working Paper 99-1. 1999.
    84. Michalski R.S. A Theory and Methodology of Inductive Learning / Artificial Intelligence, 1983, Vol.20. pp.111-161.
    85. McMillan C., Mozer M.C., Smolensky P. The Connectionist Scientist Game: Rule Extraction and Refinement in a Neural Network / Proc. XIII Annual Conf. of the Cognitive Science Society, Hillsdale, NJ, USA, 1991. Erlbaum Press, 1991.
    86. Language, meaning and culture: the selected papers of C. E. Osgood / ed. by Charles. E. Osgood and Oliver C. S. Tzeng. New York (etc.) : Praeger, 1990 XIII, 402 S.
    87. Горбань П.А. Нейросетевая реализация метода семантического дифференциала и анализ выборов американских президентов, основанный на технологии производства явных знаний из данных // Материалы XXXVII Международной научной студенческой конференции "Cтудент и научно-технический прогресс": Информационные технологии. Новосибирск, НГУ, 1999
  • 2137. Технология теории решения изобретательных задач (ТРИЗ)
    Контрольная работа пополнение в коллекции 16.07.2010

    Есть, правда, исключение, когда Б.А. Лабковский похвалил ТРИЗ. Прочитаем цитату на стр.16 [9]: "Здесь авторы ТРИЗ, действительно, делают большой шаг вперед по сравнению с другими методиками, декларируя необходимость изучения внутренних свойств задачи для осуществления выбора. Альтшуллер предложил выбирать оператор R (оператор решения, добавлено мною), исходя из характера противоречия изучаемого объекта. Но в чем суть противоречия объекта? Альтшуллер отвечает на этот вопрос следующим образом: "Некоторое свойство в объекте должно одновременно сосуществовать с антисвойством". Далее автор ТРИЗ полагает, что может быть определен список, сопоставляющий то или иное противоречие соответствующему оператору, разрешающему это противоречие. Если говорить обо всем классе явлений, способных в потенциале стать изобретениями, то становится ясным, что такой список осуществить невозможно. Реальный мир неисчерпаем". И, кроме того, найденное авторами ТРИЗ множество операторов не составляет класса, так как не объединено признаками, определяющими класс. Поэтому выявленные операторы нельзя принять в качестве видов, а только лишь как набор неких частных принципов действия" (конец цитаты).

  • 2138. Типичные дефекты в криптографических протоколах
    Реферат пополнение в коллекции 09.12.2008

    Для примера рассмотрим две модификации протокола односторонней идентификации. Предварительно сервер S выбирает надлежащим образом значения системных параметров (Р, ), генерирует от ДСЧ свой секретный ключ х, вычисляет соответствующий открытый ключ и рассылает всем пользователям постоянные (Р, , y) по достоверному каналу. Далее, для каждого пользователя, например, для А сервер генерирует от ДСЧ случайное секретное число “К”, вычисляет открытый идентификаторr=k (mod p), находит секретный идентификатор S=K-1(A+xr)mod(p-1) и по безопасному каналу передает А его идентификационные данные (A, r, S), например, А получает их в ЦГРК при регистрации вместе с системными константами Р, , y. Заметим, что секретный идентификатор S является функцией неизвестного числа “К”, которое стирается, и секретного ключа х сервера S, а также функцией адреса А и открытого идентификатора “r”.

  • 2139. Типовой расчет
    Контрольная работа пополнение в коллекции 23.12.2010

    Для приближённого вычисления ряда достаточно первых трех членов ряда (по следствию признака Лейбница: сумма сходящегося знакопеременного числового ряда не превышает его первого члена). Следовательно, ошибка при вычислении не превысит 0,0000093, а, значит, и . Требуемая точность достигнута.

  • 2140. Типовой расчет графов
    Информация пополнение в коллекции 15.06.2010

    Сразу хочу сказать для своих коллег: Граждане! Имейте терпение и совесть, поймите, что я это делаю для Вас с целью помочь разобраться в этой теме, а не просто свалить очередной предмет. Мне известно, как непросто сейчас с литературой, и с информацией вообще. Поиски неизвестно какой книги занимают много времени, поэтому в конце я привел небольшой список литературы, составленный мной из различных источников в дополнение к списку, написанному ранее в работе по графам (о постановке лаб. работ по алгоритму Прима и Дейкстра), которая, я надеюсь, есть в сети.