Метод наименьших квадратов
Вид материала | Документы |
СодержаниеО (observatio, лат.), а вычисленных по формуле - буквой С Ф. Диагональный элемент q Численный пример Х: . Учитывая формулу для МНК-оценки х Р - диагональная матрица и P=P |
- Лабораторная работа по теме: метод наименьших квадратов, 231.91kb.
- Решение : Составляем функцию для зависимости, 10.81kb.
- Ф. И. Эджоурт один из известнейших ученых, первый кто попытался применить методы, которые, 243.09kb.
- Линейная регрессия и метод наименьших квадратов, 177.63kb.
- А. Ю. Власов доцент, к Х. н. Математическая обработка результатов эксперимента, 36.78kb.
- Эконометрика, 104.66kb.
- Одним из важнейших направлений астрономии в течение последнего времени является обработка, 72.97kb.
- И. А. Пахнутов Рассмотрены вычислительные аспекты обобщенного метода наименьших квадратов, 39.76kb.
- Евгений Иванович Пальчиков программа курса, 90.95kb.
- Метод наименьших квадратов, 20.09kb.
Глава 6
МЕТОД НАИМЕНЬШИХ КВАДРАТОВ
6.1. Средняя квадратическая аппроксимация функций
Научно-исследовательская практика часто нуждается в замене табличных функций, полученных экспериментальныо или из астрономических наблюдений, аналитическим выражением. Именно так решаются задачи интерполирования, численного дифференцирования и интегрирования. Однако, наличие погрешностей в этих данных не позволяет подобрать аналитические выражения, дающие график строго по экспериментальным точкам (например, при “точечном интерполировании” или при построении интерполяционных сплайнов). Уменьшить влияние этих погрешностей можно, если пользоваться для аппроксимации (приближении) наблюденных зависимостей одной величины от другой более гладкой кривой, чем это дает опыт.
Допустим, что реально существует зависимость переменной Y от t, но эта зависимость имеет m степеней свободы, т.е. содержит m неизвестных параметров, которые нужно подобрать. Предположим, что наблюдения Y дают ряд приближенных значений
![](images/78914-nomer-78cae57a.gif)
![](images/78914-nomer-7cf827f8.gif)
Итак, задача состоит в том, чтобы определить оценки параметров
![](images/78914-nomer-m749ec567.gif)
![](images/78914-nomer-1852762e.gif)
![](images/78914-nomer-maf34c7f.gif)
При m > n эта задача невыполнима, так как имеет бесчисленное множество решений. При m = n система может иметь однозначное решение, а при m < n - число уравнений больше числа неизвестных и уравнения, вообще говоря, несовместны. Именно к этому случаю применяется метод наименьших квадратов (МНК), которому посвящается данная глава.
Допустим, что каким-либо способом мы выбрали набор неизвестных параметров:
![](images/78914-nomer-3848f323.gif)
![](images/78914-nomer-2c9b32ef.gif)
![](images/78914-nomer-5b17f6b.gif)
Из-за ошибок наблюдений
![](images/78914-nomer-1dbf0593.gif)
![](images/78914-nomer-2c9b32ef.gif)
![](images/78914-nomer-m48da58ae.gif)
где двойными скобками обозначена норма - в определенном смысле среднее расстояние между О и С.
Как мы уже говорили, число параметров функции есть ее число степеней свободы. С помощью этих параметров кривая - геометрический образ функции - может менять свою форму и положение на плоскости. Для того, чтобы провести прямую, аппроксимирующую линейный тренд (ход) наблюдений, необходимо ввести два параметра, определяющие параллельный перенос и вращение прямой. Чтобы определить параболу второго порядка нужно иметь три параметра и т.д. Синусоида имеет также три степени свободы: положение осевой линии, амплитуду и фазу. Для определения орбит в задачах небесной механики необходимо определить шесть элементов - это шесть параметров. Для их определения необходимо минимум три пары координат a и d, но для уменьшения влияния погрешностей наблюдений, число пар координат должно быть существенно больше.
В 1792 году Лаплас в качестве нормы отклонений О-С принял сумму абсолютных значений остаточных разностей
![](images/78914-nomer-18c4c068.gif)
Эта функция не дифференцируема и поиск минимальных значений
![](images/78914-nomer-m479f5f42.gif)
В 1905 году в книге “Новые методы определения орбит комет” Лежандр предложил в качестве меры точности приближения теоретической кривой к наблюдениям принять квадратичный критерий
![](images/78914-nomer-m3bbe9da5.gif)
В этом случае легко определить абсолютный минимум
![](images/78914-nomer-3c099497.gif)
![](images/78914-nomer-7cf827f8.gif)
![](images/78914-nomer-m68ee983f.gif)
Эти уравнения получили название нормальных, а сам метод был назван методом наименьших квадратов (МНК).
Принцип минимизации суммы квадратов отклонений (О-С) называют иногда принципом Лежандра. Правда, немецкий ученый Гаусс этот принцип использовал раньше Лежандра на 10 лет. Поэтому было бы более правильным называть его принципом Гаусса-Лежандра. Позже он получил строгое математическое обоснование в теории вероятностей и математической статистики.
6.2. Метод наименьших квадратов (МНК) с независимыми наблюдениями
6.2.1. Применение МНК к линейным функциям
Рассмотрим частный случай зависимости наблюдаемой величины
![](images/78914-nomer-2257fbeb.gif)
![](images/78914-nomer-12b8166b.gif)
![](images/78914-nomer-m248157ab.gif)
В дискретных значениях аргумента
![](images/78914-nomer-53e1dbae.gif)
![](images/78914-nomer-37df8476.gif)
![](images/78914-nomer-md6be810.gif)
![](images/78914-nomer-m6f20a76.gif)
![](images/78914-nomer-51ab441c.gif)
![](images/78914-nomer-26ce7959.gif)
![](images/78914-nomer-1359f347.gif)
![](images/78914-nomer-15bbba7a.gif)
Критерий
![](images/78914-nomer-m5a32066.gif)
![](images/78914-nomer-7a415149.gif)
Построим систему нормальных уравнений
![](images/78914-nomer-m12056954.gif)
![](images/78914-nomer-463f7945.gif)
![](images/78914-nomer-m5c8279a9.gif)
Выполнив дифференцирование, получим
![](images/78914-nomer-332920b5.gif)
![](images/78914-nomer-8ce429.gif)
![](images/78914-nomer-10d1e31f.gif)
Имеем систему, состоящую из трех линейных уравнений с тремя неизвестными, которую легко тем или иным способом решить.
Для обозначения сумм произведений или квадратов Гаусс предложил применять прямые скобки следующим образом
![](images/78914-nomer-5b620995.gif)
![](images/78914-nomer-299be329.gif)
![](images/78914-nomer-2f42fe14.gif)
В этих обозначениях нормальные уравнения примут вид
![](images/78914-nomer-m2786c146.gif)
![](images/78914-nomer-m516d11d7.gif)
![](images/78914-nomer-m427630ef.gif)
Основное свойство нормальных уравнений - симметричность матрицы системы:
![](images/78914-nomer-6e041e0e.gif)
![](images/78914-nomer-m77456fe8.gif)
![](images/78914-nomer-1bba55b8.gif)
Решить эту систему можно используя, например, формулы Крамера, или один из матричных способов.
6.2.2. Ковариационная матрица ошибок неизвестных
Поскольку суммы
![](images/78914-nomer-6b15db60.gif)
![](images/78914-nomer-f58a7ba.gif)
![](images/78914-nomer-138b177c.gif)
![](images/78914-nomer-4f0fa2d.gif)
![](images/78914-nomer-m3a1c649c.gif)
![](images/78914-nomer-m5d6e0cd.gif)
![](images/78914-nomer-3fd88968.gif)
Очевидно, что погрешности неизвестных подчиняются той же системе уравнений
![](images/78914-nomer-5c283c6b.gif)
где элементы матрицы-столбца в правой части уравнений нужно понимать так
![](images/78914-nomer-465d0884.gif)
![](images/78914-nomer-27bc5426.gif)
![](images/78914-nomer-m6a52ebd1.gif)
Обозначим матрицу нормальных уравнений для краткости буквой Ф. Получим
![](images/78914-nomer-m621f3b91.gif)
![](images/78914-nomer-146a8811.gif)
![](images/78914-nomer-11249c82.gif)
Пусть наблюдения являются равноточными и независимыми. Тогда ковариационная матрица ошибок измерений ряда
![](images/78914-nomer-1d83c542.gif)
![](images/78914-nomer-2b068e5e.gif)
Через
![](images/78914-nomer-32d912f9.gif)
![](images/78914-nomer-46573b0b.gif)
где
![](images/78914-nomer-29238ae4.gif)
![](images/78914-nomer-m1393704c.gif)
Используя решение нормальных уравнений для ошибок
![](images/78914-nomer-m6dcf16a8.gif)
![](images/78914-nomer-m4a29a0c0.gif)
Вследствие симметричности матрицы Ф ее обратная матрица также симметрична, и их транспонирование не изменяет.
Поскольку матрица
![](images/78914-nomer-m1710b02c.gif)
![](images/78914-nomer-m12aeaabd.gif)
Распишем первый элемент средней матрицы подробнее
![](images/78914-nomer-m53c9a8fa.gif)
Но вследствие равноточности и независимости измерений
![](images/78914-nomer-m5e461559.gif)
![](images/78914-nomer-7c653597.gif)
![](images/78914-nomer-985ccf8.gif)
Следовательно, в двойной сумме следует оставлять только те члены, у которых i=j. Будем иметь
![](images/78914-nomer-m71e0ce5b.gif)
Точно также можно показать
![](images/78914-nomer-6ccbc738.gif)
![](images/78914-nomer-3cc19155.gif)
Итак, ковариационная матрица ошибок неизвестных имеет вид
![](images/78914-nomer-m147e2da.gif)
Мы получили, таким образом, важную формулу, позволяющую вычислить не только дисперсии ошибок неизвестных, но и их ковариации
![](images/78914-nomer-m12dbad67.gif)
![](images/78914-nomer-m2aa6839d.gif)
Сравним полученную формулу с формулой для дисперсии ошибки единичного измерения
![](images/78914-nomer-408917e0.gif)
![](images/78914-nomer-m5d2d5183.gif)
![](images/78914-nomer-m5c82c5e6.gif)
Видим полную аналогию. Роль дисперсии ошибки измерений играет ковариационная матрица ошибок неизвестных, а роль веса - матрица нормальных уравнений. Иными словами: матрица нормальных уравнений есть матричный вес вектора неизвестных.
6.2.3. Вычисление ошибок неизвестных
Обозначим элементы обратной матрицы
![](images/78914-nomer-m1710b02c.gif)
![](images/78914-nomer-m6b12b77.gif)
![](images/78914-nomer-m1b686b9b.gif)
Тогда
![](images/78914-nomer-11543d61.gif)
Здесь диагональные элементы - дисперсии ошибок неизвестных:
![](images/78914-nomer-60a2985b.gif)
![](images/78914-nomer-m12319102.gif)
![](images/78914-nomer-m375f9d5a.gif)
а недиагональные - их ковариации:
![](images/78914-nomer-m155c3866.gif)
![](images/78914-nomer-m2abc68b.gif)
![](images/78914-nomer-60039684.gif)
Постоянные q11, q22, q33 называют также весовыми коэффициентами (в отличие от весов неизвестных px, py, pz). Чтобы получить веса неизвестных, нужно найти обратную величину
![](images/78914-nomer-366f0761.gif)
![](images/78914-nomer-m46aba9f8.gif)
![](images/78914-nomer-m2208ee1e.gif)
В подавляющем большинстве случаев нам нужно определить средние квадратические ошибки МНК-оценок неизвестных. В этом случаае вычисляют СКО “единицы веса” по формуле, которую мы введем несколько позже:
![](images/78914-nomer-m20bbeaf8.gif)
где vk - остаточные разности:
![](images/78914-nomer-m34f38cb0.gif)
Величина e0, как правило, заменяет стандартное отклонение s0 и является его несмещенной оценкой. Поэтому СКО неизвестных определяют по формулам
![](images/78914-nomer-edd4c2e.gif)
![](images/78914-nomer-2b52495c.gif)
![](images/78914-nomer-6baa732e.gif)
Для системы трех уравнений веса неизвестных легко вычислить, образуя матрицу ^ Ф. Диагональный элемент q11 обратной матрицы
![](images/78914-nomer-m1710b02c.gif)
![](images/78914-nomer-7606361c.gif)
Аналогично
![](images/78914-nomer-m2a2a24dd.gif)
![](images/78914-nomer-4c5ea663.gif)
Веса px, py, pz - соответствено - отношения определителя системы к определителю матрицы, полученной вычеркиванием соответствующих строки и столбца, где расположен диагональный элемент обратной матрицы нормальных уравнений.
^ Численный пример.
Решим систему уравнений
![](images/78914-nomer-6bc80b83.gif)
![](images/78914-nomer-2b0a89f2.gif)
![]() | ![]() | ![]() | ![]() | ![]() | ![]() |
1 | 0 | 2 | 7 | 6.8 | +0.2 |
0 | 3 | -2 | 1 | 0.8 | +0.2 |
-1 | 2 | 0 | 3 | 3.9 | -0.9 |
2 | -1 | 1 | 2 | + 2.2 | -0.2 |
3 | 2 | -2 | 1 | 0.6 | +0.4 |
-2 | -1 | 3 | 6 | 5.4 | +0.6 |
0 | 3 | -2 | 1 | 0.8 | +0.2 |
4 | 1 | 0 | 5 | 5.2 | -0.2 |
Составим нормальные уравнения. Первый элемент матрицы нормальных уравнений есть сумма квадратов элементов первого столбца (
![](images/78914-nomer-876b462.gif)
![](images/78914-nomer-m671f9f10.gif)
![](images/78914-nomer-m121e0c9b.gif)
Решим полученную систему методом обращения матриц:
![](images/78914-nomer-283e8fc8.gif)
В пятом столбце таблицы приведены вычисленные значения
![](images/78914-nomer-28fae8ba.gif)
![](images/78914-nomer-m24ca6365.gif)
![](images/78914-nomer-6b5abdd7.gif)
![](images/78914-nomer-4dab1e2f.gif)
Определим веса неизвестных
![](images/78914-nomer-m682520f.gif)
![](images/78914-nomer-56a93292.gif)
![](images/78914-nomer-5285b866.gif)
Отсюда
![](images/78914-nomer-68da4659.gif)
![](images/78914-nomer-m2bcea930.gif)
![](images/78914-nomer-5046d4f3.gif)
Решение следует записать в виде
x=0.72±0.10, y=2.29±0.15, z=3.06±0.16.
6.3. МНК для линейных уравнений. Матричный подход
6.3.1. Матричная МНК-оценка параметров
Рассмотрим теперь общий случай применения МНК к линейным уравнениям. Пусть наши уравнения содержат m неизвестых параметров, которые будем обозначать
![](images/78914-nomer-6621f42f.gif)
![](images/78914-nomer-m603c70fb.gif)
![](images/78914-nomer-m3dd9de01.gif)
![](images/78914-nomer-m2b1a7b0a.gif)
![](images/78914-nomer-3dc23b57.gif)
. . . . . . . . . . . . . . . . . . . . . . . . . .
![](images/78914-nomer-m27270d1.gif)
Эти уравнения можно записать компактно в матричной форме:
![](images/78914-nomer-m3463e0e3.gif)
где
![](images/78914-nomer-5653a30.gif)
![](images/78914-nomer-m129f930b.gif)
![](images/78914-nomer-m776c3f8b.gif)
![](images/78914-nomer-m6a2af4a6.gif)
Будем считать, что вектор l определяется независимыми измерениями, но эти измерения, вообще говоря, не являются равноточными. Допустим, что
![](images/78914-nomer-m342e4fe7.gif)
![](images/78914-nomer-55851766.gif)
![](images/78914-nomer-m61dc8488.gif)
![](images/78914-nomer-m7f0ff543.gif)
![](images/78914-nomer-3b798419.gif)
![](images/78914-nomer-m1e3162f.gif)
![](images/78914-nomer-m6888f121.gif)
где
![](images/78914-nomer-71950a08.gif)
![](images/78914-nomer-m60784364.gif)
Здесь снова l - вектор наблюдений (О), а
![](images/78914-nomer-m2d6cedac.gif)
![](images/78914-nomer-m250b74da.gif)
![](images/78914-nomer-6442a1e1.gif)
![](images/78914-nomer-3a49cb1.gif)
Для того, чтобы определить МНК-оценку вектора х нужно найти минимум квадратичной формы
![](images/78914-nomer-m250b74da.gif)
![](images/78914-nomer-m2f55dbc0.gif)
где дифференицироваие по вектору
![](images/78914-nomer-64ea761c.gif)
![](images/78914-nomer-1ab12bde.gif)
Выведем простое правило дифференцирования скаляра по вектору. Допустим, что z - скалярная функция вектора х, а y - известный вектор той же размерности, что и х. Рассмотрим их скалярное произведение
![](images/78914-nomer-4b0b71e6.gif)
Дифференцируя z по
![](images/78914-nomer-m265d5cbd.gif)
![](images/78914-nomer-m537a6b35.gif)
![](images/78914-nomer-1d40a20d.gif)
![](images/78914-nomer-6f90c7a.gif)
Располагая результаты в виде столбца, имеем
![](images/78914-nomer-m1ee13767.gif)
Таким образом, дифференцирование произведения
![](images/78914-nomer-m4f97f9e8.gif)
![](images/78914-nomer-5f67ad93.gif)
Итак, при дифференцировании по вектору х результатом будет векторный коэффициент, стоящий после транспонированной переменной х или транспонированный коэффициент, стоящий перед векторной переменной х.
Пользуясь этим правилом, продифференцируем квадратичную форму
![](images/78914-nomer-m250b74da.gif)
![](images/78914-nomer-m60784364.gif)
![](images/78914-nomer-m1e461653.gif)
Следовательно, нормальные уравнения имеют вид
![](images/78914-nomer-m3d1901fc.gif)
![](images/78914-nomer-589dcf5a.gif)
Это уравнение отличается от полученного нами в 6.2.1. только тем, что оно учитывает веса наблюдений. Если наблюдения равноточны, то
![](images/78914-nomer-m1c9a0be3.gif)
![](images/78914-nomer-3107425d.gif)
![](images/78914-nomer-78910297.gif)
![](images/78914-nomer-m2fda4344.gif)
Покажем, что это оценка несмещенная. Пусть X - точные значения вектора параметров, а L - наблюдения, не содержащие ошибок. Тогда, очевидно, должно выполняться строгое равенство
![](images/78914-nomer-m6d9b3d78.gif)
Умножим слева обе части равенства на
![](images/78914-nomer-2961a00.gif)
![](images/78914-nomer-315e4f3f.gif)
Вычислим точное значение вектора ^ Х:
![](images/78914-nomer-7336c1bd.gif)
Учитывая формулу для МНК-оценки х, получим
![](images/78914-nomer-5c8346ca.gif)
Если l содержит только случайные ошибки, т.е.
![](images/78914-nomer-m3c825c08.gif)
то выполняется также равенство
![](images/78914-nomer-m5fe8f6a1.gif)
Другими словами,
![](images/78914-nomer-6653146f.gif)
Вывод: МНК-оценка х является несмещенной при любой матрице весов наблюдений Р.
6.3.2. Ковариационная матрица МНК-оценки
Вычислим теперь ковариационную матрицу ошибок неизвестных параметров. Для упрощения записи снова обозначим матрицу нормальных уравнений буквой Ф. Теперь она имеет вид
![](images/78914-nomer-m4815c89c.gif)
Вектор ошибок
![](images/78914-nomer-m3bf17769.gif)
![](images/78914-nomer-m3e2fedc.gif)
![](images/78914-nomer-4a6ffb0d.gif)
По определению, ковариационная матрица ошибок равна
![](images/78914-nomer-58615a35.gif)
Здесь мы учли, что ^ Р - диагональная матрица и P=PT.
Ковариационная матрица неравноточных независимых наблюдений имеет диагональный вид
![](images/78914-nomer-43ada7ce.gif)
Перемножим эту матрицу на Р, например, слева. Получим
![](images/78914-nomer-m5386477c.gif)
Но
![](images/78914-nomer-m6099425a.gif)
![](images/78914-nomer-17eaa14e.gif)
Вернемся к формуле, определяющей ковариационную матрицу
![](images/78914-nomer-m5392c2a5.gif)
Мы вновь получили тот же результат, что и при равноточных наблюдениях (см. 6.2.2): ковариационная матрица неизвестных с точностью до множителя равна обратной матрице нормальных уравнений. В данном случае
![](images/78914-nomer-m13b17010.gif)
Ковариационная матрица ошибок неизвестных содержит исчерпывающую информацию о точности определения каждого параметра из
![](images/78914-nomer-m265d5cbd.gif)
![](images/78914-nomer-m13b17010.gif)
6.3.3 Апостериорная оценка дисперсии единицы веса
Теперь получим формулу, позволяющую вычислить несмещенную оценку дисперсии единицы веса по данным наблюдений. Поступим также, как и в случае определения дисперсии единицы веса при неравноточных наблюдениях.
Рассмотрим взвешенную сумму квадратов остаточных разностей
![](images/78914-nomer-m2267a13f.gif)
Поскольку
![](images/78914-nomer-64ea761c.gif)
![](images/78914-nomer-3c430454.gif)
Вычислим среднее значение для
![](images/78914-nomer-m250b74da.gif)
![](images/78914-nomer-2fd03b30.gif)
Выполним преобразования в каждом слагаемом:
![](images/78914-nomer-m719df9f0.gif)
![](images/78914-nomer-5e8f9fd3.gif)
Но
![](images/78914-nomer-m6099425a.gif)
![](images/78914-nomer-m49938f0e.gif)
Ранее мы получили, что
![](images/78914-nomer-m51b31354.gif)
![](images/78914-nomer-m55a7559b.gif)
Обозначим временно
![](images/78914-nomer-43402ed8.gif)
![](images/78914-nomer-658a5a7c.gif)
![](images/78914-nomer-m42331ea5.gif)
Теперь
![](images/78914-nomer-31292fac.gif)
Поскольку а - вектор-столбец (n x 1), то приведенное выше равенство - скалярная величина. Заметим, что
![](images/78914-nomer-m2ca92441.gif)
где
![](images/78914-nomer-m78b8816f.gif)
![](images/78914-nomer-3e4084fe.gif)
С другой стороны
![](images/78914-nomer-112e16eb.gif)
След полученной матрицы, равный сумме ее диагональных элементов, есть
![](images/78914-nomer-4db0d5ed.gif)
![](images/78914-nomer-m13142552.gif)
В нашем случае
![](images/78914-nomer-4dd24dda.gif)
![](images/78914-nomer-m19c4f83e.gif)
Но
![](images/78914-nomer-m7d164dd5.gif)
![](images/78914-nomer-668e823d.gif)
Умножая полученную матрицу справа на Р, получим
![](images/78914-nomer-3e46db46.gif)
Теперь имеем
![](images/78914-nomer-3c4b3db2.gif)
Третий член равенства для
![](images/78914-nomer-a5b8dba.gif)
![](images/78914-nomer-m250b74da.gif)
Наконец, определим последнее, четвертое слагаемое
![](images/78914-nomer-m3ebaae4c.gif)
Итак, окончательно
![](images/78914-nomer-31845916.gif)
Следовательно,
![](images/78914-nomer-m725ed6c5.gif)
Отбрасывая треугольные скобки, получим несмещенную оценку дисперсии единицы веса - квадрат средней квадратической ошибки единицы веса
![](images/78914-nomer-m1dabf56a.gif)
где
![](images/78914-nomer-6442a1e1.gif)
6.4. Практические методы вычисления МНК-оценок и их средних квадратических ошибок
6.4.1. Метод определителей
Этот метод применяют на практике, если число неизвестных невелико и не превосходит трех. Метод ориентирован прежде всего на “ручные вычисления” с использованием микрокалькуляторов. В основе метода лежат известные формулы Крамера.
Пусть система трех уравнений имеет вид
![](images/78914-nomer-m4050aa64.gif)
![](images/78914-nomer-m6c8f1089.gif)
![](images/78914-nomer-6763a5a6.gif)
Вычислим определитель системы
![](images/78914-nomer-46bee659.gif)
Заменяя последовательно первый, второй и третий столбцы матрицы нормальных уравнений на столбец правой части, вычислим определители
![](images/78914-nomer-m6762a827.gif)
![](images/78914-nomer-1a059b38.gif)
![](images/78914-nomer-m3821eb89.gif)
Теперь неизвестные определяются следующим образом:
![](images/78914-nomer-6823be51.gif)
![](images/78914-nomer-5a7627f3.gif)
![](images/78914-nomer-4470096d.gif)
Вычислением неизвестных не заканчивается метод наименьших квадратов. Необходимо вычислить средние квадратические ошибки этих неизвестных.
Весовые коэффициенты суть диагональные элементы
![](images/78914-nomer-65a05401.gif)
![](images/78914-nomer-m46bfb208.gif)
Для определения
![](images/78914-nomer-m14a36b69.gif)
![](images/78914-nomer-m62c904a3.gif)
Для определения
![](images/78914-nomer-141a132f.gif)
![](images/78914-nomer-74d6067a.gif)
Поступая точно также, получим
![](images/78914-nomer-53280d4a.gif)
Теперь нужно определить квадрат средней квадратической ошибки единицы веса
![](images/78914-nomer-2738c191.gif)
где x, y, z - значения наших неизвестных, полученные из решения системы нормальных уравнений.
Последнюю формулу можно преобразовать так, что необходимость вычисления остаточных разностей типа
![](images/78914-nomer-779aefff.gif)
![](images/78914-nomer-2a223ea4.gif)
![](images/78914-nomer-6929c751.gif)
Используя скобки Гаусса, перепишем полученный результат
![](images/78914-nomer-634646f8.gif)
Легко видеть, что последние три выражения в квадратных скобках равны нулю, так как x, y, z удовлетворяют системе нормальных уравнений. Отсюда следует
![](images/78914-nomer-4f851c10.gif)
Поскольку
![](images/78914-nomer-m3eca69da.gif)
![](images/78914-nomer-m285d27c1.gif)
![](images/78914-nomer-24f8c858.gif)
![](images/78914-nomer-2c27f304.gif)
![](images/78914-nomer-6b69a7f4.gif)
6.4.2. Метод последовательных исключений (схема Гаусса)
Этот метод можно применять к любому количеству неизвестных. Схема, предложенная Гауссом первоначально, была рассчитана для ручного счета с использованием специальных вычислительных бланков. Схема предусматривает:
- составление нормальных уравнений с параллельным контролем правильности вычислений,
- последовательное исключение неизвестных, начиная с первого. Вычисления сопровождаются контролем,
- параллельное вычисление весовых коэффициентов,
- определение неизвестных, начиная с последнего,
- вычисление суммы квадратов остаточных разностей, вычисление ошибок неизвестных.
Несколько слов о терминологии.
Исходные уравнения, надлежащие математической обработке косвенных наблюдений методом наименьших квадратов, в астрономической традиции называют условными уравнениями. Этот термин заимствован из задач геодезии, где МНК применяется довольно широко. Однако, использование его в астрономической практике не имеет основания. Дело в том, что в геодезии дело имеют с линейными уравнениями, в которых на неизвестные накладываются дополнительные условия. Например, если x, y, z - есть три угла треугольника, то какими бы они ни были, должно выполняться равенство x+y+z=1800. В противном случае отрезки прямых не образуют замкнутую геометрическую фигуру: образуется невязка - несовпадение первой и последней точки замкнутого треугольника (или полигона). Термин невязка также применяется в астрономической практике, но несколько в ином смысле: это разность (О-С):
![](images/78914-nomer-4413d234.gif)
Во избежание недоразумений, величины
![](images/78914-nomer-m43abc322.gif)
Для иллюстрации схемы Гаусса ограничимся всего тремя неизвестными, хотя ее можно распространить на любое их количество.
Составляется таблица исходных уравнений:
x | y | z | | | | |
a1 | b1 | c1 | l1 | s1 | ![]() | v1 |
a2 | b2 | c2 | l2 | s2 | ![]() | v2 |
a3 | b3 | c3 | l3 | s3 | ![]() | v3 |
a4 | b4 | c4 | l4 | s4 | ![]() | v4 |
... | ... | ... | ... | ... | ... | ... |
an | bn | cn | ln | sn | ![]() | vn |
В таблицу исходных уравнений помещают :
- коэффициенты перед неизвестными
;
- правые части lk несовместных “уравнений”
;
- контрольные суммы
;
- значения
. Этот столбец вычисляется после того, как неизвестные будут определены;
- остаточные разности
в последнем столбце таблицы.
Вычисление контрольных сумм (пятый столбец) необходимо в случае ручного счета (на микрокалькуляторе). Эти суммы предохранят от возможных промахов при составлении нормальных уравнений и их решении. Однако, числа
![](images/78914-nomer-2bc100fb.gif)
![](images/78914-nomer-m4704fe18.gif)
Как видно из этого уравнения, все числа четырехзначные. Следовательно, можно пользоваться четырехзначными вычислениями. Следует ожидать, что и решения будут иметь четыре значащих цифры . Однако, вычисление суммы
![](images/78914-nomer-m5b734aac.gif)
не имеет смысла, т.к. первое число имеет только одну цифру после запятой, а третье - шесть. Дополнение “нужных мест” нулями (что возможно) приведет к резкому увеличению числа знаков для s
![](images/78914-nomer-m30edb02a.gif)
Мы получим девятизначную контрольную сумму. Чтобы этого избежать, перепишем уравнение следующим образом: