ГОТОВЫЕ ДИПЛОМНЫЕ РАБОТЫ, КУРСОВЫЕ РАБОТЫ, ДИССЕРТАЦИИ И РЕФЕРАТЫ

Теорема Гаусса-Маркова для множественной линейной регрессии'

Автор ошибка
Вуз (город) Москва
Количество страниц 10
Год сдачи 2009
Стоимость (руб.) 500
Содержание ВВЕДЕНИЕ
Линейная регрессия описывается простейшей функциональной зависимостью в виде уравнения прямой линии и характеризуется прозрачной интерпретацией параметров модели (коэффициентов уравнения). Правая часть уравнения позволяет по заданным значениям регрессора (объясняющей переменной) получить теоретические (расчетные) значения результативного (объясняемого) переменного. Эти значения иногда называют также прогнозируемыми, т.е. получаемыми по теоретическим формулам. Однако при выдвижении гипотезы о характере зависимости коэффициенты уравнения остаются неизвестными. Вообще говоря, получение приближенных значений этих коэффициентов возможно различными методами.
Но наиболее важным и распространенным из них является метод наименьших квадратов (МНК). Он основан на требовании минимизации суммы квадратов отклонений фактических значений результативного признака от расчетных (теоретических). Вместо теоретических значений (для их получения) подставляют правые части уравнения регрессии в сумму квадратов отклонений, а затем находят частные производные от этой функции (суммы квадратов отклонений фактических значений результативного признака от теоретических). Эти частные производные берутся не по переменным х и у, а по параметрам а и b. Частные производные приравнивают к нулю и после несложных, но громоздких преобразований получают систему нормальных уравнений для определения параметров. Коэффициент при переменном х, т.е. b, называется коэффициентом регрессии, он показывает среднее изменение результата с изменением фактора на одну единицу. Параметр a может не иметь экономической интерпретации, особенно если знак этого коэффициента отрицателен.
Список литературы СПИСОК ЛИТЕРАТУРЫ:
1. Э. И. Бежава, М.Б. Малютов Введение в теорию планирования регрессионных экспериментов, Московский государственный институт электронного машиностроения, Темплан 1983. В учебном пособии исследуется планирование и анализ линейных регрессионных экспериментов.
2. Ивченко Г.И., Медведев Ю.И. Математическая статистика, Высшая школа, 1992. В пособии на современном научном уровне изложены основные разделы статистической теории.
3. Розанов Ю.А. Теория вероятностей, случайные процессы и математическая статистика, Наука 1985. Книга представляет собой единый учебный курс теории вероятностей, случайных процессов и математической статистики. Изложение материала таково, что книга во многих важных разделах доступна широкому кругу читателей.
4. Замечательным введением в элементарную статистику с разнообразными примерами из медицины и генетики является книга Ю.Неймана Вводный курс теории вероятностей и математической статистики, Наука, 1968 (перевод с английского).
Выдержка из работы ПАРНАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ
Парная линейная регрессия используется для изучения функции потребления. Коэффициент регрессии в функции потребления используется для расчета мультипликатора. Практически всегда уравнение регрессии дополняется показателем тесноты связи. Для простейшего случая линейной регрессии этим показателем тесноты связи является линейный коэффициент корреляции. Но поскольку линейный коэффициент корреляции характеризует тесноту связи признаков в линейной форме, то близость абсолютной величины линейного коэффициента корреляции к нулю еще не служит показателем отсутствия связи между признаками.
Именно при другом выборе спецификации модели и, следовательно, виде зависимости фактическая связь может оказаться довольно близкой к 1. А вот качество подбора линейной функции определяется с помощью квадрата линейного коэффициента корреляции — коэффициента детерминации. Он характеризует долю дисперсии результативного признака у, объясняемую регрессией в общей дисперсии результативного признака. Величина, дополняющая коэффициент детерминации до 1, характеризует долю дисперсии, вызванную влиянием остальных факторов, неучтенных в модели (остаточной дисперсии).
Парная регрессия представляется уравнением связи двух переменных (у и х) следующего вида:
y = f(x), (1)
где у — зависимая переменная (результативный признак), а х — независимая переменная (объясняющая переменная, или признак-фактор). Бывает линейная регрессия и нелинейная регрессия. Линейная регрессия описывается уравнением вида:
y = a + bx + ε . (2)



НЕЛИНЕЙНАЯ РЕГРЕССИЯ
Нелинейная регрессия, в свою очередь, может быть нелинейной относительно включенных в анализ объясняющих переменных, но линейной по оцениваемым параметрам. А может быть регрессия нелинейная по оцениваемым параметрам. В качестве примеров регрессии, нелинейной по объясняющим переменным, но линейной по оцениваемым параметрам, можно указать полиномиальные зависимости различных степеней (многочлены) и равностороннюю гиперболу.
Нелинейной регрессией по оцениваемым параметрам является степенная зависимость относительно параметра (параметр стоит в показателе степени), показательная зависимость, где параметр стоит в основании степени, и экспоненциальная зависимость, когда вся линейная зависимость целиком находится в показателе экспоненты. Отметим, что во всех этих трех случаях случайный компонент (случайный остаток) ε входит в правую часть уравнения в виде сомножителя, а не в виде слагаемого, т.е. мультипликативно. Среднее отклонение расчетных значений результативного признака от фактических характеризуется средней ошибкой аппроксимации. Она выражается в процентах и не должна превышать 7—8%. Эта средняя ошибка аппроксимации является просто выраженной в процентах средней относительных величин разностей фактических и расчетных значений.
Важное значение имеет средний коэффициент эластичности, который служит важной характеристикой многих экономических явлений и процессов. Он вычисляется как произведение значения производной данной функциональной зависимости на отношение средней величины х к средней величине у. Коэффициент эластичности показывает, на сколько процентов в среднем по совокупности изменится результат у от своей средней величины при изменении фактора х на 1% от его (фактора х) среднего значения.
С парной, множественной (когда имеется множество факторов) и остаточной дисперсией тесно связаны задачи дисперсионного анализа. Дисперсионный анализ исследует дисперсию зависимой переменной. При этом общая сумма квадратов отклонений разбивается на две части. Первое слагаемое — это сумма квадратов отклонений, обусловленная регрессией, или объясненная (факторная). Второе слагаемое — это остаточная сумма квадратов отклонений, необъясненная факторной регрессией.