№ 1. СПЕЦИФИКАЦИЯ МОДЕЛИ

Простая регрессия представляет собой регрессию между двумя переменными —у и х, т.е. модель вида , где у — результативный признак; х - признак-фактор.

Множественная регрессия представляет собой регрессию результативного признака с двумя и большим числом факторов, т. е. модель вида  

Специ­фикация модели - формулировка вида модели, исходя из со­ответствующей теории связи между переменными. В урав­нении регрессии корреляционная по сути связь признаков представляется в виде функциональной связи, выраженной соответствующей математической функцией.  где yj — фактическое значение результативного признака;

yxj -теоретическое значение результативного признака.

 — случайная величина, характеризующая отклонения реального значения результативного признака от теоретического.

Случайная величина ε называется также возмущением. Она включает влияние не учтенных в модели факторов, случайных ошибок и особенностей измерения.

 От правильно выбранной спецификации модели за­висит величина случайных ошибок: они тем меньше, чем в боль­шей мере теоретические значения результативного признака  подходят к фактическим данным у.

К ошибкам спецификации относятся непра­вильный выбор той или иной математической функции для, и недоучет в уравнении регрессии какого-либо существенного фактора, т. е. использование парной регрессии вместо множест­венной.

Ошиб­ки выборки - исследователь чаще всего имеет дело с выборочными данными при установлении закономерной связи между признаками.

Ошибки измерения практически сводят на нет все усилия по количественной оценке связи между признаками. Основное внимание в эконометрических исследованиях уделяется ошибкам спецификации модели.

В парной регрессии выбор вида математической функции  может быть осуществлен тремя методами: графическим, аналитическим и экспериментальным.

Графи­ческий метод основан на поле корреляции. Аналитический метод основан на изучении материальной природы связи исследуемых признаков.

Экспериментальный метод осуществляется путем сравнения величины остаточной дисперсии Dост, рассчитанной при разных моделях. Если фактические значения результативного признака совпадают с теоретическими у =, то Docm =0. Если имеют место отклонения фактических данных от теоретических (у — ) то .

 Чем меньше величина остаточной дисперсии, тем лучше уравнение регрессии подходит к исходным данным. Число наблюдений должно в 6 — 7 раз превышать число рассчитывае­мых параметров при переменной х.

 

№ 2 ЛИНЕЙНАЯ РЕГРЕССИЯ И КОРРЕЛЯЦИЯ: СМЫСЛ И ОЦЕНКА ПАРАМЕТРОВ.

Линейная регрессия сводится к нахождению уравнения вида  или .

Уравнение вида  позволяет по заданным значениям фактора x иметь теоретические значения результативного признака, подставляя в него фактические значения фактора х.

Построение линейной регрессии сводится к оценке ее пара­метров а и в.

Оценки параметров линейной регрессии могут быть найдены разными методами.

1.

2.

Параметр b называется коэффициентом регрессии. Его вели­чина показывает среднее изменение результата с изменением фактора на одну единицу.

Формально а — значение у при х = 0. Если признак-фактор
не имеет и не может иметь нулевого значения, то вышеуказанная
трактовка свободного члена, а не имеет смысла. Параметр, а может
не иметь экономического содержания. Попытки экономически
интерпретировать параметр, а могут привести к абсурду, особенно при а < 0.

Интерпретировать можно лишь знак при параметре а. Если а > 0, то относительное изменение результата происходит медленнее, чем изменение фактора.

Уравнение регрессии всегда дополняется показателем тесноты связи. При использовании линейной регрессии в качестве такого показателя выступает линейный коэффициент корреляции rxy. Существуют разные модификации формулы линейного коэф­фициента корреляции.

Линейный коэффициент корреляции находится и границах: -1≤.rxy≤ 1. При этом чем ближе r к 0 тем слабее корреляция и наоборот чем ближе r к 1 или -1, тем сильнее корреляция, т.е. зависимость х и у близка к линейной. Если r в точности =1или -1 все точки лежат на одной прямой. Если коэф. регрессии b>0 то 0 ≤.rxy≤ 1 и наоборот при b<0 -1≤.rxy≤0.  Коэф. корреляции отражает степени линейной зависимости м/у величинами при наличии ярко выраженной зависимости др. вида.

Для оценки качества подбора линейной функции рассчитывается квадрат линейного коэффициента корреляции , называемый коэффициентом детерминации. Коэффициент детермина­ции характеризует долю дисперсии результативного признака y, объясняемую регрессией. Соответствующая величина  характеризует долю дисперсии у, вызванную влиянием остальных не учтенных в модели факторов.


№ 3. МНК.

МНК позволяет получить такие оценки параметров а и b, которых сумма квадратов отклонений фактических значений ре­зультативного признака (у) от расчетных (теоретических)  ми­нимальна:

 Иными словами, из всего множества линий линия регрессии на графике выбирается так, чтобы сумма квадратов расстояний по вертикали между точками и этой линией была бы минималь­ной. Решается система нормальных уравнений

 

№ 4. ОЦЕНКА СУЩЕСТВЕННОСТИ ПАРАМЕТРОВ ЛИНЕЙНОЙ РЕГРЕССИИ И КОРРЕЛЯЦИИ.

Оценка значимости уравнения регрессии в целом дается с по­мощью F-критерия Фишера. При этом выдвигается нулевая ги­потеза, что коэффициент регрессии равен нулю, т. е. b = 0, и следовательно, фактор х не оказывает влияния на результат у.

Непосредственному расчету F-критерия предшествует анализ дисперсии. Центральное место в нем занимает разложе­ние общей суммы квадратов отклонений переменной у от средне го значения у на две части - «объясненную» и «необъясненную»:

- общая сумма квадратов отклонений

- сумма квадратов отклонения объясненная регрессией - остаточная сумма квадратов отклонения.

Любая сумма квадратов отклонений связана с числом степе­ней свободы, т. е. с числом свободы независимого варьирования признака. Число степеней свободы связано с числом единиц совокупности nис числом определяемых по ней констант. Применительно к исследуемой проблеме число cтепеней свободы должно показать, сколько независимых откло­нений из п возможных требуется для образования данной суммы квадратов.

Дисперсия на одну степень свободы D.

F-отношения (F-критерий):

Ecли нулевая гипотеза справедлива, то факторная и остаточная дисперсии не отличаются друг от друга. Для Н0 необходимо опровержение, чтобы факторная дисперсия превышала остаточную в несколько раз. Английским статистиком Снедекором раз­работаны таблицы критических значений F-отношений при разных уровнях существенности нулевой гипотезы и различном числе степеней свободы. Табличное значение F-критерия — это максимальная величина отношения дисперсий, которая может иметь место при случайном их расхождении для данного уровня вероятности наличия нулевой гипотезы. Вычисленное значение F-отношения признается достоверным, если о больше табличного. В этом случае нулевая гипотеза об отсутствии связи признаков отклоняется и делается вывод о существенности этой связи: Fфакт > Fтабл  Н0 отклоняется.

Если же величина окажется меньше табличной Fфакт ‹, Fтабл  , то вероятность нулевой гипотезы выше заданного уровня и она не может быть отклонена без серьезного риска сделать неправильный вывод о наличии связи. В этом случае уравнение регрессии считается статистически незначимым. Но не отклоняется.

Стандартная ошибка коэффициента регрессии

Для оценки существенности коэффициента регрессии его ве­личина сравнивается с его стандартной ошибкой, т. е. определяется фактическое значение t-критерия Стьюдентa: которое

затем сравнивается с табличным значением при определенном уровне значимости  и числе степеней свободы (n- 2).

Стандартная ошибка параметра а:

Значимость линейного коэффициента корреляции проверя­ется на основе величины ошибки коэффициента корреляции тr:

Общая дисперсия признака х:

Коэф. регрессии  Его величина показывает ср. изменение результата с изменением фактора на 1 ед.

Ошибка аппроксимации:

 

№ 5. ИНТЕРВАЛЫ ПРОГНОЗА ПО ЛИНЕЙНОМУ УРАВНЕНИЮ

РЕГРЕССИИ

Оценка стат. значимости параметров регрессии проводится с помощью t – статистики Стьюдента и путем расчета доверительного интервала для каждого из показателей. Выдвигается гипотеза Н0 о статистически значимом отличие показателей от 0 a = b = r = 0. Рассчитываются стандартные ошибки параметров a,b, r и фактич. знач. t – критерия Стьюдента.

 

Определяется стат. значимость параметров.

ta›Tтабл  - a стат. значим

tb›Tтабл  - b стат. значим

Находятся границы доверительных интервалов.

 Анализ верхней и нижней границ доверительных интервалов приводит к выводу о том, что параметры a и b находясь в указанных границах не принимают нулевых значений, т.е. не явл.. стат. незначимыми и существенно отличается от 0.

 

№ 6. НЕЛИНЕЙНАЯ РЕГРЕССИЯ. ВИДЫ МОДЕЛЕЙ

Если между экономическими явлениями существуют нели­нейные соотношения, то они выражаются с помощью соответ­ствующих нелинейных функций: например, равносторонней ги­перболы , параболы второй степени и д.р.

Различают два класса нелинейных регрессий:

• регрессии, нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым па­раметрам;

• регрессии, нелинейные по оцениваемым параметрам.
Примером нелинейной регрессии по включаемым в нее объ­ясняющим переменным могут служить следующие функции:

•     полиномы разных степеней

•     равносторонняя гипербола

К нелинейным регрессиям по оцениваемым параметрам от­носятся функции:

•     степенная

•     показательная

•     экспоненциальная

 

№ 7. СМЫСЛ КОЭФФИЦИЕНТА РЕГРЕССИИ.

Параметр b называется коэффициентом регрессии. Его вели­чина показывает среднее изменение результата с изменением фактора на одну единицу. Оценку коэффициента регрессии можно получить не обращаясь к методу наименьших квадратов. Альтернативную оценку параметра b можно найти исходя из содержания данного коэффициента: изменение результата  сопоставляют с изменением фактора

Общая сумма квадратов отклонений индивидуальных значений результативного признака у от среднего значения  вызвана влиянием множества причин. Условно разделим всю совокупность причин на две группы: изучаемый фактор х и прочие факторы.

Если фактор не оказывает влияния на результат, то линия регрес­сии на графике параллельна оси ох и .Тогда вся дисперсия результативного признака обусловлена воздействием прочих факторов и общая сумма квадратов отклонений совпадет с остаточной. Если же прочие факторы не влияют на результат, то у связан с х функционально и остаточная сумма квадратов равна нулю. В этом случае сумма квадратов отклонений, объясненная  регрессией, совпадает с общей суммой квадратов.

Поскольку не все точки поля корреляции лежат на линии регрессии, то всегда имеет место их разброс как обусловленный вли­янием фактора х, т. е. регрессией у по х, так и вызванный действием прочих причин (необъясненная вариация). Пригод­ность линии регрессии для прогноза зависит от того, какая часть общей вариации признака у приходится на объясненную вариа­цию

Очевидно, что если сумма квадратов отклонений, обусловленная регрессией, будет больше остаточной суммы квадратов, то уравнение регрессии статистически значимо и фактор х оказывает существенное воздействие на результат у

Любая сумма квадратов отклонений связана с числом степе­ней свободы , т. е. с числом свободы независимого варьирования признака. Число степеней свободы связано с числом единиц совокупности n ис числом определяемых по ней констант. Применительно к исследуемой проблеме число степеней свободы должно показать, сколько независимых откло­нений из п возможных требуется для образования данной суммы квадратов.


№8. ПРИМЕНЕНИЕ МНК К МОДЕЛЯМ НЕЛИНЕЙНЫМ ОТНОСИТЕЛЬНО ВКЛЮЧАЕМЫХ ПЕРЕМЕННЫХ И ОЦЕНИВАЕМЫХ ПАРАМЕТРОВ.

Нелинейная регрессия по включенным переменным не таит каких-либо сложностей в оценке ее параметров. Она определяет­ся, как и в линейной регрессии, методом наименьших квадратов (МНК), ибо эти функции линейны по параметрам. Так, в парабо­ле второй степени y=a0+a1x+a2x2+ε заменяя переменные x=x1,x2=x2, получим двухфакторное урав­нение линейной регрессии: у=а01х12х2+ ε

Парабола второй степени целесообразна к применению, если для определенного интервала значений фактора меняется харак­тер связи рассматриваемых признаков: прямая связь меняется на обратную или обратная на прямую. В этом случае определяется значение фактора, при котором достигается максимальное (или минимальное), значение результативного признака: приравнива­ем к нулю первую производную параболы второй степени: , т.е. b+2cx=0 и x=-b/2c

Применение МНК для оценки параметров параболы второй степени приводит к следующей системе нормальных уравнений:

 Решение ее возможно методом определителей:

  
В моделях, нелинейных по оцениваемым параметрам, но приводимых к линейному виду, МНК применяется к преобразо­ванным уравнениям. Если в линейной модели и моделях, нели­нейных по переменным, при оценке параметров исходят из кри­терия min, то в моделях, нелинейных по оцениваемым параметрам, требование МНК применяется не к исходным дан­ным результативного признака, а к их преобразованным величи­нам, т. е.ln y, 1/y. Так, в степенной функции  МНК применяется к преобразованному уравнению lny = lnα + β ln x ln ε. Это значит, что оценка параметров основывается на миними­зации суммы квадратов отклонений в логарифмах. Соответственно если в линейных моделях  то в моделях, нелинейных по оцениваемым параметрам, . Вследствие этого оценка параметров оказываются несколько смещенной.

 

№9. КОЭФФИЦИЕНТЫ ЭЛАСТИЧНОСТИ ПО РАЗНЫМ ВИДАМ РЕГРЕССИОННЫХ МОДЕЛЕЙ.

1.  Линейная y = a + bx + , y′ = b, Э = .

2.  Парабола 2 порядка y = a +bx + c +, y′ = b + 2cx, Э = .

3.  Гипербола y = a+b/x +, y′=-b/, Э = .

4.  Показательная y=a, y′ = ln , Э = x ln b.

5.  Степенная y = a, y′ = , Э = b.

6.  Полулогарифмическая y = a + b ln x +ε , y′ = b/x , Э = .

7.  Логистическая , y′ = , Э = .

8.  Обратная y = , y′ = , Э = .

 

№ 10 ПОКАЗАТЕЛИ КОРРЕЛЯЦИИ

1.     индекс корреляции (R):

Величина данного показателя находится в границах: 0 ≤ R ≤ 1, чем ближе к 1, тем теснее связь рассматриваемых призна­ков, тем более надежно найденное уравнение регрессии.

2.     индекс детерминации используется для проверки существенности в целом ур-ия нелинейной регрессии по F- критерию Фишера:

, где R2- индекс детерминации, n- число наблюдений, m – число параметров при переменной х.


 

№11. МНОЖЕСТВЕННАЯ РЕГРЕССИЯ. СПЕЦИФИКАЦИЯ МОДЕЛИ. ОТБОР ФАКТОРОВ ПРИ ПОСТРОЕНИИИ МОДЕЛИ.

Регрессия может дать хороший результат при модели­ровании, если влиянием других факторов, воздействующих на объект исследования, можно пренебречь. Поведение отдельных экономи­ческих переменных контролировать нельзя, т. е. не удается обес­печить равенство всех прочих условий для оценки влияния одно­го исследуемого фактора. В этом случае следует попытаться выявить влияние других факторов, введя их в модель, т. е. пост­роить уравнение множественной регрессии: y=a+b1x1+b2+…+bpxp+e; Такого рода уравнение может использоваться при изучении потребления. Тогда коэффициенты bj — частные производные потребления у по соответствующим факторам xi:, в предположении, что все остальные хi постоянны. В 30-е гг. XX в. Кейнс сформулировал свою гипотезу потребительской функции. С того времени исследователи неод­нократно обращались к проблеме ее совершенствования. Совре­менная потребительская функция чаще всего рассматривается как модель вида: C=j(y,P,M,Z), где С — потребление; у — доход; Р — цена, индекс стоимости жизни; М — наличные деньги; Z — ликвидные активы. При этом .. Основная цель множественной регрессии — построить модель с большим числом факторов, определив при этом влияние каждого из них в отдельности, а также совокупное их воздействие на моделируемый показатель. Спецификация модели включает в себя два круга вопросов: отбор фак­торов и выбор вида уравнения регрессии. Требования к факторам.1 Они должны быть количественно измеримы. Если необхо­димо включить в модель качественный фактор, не имеющий ко­личественного измерения, то ему нужно придать количествен­ную определенность (например, в модели урожайности качество почвы задается в виде баллов) 2.Факторы не должны быть интеркоррелированы и тем более находиться в точной функциональной связи. Включение в модель факторов с высокой интеркорреляцией, когда Ryx1Rx1x2.Для зависимости y=a+b1x1+b2+…+bpxp+e может привести к нежелательным последствиям, повлечь за собой неустойчивость и ненадежность оценок коэффициентов регрессии. Если между факторами существует высокая корреляция, то нельзя определить их изолированное влияние на результативный показатель и параметры уравнения регрессии оказываются не интерпретированными.

Включаемые во множественную регрессию факторы должны объяснить вариацию независимой переменной. Если строится модель с набором р-факторов, то для нее рассчитывается показа­тель детерминации R2 , который фиксирует долю объясненной ва­риации результативного признака за счет рассматриваемых в ре­грессии р-факторов. Влияние других не учтенных в модели фак­торов оценивается как 1 - R2 с соответствующей остаточной дис­персией S2.При дополнительном включении в регрессию (р + 1) фактора коэффициент детерминации должен возрастать, а остаточная дисперсия уменьшаться:. Насыщение модели лишними факторами не только не снижа­ет величину остаточной дисперсии и не увеличивает показатель детерминации, но и приводит к статистической незначимости параметров регрессии по t-критерию Стьюдента.

Таким образом, хотя теоретически регрессионная модель позволяет учесть любое число факторов, практически в этом нет необходимости. Отбор факторов производится на основе качест­венного теоретико-экономического анализа, который обычно осуществляется в две стадии: на первой подби­раются факторы исходя из сущности проблемы; на второй – на основе показателей корреляции определяют t-статистики для параметров регрессии. Коэффициенты интеркорреляции (т. е. корреляции между объясняющими переменными) позволяют исключать из модели дублирующие факторы. Считается, что две переменных явно коллинеарны, т. е. находятся между собой в линейной зависимости, если . Ес­ли факторы явно коллинеарны, то они дублируют друг друга и один из них рекомендуется исключить из регрессии. Предпочте­ние при этом отдается не фактору, более тесно связанному с результатом, а тому фактору, который при достаточно тесной связи с результатом имеет наименьшую тесноту связи с другими факторами. В этом требовании проявляется специфика множест­венной регрессии как метода исследования комплексного воз­действия факторов в условиях их независимости друг от друга. Наибольшие труд­ности в использовании аппарата множественной регрессии воз­никают при наличии мультиколлинеарности факторов, когда более чем два фактора связаны между собой линейной зависимос­тью. Наличие мультиколлинеарности факторов может озна­чать, что некоторые факторы будут всегда действовать в унисон. В результате вариация в исходных данных перестает быть полно­стью независимой, и нельзя оценить воздействие каждого факто­ра в отдельности. Чем сильнее мультиколлинеарность факторов, тем менее надежна оценка распределения суммы объясненной вариации по отдельным факторам с помощью метода наименьших квадратов (МНК). Включение в модель мультиколлинеарных факторов нежела­тельно в силу следующих последствий:1.затрудняется интерпретация параметров множественной ре­грессии как характеристик действия факторов в «чистом» ви­де, ибо факторы коррелированы; параметры линейной регрессии теряют экономический смысл;2оценки параметров ненадежны, обнаруживают большие стан­дартные ошибки и меняются с изменением объема наблюде­ний. Для оценки мультиколлинеарности факторов может исполь­зоваться определитель матрицы парных коэффициентов корреля­ции между факторами.

Если бы факторы не коррелировали между собой, то матрица парных коэффициентов корреляции между факторами была бы единичной матрицей. Для включающего три объ­ясняющих переменных уравнения: y=a+b1x1+b2+b3x3+e.Матрица коэф-в корреляции м/у факторами имела бы определитель равный 1. Det =1, т.к. rx1x1=rx2x2=1 и rx1x2=rx1x3=rx2x3=0. Если м/у факторами сущ-ет полная линейная зависимость и все коэф-ты корреляции =1, то определитель такой матрицы =0. Чем ближе к нулю определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии. И, наоборот, чем ближе к единице определитель матрицы межфакторной кор­реляции, тем меньше мультиколлинеарность факторов.

№12. ЧТО ОЗНОЧАЕТ ВЗАИМОДЕЙСТВИЕ ФАКТОРОВ И КАК ОНО МОЖЕТ БЫТЬ ПРЕДСТАВЛЕНО ГРАФИЧЕСКИ?

Одним из путей учета внутренней корреляции факторов является переход к совмещенным уравнениям регрессии, т. е. к уравнениям, которые отражают не только влияние факторов, но и их взаимодействие. Так, если y=f(x1,x2,x3), то возможно пост­роение следующего совмещенного уравнения: y=a+b1x1+b2x2+b3x3+b12x1x2+b13x1x3+b23x2x3+e.Рассматриваемое уравнение включает взаимодействие перво­го порядка (взаимодействие двух факторов). Возможно включе­ние в модель и взаимодействий более высокого порядка, если будет доказана их статистическая значимость по F-критерию Фи­шера. Если анализ совмещенного уравнения показал значи­мость только взаимодействия факторов х1 и х3,то уравнение бу­дет иметь вид: y=a+b1x1+b2x2+b3x3+b13x1x3+e.Взаимодействие факторов х1 и х3 означает, что на разных уровнях фактора х3 влияние фактора х1 на у будет неодинаково, т. е. оно зависит от значений фактора х3. На рис. взаимодейст­вие факторов представляется непараллельными линиями связи с результатом у. И, наоборот, параллельные линии влияния факто­ра x1 на у при разных уровнях фактора х3 означают отсутствие вза­имодействия факторов х1 и х3. Графики:

 а— х1 влияет на у, причем это влияние одинаково как при х31, так и при х32 (одинаковый наклон линий регрессии), что означает отсутствие взаи­модействия факторов х1 и х3; б — с ростом х1 результативный признак y возрастает при х3 = В1; с ростом х1 результативный признак у снижается при х3 = В2.. Между х1 и х3 существу­ет взаимодей-вие. Совмещенные уравнения регрессии строятся, например, при исследовании эффекта влияния на урожайность разных видов удобрений.Решению проблемы устранения мультиколлинеарности фак­торов может помочь и переход к уравнениям приведенной фор­мы. С этой целью в уравнение регрессии производится подста­новка рассматриваемого фактора через выражение его из другого уравнения.


№13. ИНТЕРПРИТАЦИЯ КОЭФФИЦИЕНТОВ РЕГРЕССИИ ЛИНЕЙНОЙ МОДЕЛИ ПОТРЕБЛЕНИЯ. СМЫСЛ СУММЫ bi В ПРОИЗВОДСТВЕННЫХ ФУНКЦИЯХ И ЗНАЧЕНИЕ СУММЫ bi>1 . КОЭФФИЦИЕНТЫ, ИСПОЛЬЗУЕМЫЕ ДЛЯ ОЦЕНКИ СРАВНИТЕЛЬНОЙ СИЛЫ ВОЗДЕЙСТВИЯ ФАКТОРОВ НА РЕЗУЛЬТАТ.

Функция потребления: С=К*у+L, где С-потребление, у-доход, К и L-параметры функции.(у=С+I, I-размер инвистиций). Предположим, что функция потребления составила :С= 1,9 + 0,65 *у .Коэффициент регрессии характеризует склонность к потреблению. Он показывает, что из каждой тысячи дохода на потреб­ление расходуется в среднем 650 руб., а 350 руб. инвестируются. В производственных функциях:

где Р - количество продукта, изготавливаемого с помощью т производст­венных факторов (F1, F2,..., Fm);b-параметр, являющийся эластичностью количества продукции по отношению к количеству соответствующих производственных факторов.

Экономический смысл имеют не только коэффициенты b каждого фактора, но и их сумма, т. е. сумма эластичностей: В=b1+ b2 +...+ Ьт. Эта величина фиксирует обобщенную харак­теристику эластичности производства.

При практических расчетах не всегда .Она может быть как больше, так и меньше единицы. В этом случае величина В фиксирует приближенную оценку эластичности выпуска с рос­том каждого фактора производства на 1 % в условиях увеличива­ющейся (В > 1) или уменьшающейся (В < 1) отдачи на масштаб. Так, если Р = 2,4* F * F20,7 * F30,2, то с ростом значений каж­дого фактора производства на 1 % выпуск продукции в целом возрастает приблизительно на 1,2 %.

№14. НАЗНАЧЕНИЕ ЧАСТНОЙ КОРРЕЛЯЦИИ ПРИ ПОСТРОЕНИИ МОДЕЛИ МНОЖЕСТВЕННОЙ РЕГРЕССИИ. Ранжирование факторов, участву­ющих во множественной линейной регрессии, может быть прове­дено через стандартизованные коэффициенты регрессии, с помо­щью частных коэффициентов корреляции — для линейных связей. При нелинейной взаимосвязи исследуемых признаков эту функцию выполняют частные индексы детерминации. Кроме того, частные показатели корреляции широко используются при решении проблемы отбора факторов: целесообразность включе­ния того или иного фактора в модель доказывается величиной показателя частной корреляции.

Частные коэффициенты (или индексы) корреляции характери­зуют тесноту связи между результатом и соответствующим фак­тором при устранении влияния других факторов, включенных в уравнение регрессии.

Показатели частной корреляции представляют собой отно­шение сокращения остаточной дисперсии за счет дополнитель­ного включения в анализ нового фактора к остаточной диспер­сии, имевшей место до введения его в модель.

Частные коэффициенты корреляции измеряющие влияние на у фактора хiпри неизменном уровне др. факторов можно определить по формуле:

 ;

При двух факторах и i=1 данная формула примет вид:

Частные коэффициенты корреляции изменяются в пределах от -1 до 1.

№15. ЧАСТНЫЙ F-КРИТЕРИЙ, ЕГО ОТЛИЧИЕ ОТ ПОСЛЕДОВАТЕЛЬНОГО F-КРИТЕРИЯ, СВЯЗЬ МЕЖДУ СОБОЙ t- КРИТЕРИЯ СТЬЮДЕНТА ДЛЯ ОЦЕНКИ ЗНАЧИМОСТИ bi И ЧАСТНЫМ F-КРИТЕРИЕМ.

Ввиду корреляции м/у факторами значимость одного и того же фактора м/б различной в зависимости от последовательности его введения в модель. Мерой для оценки включения фактора в модель служит частый F-критерий, т.е. Fxi. В общем виде для фактора xi частый F-критерий определяется как :

Если рас­сматривается уравнение y=a+b1x1+b2+b3x3+e, то определяются последовательно F-критерий для уравнения с од­ним фактором х1, далее F-критерий для дополнительного включе­ния в модель фактора х2, т. е. для перехода от однофакторного уравнения регрессии к двухфакторному, и, наконец, F-критерий для дополнительного включения в модель фактора х3, т. е. дается оценка значимости фактора х3 после включения в модель факто­ров x1 их2. В этом случае F-критерий для дополнительного вклю­чения фактора х2 после х1 является последовательным в отличие от F-критерия для дополнительного включения в модель фактора х3, который является частным F-критерием, ибо оценивает значи­мость фактора в предположении, что он включен в модель по­следним. С t-критерием Стьюдента связан именно частный F-критерий. Последовательный F-критерий может интересовать исследователя на стадии формирования модели. Для уравнения y=a+b1x1+b2+b3x3+e оценка значимости коэффициентов регрессии Ь12,,b3 предпола­гает расчет трех межфакторных коэффициентов детерминации, а именно: ,, и можно убедиться, что существует связь между собой t- критерия Стьюдента для оценки значимости bi и частным F-критерием:

  На основе соотношения bi и  получим:


№16 ПРЕДПОСЫЛКИ МНК.

При оценке параметров уравнения регрессии применяется МНК. При этом делаются определенные предпосылки относительно составляющей , которая представляет собой ненаблюдаемую величину.

Исследования остатков - предполагают проверку наличия сле­дующих пяти предпосылок МНК:1.случайный характер остатков; 2.нулевая средняя величина остатков, не зависящая от хi;

3.гомоскедастичность—дисперсия каждого отклонения ,одинакова для всех значений х; 4.отсутствие автокорреляции остатков. Значения остатков , распределены независимо друг от друга; 5.остатки подчиняются нормальному распределению.

1. Проверяется случайный характер остатков , с этой целью строится график зависимости остатков  от теоретических значений результативного признака. Если на графике получена горизонтальная полоса, то остатки, представляют собой случайные величины и МНК оправдан, те­оретические значения ух хорошо аппроксимируют фактические значения y. В других случаях необходимо либо применять дру­гую функцию, либо вводить дополнительную информацию и за­ново строить уравнение регрессии до тех пор, пока остатки, не будут случайными величинами.

2. Вторая предпосылка МНК относительно нулевой средней ве­личины остатков означает, что (у — ух) = 0. Это выполнимо для линейных моделей и моделей, нелинейных относительно вклю­чаемых переменных. С этой целью наряду с изложенным графиком зависимости остатков  от теоретических значений ре­зультативного признака ух строится график зависимости случай­ных остатков от факторов, включенных в регрессию хi . Если остатки на графике расположены в виде горизонтальной полосы, то они независимы от значений xj. Если же график показывает наличие зависимости  и хj то модель неадек­ватна. Причины неадекватности могут быть разные.

3. В соответствии с третьей предпосылкой МНК требуется, что­бы дисперсия остатков была гомоскедастичной. Это значит, что для каждого значения фактора xj остатки, имеют одинаковую дисперсию. Если это условие применения МНК не соблюдается, то имеет место гетероскедастичность. Наличие гетероскедастичности можно наглядно видеть из поля корреляции. Гомоскедастичность остатков означает, что дисперсия остат­ков - одинакова для каждого значения х.

4.Отсутствие автокор­реляции остатков, т. е. значения остатков  распределены неза­висимо друг от друга. Автокорреляция остатков означает наличие корреляции между остатками текущих и предыдущих (последующих) наблюдений. Отсутствие автокорреляции остаточных величин обеспечива­ет состоятельность и эффективность оценок коэффициентов ре­грессии.

 

№17. СУЩНОСТЬ АНАЛИЗА ОСТАТКОВ ПРИ НАЛИЧИИ РЕГРЕССИОННОЙ МОДЕЛИ. КАК МОЖНО ПРОВЕРИТЬ НАЛИЧИЕ ГОМО- ИЛИ ГЕТЕРОСКЕДАСТИЧНОСТИ ОСТАТКОВ. ОЦЕНКА ОТСУТСТВИЯ АВТОКОРРЕЛЯЦИИ ОСТАТКОВ ПРИ ПОСТРОЕНИИ СТАТИСТИЧЕСКОЙ РЕГРЕССИОННОЙ МОДЕЛИ.

 С этой целью строиться график зависимости остатков ei от теоретических значений результативного признака:

Если на графике получена горизонтальная полоса, то остатки ei представляют собой случайные величины и МНК оправдан, те­оретические значения ух хорошо аппроксимируют фактические значения у.

Возможны следующие случаи: если ei зависит от уx, то: 1.остатки ei не случайны.2. остатки ei, не имеют постоянной дисперсии. 3. Остатки ei носят систематический характер в дан­ном случае отрицательные значения ei, соответствуют низким значениям ух, а положительные — высоким значениям. В этих случаях необходимо либо применять дру­гую функцию, либо вводить дополнительную информацию.

Как можно проверить наличие гомо- или гетероскедастичноси остатков? Гомоскедастичность остатков означает, что дисперсия остатков ei одинакова для каждого значения х.Если это условие применения МНК не соблюдается, то имеет место гетероскедастичность. Наличие гетероскедастичности можно наглядно видеть из поля корреляции. а — дисперсия остатков растет по мере увеличения х; б — дисперсия остатков достигает максимальной величины при средних значениях переменной х и уменьшается при минимальных и максимальных значениях х; в — максимальная дисперсия остатков при

малых значениях х и дисперсия остатков однородна по мере увеличения значений х. Графики гомо- и гетеро-ти.

Оценка отсутствия автокорреляции остатков(т.е. значения остатков ei распределены независимо друг от друга). Автокорреляция остатков означает наличие корреляции между остатками текущих и предыдущих (последующих) наблюдений. Коэффициент корреляции между ei и ej , где ei — остатки текущих наблюдений, ej — остатки предыдущих наблю­дений, может быть определен по обычной формуле линейного коэффициента корреляции . Если этот коэффициент окажется существенно отличным от ну­ля, то остатки автокоррелированы и функция плотности вероят­ности F(e) зависит j-й точки наблюдения и от распределения значений остатков в других точках наблюдения. Для регрессионных моделей по статической информации ав­токорреляция остатков может быть подсчитана, если наблюдения упорядочены по фактору х. Отсутствие автокорреляции остаточных величин обеспечива­ет состоятельность и эффективность оценок коэффициентов ре­грессии. Особенно актуально соблюдение данной предпосылки МНК при построении регрессионных моделей по рядам динами­ки, где ввиду наличия тенденции последующие уровни динами­ческого ряда, как правило, зависят от своих предыдущих уров­ней.


№18 СМЫСЛ ОБОБЩЕННОГО МНК.

При нарушении гомоскедастичности и наличии автокорреля­ции ошибок рекомендуется традиционный МНК заменять обобщенным методом. Обобщенный МНК применяется к преобразованным данным и позволяет получать оценки, которые обладают не только свойством несмещенности, но и имеют меньшие выборочные дисперсии. Обобщенный МНК для корректировки гетерос-ти. В общем виде для уравнения yi=a+bxi+ei при  где Ki – коэф-т пропор-ти. Модель примет вид: yi=+xi+ei . В ней остаточные величины гетероскедастичны. Предполагая в них отсутствие автокорреляции, можно перейти к уравнению с гомоскедастичными остатками, поделив все переменные, зафик­сированные в ходе i-го наблюдения на . Тогда дисперсия остатков будет величиной постоянной. От регрессии у по х мы перейдем к регрессии на новых переменных: y/ и х/. Уравнение регрессии примет вид: . По отношению к обычной регрессии уравнение с новыми, преобразованными переменными представляет собой взвешен­ную регрессию, в которой переменные у и х взяты с весами . Коэф-т регрессии b можно определить как Как видим, при использовании обобщенного МНК с целью корректировки гетероскедастичности коэффициент регрессии b представляет собой взвешенную величину по отношению к обычному МНК с весами 1/К.Аналогичный подход возможен не только для уравнения парной, но и для множественной регрессии. Модель примет вид: . Модель с преобразованными переменными составит

. Это уравнение не содер-т свобод-го члена, применяя обычный МНК получим:  Применение в этом случае обобщенного МНК приводит к то­му, что наблюдения с меньшими значениями преобразованных переменных х/К имеют при определении параметров регрессии относительно больший вес, чем с первоначальными переменны­ми.

 

№19. СИСТЕМЫ ЭКОНОМЕТРИЧЕСКИХ УРАВНЕНИЙ. ПРОБЛЕМА ИДЕНТИФИКАЦИИ.

Сложные экономические процессы описывают с помощью системы взаимосвязанных уравнений. Различают несколько видов систем уравнений: 1. Система независимых уравнений - когда каждая зависимая переменная у рассматривается как функция одного и того же набора факторов х:

 y1=a11*x1+a12*x2+…+a1m*xm+e1 Для решения этой системы и нахождения ее параметров

yn=an1*x1+an2*x2+…+anm*xm+en используется МНК.

2.Система рекурсивных уравнений – когда зависимая переменная у одного уравнения выступает в виде фактора х в другом уравнении:

y1=a11*x1+a12*x2+…+a1m*xm+e1

y2=b21*y1+a21*x1+a22*x2+…+a2m*xm+e2

y3=b31*y1+b32*y2+a31*x1+a32*x2+…+a3m*xm+e3

yn=bn1*y1+bn2*y2+…+bnn-1*yn-1+an1*x1+an2*x2+…+anm*xm+en

Для решения этой системы и нахождения ее параметров используется МНК.


Информация о работе «Шпоры по эконометрике»
Раздел: Экономико-математическое моделирование
Количество знаков с пробелами: 58626
Количество таблиц: 1
Количество изображений: 0

0 комментариев


Наверх