реферат скачать
 

Шпоры по эконометрике

Шпоры по эконометрике

Шпоры по эконометрике.

№ 1. СПЕЦИФИКАЦИЯ МОДЕЛИ

Простая регрессия представляет собой регрессию между двумя переменными —у и

х, т.е. модель вида [pic], где у — результативный признак; х - признак-

фактор.

Множественная регрессия представляет собой регрессию результативного

признака с двумя и большим числом факторов, т. е. модель вида [pic]

Спецификация модели - формулировка вида модели, исходя из соответствующей

теории связи между переменными. В уравнении регрессии корреляционная по

сути связь признаков представляется в виде функциональной связи, выраженной

соответствующей математической функцией. [pic] где yj — фактическое

значение результативного признака;

yxj -теоретическое значение результативного признака.

[pic] — случайная величина, характеризующая отклонения реального значения

результативного признака от теоретического.

Случайная величина ? называется также возмущением. Она включает влияние не

учтенных в модели факторов, случайных ошибок и особенностей измерения.

От правильно выбранной спецификации модели зависит величина случайных

ошибок: они тем меньше, чем в большей мере теоретические значения

результативного признака [pic] подходят к фактическим данным у.

К ошибкам спецификации относятся неправильный выбор той или иной

математической функции для[pic], и недоучет в уравнении регрессии какого-

либо существенного фактора, т. е. использование парной регрессии вместо

множественной.

Ошибки выборки - исследователь чаще всего имеет дело с выборочными данными

при установлении закономерной связи между признаками.

Ошибки измерения практически сводят на нет все усилия по количественной

оценке связи между признаками. Основное внимание в эконометрических

исследованиях уделяется ошибкам спецификации модели.

В парной регрессии выбор вида математической функции [pic] может быть

осуществлен тремя методами: графическим, аналитическим и экспериментальным.

Графический метод основан на поле корреляции. Аналитический метод основан

на изучении материальной природы связи исследуемых признаков.

Экспериментальный метод осуществляется путем сравнения величины остаточной

дисперсии Dост, рассчитанной при разных моделях. Если фактические значения

результативного признака совпадают с теоретическими у =[pic], то Docm =0.

Если имеют место отклонения фактических данных от теоретических (у — [pic])

то [pic].

Чем меньше величина остаточной дисперсии, тем лучше уравнение регрессии

подходит к исходным данным. Число наблюдений должно в 6 — 7 раз превышать

число рассчитываемых параметров при переменной х.

№ 2 ЛИНЕЙНАЯ РЕГРЕССИЯ И КОРРЕЛЯЦИЯ: СМЫСЛ И ОЦЕНКА ПАРАМЕТРОВ.

Линейная регрессия сводится к нахождению уравнения вида [pic] или [pic].

Уравнение вида [pic] позволяет по заданным значениям фактора x иметь

теоретические значения результативного признака, подставляя в него

фактические значения фактора х.

Построение линейной регрессии сводится к оценке ее параметров а и в.

Оценки параметров линейной регрессии могут быть найдены разными методами.

1.[pic]

2.[pic]

Параметр b называется коэффициентом регрессии. Его величина показывает

среднее изменение результата с изменением фактора на одну единицу.

Формально а — значение у при х = 0. Если признак-фактор

не имеет и не может иметь нулевого значения, то вышеуказанная

трактовка свободного члена, а не имеет смысла. Параметр, а может

не иметь экономического содержания. Попытки экономически

интерпретировать параметр, а могут привести к абсурду, особенно при а < 0.

Интерпретировать можно лишь знак при параметре а. Если а > 0, то

относительное изменение результата происходит медленнее, чем изменение

фактора.

Уравнение регрессии всегда дополняется показателем тесноты связи. При

использовании линейной регрессии в качестве такого показателя выступает

линейный коэффициент корреляции rxy. Существуют разные модификации формулы

линейного коэффициента корреляции.

[pic]

Линейный коэффициент корреляции находится и границах: -1?.rxy ? 1. При этом

чем ближе r к 0 тем слабее корреляция и наоборот чем ближе r к 1 или -1,

тем сильнее корреляция, т.е. зависимость х и у близка к линейной. Если r в

точности =1или -1 все точки лежат на одной прямой. Если коэф. регрессии b>0

то 0 ?.rxy ? 1 и наоборот при b Fтабл Н0 отклоняется.

Если же величина окажется меньше табличной Fфакт ‹, Fтабл , то вероятность

нулевой гипотезы выше заданного уровня и она не может быть отклонена без

серьезного риска сделать неправильный вывод о наличии связи. В этом случае

уравнение регрессии считается статистически незначимым. Но не

отклоняется.

Стандартная ошибка коэффициента регрессии

[pic]

Для оценки существенности коэффициента регрессии его величина сравнивается

с его стандартной ошибкой, т. е. определяется фактическое значение t-

критерия Стьюдентa: [pic]которое

затем сравнивается с табличным значением при определенном уровне значимости

[pic] и числе степеней свободы (n- 2).

Стандартная ошибка параметра а:

[pic] [pic]

Значимость линейного коэффициента корреляции проверяется на основе величины

ошибки коэффициента корреляции тr:

[pic] [pic]

Общая дисперсия признака х: [pic]

Коэф. регрессии [pic] Его величина показывает ср. изменение результата с

изменением фактора на 1 ед.

Ошибка аппроксимации: [pic]

№ 5. ИНТЕРВАЛЫ ПРОГНОЗА ПО ЛИНЕЙНОМУ УРАВНЕНИЮ

РЕГРЕССИИ

Оценка стат. значимости параметров регрессии проводится с помощью t –

статистики Стьюдента и путем расчета доверительного интервала для каждого

из показателей. Выдвигается гипотеза Н0 о статистически значимом отличие

показателей от 0 a = b = r = 0. Рассчитываются стандартные ошибки

параметров a,b, r и фактич. знач. t – критерия Стьюдента.

[pic]

[pic]

[pic]

[pic] [pic] [pic]

Определяется стат. значимость параметров.

ta ›Tтабл - a стат. значим

tb ›Tтабл - b стат. значим

Находятся границы доверительных интервалов.

[pic] [pic] [pic]Анализ верхней и нижней

границ доверительных интервалов приводит к выводу о том, что параметры a и

b находясь в указанных границах не принимают нулевых значений, т.е. не

явл.. стат. незначимыми и существенно отличается от 0.

№ 6. НЕЛИНЕЙНАЯ РЕГРЕССИЯ. ВИДЫ МОДЕЛЕЙ

Если между экономическими явлениями существуют нелинейные соотношения, то

они выражаются с помощью соответствующих нелинейных функций: например,

равносторонней гиперболы [pic], параболы второй степени [pic]и д.р.

Различают два класса нелинейных регрессий:

• регрессии, нелинейные относительно включенных в анализ объясняющих

переменных, но линейные по оцениваемым параметрам;

• регрессии, нелинейные по оцениваемым параметрам.

Примером нелинейной регрессии по включаемым в нее объясняющим переменным

могут служить следующие функции:

1. полиномы разных степеней

2. равносторонняя гипербола

К нелинейным регрессиям по оцениваемым параметрам относятся функции:

3. степенная

4. показательная

5. экспоненциальная

№ 7. СМЫСЛ КОЭФФИЦИЕНТА РЕГРЕССИИ.

[pic]

Параметр b называется коэффициентом регрессии. Его величина показывает

среднее изменение результата с изменением фактора на одну единицу. Оценку

коэффициента регрессии можно получить не обращаясь к методу наименьших

квадратов. Альтернативную оценку параметра b можно найти исходя из

содержания данного коэффициента: изменение результата [pic] сопоставляют с

изменением фактора [pic]

Общая сумма квадратов отклонений индивидуальных значений результативного

признака у от среднего значения [pic] вызвана влиянием множества причин.

Условно разделим всю совокупность причин на две группы: изучаемый фактор х

и прочие факторы.

Если фактор не оказывает влияния на результат, то линия регрессии на

графике параллельна оси ох и [pic].Тогда вся дисперсия результативного

признака обусловлена воздействием прочих факторов и общая сумма квадратов

отклонений совпадет с остаточной. Если же прочие факторы не влияют на

результат, то у связан с х функционально и остаточная сумма квадратов

равна нулю. В этом случае сумма квадратов отклонений, объясненная

регрессией, совпадает с общей суммой квадратов.

Поскольку не все точки поля корреляции лежат на линии регрессии, то

всегда имеет место их разброс как обусловленный влиянием фактора х, т. е.

регрессией у по х, так и вызванный действием прочих причин (необъясненная

вариация). Пригодность линии регрессии для прогноза зависит от того, какая

часть общей вариации признака у приходится на объясненную вариацию

Очевидно, что если сумма квадратов отклонений, обусловленная регрессией,

будет больше остаточной суммы квадратов, то уравнение регрессии

статистически значимо и фактор х оказывает существенное воздействие на

результат у

Любая сумма квадратов отклонений связана с числом степеней свободы , т. е.

с числом свободы независимого варьирования признака. Число степеней свободы

связано с числом единиц совокупности n ис числом определяемых по ней

констант. Применительно к исследуемой проблеме число степеней свободы

должно показать, сколько независимых отклонений из п возможных требуется

для образования данной суммы квадратов.

№8. ПРИМЕНЕНИЕ МНК К МОДЕЛЯМ НЕЛИНЕЙНЫМ ОТНОСИТЕЛЬНО ВКЛЮЧАЕМЫХ ПЕРЕМЕННЫХ

И ОЦЕНИВАЕМЫХ ПАРАМЕТРОВ.

Нелинейная регрессия по включенным переменным не таит каких-либо

сложностей в оценке ее параметров. Она определяется, как и в линейной

регрессии, методом наименьших квадратов (МНК), ибо эти функции линейны по

параметрам. Так, в параболе второй степени y=a0+a1x+a2x2+? заменяя

переменные x=x1,x2=x2, получим двухфакторное уравнение линейной регрессии:

у=а0+а1х1+а2х2+ ?

Парабола второй степени целесообразна к применению, если для

определенного интервала значений фактора меняется характер связи

рассматриваемых признаков: прямая связь меняется на обратную или обратная

на прямую. В этом случае определяется значение фактора, при котором

достигается максимальное (или минимальное), значение результативного

признака: приравниваем к нулю первую производную параболы второй степени:

[pic], т.е. b+2cx=0 и x=-b/2c

Применение МНК для оценки параметров параболы второй степени приводит к

следующей системе нормальных уравнений:

[pic][pic] Решение ее возможно методом определителей:

[pic] [pic] [pic]

В моделях, нелинейных по оцениваемым параметрам, но приводимых к линейному

виду, МНК применяется к преобразованным уравнениям. Если в линейной модели

и моделях, нелинейных по переменным, при оценке параметров исходят из

критерия [pic]min, то в моделях, нелинейных по оцениваемым параметрам,

требование МНК применяется не к исходным данным результативного признака, а

к их преобразованным величинам, т. е.ln y, 1/y. Так, в степенной функции

[pic] МНК применяется к преобразованному уравнению lny = ln? + ? ln x ln ?.

Это значит, что оценка параметров основывается на минимизации суммы

квадратов отклонений в логарифмах.[pic] Соответственно если в линейных

моделях [pic] то в моделях, нелинейных по оцениваемым параметрам, [pic].

Вследствие этого оценка параметров оказываются несколько смещенной.

№9. КОЭФФИЦИЕНТЫ ЭЛАСТИЧНОСТИ ПО РАЗНЫМ ВИДАМ РЕГРЕССИОННЫХ МОДЕЛЕЙ.

1. Линейная y = a + bx + [pic], y' = b, Э = [pic].

2. Парабола 2 порядка y = a +bx + c[pic] +[pic], y' = b + 2cx, Э = [pic].

3. Гипербола y = a+b/x +[pic], y'=-b/[pic], Э = [pic].

4. Показательная y=a[pic], y' = ln [pic], Э = x ln b.

5. Степенная y = a[pic][pic], y' = [pic], Э = b.

6. Полулогарифмическая y = a + b ln x +? , y' = b/x , Э = [pic].

7. Логистическая [pic], y' = [pic], Э = [pic].

8. Обратная y = [pic], y' = [pic], Э = [pic].

№ 10 ПОКАЗАТЕЛИ КОРРЕЛЯЦИИ

1. индекс корреляции (R): [pic]

Величина данного показателя находится в границах: 0 ? R ? 1, чем ближе к 1,

тем теснее связь рассматриваемых признаков, тем более надежно найденное

уравнение регрессии.

2. индекс детерминации используется для проверки существенности в

целом ур-ия нелинейной регрессии по F- критерию Фишера:

[pic], где R2- индекс детерминации, n- число наблюдений, m – число

параметров при переменной х.

№11. МНОЖЕСТВЕННАЯ РЕГРЕССИЯ. СПЕЦИФИКАЦИЯ МОДЕЛИ. ОТБОР ФАКТОРОВ ПРИ

ПОСТРОЕНИИИ МОДЕЛИ.

Регрессия может дать хороший результат при моделировании, если влиянием

других факторов, воздействующих на объект исследования, можно пренебречь.

Поведение отдельных экономических переменных контролировать нельзя, т. е.

не удается обеспечить равенство всех прочих условий для оценки влияния

одного исследуемого фактора. В этом случае следует попытаться выявить

влияние других факторов, введя их в модель, т. е. построить уравнение

множественной регрессии: y=a+b1x1+b2+…+bpxp+e; Такого рода уравнение может

использоваться при изучении потребления. Тогда коэффициенты bj — частные

производные потребления у по соответствующим факторам xi:[pic], в

предположении, что все остальные хi постоянны. В 30-е гг. XX в. Кейнс

сформулировал свою гипотезу потребительской функции. С того времени

исследователи неоднократно обращались к проблеме ее совершенствования.

Современная потребительская функция чаще всего рассматривается как модель

вида: C=j(y,P,M,Z), где С — потребление; у — доход; Р — цена, индекс

стоимости жизни; М — наличные деньги; Z — ликвидные активы. При этом

[pic].. Основная цель множественной регрессии — построить модель с большим

числом факторов, определив при этом влияние каждого из них в отдельности, а

также совокупное их воздействие на моделируемый показатель. Спецификация

модели включает в себя два круга вопросов: отбор факторов и выбор вида

уравнения регрессии. Требования к факторам.1 Они должны быть количественно

измеримы. Если необходимо включить в модель качественный фактор, не имеющий

количественного измерения, то ему нужно придать количественную

определенность (например, в модели урожайности качество почвы задается в

виде баллов) 2.Факторы не должны быть интеркоррелированы и тем более

находиться в точной функциональной связи. Включение в модель факторов с

высокой интеркорреляцией, когда Ryx1[pic]Rx1x2.Для зависимости

y=a+b1x1+b2+…+bpxp+e может привести к нежелательным последствиям, повлечь

за собой неустойчивость и ненадежность оценок коэффициентов регрессии. Если

между факторами существует высокая корреляция, то нельзя определить их

изолированное влияние на результативный показатель и параметры уравнения

регрессии оказываются не интерпретированными.

Включаемые во множественную регрессию факторы должны объяснить вариацию

независимой переменной. Если строится модель с набором р-факторов, то для

нее рассчитывается показатель детерминации R2 , который фиксирует долю

объясненной вариации результативного признака за счет рассматриваемых в

регрессии р-факторов. Влияние других не учтенных в модели факторов

оценивается как 1 - R2 с соответствующей остаточной дисперсией S2.При

дополнительном включении в регрессию (р + 1) фактора коэффициент

детерминации должен возрастать, а остаточная дисперсия уменьшаться:[pic].

Насыщение модели лишними факторами не только не снижает величину остаточной

дисперсии и не увеличивает показатель детерминации, но и приводит к

статистической незначимости параметров регрессии по t-критерию Стьюдента.

Таким образом, хотя теоретически регрессионная модель позволяет учесть

любое число факторов, практически в этом нет необходимости. Отбор факторов

производится на основе качественного теоретико-экономического анализа,

который обычно осуществляется в две стадии: на первой подбираются факторы

исходя из сущности проблемы; на второй – на основе показателей корреляции

определяют t-статистики для параметров регрессии. Коэффициенты

интеркорреляции (т. е. корреляции между объясняющими переменными) позволяют

исключать из модели дублирующие факторы. Считается, что две переменных явно

коллинеарны, т. е. находятся между собой в линейной зависимости, если

[pic]. Если факторы явно коллинеарны, то они дублируют друг друга и один из

них рекомендуется исключить из регрессии. Предпочтение при этом отдается не

фактору, более тесно связанному с результатом, а тому фактору, который при

достаточно тесной связи с результатом имеет наименьшую тесноту связи с

другими факторами. В этом требовании проявляется специфика множественной

регрессии как метода исследования комплексного воздействия факторов в

условиях их независимости друг от друга. Наибольшие трудности в

использовании аппарата множественной регрессии возникают при наличии

мультиколлинеарности факторов, когда более чем два фактора связаны между

собой линейной зависимостью. Наличие мультиколлинеарности факторов может

означать, что некоторые факторы будут всегда действовать в унисон. В

результате вариация в исходных данных перестает быть полностью независимой,

и нельзя оценить воздействие каждого фактора в отдельности. Чем сильнее

мультиколлинеарность факторов, тем менее надежна оценка распределения суммы

объясненной вариации по отдельным факторам с помощью метода наименьших

квадратов (МНК). Включение в модель мультиколлинеарных факторов

нежелательно в силу следующих последствий:1.затрудняется интерпретация

параметров множественной регрессии как характеристик действия факторов в

«чистом» виде, ибо факторы коррелированы; параметры линейной регрессии

теряют экономический смысл;2оценки параметров ненадежны, обнаруживают

большие стандартные ошибки и меняются с изменением объема наблюдений. Для

оценки мультиколлинеарности факторов может использоваться определитель

матрицы парных коэффициентов корреляции между факторами.

Если бы факторы не коррелировали между собой, то матрица парных

коэффициентов корреляции между факторами была бы единичной матрицей. Для

включающего три объясняющих переменных уравнения:

y=a+b1x1+b2+b3x3+e.Матрица коэф-в корреляции м/у факторами имела бы

определитель равный 1. Det [pic]=1, т.к. rx1x1=rx2x2=1 и

rx1x2=rx1x3=rx2x3=0. Если м/у факторами сущ-ет полная линейная зависимость

и все коэф-ты корреляции =1, то определитель такой матрицы =0. Чем ближе к

нулю определитель матрицы межфакторной корреляции, тем сильнее

мультиколлинеарность факторов и ненадежнее результаты множественной

Страницы: 1, 2, 3


ИНТЕРЕСНОЕ



© 2009 Все права защищены.