РефератыЭкономикаЭкЭконометрика 10

Эконометрика 10

Эконометрия
– наука, изучающая количественные взаимосвязи экономических объектов и процессов при помощи математических и статистических методов и моделей. Основная задача эконометрии – построение количественно определенных экономико-математических моделей, разработка методов определения их параметров по статистическим данным и анализ их свойств. Наиболее часто используемым математическим аппаратом решения задач данного класса служат методы корреляционно-регрессионного анализа
.


1. Основные понятия корреляционно-регрессионного анализа


Понятие корреляции
появилось в середине XIX века в работах английских статистиков Ф. Гальтона и К. Пирсона. Этот термин произошел от латинского "correlatio"
- соотношение, взаимосвязь. Понятие регрессии
(латинское "regressio"
- движение назад) также введено Ф. Гальтоном, который, изучая связь между ростом родителей и их детей, обнаружил явление "регрессии к среднему" - рост детей очень высоких родителей имел тенденцию быть ближе к средней величине.


Теория и методы корреляционного анализа используются для выявления связи между случайными переменными и оценки ее тесноты.


Основной задачей регрессионного анализа является установление формы и изучение зависимости между переменными.


В общем случае две величины могут быть связаны функциональной зависимостью, либо зависимостью другого рода, называемой статистической, либо быть независимыми.


Статистической
называется зависимость, при которой изменение одной из величин влечет изменение распределения другой.


Статистическая зависимость, при которой изменение одной из величин влечет изменение среднего значения другой, называется корреляционной
.


Корреляционные зависимости занимают промежуточное положение между функциональной зависимостью и полной независимостью переменных.


Между величинами, характеризующими экономические явления, в большинстве случаев существуют зависимости, отличные от функциональных. Действительно, в экономике закономерности не проявляются также точно и неизменно, как, например, в физике, химии или астрономии.


Пусть, например, мы рассматриваем зависимость величины Y от величины x – y(x).


Невозможность выявления строгой связи между двумя переменными объясняется тем, что значение зависимой переменной Y определяется не только значением переменной x, но и другими (неконтролируемыми или неучтенными) факторами, а также тем, что измерение значений переменных неизбежно сопровождается некоторыми случайными ошибками.


Вследствие этого корреляционный анализ широко используется при установлении взаимосвязи экономических показателей.


Итак, если с увеличением x значение зависимой переменной Y в среднем увеличивается, то такая зависимость называется прямой
или положительной
.


Если среднее значение Y при увеличении x уменьшается, имеет место отрицательная
или обратная корреляция
.


Если с изменением x значения Y в среднем не изменяются, то говорят, что корреляция – нулевая
.


Часто при исследовании взаимосвязи между какими-либо показателями, представляют изучаемый объект в виде так называемого "черного (кибернетического) ящика".


Самый простой случай – изучение связи между одной переменной x, которую называют фактором
(входной переменной
, независимой переменной
), и переменной Y, которую называют откликом
(реакцией
, зависимой переменной
). Ситуации соответствует рисунок 6.1.


В более общем случае итогом функционирования системы является целый набор результирующих величин Ys
(). При этом значения откликов Ys
определяются, с одной стороны, совокупностью факторов xj
(), а, с другой стороны, набором возмущений (случайных, неконтролируемых факторов) xвi
(). Такую ситуацию иллюстрирует рисунок 6.2.










Рисунок 6.1 – Представление исследуемой системы в виде "черного ящика" (один фактор, один отклик)


Рисунок 6.2 – Представление исследуемой системы в виде "черного ящика" (общий случай)



Собственно говоря, на протяжении столетий ученые (особенно, естествоиспытатели) используют подобные приемы, т.е. наблюдают, что произойдет с явлением, процессом (с откликом Y), если изменять значения влияющих на процесс факторов (переменных x).


Корреляционным полем
называется множество точек {Xi
, Yi
} на плоскости XY (рисунки 6.3 - 6.4).










Рисунок 6.3 – Пример корреляционного поля (положительная корреляция)


Рисунок 6.4 – Пример корреляционного поля (отрицательная корреляция)



Если точки корреляционного поля образуют эллипс, главная диагональ которого имеет положительный угол наклона ( / ), то имеет место положительная корреляция (пример подобной ситуации можно видеть на рисунке 6.3).


Если точки корреляционного поля образуют эллипс, главная диагональ которого имеет отрицательный угол наклона ( ), то имеет место отрицательная корреляция (пример изображен на рисунке 6.4).


Если же в расположении точек нет какой-либо закономерности, то говорят, что в этом случае наблюдается нулевая корреляция.


2. Линейная парная регрессия


Связь зависимой переменной с одной или несколькими независимыми переменными описывается с помощью уравнения регрессии:




= f(x1
, x2
, ..., xm
).



Это уравнение показывает, каково будет в среднем значение y
, если переменные x
примут конкретные значения.


Если независимая переменная одна, то регрессия называется парной
.


Построение уравнения регрессии включает два этапа:


1) определение вида зависимости (этап спецификации);


2) определение коэффициентов регрессии (этап идентификации).


Предположим, на этапе спецификации установлено, что между величинами x
и y
существует линейная зависимость. Реальные значения y
будут отличаться от этой теоретической зависимости.


В общем случае линейное уравнение связи двух переменных, учитывающее случайные отклонения, можно представить в виде:





y = + x + ,


(6.1)



где – отклонение от теоретически предполагаемого значения;


и - неизвестные параметры (коэффициенты регрессии).


В уравнении (6.1) можно выделить две части:


 систематическую, = + x, где характеризует некоторое среднее значение y
для данного значения x
;


 случайную ().


Коэффициенты и описывают вид зависимости для генеральной совокупности. Так как при выполнении подобных исследований всегда имеют дело с выборочной совокупностью, то истинные значения параметров и являются неизвестными, и мы можем говорить лишь об их оценках. Обозначим эти оценки, соответственно, а
и b
, тогда уравнение регрессии с оцененными параметрами будет иметь вид:





i
= a + bxi
,


(6.2)



где n - объем выборки.


Обозначим через ei
отклонение реального значения отклика yi
от теоретически рассчитанного по уравнению i
.


Параметры a
и b
уравнения регрессии чаще всего оцениваются с помощью метода наименьших квадратов (МНК)
.


Суть его состоит в том, чтобы зная положение точек на плоскости XY, так провести линию регрессии, чтобы сумма квадратов отклонений этих точек от проведенной прямой вдоль оси OY была минимальной.


Математически критерий оценки параметров линейной парной регрессии записывается так:




Q = = = → min.



Условие существования экстремума функции – равенство нулю производной:






= - 2 (yi
- a - bxi
) = 0, = - 2 (yi
- a - bxi
)xi
= 0.



Раскрыв скобки и выполнив преобразования, получим систему из двух уравнений с двумя неизвестными:








na + bxi
= yi
, axi
+ b = xi
yi
.




Разделив первое уравнение на n
, получим:




a + b = ,



т.е. метод наименьших квадратов дает прямую, проходящую через точку (, ).


Решая систему, получим расчетные формулы для нахождения коэффициентов уравнения регрессии:





a = - b.


(6.3)



Заметим, что данные значения могут быть легко получены средствами пакета Microsoft Excel
. Для вычисления коэффициента a
используется функция ОТРЕЗОК, коэффициента b
– функция НАКЛОН.


3. Коэффициент линейной корреляции


Величина влияния фактора на исследуемый отклик может быть оценена при помощи коэффициента линейной парной корреляции
, характеризующего тесноту (силу) линейной связи между двумя переменными.


Коэффициент можно определить по формуле:





.


(6.4)



Коэффициент обладает следующими свойствами:


1) не имеет размерности, следовательно, сопоставим для величин различных порядков;


2) изменяется в диапазоне от –1 до +1. Положительное значение свидетельствует о прямой линейной связи, отрицательное – об обратной. Чем ближе абсолютное значение коэффициента к единице, тем теснее связь. Считается, что связь достаточно сильная, если коэффициент по абсолютной величине превышает 0,7, и слабая, если он менее 0,3.


Значение коэффициента легко вычисляется при помощи MS Excel
(функция КОРРЕЛ).


Величина r2
называется коэффициентом детерминации
. Он определяет долю вариации одной из переменных, которая объясняется вариацией другой переменной.


4. Множественная регрессия


В тех случаях, когда необходимо оценить влияние нескольких факторов на исследуемую величину, строится уравнение множественной регрессии.


Если связь является линейной, то уравнение линейной множественной регрессии запишется в виде:




i
= a0
+ a1
xi1
+ a2
xi2
+ ... + am
xim
,



где m - число учитываемых факторов (независимых переменных),


n - объем выборки.


Рассмотрим случай, когда y
зависит от двух переменных – x1
и x2
.


Уравнение с оцененными параметрами будет иметь вид:




i
= a0
+ a1
xi1
+ a2
xi2
,



Чтобы определить значения коэффициентов a0
, a1
и a2
, воспользуемся методом наименьших квадратов.


Как и ранее, задача формулируется следующим образом:




Q = = → min.



Приравяв частные производные нулю и выполнив преобразования, получим систему уравнений:








na0
+ a1
xi1
+ a2
xi2
= yi
, a0
xi1
+ a1
+ a2
xi1
xi2
= yi
xi1
, a0
xi2
+ a1
xi1
xi2
+ a2
= yi
xi2
.




Решив систему, можно получить формулы для расчета коэффициентов уравнения множественной линейной регрессии (a0
, a1
, a2
).


Рассмотрим более общий случай - зависимость переменной y
от m
факторов.


Обозначим:


A = {aj
}, j = 0, 1, 2, ..., m - вектор оценок параметров регрессии;


Y = {yi
}, - вектор значений зависимой переменной;


X = {xij
}, , j = 0, 1, 2, ..., m - матрица значений независимых переменных;


при этом m
- количество независимых переменных, n
- объем выборки.


Уравнение регрессии может быть представлено в следующим образом.


Для конкретного yi
:





i
= a0
+ a1
xi1
+ a2
xi2
+ ... + am
xim
,


(6.5)



или в матричном виде:




Y = A ∙ X,










где X =



1 x11
x12
... x1m
1 x21
x22
... x2m


...


1 xn1
xn2
... xnm


.




Обратите внимание на то, что в матрицу X дополнительно введен столбец, все элементы которого равны 1, т.е. условно полагается, что в уравнении (6.5) свободный член a0
умножается на фиктивную переменную xi0
, принимающую значение 1 для всех i
.


Можно показать, что для общего случая множественной линейной регрессии, коэффициенты уравнения могут быть определены из следующего соотношения:





A = (Xт
∙X)-1
∙Xт
∙Y.


(6.6)



5. Сравнение коэффициентов регрессии


Допустим, в результате анализа получено следующее уравнение регрессии:




y = 2,4 + 0,8x1
+ 3,2x2
.



Если величины x1
и x2
являются соизмеримыми, то мы можем сопоставить влияние факторов x1
и x2
путем непосредственного сравнения соответствующих коэффициентов. В нашем примере можно сказать, что фактор x2
воздействует на y
в четыре раза сильнее.


В тех случаях, когда x1
и x2
измеряются в разных величинах для сравнения степени их влияния прибегают к нормированию коэффициентов регрессии и определяют так называемый бета-коэффициент
():





j
= aj
∙ ,


(6.7)



где aj
- соответствующий коэффициент уравнения регрессии;


, - среднеквадратическое отклонение значений переменной xj
(m – число учитываемых факторов);


- среднеквадратическое отклонение значений переменной y
.


Математически бета-коэффициент показывает, на какую часть величины среднеквадратического отклонения меняется среднее значение зависимой переменной с изменением независимой переменной на одно среднеквадратическое отклонение при фиксированном на постоянном уровне значении остальных независимых переменных.


Заметим, что некоторые авторы именуют бета-коэффициент стандартизированным коэффициентом регрессии
.


Для целей сравнения коэффициентов регрессии (сравнения силы влияния каждого фактора на отклик) также может быть использован коэффициент эластичности
(Э):





Эj
= aj
∙ .


(6.8)



Коэффициент эластичности показывает, на сколько процентов изменяется зависимая переменная при изменении соответствующего фактора на один процент.


6. Коэффициент множественной корреляции


Экономические явления чаще всего адекватно описываются именно многофакторными моделями. Поэтому возникает необходимость обобщить рассмотренное выше корреляционное отношение (6.4) на случай нескольких переменных.


Теснота линейной взаимосвязи между переменной y
и рядом переменных xj
, рассматриваемых в целом, может быть определена с помощью коэффициента множественной корреляции
.


Предположим, что переменная y
испытывает влияние двух переменных - x
и z
. В этом случае коэффициент множественной корреляции может быть определен по формуле:





.


(6.9)



где ryx
, ryz
, rxz
- простые коэффициенты линейной парной корреляции, определенные из соотношения (6.4).


Коэффициент множественной корреляции заключен в пределах 0 ≤ R ≤ 1. Он не меньше, чем абсолютная величина любого парного или частного коэффициента корреляции с таким же первичным индексом.


С помощью множественного коэффициента (по мере приближения R к 1) делается вывод о тесноте взаимосвязи, но не о ее направлении. Величина R2
, называемая множественным коэффициентом детерминации
, показывает, какую долю вариации исследуемой переменной (y
) объясняет вариация остальных учтенных переменных (x
, z
).


7. Коэффициент частной корреляции


Иногда представляет интерес измерение частных зависимостей (между y
и xj
) при условии, что воздействие других факторов, принимаемых во внимание, устранено. В качестве соответствующих измерителей приняты коэффициенты частной корреляции
.


Рассмотрим порядок расчета коэффициента частной корреляции для случая, когда во взаимосвязи находятся три случайные переменные – x
, y
, z
. Для них могут быть получены простые коэффициенты линейной парной корреляции – ryx
, ryz
, rxz
. Однако большая величина этого коэффициента может быть обусловлена не только тем, что y
и x
действительно связаны между собой, но и в силу того, что обе переменные испытывают сильное действие третьего фактора – z
.


Коэффициент частной корреляции отличается от простого коэффициента линейной парной корреляции тем, что он измеряет парную корреляцию соответствующих признаков (y
и x
) при условии, что влияние на них третьего фактора (z
) устранено.


Соответствующая расчетная формула:





.


(6.10)



Частный коэффициент корреляции, так же как и парный коэффициент корреляции r (рассчитанный по формуле (6.4)), может принимать значения от -1 до 1.


8. Оценка параметров нелинейной регрессии


Пусть предварительный анализ исходной информации дает основание предполагать, что регрессионная зависимость носит нелинейный характер. Пример корреляционного поля, соответствующего нелинейной зависимости, представлен на рисунке 6.5.



Рисунок 6.5 – Пример корреляционного поля (нелинейная зависимость)


Рассмотрим в качестве примера следующее уравнение регрессии:





= a0
+ a1
x1
+ a2
+ a3
x2
+ a4
.


(6.11)



Пусть необходимо определить коэффициенты уравнения.


В этом случае, как правило, выполняют линеаризующие преобразования переменных

/>.


Введем обозначения:




z1
= x1
; z2
= ; z3
= x2
; z4
= .



Тогда исходное уравнение (6.11) примет вид:





= a0
+ a1
z1
+ a2
z2
+ a3
z3
+ a4
z4
.


(6.12)



Уравнение (6.12) представляет собой уравнение линейной регрессии с четырьмя независимыми переменными. Коэффициенты последнего уравнения находятся по уже известной нам формуле (6.6):




A = (Zт
∙Z)-1
∙Zт
∙Y.



После нахождения коэффициентов необходимо выполнить обратные преобразования для возврата к исходным переменным.


9. Индекс корреляции


Индекс корреляции
используется для выявления тесноты связи между переменными в случае нелинейной зависимости.


Он показывает тесноту связи между фактором x и зависимой переменной y:





.


(6.13)



где ei
= yi
- i
- величина ошибки, т.е. отклонение фактических значений зависимой переменной от рассчитанных по уравнению регрессии.


Индекс корреляции есть неотрицательная величина, не превосходящая 1: 0 ≤ Iyx
≤ 1.


Связь тем сильнее, чем ближе Iyx
к единице.


В случае линейной зависимости Iyx
= | ryx
|. Расхождение между Iyx
(формула (6.13)) и ryx
(формула (6.4)) может быть использовано для проверки линейности корреляционной зависимости.


10. Проблема мультиколлинеарности


При разработке структуры уравнения регрессии сталкиваются с явлением мультиколлинеарности. Под мультиколлинеарностью
понимают взаимосвязь независимых переменных уравнения регрессии.


Пусть имеется уравнение регрессии:




= a0
+ a1
x1
+ a2
x2
.



Переменные x1
и x2
могут находиться в некоторой линейной зависимости между собой. Эта зависимость может быть функциональной, тогда имеет место строгая мультиколлинеарность
переменных. Чаще, однако, взаимосвязь между переменными не столь жестка и проявляется лишь приблизительно, в этом случае мультиколлинеарность называется нестрогой
.


Одно из основных предположений метода наименьших квадратов заключается в том, что между независимыми переменными нет линейной связи. Нарушение этого условия будет приводить к тому, что получаемое уравнение регрессии будет ненадежным, и незначительное изменение исходных выборочных данных будет приводить к резкому изменению оценок параметров.


Для обнаружения мультиколлинеарности вычисляется матрица парных коэффициентов корреляции, охватывающая все сочетания независимых переменных. Коэффициенты, близкие по значению к ±1, свидетельствуют о наличии мультиколлинеарности между соответствующими переменными.


Устранение проблемы достигается путем пересмотра структуры уравнения регрессии.


Самый простой способ – исключение из модели одной из двух переменных, находящихся во взаимосвязи.


11. Проверка адекватности модели регрессии


Действия, выполняемые в данном случае, представляют собой процесс (этап) верификации модели регрессии
, т.е. процесс, в ходе которого подвергается анализу качество полученной модели.


Допустим, имеется уравнение регрессии в линейном или нелинейном виде. Значения определяемые уравнением - i
, тогда фактические значения можно представить как:




yi
= i
+ ei
,



где ei
- случайная (остаточная) компонента.


Анализ остаточной компоненты (остаточного ряда) позволяет оценить качество полученнного уравнения регрессии. Качество характеризуется выполнением определенных статистических свойств и точностью, т.е. степенью близости к фактическим данным. Модель считается хорошей со статистической точки зрения, если она адекватна и достаточно точна. Смысл используемых терминов характеризуют рисунки 6.6 и 6.7.










Рисунок 6.6 – Пример модели регрессии (модель адекватна, но не точна)


Рисунок 6.7 – Пример модели регрессии (модель точна, но не адекватна)



Оценить адекватность модели позволяет анализ случайной компоненты ei
. Модель считается адекватной исследуемому процессу, если:


1) математическое ожидание значений остаточного ряда близко или равно нулю;


2) значения остаточного ряда случайны;


3) независимы;


4) подчинены нормальному закону распределения.


Таким образом, анализ адекватности модели разбивается на несколько этапов.


1. Равенство нулю математического ожидания ряда остатков означает выполнение следующего соотношения:






Однако в случае применения метода наименьших квадратов такая проверка является излишней, поскольку использование МНК предполагает выполнение равенства , откуда безусловным образом следует равенство нулю математического ожидания значений остаточного ряда.


2. Проверка случайности последовательности ei
проводится с помощью критерия пиков (поворотных точек)
. Каждое значение ряда (ei
) сравнивается с двумя, рядом стоящими. Точка считается поворотной, если она либо больше и предыдущего и последующего значения, либо меньше и предыдущего и последующего значения.


В случайном ряду должно выполняться строгое неравенство:





,


(6.14)



где p - число поворотных точек;


[ ] - целая часть результата вычислений.


3. При проверке независимости значений ei
определяется отсутствие в остаточном ряду автокорреляции
, под которой понимается корреляция между элементами одного и того же числового ряда. В нашем случае автокорреляция - это корреляция ряда e1
, e2
, e3
... с рядом eL+1
, eL+2
, eL+3
... Число L характеризует запаздывание (лаг). Корреляция между соседними членами ряда (т.е. когда L = 1) называется автокорреляцией первого порядка. Далее для остаточного ряда будем рассматривать зависимость между соседними элементами ei
.


Значительная автокорреляция говорит о том, что спецификация регрессии выполнена неправильно (неправильно определен тип зависимости).


Наличие автокорреляции может быть выявлено при помощи d-критерия Дарбина-Уотсона
. Значение критерия вычисляется по формуле:





.


(6.15)



Эта величина сравнивается с двумя табличными уровнями: нижним - d1
и верхним - d2
. Соответствующая статистическая таблица приведена в приложении A. Если полученное значение d
больше двух, то перед сопоставлением его нужно преобразовать:




d'
= 4 - d.



Если d (или d'
) находится в интервале от нуля до d1
, то значения остаточного ряда сильно автокоррелированы.


Если значение d-критерия попадает в интервал от d2
до 2, то автокорреляция отсутствует.


Если d1
< d< d2
- однозначного вывода об отсутствии или наличии автокорреляции сделать нельзя и необходимо использовать другой критерий, например, коэффициент автокорреляции первого порядка:





.


(6.16)



Если |r(1)| окажется меньше табличного (при n<15 rтабл
= 0,36), то гипотеза о наличии автокорреляции отвергается.


4. Соответствие остаточного ряда нормальному распределению проще всего проверить при помощи RS-критерия
:





,


(6.17)



где emax
- максимальное значение ряда остатков;


emin
- минимальное значение ряда остатков;


- среднеквадратическое отклонение значений остаточного ряда.


Если рассчитанное значение попадает между табулированными границами с заданным уровнем вероятности, то гипотеза о нормальном распределении принимается. Соответствующая статистическая таблица приведена в приложении Б.


Для характеристики точности модели наиболее часто вычисляют среднюю относительную ошибку:





.


(6.18)



В отношении величины средней относительной ошибки, как правило, делают следующие выводы. Величина менее 5% свидетельствует о хорошем уровне точности, ошибка до 15% считается приемлемой.


12. Построение точечных и интервальных прогнозов


C помощью построенной регрессионной модели можно не только анализировать какой-либо процесс, но и прогнозировать значения зависимой переменной при каких-либо заданных значениях факторов.


Модель регрессии позволяет проводить как экстраполяцию, так и интерполяцию значений. Интерполяция
- прогнозирование значений зависимой переменной y
для значений фактора x
, принадлежащих интервалу [xmin
; xmax
]. Экстраполяция
- прогнозирование значений зависимой переменной y
для значений фактора x
, выходящих за границы интервала [xmin
; xmax
], чаще всего, при x > xmax
.


Точечный прогноз получается путем простой подстановки соответствующих значений x
в уравнение регрессии.


Зачастую значения факторов, для которых нужно сделать прогноз значения зависимой переменной, получают на основе среднего прироста значений фактора внутри выборочной совокупности:





,


(6.19)



где xmax
и xmin
- соответственно, максимальное и минимальное значение переменной x
в выборочной совокупности.


При выполнении экстраполяции для определения конкретного значения х
, используемого для расчета прогнозного значения y
, можно использовать формулу:





xk
= xmax
+ ∙ k ,


(6.20)



при прогнозе на один шаг k = 1, на два шага - k = 2 и т.д.


Подставляя полученное значение в уравнение регрессии, получим точечный прогноз величины y
.


Однако вероятность точного "попадания" значения y
в эту точку достаточно мала. Поэтому представляет интерес вычисление перспективных оценок значений y
в виде доверительных интервалов.


Доверительные границы прогноза определяются по формуле:





граница прогноза = k
± Uk
,


(6.21)



где k
- точечный прогноз величины y
,


Uk
- величина отклонения от точечного значения, соответствующая исследуемой точке xk
и заданному уровню вероятности.


Величина Uk
для линейной модели рассчитывается по формуле:





.


(6.22)



где S - среднеквадратическое отклонение значений остаточного ряда из формулы (6.17),


kp
- табличное значение t-статистики Стьюдента (соответствующая статистическая таблица приведена в приложении В) для заданной вероятности попадания прогнозируемой величины внутрь доверительного интервала.


И если построенная модель регрессии адекватна, то с выбранной вероятностью можно утверждать, что при сохранении сложившихся закономерностей функционирования изучаемой системы прогнозируемая величина попадет в интервал, образованный нижней и верхней границами.


Приложение А. Значения критерия Дарбина-Уотсона


В таблице приведены значения критерия Дарбина-Уотсона для уровня значимости 5% (m - число независимых переменных уравнения регрессии).
































Число наблюдений (n)


m = 1


m = 2


m = 3


m = 4


m = 5


d1


d2


d1


d2


d1


d2


d1


d2


d1


d2


15 20 30 50 100


1,08 1,20 1,35 1,50 1,65


1,36 1,41 1,49 1,59 1,69


0,95 1,10 1,28 1,46 1,63


1,54 1,54 1,57 1,63 1,72


0,82 1,00 1,21 1,42 1,61


1,75 1,68 1,65 1,67 1,74


0,69 0,90 1,14 1,38 1,59


1,97 1,83 1,74 1,72 1,76


0,56 0,79 1,07 1,34 1,57


2,21 1,99 1,83 1,47 1,78



Приложение Б. Критические границы отношения R/S



































Объем выборки (n)


Нижние границы


Верхние границы


Вероятность ошибки


0,000


0,005


0,01


0,025


0,05


0,10


0,10


0,05


0,025


0,01


0,005


0,000


3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20


1,732 1,732 1,826 1,826 1,821 1,821 1,897 1,897 1,915 1,915 1,927 1,927 1,936 1,936 1,944 1,944 1,949 1,949


1,735 1,83 1,98 2,11 2,22 2,31 2,39 2,46 2,53 2,59 2,64 2,70 2,74 2,79 2,83 2,87 2,90 2,94


1,737 1,87 2,02 2,15 2,26 2,35 2,44 2,51 2,58 2,64 2,70 2,75 2,80 2,84 2,88 2,92 2,96 2,99


1,745 1,93 2,09 2,22 2,33 2,43 2,51 2,59 2,66 2,72 2,78 2,83 2,88 2,93 2,97 3,01 3,05 3,09


1,758 1,98 2,15 2,28 2,40 2,50 2,59 2,67 2,74 2,80 2,86 2,92 2,97 3,01 3,06 3,10 3,14 3,18


1,782 2,04 2,22 2,37 2,49 2,59 2,68 2,76 2,84 2,90 2,96 3,02 3,07 3,12 3,17 3,21 3,25 3,29


1,997 2,409 2,712 2,949 3,143 3,308 3,449 3,57 3,68 3,78 3,87 3,95 4,02 4,09 4,15 4,21 4,27 4,32


1,999 2,429 2,753 3,012 3,222 3,399 3,552 3,685 3,80 3,91 4,00 4,09 4,17 4,24 4,31 4,37 4,43 4,49


2,000 2,439 2,782 3,056 3,282 3,471 3,634 3,777 3,903 4,02 4,12 4,21 4,29 4,37 4,44 4,51 4,57 4,63


2,000 2,445 2,803 3,095 3,338 3,543 3,720 3,875 4,012 4,134 4,244 4,34 4,44 4,52 4,60 4,67 4,74 4,80


2,000 2,447 2,813 3,115 3,369 3,585 3,772 3,935 4,079 4,208 4,325 4,431 4,53 4,62 4,70 4,78 4,85 4,91


2,000 2,449 2,828 3,162 4,465 3,742 4,000 2,243 4,472 4,690 4,899 5,099 5,292 5,477 5,657 5,831 6,000 6,164



Приложение В. Процентные точки распределения Стьюдента




























Степень свободы


Вероятность


40%


25%


10%


5%


2,5%


1%


0,5%


0,25%


0,1%


0,05%


1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20


0,3249 2887 2767 2707 2672 0,2648 2632 2619 2610 2602 0,2696 2590 2586 2582 2579 0,2576 2573 2571 2569 2567


1,0000 0,8561 7649 7407 7267 0,7176 7111 7064 7027 6998 0,6974 6955 6934 6924 6912 0,6901 6892 6884 6874 6870


3,0777 1,8856 6377 5332 4759 1,4398 4149 3968 3830 3722 1,3634 3562 3502 3450 3406 1,3368 3334 3304 3277 3253


6,3138 2,9200 3534 1318 2,0150 1,9432 8946 8595 8331 8125 1,7959 7823 7709 7613 7530 1,7459 7396 7341 7291 7247


12,7062 4,3027 3,1824 2,7764 5706 2,4469 3646 3060 2622 2281 2,2010 1788 1604 1448 1314 2,1199 1098 1009 0930 0860


31,8205 6,9646 4,5407 3,7469 3649 3,1427 2,9980 8965 8214 7638 2,7181 6810 6503 6245 6025 2,5835 5696 5524 5395 5280


63,6567 9,9248 5,8409 4,6041 4,0321 3,7074 4995 3554 2498 1693 3,1058 0554 3,0123 2,9768 9467 2,9208 8982 8784 8609 8453


127,3213 14,0890 7,4533 5,5976 4,7733 4,3168 4,0293 3,8325 6897 5814 3,4966 4284 3725 3257 2860 3,2520 2224 1966 1737 1534


318,3088 22,3271 10,2145 7,1732 5,8934 5,2076 4,7854 5008 2968 1437 4,0247 3,9296 8520 7874 7328 3,6862 6458 6105 5794 5518


636,6192 31,5991 12,9240 8,6103 6,8688 5,9588 4079 5,0413 4,7809 5869 4,4370 3178 2208 1405 0728 4,0150 3,9651 9216 8834 8495


Сохранить в соц. сетях:
Обсуждение:
comments powered by Disqus

Название реферата: Эконометрика 10

Слов:4995
Символов:44101
Размер:86.13 Кб.