Transcript
Page 1: Линейные модели по переменным и параметрам :

1

Линейные модели по переменным и параметрам:

НЕЛИНЕЙНЫЕ МОДЕЛИ

uXXXY 4433221

Линейные модели и по переменным и по параметрам.

Способы сведения нелинейных моделей к линейным.

Page 2: Линейные модели по переменным и параметрам :

2

Модели линейные по переменным и параметрам:

Модели линейные по параметрам и нелинейные по переменным:

НЕЛИНЕЙНЫЕ МОДЕЛИ

uXXXY 4433221

uXXXY 44332221 log

Модели нелинейные по переменным. Замена переменных приводит к модели линейной и по параметрам и по переменным.

4433222 log,, XZXZXZ

uZZZY 4433221

Page 3: Линейные модели по переменным и параметрам :

3

Модели линейные по переменным и параметрам :

Модели линейные по параметрам и нелинейные по переменным :

Модели нелинейные по параметрам:

ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ

uXXXY 4433221

uXXXY 44332221 log

4433222 log,, XZXZXZ

uZZZY 4433221

uXXXY 43233221

Некоторые модели нелинейные по параметрам могут быть линеаризованы.

Page 4: Линейные модели по переменным и параметрам :

4

бананы доход (фунт) ($10,000) хозяйство Y X

1 1.71 1

2 6.88 2

3 8.25 3

4 9.52 4

5 9.81 5

6 11.43 6

7 11.09 7

8 10.87 8

9 12.15 9

10 10.94 10

ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ

Пример: зависимость потребления бананов от дохода для 10 хозяйств.

Page 5: Линейные модели по переменным и параметрам :

5

ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ

Точечная диаграмма.

0

2

4

6

8

10

12

14

0 1 2 3 4 5 6 7 8 9 10 11X

Y

Page 6: Линейные модели по переменным и параметрам :

6

. reg Y X

Source | SS df MS Number of obs = 10---------+------------------------------ F( 1, 8) = 17.44 Model | 58.8774834 1 58.8774834 Prob > F = 0.0031Residual | 27.003764 8 3.3754705 R-squared = 0.6856---------+------------------------------ Adj R-squared = 0.6463 Total | 85.8812475 9 9.54236083 Root MSE = 1.8372

------------------------------------------------------------------------------ Y | Coef. Std. Err. t P>|t| [95% Conf. Interval]---------+-------------------------------------------------------------------- X | .8447878 .2022741 4.176 0.003 .378343 1.311233 _cons | 4.618667 1.255078 3.680 0.006 1.724453 7.512881------------------------------------------------------------------------------

ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ

Построение регрессионной модели. Коэффициент при X значим, коэффициент детерминации R2 высок. Хорошая ли это модель?

Y=4,6+0,84*X

Page 7: Линейные модели по переменным и параметрам :

7

ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ

Поведение отклонений от линии регрессии не похожа на случайную величину, что свидетельствует о некорректности модели.

0

2

4

6

8

10

12

14

0 1 2 3 4 5 6 7 8 9 10 11X

Y

Page 8: Линейные модели по переменным и параметрам :

8

Измененная модель:

ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ

Обратно пропорциональная модель. Y увеличивается вместе с X если 2 < 0. Функция

имеет верхним пределом 1. Невозможно питаться одними бананами.

Модель линеаризуется заменой переменных

uX

Y 21

XZ

1

uZY 21

Page 9: Линейные модели по переменным и параметрам :

9

бананы доход (фунтов) ($10,000) хозяйства Y X Z

1 1.71 1 1.00

2 6.88 2 0.50

3 8.25 3 0.33

4 9.52 4 0.25

5 9.81 5 0.20

6 11.43 6 0.17

7 11.09 7 0.14

8 10.87 8 0.13

9 12.15 9 0.11

10 10.94 10 0.10

ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ

.

Page 10: Линейные модели по переменным и параметрам :

10

ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ

Зависимость Y от Z.

0

2

4

6

8

10

12

14

0 0.2 0.4 0.6 0.8 1 1.2

Y

Z

Page 11: Линейные модели по переменным и параметрам :

11

. g Z=1/X

. reg Y Z

Source | SS df MS Number of obs = 10---------+------------------------------ F( 1, 8) = 286.10 Model | 83.5451508 1 83.5451508 Prob > F = 0.0000Residual | 2.33609666 8 .292012083 R-squared = 0.9728---------+------------------------------ Adj R-squared = 0.9694 Total | 85.8812475 9 9.54236083 Root MSE = .54038

------------------------------------------------------------------------------ Y | Coef. Std. Err. t P>|t| [95% Conf. Interval]---------+-------------------------------------------------------------------- Z | -10.98865 .6496573 -16.915 0.000 -12.48677 -9.490543 _cons | 12.48354 .2557512 48.811 0.000 11.89378 13.07331------------------------------------------------------------------------------

ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ

Вычисление регрессионных коэффициентов регрессионной модели. Высокая объяснительная способность модели.

ZY 99.1048.12ˆ

Page 12: Линейные модели по переменным и параметрам :

12

ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ

График зависимости Y от Z.

0

2

4

6

8

10

12

14

0 0.2 0.4 0.6 0.8 1 1.2Z

Y

ZY 99.1048.12ˆ

Page 13: Линейные модели по переменным и параметрам :

13

0

2

4

6

8

10

12

14

0 1 2 3 4 5 6 7 8 9 10 11 12

НЕЛИНЕЙНЫЕ МОДЕЛИ

График зависимости Y от Z показывает лучшую зависимость и большую случайность отклонений.

XY

99.1048.12ˆ

X

Y

Page 14: Линейные модели по переменным и параметрам :

14

ЭластичностьY по X есть пропорциональное изменение Y относительно пропорционального изменения X:

ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

XY

dXdY

XdX

YdY

тьэластичнос

OA

A

наклон

йкасательно наклон

Y

Эластичность в любой точке – это отношение тангенса угла наклона касательной к тангенсу угла наклона радиус вектора. Значение эластичности для данного рисунка < 1.

0 52X

A

Ox

y

1тьэластичнос

Page 15: Линейные модели по переменным и параметрам :

15

ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

Пример функции с эластичность > 1.

0 52

A

O

1тьэластичнос

Y

X

Page 16: Линейные модели по переменным и параметрам :

16

ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

Эластичность для прямой непостоянна.

xO

A

XY 21

OA

A

наклон

в йкасательно наклон

21

2

21

2

)/(

/)(

X

XX

Y

X

Page 17: Линейные модели по переменным и параметрам :

17

ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

Функция с одинаковой эластичностью для всех X.

.

21

XY

121

2 XdXdY

11

1 2

2

X

XX

XY

211

121

2

2

тьэластичнос

X

X

XY

dXdY

Page 18: Линейные модели по переменным и параметрам :

18

ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

Пример функции с эластичностью 0.25.

Y

X

21

XY 25.02

Page 19: Линейные модели по переменным и параметрам :

19

ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

21

XY 75.02

Y

X

75.02

Page 20: Линейные модели по переменным и параметрам :

20

ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

2 = 1, прямая линия. Линейная модель может быть частным случаем модели с постоянной эластичностью

21

XY 00.12

Y

X

Page 21: Линейные модели по переменным и параметрам :

21

ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

.

21

XY 00.22

Y

X

00.22

Page 22: Линейные модели по переменным и параметрам :

22

ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

Линеаризация модели.

21

XY

X

X

XY

loglog

loglog

loglog

22

1

1

2

2

'' 2'1 XY

1'1 log

log'

,log' где

XX

YY

Page 23: Линейные модели по переменным и параметрам :

23

ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

Точечная диаграмма зависимости FDHO, трат на еду дома, от EXP, общего годового дохода. (в $, 1995г. для 869 хозяйств США).

0

2000

4000

6000

8000

10000

12000

14000

16000

0 20000 40000 60000 80000 100000 120000 140000 160000

FDHO

EXP

Page 24: Линейные модели по переменным и параметрам :

24

. reg FDHO EXP

Source | SS df MS Number of obs = 869---------+------------------------------ F( 1, 867) = 381.47 Model | 915843574 1 915843574 Prob > F = 0.0000Residual | 2.0815e+09 867 2400831.16 R-squared = 0.3055---------+------------------------------ Adj R-squared = 0.3047 Total | 2.9974e+09 868 3453184.55 Root MSE = 1549.5

------------------------------------------------------------------------------ FDHO | Coef. Std. Err. t P>|t| [95% Conf. Interval]---------+-------------------------------------------------------------------- EXP | .0528427 .0027055 19.531 0.000 .0475325 .0581529 _cons | 1916.143 96.54591 19.847 0.000 1726.652 2105.634------------------------------------------------------------------------------

ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

Построение регрессии FDHO от EXP. На еду тратится около 5% годового дохода. Константа смысла не имеет.

FDHO=1916,1+0,05*EXP

Page 25: Линейные модели по переменным и параметрам :

25

ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

Регрессионная линия.

0

2000

4000

6000

8000

10000

12000

14000

16000

0 20000 40000 60000 80000 100000 120000 140000 160000EXP

FDHO

Page 26: Линейные модели по переменным и параметрам :

26

ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

Подбор логарифмической модели. Точечная диаграмма логарифма FDHO в зависимости от логарифма EXP.

5.00

6.00

7.00

8.00

9.00

10.00

7.00 8.00 9.00 10.00 11.00 12.00 13.00

LGFDHO

LGEXP

Page 27: Линейные модели по переменным и параметрам :

27

. g LGFDHO = ln(FDHO)

. g LGEXP = ln(EXP)

. reg LGFDHO LGEXP

Source | SS df MS Number of obs = 868---------+------------------------------ F( 1, 866) = 396.06 Model | 84.4161692 1 84.4161692 Prob > F = 0.0000Residual | 184.579612 866 .213140429 R-squared = 0.3138---------+------------------------------ Adj R-squared = 0.3130 Total | 268.995781 867 .310260416 Root MSE = .46167

------------------------------------------------------------------------------ LGFDHO | Coef. Std. Err. t P>|t| [95% Conf. Interval]---------+-------------------------------------------------------------------- LGEXP | .4800417 .0241212 19.901 0.000 .4326988 .5273846 _cons | 3.166271 .244297 12.961 0.000 2.686787 3.645754------------------------------------------------------------------------------

ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

Регресссионная логарифмическая модель LGFDHO от LGEXP.

Page 28: Линейные модели по переменным и параметрам :

28

. g LGFDHO = ln(FDHO)

. g LGEXP = ln(EXP)

. reg LGFDHO LGEXP

Source | SS df MS Number of obs = 868---------+------------------------------ F( 1, 866) = 396.06 Model | 84.4161692 1 84.4161692 Prob > F = 0.0000Residual | 184.579612 866 .213140429 R-squared = 0.3138---------+------------------------------ Adj R-squared = 0.3130 Total | 268.995781 867 .310260416 Root MSE = .46167

------------------------------------------------------------------------------ LGFDHO | Coef. Std. Err. t P>|t| [95% Conf. Interval]---------+-------------------------------------------------------------------- LGEXP | .4800417 .0241212 19.901 0.000 .4326988 .5273846 _cons | 3.166271 .244297 12.961 0.000 2.686787 3.645754------------------------------------------------------------------------------

ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

Коэффициент эластичности 0.48.Является ли он правдоподобным? Поскольку еда – предмет первой необходимости, то коэффициент эластичности функции спроса

должен быть меньше 1. Расходы на еду растут медленнее, чем рост дохода. (e3.17 = 23.8)

48.08.23ˆ48.017.3ˆ EXPOHFDLGEXPHODLGF

Page 29: Линейные модели по переменным и параметрам :

29

ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

Точечная диаграмма и логарифмическая модель.

5.00

6.00

7.00

8.00

9.00

10.00

7.00 8.00 9.00 10.00 11.00 12.00 13.00

LGFDHO

LGEXP

Page 30: Линейные модели по переменным и параметрам :

30

ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

Сравнение линейной и логарифмической модели. В середине близки, а по краям сильное расхождение. В нуле значение равно нулю, что соответствует здравому смыслу. Для больших доходов доля, расходуемая на продовольствие должна падать.

0

2000

4000

6000

8000

10000

12000

14000

16000

0 20000 40000 60000 80000 100000 120000 140000 160000EXP

FDHO

Page 31: Линейные модели по переменным и параметрам :

31

ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

XeY 21

YedXdY X

2212

2Y

dXdY

Относительное изменение Y в расчете на единицу абсолютного изменения X равны

2.

Page 32: Линейные модели по переменным и параметрам :

32

ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

Оценка зависимости ПЛАТЫ (Earnings) от продолжительности обучения (S).

SeEARNINGS 21

Page 33: Линейные модели по переменным и параметрам :

33

ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

SeEARNINGS 21

'1

2' SeEARNINGS

1' SS

...)!2

1(

'

22

2

1

)1(1

'1

2

22

22

EARNINGS

eEARNINGS

ee

eeEARNINGSS

SS

Интерпретация 2.. Если 2 мало (<0,1), то EARNINGS (1 + 2). Это позволяет

интерпретировать 2 как процент повышения платы при увеличении аргумента на 1.

Если 2 велико, то интерпретация более сложна.

Page 34: Линейные модели по переменным и параметрам :

34

ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

1 - это значение Y при X =0

10

10 eYX

XeY 21

Page 35: Линейные модели по переменным и параметрам :

35

ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

X

eX

e

eYX

X

2'2

2'2

1

1

ln

lnln

lnln2

2

Линеаризация модели.

XeY 21

Page 36: Линейные модели по переменным и параметрам :

36

. reg LGEARN S

Source | SS df MS Number of obs = 570---------+------------------------------ F( 1, 568) = 93.21 Model | 21.681253 1 21.681253 Prob > F = 0.0000Residual | 132.12064 568 .23260676 R-squared = 0.1410---------+------------------------------ Adj R-squared = 0.1395 Total | 153.801893 569 .270302096 Root MSE = .48229

------------------------------------------------------------------------------ LGEARN | Coef. Std. Err. t P>|t| [95% Conf. Interval]---------+-------------------------------------------------------------------- S | .0792256 .0082061 9.655 0.000 .0631077 .0953435 _cons | 1.358919 .1127785 12.049 0.000 1.137406 1.580433------------------------------------------------------------------------------

Регрессионная полулогарифмическая модель.

ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

LNEARN = 1,36+0,079*S EARN = e1,36e0,079*S

Page 37: Линейные модели по переменным и параметрам :

37

ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

Приблизительная оценка. β2 = 0.079, то есть каждый год обучения приблизительно ведет к

увеличению зарплаты на 7.9%. Более точная оценка дает значение e0,079 = 1,082, то есть увеличение на 8.2%.

SeEARNINGS 079.01

'079.01' SeEARNINGS

1' SS

...)003.0079.01(

'

079.0

079.0079.01

)1(079.01

'079.01

EARNINGS

eEARNINGS

ee

eeEARNINGSS

SS

Page 38: Линейные модели по переменным и параметрам :

38

. reg LGEARN S

Source | SS df MS Number of obs = 570---------+------------------------------ F( 1, 568) = 93.21 Model | 21.681253 1 21.681253 Prob > F = 0.0000Residual | 132.12064 568 .23260676 R-squared = 0.1410---------+------------------------------ Adj R-squared = 0.1395 Total | 153.801893 569 .270302096 Root MSE = .48229

------------------------------------------------------------------------------ LGEARN | Coef. Std. Err. t P>|t| [95% Conf. Interval]---------+-------------------------------------------------------------------- S | .0792256 .0082061 9.655 0.000 .0631077 .0953435 _cons | 1.358919 .1127785 12.049 0.000 1.137406 1.580433------------------------------------------------------------------------------

log 1=1,36. Отсюда 1 = e1.36= 3.90. Буквально, человек без образования получает 3,9$ в час. Но такая интерпретация не вполне правомочна, поскольку это значение находится за пределами интервала значений выборки.

ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

Page 39: Линейные модели по переменным и параметрам :

39

0

0,5

1

1,5

2

2,5

3

3,5

4

4,5

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

S в годах

LN

(пл

ата)

ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

Точечная диаграмма значений и полулогарифмическая модель.

Page 40: Линейные модели по переменным и параметрам :

40

-10

0

10

20

30

40

50

60

70

80

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

S

Ho

url

y ea

rnin

gs

($)

ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ

Сравнение полулогарифмической модели с линейной моделью. Полулогарифмическая модель предпочтительнее, так как более точно предсказывает плату для высоких и низких уровней обучения. Нет отрицательных значений константы.

Page 41: Линейные модели по переменным и параметрам :

41

ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ

При линеаризации не учитывался случайный член. В ряде нелинейных моделей случайный член аддитивен. То же возмущение будет и для преобразованного уравнения.

uX

Y 21

XZ

1

uZY 21

Page 42: Линейные модели по переменным и параметрам :

42

ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ

vXeXY u 2211

uXY lnlnln 21

С логарифмическими моделями дело обстоит сложнее. В них после линеаризации добавляется мультипликативный член v = eu. Положительные значения u приводят к увеличению значения Y, отрицательные – к уменьшению.

Page 43: Линейные модели по переменным и параметрам :

43

ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ

0.00

0.05

0.10

0.15

0.20

0.25

0.30

0.35

0.40

0.45

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16v

f(v)

vXeXY u 2211

uXY logloglog 21

Кроме условий Гаусса-Маркова, необходимо, чтобы величина u была нормально распределена. Иначе невозможно использовать t и F тесты. Нормальное распределение показывает, что случайное возмущение – это сумма многих малых неучтенных возмущений.

Page 44: Линейные модели по переменным и параметрам :

44

ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ

0.00

0.05

0.10

0.15

0.20

0.25

0.30

0.35

0.40

0.45

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16v

f(v)

vXeXY u 2211

uXY logloglog 21

Нормальное возмущение u будет в том случае, если v имеет логнормальное распределение, плотность которого приведена на графике. Его среднее равно v =1, тогда u = 0.

Page 45: Линейные модели по переменным и параметрам :

45

ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ

Такое же мультипликативное распределение характерно и для полулогарифмических моделей.

0.00

0.05

0.10

0.15

0.20

0.25

0.30

0.35

0.40

0.45

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16v

f(v)

veeeY XuX 2211

uXY 21loglog

Page 46: Линейные модели по переменным и параметрам :

46

ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ

Точечная диаграмма для регрессионной модели зависимости выплат от обучения. Можно видеть несколько точек существенно отклоняющихся от регрессионной прямой.

-10

0

10

20

30

40

50

60

70

80

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

Время обучения

Ча

со

ва

я п

ла

та (

$)

Page 47: Линейные модели по переменным и параметрам :

47

ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ

Такая же диаграмма для полулогарифмической модели демонстрирует отсутствие резкого отклонения от модели.

0

0,5

1

1,5

2

2,5

3

3,5

4

4,5

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

Продолжительность обучения

LN

(час

ов

ая п

лат

а)

Page 48: Линейные модели по переменным и параметрам :

48

ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ

Сравнение нормированных гистограмм распределений случайных остатков для линейной и полулогарифмической моделей. Нормировка – приведение стандартных отклонений к 1 для сравнения. Для обеих моделей распределение близко к нормальному, но для полулогарифмической модели оно более симметрично.

0

20

40

60

80

100

120

140

-2 0 2

Linear Semi-Logarithmic

Page 49: Линейные модели по переменным и параметрам :

49

0

2

4

6

8

10

12

14

0 1 2 3 4 5 6 7 8 9 10 11 12

НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ

Численные методы поиска регрессионных коэффициентов для нелинеаризуемых задач на примере модели потребления бананов. Метод нелинейной оптимизации.

uZuX

Y 212

1

X

Y

XZY

99.1048.1299.1048.12ˆ

Page 50: Линейные модели по переменным и параметрам :

50

0

2

4

6

8

10

12

14

0 1 2 3 4 5 6 7 8 9 10 11 12

НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ

Предположим нам известно, что 1 = 12. Поиск 2 на основе критерия минимизации

суммы квадратов остатков. Предположим, что 2 = 6.

Xb

Y 212ˆ

XY 212

Y

X

Page 51: Линейные модели по переменным и параметрам :

51

0

2

4

6

8

10

12

14

0 1 2 3 4 5 6 7 8 9 10 11 12

НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ

Строим модели и ищем сумму квадратов остатков.

XY 212

XY

612ˆ

Y

X

Page 52: Линейные модели по переменным и параметрам :

52

0

2

4

6

8

10

12

14

0 1 2 3 4 5 6 7 8 9 10 11 12

НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ

Строим модели и ищем сумму квадратов остатков .

XY 212

XY

612ˆ

Y

X

Page 53: Линейные модели по переменным и параметрам :

53

НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ

RSS=29,17.

b2 = -6 b2 = -7

X Y Y e e2

1 1.93 6.00 -4.30 18.45

2 7.13 9.00 -2.12 4.49

3 8.78 10.00 -1.75 3.06

4 9.69 10.50 -0.98 0.97

5 10.09 10.80 -0.99 0.98

6 10.42 11.00 0.43 0.18

7 10.62 11.14 -0.06 0.00

8 10.71 11.25 -0.38 0.14

9 10.79 11.33 0.82 0.67

10 11.13 11.40 -0.47 0.22

Total 29.17

^

Page 54: Линейные модели по переменным и параметрам :

54

0

2

4

6

8

10

12

14

0 1 2 3 4 5 6 7 8 9 10 11 12

НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ

Повторим процедуру, модифицировав значение коэффициента на -7.

XY 212

XY

712ˆ

Y

X

Page 55: Линейные модели по переменным и параметрам :

55

0

2

4

6

8

10

12

14

0 1 2 3 4 5 6 7 8 9 10 11 12

НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ

На графике видно, что это приближение лучше.

XY 212

XY

712ˆ

Y

X

Page 56: Линейные модели по переменным и параметрам :

56

b2 = -6 b2 = -7

X Y Y e e2 Y e e2

1 1.93 6.00 -4.30 18.45 5.00 -3.30 10.86

2 7.13 9.00 -2.12 4.49 8.50 -1.62 2.62

3 8.78 10.00 -1.75 3.06 9.67 -1.42 2.00

4 9.69 10.50 -0.98 0.97 10.25 -0.73 0.54

5 10.09 10.80 -0.99 0.98 10.60 -0.79 0.62

6 10.42 11.00 0.43 0.18 10.83 0.60 0.35

7 10.62 11.14 -0.06 0.00 11.00 0.09 0.01

8 10.71 11.25 -0.38 0.14 11.13 -0.26 0.07

9 10.79 11.33 0.82 0.67 11.22 0.93 0.87

10 11.13 11.40 -0.47 0.22 11.30 -0.37 0.13

Total 29.17 18.08

НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ

Вычисленное значение RSS свидетельствует о том же.

^ ^

Page 57: Линейные модели по переменным и параметрам :

57

НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ

Повторяя процедуру далее можно увидеть, что оптимальное решение лежит между -10 и -11.

b2 RSS

-6 29.17

-7 18.08

-8 10.08

-9 5.19

-10 3.39

-11 4.70

0

5

10

15

20

25

30

-12 -11 -10 -9 -8 -7 -6 -5

Page 58: Линейные модели по переменным и параметрам :

58

НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ

Уменьшая интервал и шаг можно получить новое приближение на интервале -10.0 и -10.1. С точностью до 0,01 получаем приближение 10,08. Повторяя эту же процедуру по двум параметрам можно получить решение с заданной точностью.

b2 RSS

-11 4.70

-10.9 4.43

-10.8 4.19

-10.7 3.98

-10.6 3.80

-10.5 3.66

-10.4 3.54

-10.3 3.46

-10.2 3.41

-10.1 3.38

-10.0 3.39

0

1

2

3

4

5

6

7

-12 -11 -10 -9 -8 -7 -6 -5

XY

08.1012ˆ

Page 59: Линейные модели по переменным и параметрам :

59

ТЕСТЫ КОКСА-БОКСА

Проблема сравнения качества альтернативных регрессионных моделей. Когда альтернативные регрессионные модели имеют одинаковые переменные, то лучшая выбирается по критерию максимума R2. Что делать, когда переменные различны, как например в линейной и логарифмической моделях.

uXY 21

uXY 21log

Page 60: Линейные модели по переменным и параметрам :

60

ТЕСТЫ КОКСА-БОКСА

Среднее арифметическое логарифма Y сводится к среднему геометрическому Y. Среднее в одной модели связано со средним в другой. Усреднение позволяет сравнивать модели между собой по остаткам.

nn

YYY

YYYn

Yn

YYYe

ee

nn

ni

1

21)...log(

)...log(1

log1

)...(1

21

21

Page 61: Линейные модели по переменным и параметрам :

61

ТЕСТЫ КОКСА-БОКСА

Нормировка значений зависимых переменных в полулогарифмической модели по методу Зарембки.

uXY 21log

YскоегеометричесреднееYY /*

uXY 21

Page 62: Линейные модели по переменным и параметрам :

62

ТЕСТЫ КОКСА-БОКСА

uXY 21log

uXY '2

'1*

uXY '2

'1*log

Сравнение нормированных моделей Y* and logeY по среднеквадратичным

отклонениям (RSS). Логарифм отношения остатков имеет χ2-распределение. Если χ>χ2 – критическое при заданном пороге вероятности , то модель с меньшим RSS будет лучше.

uXY 21

YскоегеометричесреднееYY /*

RSS

RSSn

меньшее

большее ln

2 )1(2

Page 63: Линейные модели по переменным и параметрам :

63

. sum LGEARN

Variable | Obs Mean Std. Dev. Min Max---------+----------------------------------------------------- LGEARN | 570 2.430133 .5199059 1.163151 4.417514

EARNSTAR=EARNINGS/exp(2.430133) LGEARNST=ln(EARNSTAR)

ТЕСТЫ КОКСА-БОКСА

nn

YYY

YYYn

Yn

YYYe

ee

nn

ni

1

21)...log(

)...log(1

log1

)...(1

21

21

Найдем среднее для LGEARN и обозначим LGEARNST=ln( EARNSTAR).

Page 64: Линейные модели по переменным и параметрам :

64

. reg EARNSTAR S

Source | SS df MS Number of obs = 570---------+------------------------------ F( 1, 568) = 65.64 Model | 30.8184248 1 30.8184248 Prob > F = 0.0000Residual | 266.69807 568 .469538855 R-squared = 0.1036---------+------------------------------ Adj R-squared = 0.1020 Total | 297.516494 569 .522876089 Root MSE = .68523

------------------------------------------------------------------------------EARNSTAR | Coef. Std. Err. t P>|t| [95% Conf. Interval]---------+-------------------------------------------------------------------- S | .0944558 .0116589 8.102 0.000 .0715559 .1173557 _cons | -.1224433 .1602326 -0.764 0.445 -.437164 .1922774------------------------------------------------------------------------------

ТЕСТЫ КОКСА-БОКСА

Найдем регрессионную зависимость нормированного значения EARNSTAR от S и определим RSS.

Page 65: Линейные модели по переменным и параметрам :

65

. reg LGEARNST S

Source | SS df MS Number of obs = 570---------+------------------------------ F( 1, 568) = 93.21 Model | 21.6812545 1 21.6812545 Prob > F = 0.0000Residual | 132.120642 568 .232606764 R-squared = 0.1410---------+------------------------------ Adj R-squared = 0.1395 Total | 153.801897 569 .270302103 Root MSE = .48229

------------------------------------------------------------------------------LGEARNST | Coef. Std. Err. t P>|t| [95% Conf. Interval]---------+-------------------------------------------------------------------- S | .0792256 .0082061 9.655 0.000 .0631077 .0953435 _cons | -1.071214 .1127785 -9.498 0.000 -1.292727 -.8496999------------------------------------------------------------------------------

ТЕСТЫ КОКСА-БОКСА

То же сделаем для нормированной переменной LGEARNST.

Page 66: Линейные модели по переменным и параметрам :

66

ТЕСТЫ КОКСА-БОКСА

Значение статистики 200.2. Оно существенно выше 2 с 1 степенью свободы на 0.1% уровне, исходя из чего можно утверждать о значимости предпочтения полулогарифмической модели линейной.

2.2001.132

7.266ln

2

570

0.1%уровнена ст.св, 1 ,83.10 2crit


Recommended