Промышленный лизинг Промышленный лизинг  Методички 

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 [ 121 ] 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175

Из гл. 6 мы знаем, что модель МНК выглядит следующим образом:

Y=a. + $X+e, (П.7.5)

где предполагается, что е нормально распределены ЩО, о2), т.е.

У-(а + рА)~ЛГ(0, о2). (П.7.6)

Для каждой пары наблюдаемых значений Л и Убудет существовать, при условии нормальности функция плотности вероятностей следующего вида:

1 -к))2

(П.7.7)

>12По2

При условии я совместных наблюдений Хи Yобщая вероятность наблюдения всех значений в выборке равна произведению индивидуальных значений функции плотности вероятностей. Таким образом, функция правдоподобия задается следующим образом:

1< ,и . п

-- (П.7.8)

Поскольку легче дифференцировать сумму, чем произведение, то обычно берется логарифм функции правдоподобия, таким образом:

lnL(a,B) = £

(У,.-(а + ВЛ-(.))2

(П.7.9)

Это полезное преобразование не влияет на конечный результат, потому что InL - это возрастающая функция L. Таким образом, те значения аир, которые максимизируют lnl, также будут максимизировать L. Затем возьмем первую производную функцию (П.7.9) по а и Р и приравняем их нулю таким образом:

= Х(Г;-(а + рА(.)), (П.7.10)

которое становится

Э1п1(а,р) 1 да о2

па + Х; v =1 У

(П.7.11)

3 In L(a,P) 1

а V/=l

v /=1

(П.7.12)



Приравнивая производные нулю, мы требуем, чтобы:

Е-ла + рЕ*,-, (П.7.13)

jXiYajXXf . (П.7.14)

/=1 /=1 i=i Эти уравнения являются уравнениями регрессии по методу наименьших квадратов, таким образом мы показали, что решение регрессии с использованием МНК будет решением по методу максимального правдоподобия, когда остатки уравнения МНК нормально распределены.

Йохансен использовал метод максимального правдоподобия для нахождения параметров вектора коинтеграции.

Оиенка максимального правдоподобия в моделировании ARCH и GARCH

Вспомните, что мы начинали моделирование ARCH и GARCH с уравнения условного математического ожидания:

г, =о.0 +2а<-/>- +б, . (П.7.15)

Отсюда остатки будут равны:

( т Л

б, =r,-a0 + ]£a(-/v ,J.

Более того, б = h} z, где я2 - это условная дисперсия и z ~N(0, 1). Таким образом, е, ~ N(0, /г,2), где

Л,2 = Ро + £Р;в? , + £гЛ2 , . (П.7.16)

,=1 ;=1

(Заметьте, что это запись модели GARCH, для ARCH значения у равны нулю.)

Итак, мы имеем т+1+p + q+ l параметр для оценки (т + 1) значений альфа из уравнения условного математического ожидания, (р + 1) - бэта и q-гамма из уравнения условной дисперсии.

Плотность вероятностей наших наблюдений равна:



Дг,; о-о, оц, ат; Во> Рь Bpi Yi, Y2. > Уч)

( ( т Л\

Л,2=Ро+1М2-(+2>Л-,-/=1 i=i

Наша функция правдоподобия является произведением этих функций для различных наблюдений г (при условии достаточного числа наблюдений для расчетов

т р ) 4

о+Za/r/-< Po + ZP<8>-< +ZyA-,- .

i=l i=l /=1

для данных значений а и (3). Отсюда

In I(ao, a., affl; Во. Вь (Зр; yb y2, -у,),

( у2

, - a0 + Za< -<

few-{z -

Это выражение зависит не только от а (которые видны), но и от В и у, которые скрыты, в том смысле, что они являются подсуммами л.

Задача здесь - найти значения а, В и у, при которых значе-ние In L будет максимально. Это достигается числовыми методами поиска.

Оиенка максимального

правдоподобия

при коинтеграиии

В интересах доступности изложения в общей модели, приведенной в главе, отсутствует стохастический элемент. Уравнение (7.57), например, должно выглядеть так:

ДА , = Л,*ДА Г , + А*2 ДЯ; 2 + ПА, 3 + е (П.7.17)



1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 [ 121 ] 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175