Промышленный лизинг Промышленный лизинг  Методички 

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 [ 122 ] 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175

Предполагается, что компоненты независимы и подчиняются нормальному распределению с неизвестными дисперсиями. Таким образом, функция правдоподобия будет функцией от этих неизвестных дисперсий

вместе с элементами матриц А\ ,А2 и П.

Теоретически мы должны раскрыть уравнение (П.7.17) для получения точного выражения компонентов е выраженных в тех же параметрах, и отсюда построить и максимизировать функцию правдоподобия. На практике это было бы довольно сложно и эффективнее будет использовать для достижения этого матричную алгебру. Для этого был разработан порядок Йохансена.

ПРИЛОЖЕНИЕ 7.2.

Каноническая корреляция и регрессия

В регрессионном анализе мы стараемся смоделировать зависимую переменную как линейную комбинацию совокупности независимых переменных. Наша задача состоит в том, чтобы выбрать лучшую линейную комбинацию, которая достигнет наилучшего соответствия моделируемых значений наблюдаемым. Когда же сами независимые переменные являются неизвестными линейными комбинациями других переменных, тогда нам нужно воспользоваться каноническим анализом.

В нашем анализе многофакторной коинтеграции мы показали, что при помощи простых алгебраических действий можно выразить векторный авторегрессионный процесс X, = AlXr l + А2К1-2 + АтЛх-ъ в следующем виде

ДА, - Л*дЛ, 1 л2 &Л, 2 + 1Ц, з. (П.7.18)

Мы сказали, что если П имеет полный ранг, мы можем найти решение для Х, 3. Это будет значить, что составляющие X являются ДО), поскольку будут выражены в виде разностей. Но это противоречит первоначальному предположению, что они Д1). Это значит, что составляющие X в действительности являются стационарными, что для X найдены изменения разности и что правильная модель - это VAR-модель в уровнях.

Мы сказали, что если ранг П равен нулю, то мы имеем VAR в разностях - стандартный подход к моделированию нестационарного процесса.

Отсюда мы заинтересованы в рассмотрении возможности того, что ранг П не является ни полным, ни нулевым. Это говорит о существовании коинтеграции. Проблема заключается в том, что в условиях белого шума мы не будем знать точного ранга П. Таким образом, мы должны



построить статистическую процедуру оценки матрицы и ее компонентов (а и у) и ассоциированный критерий ее ранга.

Одна из таких процедур была разработана Йохансеном (1988). Согласно этому методу уравнение (П.7.18) запишется следующим образом:

АХ, - ОД, 3 = Л,*Д& , + а\ Д£ 2. (П.7.19)

В этой форме, при том что члены белого шума для удобства опущены, мы видим, что надо выразить линейную комбинацию АХ, и К,-г через линейную комбинацию предыдущих разностей.

Если бы мы знали П, то мы могли бы регрессировать АХ, - ГУГ, 3

по и Х, 2 для того, чтобы найти а\ , чтобы найти а\ (это подразумевает отдельные регрессии для каждого компонента). Мы, таким образом, могли бы проверить несколько предполагаемых матриц П и выбрать те, к которым конечные регрессии подходят лучше всего. Это получается, когда линейные комбинации, представляющие правую и левую стороны уравнения (П.7.19), имеют наивысшую корреляцию, так что анализ называется канонической корреляцией, а регрессии - каноническими.

Как видим, философия этого метода схожа с философией метода максимального правдоподобия. В этом контексте параметры (элементы матрицы П) выбираются таким образом, что максимизируют не функцию правдоподобия, а функцию корреляции.

Конечно, мы не обязаны делать повторные предположения относительно П. Мы можем использовать оценки максимального правдоподобия для регрессий. Подробности алгебраических действий были бы совершенно ичпишни в этом тексте, но общий план процедуры таков:

1) регрессируйте АХ, по предыдущим разностям и запишите остатки Rat,

2) регрессируйте Х, к по к- 1 предыдущим разностям и запишите остатки Rk, (в нашем примере к = 3);

3) постройте четыре матрицы

1 j

1 j /=1

/=1




5) собственные векторы матрицы П являются решениями уравнения

- S/ю 5од Sok\ = 0, где вертикальная черта значит определяющий ;

6) квадраты канонических коэффициентов корреляции, которые незначимо отличаются от нуля, показывают сниженный ранг Р. Таким образом, критерий ранга Р основывается на проверке наименьших коэффициентов из ранжированного ряда, или на сумме наименьших;

7) оценками векторов коинтеграции являются соответствующие собственные векторы П;

8) как только известна оценка матрицы П, при помощи МНК можно

получить оценки А*.



1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 [ 122 ] 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175