This page shows the details for different matrix notations of a vector autoregression process with k variables.
y
t
=
c
+
A
1
y
t
−
1
+
A
2
y
t
−
2
+
⋯
+
A
p
y
t
−
p
+
e
t
,
where each
y
i
is a vector of length k and each
A
i
is a k × k matrix.
[
y
1
,
t
y
2
,
t
⋮
y
k
,
t
]
=
[
c
1
c
2
⋮
c
k
]
+
[
a
1
,
1
1
a
1
,
2
1
⋯
a
1
,
k
1
a
2
,
1
1
a
2
,
2
1
⋯
a
2
,
k
1
⋮
⋮
⋱
⋮
a
k
,
1
1
a
k
,
2
1
⋯
a
k
,
k
1
]
[
y
1
,
t
−
1
y
2
,
t
−
1
⋮
y
k
,
t
−
1
]
+
⋯
+
[
a
1
,
1
p
a
1
,
2
p
⋯
a
1
,
k
p
a
2
,
1
p
a
2
,
2
p
⋯
a
2
,
k
p
⋮
⋮
⋱
⋮
a
k
,
1
p
a
k
,
2
p
⋯
a
k
,
k
p
]
[
y
1
,
t
−
p
y
2
,
t
−
p
⋮
y
k
,
t
−
p
]
+
[
e
1
,
t
e
2
,
t
⋮
e
k
,
t
]
Rewriting the y variables one to one gives:
y
1
,
t
=
c
1
+
a
1
,
1
1
y
1
,
t
−
1
+
a
1
,
2
1
y
2
,
t
−
1
+
⋯
+
a
1
,
k
1
y
k
,
t
−
1
+
⋯
+
a
1
,
1
p
y
1
,
t
−
p
+
a
1
,
2
p
y
2
,
t
−
p
+
⋯
+
a
1
,
k
p
y
k
,
t
−
p
+
e
1
,
t
y
2
,
t
=
c
2
+
a
2
,
1
1
y
1
,
t
−
1
+
a
2
,
2
1
y
2
,
t
−
1
+
⋯
+
a
2
,
k
1
y
k
,
t
−
1
+
⋯
+
a
2
,
1
p
y
1
,
t
−
p
+
a
2
,
2
p
y
2
,
t
−
p
+
⋯
+
a
2
,
k
p
y
k
,
t
−
p
+
e
2
,
t
⋮
y
k
,
t
=
c
k
+
a
k
,
1
1
y
1
,
t
−
1
+
a
k
,
2
1
y
2
,
t
−
1
+
⋯
+
a
k
,
k
1
y
k
,
t
−
1
+
⋯
+
a
k
,
1
p
y
1
,
t
−
p
+
a
k
,
2
p
y
2
,
t
−
p
+
⋯
+
a
k
,
k
p
y
k
,
t
−
p
+
e
k
,
t
One can rewrite a VAR(p) with k variables in a general way which includes T+1 observations
y
0
through
y
T
Y
=
B
Z
+
U
where:
Y
=
[
y
p
y
p
+
1
⋯
y
T
]
=
[
y
1
,
p
y
1
,
p
+
1
⋯
y
1
,
T
y
2
,
p
y
2
,
p
+
1
⋯
y
2
,
T
⋮
⋮
⋮
⋮
y
k
,
p
y
k
,
p
+
1
⋯
y
k
,
T
]
B
=
[
c
A
1
A
2
⋯
A
p
]
=
[
c
1
a
1
,
1
1
a
1
,
2
1
⋯
a
1
,
k
1
⋯
a
1
,
1
p
a
1
,
2
p
⋯
a
1
,
k
p
c
2
a
2
,
1
1
a
2
,
2
1
⋯
a
2
,
k
1
⋯
a
2
,
1
p
a
2
,
2
p
⋯
a
2
,
k
p
⋮
⋮
⋮
⋱
⋮
⋯
⋮
⋮
⋱
⋮
c
k
a
k
,
1
1
a
k
,
2
1
⋯
a
k
,
k
1
⋯
a
k
,
1
p
a
k
,
2
p
⋯
a
k
,
k
p
]
Z
=
[
1
1
⋯
1
y
p
−
1
y
p
⋯
y
T
−
1
y
p
−
2
y
p
−
1
⋯
y
T
−
2
⋮
⋮
⋱
⋮
y
0
y
1
⋯
y
T
−
p
]
=
[
1
1
⋯
1
y
1
,
p
−
1
y
1
,
p
⋯
y
1
,
T
−
1
y
2
,
p
−
1
y
2
,
p
⋯
y
2
,
T
−
1
⋮
⋮
⋱
⋮
y
k
,
p
−
1
y
k
,
p
⋯
y
k
,
T
−
1
y
1
,
p
−
2
y
1
,
p
−
1
⋯
y
1
,
T
−
2
y
2
,
p
−
2
y
2
,
p
−
1
⋯
y
2
,
T
−
2
⋮
⋮
⋱
⋮
y
k
,
p
−
2
y
k
,
p
−
1
⋯
y
k
,
T
−
2
⋮
⋮
⋱
⋮
y
1
,
0
y
1
,
1
⋯
y
1
,
T
−
p
y
2
,
0
y
2
,
1
⋯
y
2
,
T
−
p
⋮
⋮
⋱
⋮
y
k
,
0
y
k
,
1
⋯
y
k
,
T
−
p
]
and
U
=
[
e
p
e
p
+
1
⋯
e
T
]
=
[
e
1
,
p
e
1
,
p
+
1
⋯
e
1
,
T
e
2
,
p
e
2
,
p
+
1
⋯
e
2
,
T
⋮
⋮
⋱
⋮
e
k
,
p
e
k
,
p
+
1
⋯
e
k
,
T
]
.
One can then solve for the coefficient matrix B (e.g. using an ordinary least squares estimation of
Y
≈
B
Z
).