本来觉得层次分析法相关的文章多如牛毛,并没有什么讲解的必要,但是突然发现大部分文章对于原理性的分析完全掠过,这里进行一个详尽的分析。这篇文章主要讲解一下以下几个内容:
- 何为矩阵一致性?
- C I = ( λ m a x − n ) / ( n − 1 ) CI=(\lambda_{max}-n)/(n-1) CI=(λmax−n)/(n−1)为什么减的是n?
- 为什么是 ( λ m a x − n ) (\lambda_{max}-n) (λmax−n)不是 ( n − λ m a x ) (n-\lambda_{max}) (n−λmax)?
- C I = ( λ m a x − n ) / ( n − 1 ) CI=(\lambda_{max}-n)/(n-1) CI=(λmax−n)/(n−1)为什么除的是(n-1)?
- 何为 R I RI RI?
何为矩阵一致性?
人的感觉是不准确的,我们已经假设A比B牛逼2.5倍,假设B比C牛逼3.5倍,按照常理来说A比C牛逼8.75倍,但人不是机器,感觉不是数值,有些人可能会觉得A比C牛逼一大截,但是这个倍数可能是5倍可能是10倍,甚至有一些人可能会认为A不如C。
因此一致性检验就是检验你的人为判断是不是合理,判断你有没有“猫抓老鼠、大象克猫,老鼠克大象”这样循环克制的离谱判断:
因此,何为具有完全一致性的判断矩阵?
假设你各个指标的权重为
ω
1
,
ω
2
,
…
,
ω
n
\omega_1,\omega_2,\dots,\omega_n
ω1,ω2,…,ωn,那么你的判断矩阵就应该是:
A
=
[
ω
1
ω
1
ω
1
ω
2
…
ω
1
ω
n
ω
2
ω
1
ω
2
ω
2
…
ω
2
ω
n
⋮
⋮
⋱
⋮
ω
n
ω
1
ω
n
ω
2
…
ω
n
ω
n
]
=
[
1
ω
1
ω
2
…
ω
1
ω
n
ω
2
ω
1
1
…
ω
2
ω
n
⋮
⋮
⋱
⋮
ω
n
ω
1
ω
n
ω
2
…
1
]
A=\begin{bmatrix} \frac{\omega_1}{\omega_1}&\frac{\omega_1}{\omega_2}&\dots&\frac{\omega_1}{\omega_n}\\ \frac{\omega_2}{\omega_1}&\frac{\omega_2}{\omega_2}&\dots&\frac{\omega_2}{\omega_n}\\ \vdots&\vdots&\ddots&\vdots\\ \frac{\omega_n}{\omega_1}&\frac{\omega_n}{\omega_2}&\dots&\frac{\omega_n}{\omega_n}\\ \end{bmatrix}= \begin{bmatrix} 1&\frac{\omega_1}{\omega_2}&\dots&\frac{\omega_1}{\omega_n}\\ \frac{\omega_2}{\omega_1}&1&\dots&\frac{\omega_2}{\omega_n}\\ \vdots&\vdots&\ddots&\vdots\\ \frac{\omega_n}{\omega_1}&\frac{\omega_n}{\omega_2}&\dots&1\\ \end{bmatrix}
A=⎣⎢⎢⎢⎡ω1ω1ω1ω2⋮ω1ωnω2ω1ω2ω2⋮ω2ωn……⋱…ωnω1ωnω2⋮ωnωn⎦⎥⎥⎥⎤=⎣⎢⎢⎢⎡1ω1ω2⋮ω1ωnω2ω11⋮ω2ωn……⋱…ωnω1ωnω2⋮1⎦⎥⎥⎥⎤
RI是如何和n扯上关系的?
分两种情况讨论,一种是判断矩阵具有完全一致性,所有列都是权重向量的倍数,另一种则是大部分情况下的不具有完全一致性的判断矩阵,此时秩不为1,但是依旧是正互反的(对角线两侧数值互为倒数且均为正数)。
具有一致性的判断矩阵,此时秩一矩阵的性质,小学二年级都可以倒背如流,因为秩一,所以只有一个非零特征值,而原本的权重向量就是非零特征值对应的特征向量,而判断矩阵的特征值就是矩阵的大小n。浅浅的证明一下:
定理1:具有一致性的正互反矩阵最大特征值等于矩阵阶数n
[
1
ω
1
ω
2
…
ω
1
ω
n
ω
2
ω
1
1
…
ω
2
ω
n
⋮
⋮
⋱
⋮
ω
n
ω
1
ω
n
ω
2
…
1
]
[
ω
1
ω
2
⋮
ω
n
]
=
[
ω
1
ω
2
⋮
ω
n
]
[
1
ω
1
1
ω
2
⋯
1
ω
n
]
[
ω
1
ω
2
⋮
ω
n
]
=
[
ω
1
ω
2
⋮
ω
n
]
n
\begin{bmatrix} 1&\frac{\omega_1}{\omega_2}&\dots&\frac{\omega_1}{\omega_n}\\ \frac{\omega_2}{\omega_1}&1&\dots&\frac{\omega_2}{\omega_n}\\ \vdots&\vdots&\ddots&\vdots\\ \frac{\omega_n}{\omega_1}&\frac{\omega_n}{\omega_2}&\dots&1\\ \end{bmatrix}\begin{bmatrix} \omega_1\\ \omega_2\\ \vdots\\ \omega_n\\ \end{bmatrix}=\begin{bmatrix} \omega_1\\ \omega_2\\ \vdots\\ \omega_n\\ \end{bmatrix} \begin{bmatrix} \frac{1}{\omega_1}&\frac{1}{\omega_2}&\cdots\frac{1}{\omega_n} \end{bmatrix} \begin{bmatrix} \omega_1\\ \omega_2\\ \vdots\\ \omega_n\\ \end{bmatrix}=\begin{bmatrix} \omega_1\\ \omega_2\\ \vdots\\ \omega_n\\ \end{bmatrix}n
⎣⎢⎢⎢⎡1ω1ω2⋮ω1ωnω2ω11⋮ω2ωn……⋱…ωnω1ωnω2⋮1⎦⎥⎥⎥⎤⎣⎢⎢⎢⎡ω1ω2⋮ωn⎦⎥⎥⎥⎤=⎣⎢⎢⎢⎡ω1ω2⋮ωn⎦⎥⎥⎥⎤[ω11ω21⋯ωn1]⎣⎢⎢⎢⎡ω1ω2⋮ωn⎦⎥⎥⎥⎤=⎣⎢⎢⎢⎡ω1ω2⋮ωn⎦⎥⎥⎥⎤n
欸,简直不要太简单。
对于更普遍的情况,我们并不只有一个非0特征值,但是,对角线都是1这个性质还在啊。小学一年级都知道,矩阵的迹等于矩阵的特征值之和,矩阵的迹那就是n个1相加那就是n啊,那么显然就有:
∑ i = 1 n λ i = n \sum_{i=1}^{n}\lambda_i=n i=1∑nλi=n
那么!!!
λ
m
a
x
−
n
=
λ
m
a
x
−
∑
i
=
1
n
λ
i
\lambda_{max}-n=\lambda_{max}-\sum_{i=1}^{n}\lambda_i
λmax−n=λmax−i=1∑nλi
即
(
λ
m
a
x
−
n
)
(\lambda_{max}-n)
(λmax−n)为扣除最大特征值的,其他特征值和的相反数,嗯?相反数???这什么情况,难道正互反矩阵的最大特征值一定大于n所以其他特征值之和为负数所以要取个相反数??
定理2:正互反矩阵不具有完全一致性时,其最大特征值大于矩阵阶数n
假设A不具有完全一致性,此时假设其最大特征值
λ
m
a
x
\lambda_{max}
λmax对应的特征向量为
[
x
1
,
x
2
,
…
,
x
n
]
T
[x_1,x_2,\dots,x_n]^T
[x1,x2,…,xn]T,即:
A
[
x
1
x
2
⋮
x
n
]
=
λ
m
a
x
[
x
1
x
2
⋮
x
n
]
A\begin{bmatrix} x_1\\ x_2\\ \vdots\\ x_n\\ \end{bmatrix}=\lambda_{max}\begin{bmatrix} x_1\\ x_2\\ \vdots\\ x_n\\ \end{bmatrix}
A⎣⎢⎢⎢⎡x1x2⋮xn⎦⎥⎥⎥⎤=λmax⎣⎢⎢⎢⎡x1x2⋮xn⎦⎥⎥⎥⎤
[
a
i
1
a
i
2
…
a
i
n
]
[
x
1
x
2
⋮
x
n
]
=
λ
m
a
x
x
i
\begin{bmatrix} a_{i1}&a_{i2}&\dots&a_{in} \end{bmatrix}\begin{bmatrix} x_1\\ x_2\\ \vdots\\ x_n\\ \end{bmatrix}=\lambda_{max}x_i
[ai1ai2…ain]⎣⎢⎢⎢⎡x1x2⋮xn⎦⎥⎥⎥⎤=λmaxxi
假设此时存在矩阵
E
E
E,满足
e
i
j
=
a
i
j
x
j
x
i
e_{ij}=a_{ij}\frac{x_j}{x_i}
eij=aijxixj,那么此时矩阵
E
E
E也就是正互反的:
e
i
j
−
1
=
(
a
i
j
x
j
x
i
)
−
1
=
e
i
j
−
1
x
i
x
j
=
a
j
i
x
i
x
j
=
e
j
i
e_{ij}^{-1}=\left(a_{ij}\frac{x_j}{x_i}\right)^{-1}=e_{ij}^{-1}\frac{x_i}{x_j}=a_{ji}\frac{x_i}{x_j}=e_{ji}
eij−1=(aijxixj)−1=eij−1xjxi=ajixjxi=eji
此时有:
∑
j
=
1
n
e
i
j
=
∑
j
=
1
n
a
i
j
x
j
x
i
=
∑
j
=
1
n
a
i
j
x
j
x
i
=
λ
m
a
x
x
i
x
i
=
λ
m
a
x
\sum_{j=1}^ne_{ij}=\sum_{j=1}^na_{ij}\frac{x_j}{x_i}=\frac{\sum_{j=1}^na_{ij}x_j}{x_i}=\frac{\lambda_{max}x_i}{x_i}=\lambda_{max}
j=1∑neij=j=1∑naijxixj=xi∑j=1naijxj=xiλmaxxi=λmax
同时又因为当
x
>
0
,
x
≠
1
x>0,x\neq1
x>0,x=1时有
x
+
1
x
>
2
x+\frac{1}{x}>2
x+x1>2:
n
λ
m
a
x
=
∑
i
=
1
n
∑
j
=
1
n
e
i
j
=
∑
i
=
j
e
i
j
+
∑
i
≠
j
e
i
j
=
n
+
∑
i
>
j
(
e
i
j
+
e
i
j
−
1
)
>
n
+
1
2
(
n
2
−
n
)
×
2
=
n
2
\begin{aligned} n\lambda_{max}&=\sum_{i=1}^n\sum_{j=1}^ne_{ij}\\ &=\sum_{i=j}e_{ij}+\sum_{i\neq j}e_{ij}\\ &=n+\sum_{i>j}(e_{ij}+e_{ij}^-1)\\ &>n+\frac{1}{2}(n^2-n)\times 2\\ &=n^2 \end{aligned}
nλmax=i=1∑nj=1∑neij=i=j∑eij+i=j∑eij=n+i>j∑(eij+eij−1)>n+21(n2−n)×2=n2
因而
λ
m
a
x
>
n
\lambda_{max}>n
λmax>n.
因此, ( λ m a x − n ) (\lambda_{max}-n) (λmax−n)为扣除最大特征值的,其他特征值和的绝对值,而因为其他值有 ( n − 1 ) (n-1) (n−1)个,因此 ( λ m a x − n ) / ( n − 1 ) (\lambda_{max}-n)/(n-1) (λmax−n)/(n−1)可以看作其他特征值平均值的绝对值。由于矩阵如果具有完全一致性,其他特征值将会均为零,因而 C I = ( λ m a x − n ) / ( n − 1 ) CI=(\lambda_{max}-n)/(n-1) CI=(λmax−n)/(n−1)数值越小,说明矩阵具有越强的一致性。
何为RI?
C I = ( λ m a x − n ) / ( n − 1 ) CI=(\lambda_{max}-n)/(n-1) CI=(λmax−n)/(n−1)数值越小,说明矩阵具有越强的一致性。那么小到何种程度我们才能说明判断矩阵是可以用的,说明这个人整体的判断是没问题的?我们要和啥子做对比呢。。。因此有了RI这个东西,即CI的期望,那么 C I R I < 0.1 \frac{CI}{RI}
