您当前的位置: 首页 > 

slandarer

暂无认证

  • 1浏览

    0关注

    248博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

层次分析法:CI究竟是怎样和n扯上关系的?

slandarer 发布时间:2022-05-23 16:01:35 ,浏览量:1

本来觉得层次分析法相关的文章多如牛毛,并没有什么讲解的必要,但是突然发现大部分文章对于原理性的分析完全掠过,这里进行一个详尽的分析。这篇文章主要讲解一下以下几个内容:

  • 何为矩阵一致性?
  • C I = ( λ m a x − n ) / ( n − 1 ) CI=(\lambda_{max}-n)/(n-1) CI=(λmax​−n)/(n−1)为什么减的是n?
  • 为什么是 ( λ m a x − n ) (\lambda_{max}-n) (λmax​−n)不是 ( n − λ m a x ) (n-\lambda_{max}) (n−λmax​)?
  • C I = ( λ m a x − n ) / ( n − 1 ) CI=(\lambda_{max}-n)/(n-1) CI=(λmax​−n)/(n−1)为什么除的是(n-1)?
  • 何为 R I RI RI?
何为矩阵一致性?

人的感觉是不准确的,我们已经假设A比B牛逼2.5倍,假设B比C牛逼3.5倍,按照常理来说A比C牛逼8.75倍,但人不是机器,感觉不是数值,有些人可能会觉得A比C牛逼一大截,但是这个倍数可能是5倍可能是10倍,甚至有一些人可能会认为A不如C。

因此一致性检验就是检验你的人为判断是不是合理,判断你有没有“猫抓老鼠、大象克猫,老鼠克大象”这样循环克制的离谱判断:

因此,何为具有完全一致性的判断矩阵?

假设你各个指标的权重为 ω 1 , ω 2 , … , ω n \omega_1,\omega_2,\dots,\omega_n ω1​,ω2​,…,ωn​,那么你的判断矩阵就应该是: A = [ ω 1 ω 1 ω 1 ω 2 … ω 1 ω n ω 2 ω 1 ω 2 ω 2 … ω 2 ω n ⋮ ⋮ ⋱ ⋮ ω n ω 1 ω n ω 2 … ω n ω n ] = [ 1 ω 1 ω 2 … ω 1 ω n ω 2 ω 1 1 … ω 2 ω n ⋮ ⋮ ⋱ ⋮ ω n ω 1 ω n ω 2 … 1 ] A=\begin{bmatrix} \frac{\omega_1}{\omega_1}&\frac{\omega_1}{\omega_2}&\dots&\frac{\omega_1}{\omega_n}\\ \frac{\omega_2}{\omega_1}&\frac{\omega_2}{\omega_2}&\dots&\frac{\omega_2}{\omega_n}\\ \vdots&\vdots&\ddots&\vdots\\ \frac{\omega_n}{\omega_1}&\frac{\omega_n}{\omega_2}&\dots&\frac{\omega_n}{\omega_n}\\ \end{bmatrix}= \begin{bmatrix} 1&\frac{\omega_1}{\omega_2}&\dots&\frac{\omega_1}{\omega_n}\\ \frac{\omega_2}{\omega_1}&1&\dots&\frac{\omega_2}{\omega_n}\\ \vdots&\vdots&\ddots&\vdots\\ \frac{\omega_n}{\omega_1}&\frac{\omega_n}{\omega_2}&\dots&1\\ \end{bmatrix} A=⎣⎢⎢⎢⎡​ω1​ω1​​ω1​ω2​​⋮ω1​ωn​​​ω2​ω1​​ω2​ω2​​⋮ω2​ωn​​​……⋱…​ωn​ω1​​ωn​ω2​​⋮ωn​ωn​​​⎦⎥⎥⎥⎤​=⎣⎢⎢⎢⎡​1ω1​ω2​​⋮ω1​ωn​​​ω2​ω1​​1⋮ω2​ωn​​​……⋱…​ωn​ω1​​ωn​ω2​​⋮1​⎦⎥⎥⎥⎤​

RI是如何和n扯上关系的?

分两种情况讨论,一种是判断矩阵具有完全一致性,所有列都是权重向量的倍数,另一种则是大部分情况下的不具有完全一致性的判断矩阵,此时秩不为1,但是依旧是正互反的(对角线两侧数值互为倒数且均为正数)。

具有一致性的判断矩阵,此时秩一矩阵的性质,小学二年级都可以倒背如流,因为秩一,所以只有一个非零特征值,而原本的权重向量就是非零特征值对应的特征向量,而判断矩阵的特征值就是矩阵的大小n。浅浅的证明一下:

定理1:具有一致性的正互反矩阵最大特征值等于矩阵阶数n

[ 1 ω 1 ω 2 … ω 1 ω n ω 2 ω 1 1 … ω 2 ω n ⋮ ⋮ ⋱ ⋮ ω n ω 1 ω n ω 2 … 1 ] [ ω 1 ω 2 ⋮ ω n ] = [ ω 1 ω 2 ⋮ ω n ] [ 1 ω 1 1 ω 2 ⋯ 1 ω n ] [ ω 1 ω 2 ⋮ ω n ] = [ ω 1 ω 2 ⋮ ω n ] n \begin{bmatrix} 1&\frac{\omega_1}{\omega_2}&\dots&\frac{\omega_1}{\omega_n}\\ \frac{\omega_2}{\omega_1}&1&\dots&\frac{\omega_2}{\omega_n}\\ \vdots&\vdots&\ddots&\vdots\\ \frac{\omega_n}{\omega_1}&\frac{\omega_n}{\omega_2}&\dots&1\\ \end{bmatrix}\begin{bmatrix} \omega_1\\ \omega_2\\ \vdots\\ \omega_n\\ \end{bmatrix}=\begin{bmatrix} \omega_1\\ \omega_2\\ \vdots\\ \omega_n\\ \end{bmatrix} \begin{bmatrix} \frac{1}{\omega_1}&\frac{1}{\omega_2}&\cdots\frac{1}{\omega_n} \end{bmatrix} \begin{bmatrix} \omega_1\\ \omega_2\\ \vdots\\ \omega_n\\ \end{bmatrix}=\begin{bmatrix} \omega_1\\ \omega_2\\ \vdots\\ \omega_n\\ \end{bmatrix}n ⎣⎢⎢⎢⎡​1ω1​ω2​​⋮ω1​ωn​​​ω2​ω1​​1⋮ω2​ωn​​​……⋱…​ωn​ω1​​ωn​ω2​​⋮1​⎦⎥⎥⎥⎤​⎣⎢⎢⎢⎡​ω1​ω2​⋮ωn​​⎦⎥⎥⎥⎤​=⎣⎢⎢⎢⎡​ω1​ω2​⋮ωn​​⎦⎥⎥⎥⎤​[ω1​1​​ω2​1​​⋯ωn​1​​]⎣⎢⎢⎢⎡​ω1​ω2​⋮ωn​​⎦⎥⎥⎥⎤​=⎣⎢⎢⎢⎡​ω1​ω2​⋮ωn​​⎦⎥⎥⎥⎤​n 欸,简直不要太简单。

对于更普遍的情况,我们并不只有一个非0特征值,但是,对角线都是1这个性质还在啊。小学一年级都知道,矩阵的迹等于矩阵的特征值之和,矩阵的迹那就是n个1相加那就是n啊,那么显然就有:

∑ i = 1 n λ i = n \sum_{i=1}^{n}\lambda_i=n i=1∑n​λi​=n

那么!!! λ m a x − n = λ m a x − ∑ i = 1 n λ i \lambda_{max}-n=\lambda_{max}-\sum_{i=1}^{n}\lambda_i λmax​−n=λmax​−i=1∑n​λi​ 即 ( λ m a x − n ) (\lambda_{max}-n) (λmax​−n)为扣除最大特征值的,其他特征值和的相反数,嗯?相反数???这什么情况,难道正互反矩阵的最大特征值一定大于n所以其他特征值之和为负数所以要取个相反数??

定理2:正互反矩阵不具有完全一致性时,其最大特征值大于矩阵阶数n

假设A不具有完全一致性,此时假设其最大特征值 λ m a x \lambda_{max} λmax​对应的特征向量为 [ x 1 , x 2 , … , x n ] T [x_1,x_2,\dots,x_n]^T [x1​,x2​,…,xn​]T,即: A [ x 1 x 2 ⋮ x n ] = λ m a x [ x 1 x 2 ⋮ x n ] A\begin{bmatrix} x_1\\ x_2\\ \vdots\\ x_n\\ \end{bmatrix}=\lambda_{max}\begin{bmatrix} x_1\\ x_2\\ \vdots\\ x_n\\ \end{bmatrix} A⎣⎢⎢⎢⎡​x1​x2​⋮xn​​⎦⎥⎥⎥⎤​=λmax​⎣⎢⎢⎢⎡​x1​x2​⋮xn​​⎦⎥⎥⎥⎤​ [ a i 1 a i 2 … a i n ] [ x 1 x 2 ⋮ x n ] = λ m a x x i \begin{bmatrix} a_{i1}&a_{i2}&\dots&a_{in} \end{bmatrix}\begin{bmatrix} x_1\\ x_2\\ \vdots\\ x_n\\ \end{bmatrix}=\lambda_{max}x_i [ai1​​ai2​​…​ain​​]⎣⎢⎢⎢⎡​x1​x2​⋮xn​​⎦⎥⎥⎥⎤​=λmax​xi​

假设此时存在矩阵 E E E,满足 e i j = a i j x j x i e_{ij}=a_{ij}\frac{x_j}{x_i} eij​=aij​xi​xj​​,那么此时矩阵 E E E也就是正互反的: e i j − 1 = ( a i j x j x i ) − 1 = e i j − 1 x i x j = a j i x i x j = e j i e_{ij}^{-1}=\left(a_{ij}\frac{x_j}{x_i}\right)^{-1}=e_{ij}^{-1}\frac{x_i}{x_j}=a_{ji}\frac{x_i}{x_j}=e_{ji} eij−1​=(aij​xi​xj​​)−1=eij−1​xj​xi​​=aji​xj​xi​​=eji​ 此时有: ∑ j = 1 n e i j = ∑ j = 1 n a i j x j x i = ∑ j = 1 n a i j x j x i = λ m a x x i x i = λ m a x \sum_{j=1}^ne_{ij}=\sum_{j=1}^na_{ij}\frac{x_j}{x_i}=\frac{\sum_{j=1}^na_{ij}x_j}{x_i}=\frac{\lambda_{max}x_i}{x_i}=\lambda_{max} j=1∑n​eij​=j=1∑n​aij​xi​xj​​=xi​∑j=1n​aij​xj​​=xi​λmax​xi​​=λmax​ 同时又因为当 x > 0 , x ≠ 1 x>0,x\neq1 x>0,x​=1时有 x + 1 x > 2 x+\frac{1}{x}>2 x+x1​>2: n λ m a x = ∑ i = 1 n ∑ j = 1 n e i j = ∑ i = j e i j + ∑ i ≠ j e i j = n + ∑ i > j ( e i j + e i j − 1 ) > n + 1 2 ( n 2 − n ) × 2 = n 2 \begin{aligned} n\lambda_{max}&=\sum_{i=1}^n\sum_{j=1}^ne_{ij}\\ &=\sum_{i=j}e_{ij}+\sum_{i\neq j}e_{ij}\\ &=n+\sum_{i>j}(e_{ij}+e_{ij}^-1)\\ &>n+\frac{1}{2}(n^2-n)\times 2\\ &=n^2 \end{aligned} nλmax​​=i=1∑n​j=1∑n​eij​=i=j∑​eij​+i​=j∑​eij​=n+i>j∑​(eij​+eij−​1)>n+21​(n2−n)×2=n2​ 因而 λ m a x > n \lambda_{max}>n λmax​>n.

因此, ( λ m a x − n ) (\lambda_{max}-n) (λmax​−n)为扣除最大特征值的,其他特征值和的绝对值,而因为其他值有 ( n − 1 ) (n-1) (n−1)个,因此 ( λ m a x − n ) / ( n − 1 ) (\lambda_{max}-n)/(n-1) (λmax​−n)/(n−1)可以看作其他特征值平均值的绝对值。由于矩阵如果具有完全一致性,其他特征值将会均为零,因而 C I = ( λ m a x − n ) / ( n − 1 ) CI=(\lambda_{max}-n)/(n-1) CI=(λmax​−n)/(n−1)数值越小,说明矩阵具有越强的一致性。

何为RI?

C I = ( λ m a x − n ) / ( n − 1 ) CI=(\lambda_{max}-n)/(n-1) CI=(λmax​−n)/(n−1)数值越小,说明矩阵具有越强的一致性。那么小到何种程度我们才能说明判断矩阵是可以用的,说明这个人整体的判断是没问题的?我们要和啥子做对比呢。。。因此有了RI这个东西,即CI的期望,那么 C I R I < 0.1 \frac{CI}{RI}

关注
打赏
1664692598
查看更多评论
立即登录/注册

微信扫码登录

0.1293s