本来觉得层次分析法相关的文章多如牛毛,并没有什么讲解的必要,但是突然发现大部分文章对于原理性的分析完全掠过,这里进行一个详尽的分析。这篇文章主要讲解一下以下几个内容:
- 何为矩阵一致性?
- C I = ( λ m a x − n ) / ( n − 1 ) CI=(\lambda_{max}-n)/(n-1) CI=(λmax−n)/(n−1)为什么减的是n?
- 为什么是 ( λ m a x − n ) (\lambda_{max}-n) (λmax−n)不是 ( n − λ m a x ) (n-\lambda_{max}) (n−λmax)?
- C I = ( λ m a x − n ) / ( n − 1 ) CI=(\lambda_{max}-n)/(n-1) CI=(λmax−n)/(n−1)为什么除的是(n-1)?
- 何为 R I RI RI?
人的感觉是不准确的,我们已经假设A比B牛逼2.5倍,假设B比C牛逼3.5倍,按照常理来说A比C牛逼8.75倍,但人不是机器,感觉不是数值,有些人可能会觉得A比C牛逼一大截,但是这个倍数可能是5倍可能是10倍,甚至有一些人可能会认为A不如C。
因此一致性检验就是检验你的人为判断是不是合理,判断你有没有“猫抓老鼠、大象克猫,老鼠克大象”这样循环克制的离谱判断:
因此,何为具有完全一致性的判断矩阵?
假设你各个指标的权重为 ω 1 , ω 2 , … , ω n \omega_1,\omega_2,\dots,\omega_n ω1,ω2,…,ωn,那么你的判断矩阵就应该是: A = [ ω 1 ω 1 ω 1 ω 2 … ω 1 ω n ω 2 ω 1 ω 2 ω 2 … ω 2 ω n ⋮ ⋮ ⋱ ⋮ ω n ω 1 ω n ω 2 … ω n ω n ] = [ 1 ω 1 ω 2 … ω 1 ω n ω 2 ω 1 1 … ω 2 ω n ⋮ ⋮ ⋱ ⋮ ω n ω 1 ω n ω 2 … 1 ] A=\begin{bmatrix} \frac{\omega_1}{\omega_1}&\frac{\omega_1}{\omega_2}&\dots&\frac{\omega_1}{\omega_n}\\ \frac{\omega_2}{\omega_1}&\frac{\omega_2}{\omega_2}&\dots&\frac{\omega_2}{\omega_n}\\ \vdots&\vdots&\ddots&\vdots\\ \frac{\omega_n}{\omega_1}&\frac{\omega_n}{\omega_2}&\dots&\frac{\omega_n}{\omega_n}\\ \end{bmatrix}= \begin{bmatrix} 1&\frac{\omega_1}{\omega_2}&\dots&\frac{\omega_1}{\omega_n}\\ \frac{\omega_2}{\omega_1}&1&\dots&\frac{\omega_2}{\omega_n}\\ \vdots&\vdots&\ddots&\vdots\\ \frac{\omega_n}{\omega_1}&\frac{\omega_n}{\omega_2}&\dots&1\\ \end{bmatrix} A=⎣⎢⎢⎢⎡ω1ω1ω1ω2⋮ω1ωnω2ω1ω2ω2⋮ω2ωn……⋱…ωnω1ωnω2⋮ωnωn⎦⎥⎥⎥⎤=⎣⎢⎢⎢⎡1ω1ω2⋮ω1ωnω2ω11⋮ω2ωn……⋱…ωnω1ωnω2⋮1⎦⎥⎥⎥⎤
RI是如何和n扯上关系的?分两种情况讨论,一种是判断矩阵具有完全一致性,所有列都是权重向量的倍数,另一种则是大部分情况下的不具有完全一致性的判断矩阵,此时秩不为1,但是依旧是正互反的(对角线两侧数值互为倒数且均为正数)。
具有一致性的判断矩阵,此时秩一矩阵的性质,小学二年级都可以倒背如流,因为秩一,所以只有一个非零特征值,而原本的权重向量就是非零特征值对应的特征向量,而判断矩阵的特征值就是矩阵的大小n。浅浅的证明一下:
定理1:具有一致性的正互反矩阵最大特征值等于矩阵阶数n
[ 1 ω 1 ω 2 … ω 1 ω n ω 2 ω 1 1 … ω 2 ω n ⋮ ⋮ ⋱ ⋮ ω n ω 1 ω n ω 2 … 1 ] [ ω 1 ω 2 ⋮ ω n ] = [ ω 1 ω 2 ⋮ ω n ] [ 1 ω 1 1 ω 2 ⋯ 1 ω n ] [ ω 1 ω 2 ⋮ ω n ] = [ ω 1 ω 2 ⋮ ω n ] n \begin{bmatrix} 1&\frac{\omega_1}{\omega_2}&\dots&\frac{\omega_1}{\omega_n}\\ \frac{\omega_2}{\omega_1}&1&\dots&\frac{\omega_2}{\omega_n}\\ \vdots&\vdots&\ddots&\vdots\\ \frac{\omega_n}{\omega_1}&\frac{\omega_n}{\omega_2}&\dots&1\\ \end{bmatrix}\begin{bmatrix} \omega_1\\ \omega_2\\ \vdots\\ \omega_n\\ \end{bmatrix}=\begin{bmatrix} \omega_1\\ \omega_2\\ \vdots\\ \omega_n\\ \end{bmatrix} \begin{bmatrix} \frac{1}{\omega_1}&\frac{1}{\omega_2}&\cdots\frac{1}{\omega_n} \end{bmatrix} \begin{bmatrix} \omega_1\\ \omega_2\\ \vdots\\ \omega_n\\ \end{bmatrix}=\begin{bmatrix} \omega_1\\ \omega_2\\ \vdots\\ \omega_n\\ \end{bmatrix}n ⎣⎢⎢⎢⎡1ω1ω2⋮ω1ωnω2ω11⋮ω2ωn……⋱…ωnω1ωnω2⋮1⎦⎥⎥⎥⎤⎣⎢⎢⎢⎡ω1ω2⋮ωn⎦⎥⎥⎥⎤=⎣⎢⎢⎢⎡ω1ω2⋮ωn⎦⎥⎥⎥⎤[ω11ω21⋯ωn1]⎣⎢⎢⎢⎡ω1ω2⋮ωn⎦⎥⎥⎥⎤=⎣⎢⎢⎢⎡ω1ω2⋮ωn⎦⎥⎥⎥⎤n 欸,简直不要太简单。
对于更普遍的情况,我们并不只有一个非0特征值,但是,对角线都是1这个性质还在啊。小学一年级都知道,矩阵的迹等于矩阵的特征值之和,矩阵的迹那就是n个1相加那就是n啊,那么显然就有:
∑ i = 1 n λ i = n \sum_{i=1}^{n}\lambda_i=n i=1∑nλi=n
那么!!! λ m a x − n = λ m a x − ∑ i = 1 n λ i \lambda_{max}-n=\lambda_{max}-\sum_{i=1}^{n}\lambda_i λmax−n=λmax−i=1∑nλi 即 ( λ m a x − n ) (\lambda_{max}-n) (λmax−n)为扣除最大特征值的,其他特征值和的相反数,嗯?相反数???这什么情况,难道正互反矩阵的最大特征值一定大于n所以其他特征值之和为负数所以要取个相反数??
定理2:正互反矩阵不具有完全一致性时,其最大特征值大于矩阵阶数n
假设A不具有完全一致性,此时假设其最大特征值 λ m a x \lambda_{max} λmax对应的特征向量为 [ x 1 , x 2 , … , x n ] T [x_1,x_2,\dots,x_n]^T [x1,x2,…,xn]T,即: A [ x 1 x 2 ⋮ x n ] = λ m a x [ x 1 x 2 ⋮ x n ] A\begin{bmatrix} x_1\\ x_2\\ \vdots\\ x_n\\ \end{bmatrix}=\lambda_{max}\begin{bmatrix} x_1\\ x_2\\ \vdots\\ x_n\\ \end{bmatrix} A⎣⎢⎢⎢⎡x1x2⋮xn⎦⎥⎥⎥⎤=λmax⎣⎢⎢⎢⎡x1x2⋮xn⎦⎥⎥⎥⎤ [ a i 1 a i 2 … a i n ] [ x 1 x 2 ⋮ x n ] = λ m a x x i \begin{bmatrix} a_{i1}&a_{i2}&\dots&a_{in} \end{bmatrix}\begin{bmatrix} x_1\\ x_2\\ \vdots\\ x_n\\ \end{bmatrix}=\lambda_{max}x_i [ai1ai2…ain]⎣⎢⎢⎢⎡x1x2⋮xn⎦⎥⎥⎥⎤=λmaxxi
假设此时存在矩阵 E E E,满足 e i j = a i j x j x i e_{ij}=a_{ij}\frac{x_j}{x_i} eij=aijxixj,那么此时矩阵 E E E也就是正互反的: e i j − 1 = ( a i j x j x i ) − 1 = e i j − 1 x i x j = a j i x i x j = e j i e_{ij}^{-1}=\left(a_{ij}\frac{x_j}{x_i}\right)^{-1}=e_{ij}^{-1}\frac{x_i}{x_j}=a_{ji}\frac{x_i}{x_j}=e_{ji} eij−1=(aijxixj)−1=eij−1xjxi=ajixjxi=eji 此时有: ∑ j = 1 n e i j = ∑ j = 1 n a i j x j x i = ∑ j = 1 n a i j x j x i = λ m a x x i x i = λ m a x \sum_{j=1}^ne_{ij}=\sum_{j=1}^na_{ij}\frac{x_j}{x_i}=\frac{\sum_{j=1}^na_{ij}x_j}{x_i}=\frac{\lambda_{max}x_i}{x_i}=\lambda_{max} j=1∑neij=j=1∑naijxixj=xi∑j=1naijxj=xiλmaxxi=λmax 同时又因为当 x > 0 , x ≠ 1 x>0,x\neq1 x>0,x=1时有 x + 1 x > 2 x+\frac{1}{x}>2 x+x1>2: n λ m a x = ∑ i = 1 n ∑ j = 1 n e i j = ∑ i = j e i j + ∑ i ≠ j e i j = n + ∑ i > j ( e i j + e i j − 1 ) > n + 1 2 ( n 2 − n ) × 2 = n 2 \begin{aligned} n\lambda_{max}&=\sum_{i=1}^n\sum_{j=1}^ne_{ij}\\ &=\sum_{i=j}e_{ij}+\sum_{i\neq j}e_{ij}\\ &=n+\sum_{i>j}(e_{ij}+e_{ij}^-1)\\ &>n+\frac{1}{2}(n^2-n)\times 2\\ &=n^2 \end{aligned} nλmax=i=1∑nj=1∑neij=i=j∑eij+i=j∑eij=n+i>j∑(eij+eij−1)>n+21(n2−n)×2=n2 因而 λ m a x > n \lambda_{max}>n λmax>n.
因此, ( λ m a x − n ) (\lambda_{max}-n) (λmax−n)为扣除最大特征值的,其他特征值和的绝对值,而因为其他值有 ( n − 1 ) (n-1) (n−1)个,因此 ( λ m a x − n ) / ( n − 1 ) (\lambda_{max}-n)/(n-1) (λmax−n)/(n−1)可以看作其他特征值平均值的绝对值。由于矩阵如果具有完全一致性,其他特征值将会均为零,因而 C I = ( λ m a x − n ) / ( n − 1 ) CI=(\lambda_{max}-n)/(n-1) CI=(λmax−n)/(n−1)数值越小,说明矩阵具有越强的一致性。
何为RI?C I = ( λ m a x − n ) / ( n − 1 ) CI=(\lambda_{max}-n)/(n-1) CI=(λmax−n)/(n−1)数值越小,说明矩阵具有越强的一致性。那么小到何种程度我们才能说明判断矩阵是可以用的,说明这个人整体的判断是没问题的?我们要和啥子做对比呢。。。因此有了RI这个东西,即CI的期望,那么 C I R I < 0.1 \frac{CI}{RI}
最近更新
- 深拷贝和浅拷贝的区别(重点)
- 【Vue】走进Vue框架世界
- 【云服务器】项目部署—搭建网站—vue电商后台管理系统
- 【React介绍】 一文带你深入React
- 【React】React组件实例的三大属性之state,props,refs(你学废了吗)
- 【脚手架VueCLI】从零开始,创建一个VUE项目
- 【React】深入理解React组件生命周期----图文详解(含代码)
- 【React】DOM的Diffing算法是什么?以及DOM中key的作用----经典面试题
- 【React】1_使用React脚手架创建项目步骤--------详解(含项目结构说明)
- 【React】2_如何使用react脚手架写一个简单的页面?