转载
目录
动机
简介
一. 拉格朗日乘子法(Lagrange Multiplier) 和KKT条件
(a) 拉格朗日乘子法(Lagrange Multiplier)
(b) KKT条件
二. 为什么拉格朗日乘子法(Lagrange Multiplier) 和KKT条件能够得到最优值?
参考
动机在求取有约束条件的优化问题时,拉格朗日乘子法(Lagrange Multiplier) 和KKT条件是非常重要的两个求取方法,对于等式约束的优化问题,可以应用拉格朗日乘子法去求取最优值;如果含有不等式约束,可以应用KKT条件去求取。当然,这两个方法求得的结果只是必要条件,只有当是凸函数的情况下,才能保证是充分必要条件。KKT条件是拉格朗日乘子法的泛化。之前学习的时候,只知道直接应用两个方法,但是却不知道为什么拉格朗日乘子法(Lagrange Multiplier) 和KKT条件能够起作用,为什么要这样去求取最优值呢?
简介本文将首先把什么是拉格朗日乘子法(Lagrange Multiplier) 和KKT条件叙述一下;然后开始分别谈谈为什么要这样求最优值。
一. 拉格朗日乘子法(Lagrange Multiplier) 和KKT条件通常我们需要求解的最优化问题有如下几类:
(i) 无约束优化问题,可以写为:
min f(x);
(ii) 有等式约束的优化问题,可以写为:
min f(x),
s.t. h_i(x) = 0; i =1, ..., n
(iii) 有不等式约束的优化问题,可以写为:
min f(x),
s.t. g_i(x)
- 服务器环境配置
- win10下官方dgl之gcn代码成功运行
- win10下pyg离线安装
- Window下 python3.7 遇到的各种bug解决
- 机器学习实战Ch02_k近邻算法的运行
- 机器学习实战之环境配置
- 【Linux】git clone报错fatal: unable to access ‘https://github.com/xxx.git/‘: Encountered end of file
- 【KD】相关KD论文简读汇总
- 【GNN】ASGNN 具有自适应结构的图神经网络
- 【KD】2020 CVPR Distilling knowledge from graph convolutional networks