摘要:当目标函数是强凸函数时,一般的分数阶梯度下降法不能保证函数收敛到最小值点,而可能发散或只能收敛到一个包含最小值点的区域内.为解决这一问题,本文提出两种新的优化算法:自适应分数阶梯度下降法(AFOGD)和自适应分数阶加速梯度下降法(AFOAGD).受到鲁棒控制理论中二次约束和李雅普诺夫稳定性理论的启发,文章通过建立线性矩阵不等式来分析AFOGD和AFOAGD两种算法的收敛性,并且给出当目标函数是L-光滑且m-强凸时,两种算法都可以达到R线性收敛的证明.仿真结果表明,本文所设计的两种算法可以保证强凸目标函数收敛到最小值并且收敛速率也有显著提高,支撑本文的理论发现.