lm算法是什么算法_opencv图像处理算法

lm算法是什么算法_opencv图像处理算法1.高斯牛顿法残差函数f(x)为非线性函数,对其一阶泰勒近似有:这里的J是残差函数f的雅可比矩阵,带入损失函数的:令其一阶导等于0,得:这就是论文里常看到的normalequation。2.LMLM是对高斯牛顿法进行了改进,在求解过程中引入了阻尼因子:2.1阻尼因子的作用:2.2阻尼因子的初始值选取:一个简单的策略就是:2.3阻尼因子的更新策略3.核心代码讲解3.1构建H矩阵void…

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE稳定放心使用

1. 高斯牛顿法

残差函数f(x)为非线性函数,对其一阶泰勒近似有:

lm算法是什么算法_opencv图像处理算法

这里的J是残差函数f的雅可比矩阵,带入损失函数的:

lm算法是什么算法_opencv图像处理算法

lm算法是什么算法_opencv图像处理算法

令其一阶导等于0,得:

lm算法是什么算法_opencv图像处理算法

这就是论文里常看到的normal equation。

2.LM

LM是对高斯牛顿法进行了改进,在求解过程中引入了阻尼因子:

lm算法是什么算法_opencv图像处理算法

2.1 阻尼因子的作用:

lm算法是什么算法_opencv图像处理算法

2.2 阻尼因子的初始值选取:

一个简单的策略就是:

lm算法是什么算法_opencv图像处理算法

lm算法是什么算法_opencv图像处理算法

2.3 阻尼因子的更新策略

lm算法是什么算法_opencv图像处理算法

lm算法是什么算法_opencv图像处理算法

lm算法是什么算法_opencv图像处理算法

3.核心代码讲解

3.1 构建H矩阵

void Problem::MakeHessian() {

TicToc t_h;

// 直接构造大的 H 矩阵

ulong size = ordering_generic_;

MatXX H(MatXX::Zero(size, size));

VecX b(VecX::Zero(size));

// TODO:: accelate, accelate, accelate

//#ifdef USE_OPENMP

//#pragma omp parallel for

//#endif

// 遍历每个残差,并计算他们的雅克比,得到最后的 H = J^T * J

for (auto &edge: edges_) {

edge.second->ComputeResidual();

edge.second->ComputeJacobians();

auto jacobians = edge.second->Jacobians();

auto verticies = edge.second->Verticies();

assert(jacobians.size() == verticies.size());

for (size_t i = 0; i < verticies.size(); ++i) {

auto v_i = verticies[i];

if (v_i->IsFixed()) continue; // Hessian 里不需要添加它的信息,也就是它的雅克比为 0

auto jacobian_i = jacobians[i];

ulong index_i = v_i->OrderingId();

ulong dim_i = v_i->LocalDimension();

MatXX JtW = jacobian_i.transpose() * edge.second->Information();

for (size_t j = i; j < verticies.size(); ++j) {

auto v_j = verticies[j];

if (v_j->IsFixed()) continue;

auto jacobian_j = jacobians[j];

ulong index_j = v_j->OrderingId();

ulong dim_j = v_j->LocalDimension();

assert(v_j->OrderingId() != -1);

MatXX hessian = JtW * jacobian_j;

// 所有的信息矩阵叠加起来

H.block(index_i, index_j, dim_i, dim_j).noalias() += hessian;

if (j != i) {

// 对称的下三角

H.block(index_j, index_i, dim_j, dim_i).noalias() += hessian.transpose();

}

}

b.segment(index_i, dim_i).noalias() -= JtW * edge.second->Residual();

}

}

Hessian_ = H;

b_ = b;

t_hessian_cost_ += t_h.toc();

delta_x_ = VecX::Zero(size); // initial delta_x = 0_n;

}

3.2 将构建好的H矩阵加上阻尼因子

void Problem::AddLambdatoHessianLM() {

ulong size = Hessian_.cols();

assert(Hessian_.rows() == Hessian_.cols() && “Hessian is not square”);

for (ulong i = 0; i < size; ++i) {

Hessian_(i, i) += currentLambda_;

}

}

3.3 进行求解后,验证该步的解是否合适,代码对应阻尼因子的更新策略

bool Problem::IsGoodStepInLM() {

double scale = 0;

scale = delta_x_.transpose() * (currentLambda_ * delta_x_ + b_);

scale += 1e-3; // make sure it’s non-zero :)

// recompute residuals after update state

// 统计所有的残差

double tempChi = 0.0;

for (auto edge: edges_) {

edge.second->ComputeResidual();

tempChi += edge.second->Chi2();

}

double rho = (currentChi_ – tempChi) / scale;

if (rho > 0 && isfinite(tempChi)) // last step was good, 误差在下降

{

double alpha = 1. – pow((2 * rho – 1), 3);

alpha = std::min(alpha, 2. / 3.);

double scaleFactor = (std::max)(1. / 3., alpha);

currentLambda_ *= scaleFactor;

ni_ = 2;

currentChi_ = tempChi;

return true;

} else {

currentLambda_ *= ni_;

ni_ *= 2;

return false;

}

}

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/186964.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • mysql 环境_MySQL怎么配置环境变量?「建议收藏」

    mysql 环境_MySQL怎么配置环境变量?「建议收藏」安装完MySQL后,如果不配置环境变量的话,每次还要转到mysql/bin目录下才能操作,下面本篇文章就来给大家介绍一下如何配置环境变量,希望对大家有所帮助。MySQL配置环境变量的步骤:1、右键【我的电脑】,选择【属性】2、选择左侧的【高级系统设置】3、在弹出的窗口点击右下角【环境变量】4、点击新建,在弹出窗口变量名输入mysql_home,变量值输入你的mysql安装路径,如图:5、编辑Pat…

    2022年6月18日
    32
  • Gamma校正及其实现

    Gamma校正及其实现图2中左图为原图,中图为gamma = 1/2.2在校正结果,原图中左半侧的灰度值较高,右半侧的灰度值较低,经过gamma = 1/2.2校正后(中图),左侧的对比度降低(见胡须),右侧在对比度提高(明显可以看清面容),同时图像在的整体灰度值提高。右图为gamma = 2.2在校正结果,校正后,左侧的对比度提高(见胡须),右侧在对比度降低(面容更不清楚了),同时图像在的整体灰度值降低。

    2022年6月17日
    21
  • ReLU和BN层简析[通俗易懂]

    ReLU和BN层简析[通俗易懂]卷积神经网络中,若不采用非线性激活,会导致神经网络只能拟合线性可分的数据,因此通常会在卷积操作后,添加非线性激活单元,其中包括logistic-sigmoid、tanh-sigmoid、ReLU等。sigmoid激活函数应用于深度神经网络中,存在一定的局限性,当数据落在左右饱和区间时,会导致导数接近0,在卷积神经网络反向传播中,每层都需要乘上激活函数的导数,由于导数太小,这样经过几次传播后,靠…

    2022年10月9日
    2
  • [软件工程]团队项目–学术家族树之NABC分析

    [软件工程]团队项目–学术家族树之NABC分析

    2021年8月13日
    49
  • 最全java面试题及答案(208道)「建议收藏」

    最全java面试题及答案(208道)「建议收藏」本文分为十九个模块,分别是:「Java基础、容器、多线程、反射、对象拷贝、JavaWeb、异常、网络、设计模式、Spring/SpringMVC、SpringBoot/SpringCloud、Hibernate、MyBatis、RabbitMQ、Kafka、Zookeeper、MySQL、Redis、JVM」,如下图所示:共包含208道面试题,本文的宗旨是为读者朋友们整理一份详实而又权威的面试清单,下面一起进入主题吧。Java基础1.JDK和JRE有什么区别?…

    2022年8月10日
    6
  • python内存回收的问题

    python内存回收的问题

    2021年11月27日
    36

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号