0. 简介

对于最近出来的Point-LIO(鲁棒高带宽激光惯性里程计),本人还是非常该兴趣的,为此花了一些时间重点分析了Point-LIO的代码,并研究了它相较于Fast-LIO2的区别

1. laserMapping.cpp

第一部分就是实现对激光雷达视场角的图像分割。首先定义了一个BoxPointType类型的局部地图(LocalMap_Points)和一个bool类型的变量(Localmap_Initialized),表示是否已经初始化局部地图。然后,在lasermap_fov_segment()函数中,根据激光雷达的姿态计算出激光雷达的位置(pos_LiD),并根据移动阈值(MOV_THRESHOLD)判断是否需要移动局部地图。如果需要移动,则计算新的局部地图边界(New_LocalMap_Points),并将需要移除的框添加到cub_needrm中。最后,根据cub_needrm中的框删除点云,完成图像分割。

BoxPointType LocalMap_Points;
bool Localmap_Initialized = false;
void lasermap_fov_segment() //针对激光雷达视场角来完成图像分割
{
  cub_needrm.shrink_to_fit(); //将容量设置为容器的长度

  V3D pos_LiD;
  if (use_imu_as_input) {
    pos_LiD =
        kf_input.x_.pos + kf_input.x_.rot.normalized() *
                              Lidar_T_wrt_IMU; //计算激光雷达在当前位姿下的位置
  } else {
    pos_LiD =
        kf_output.x_.pos + kf_output.x_.rot.normalized() * Lidar_T_wrt_IMU;
  }
  if (!Localmap_Initialized) { //判断是否需要初始化局部地图
    //将局部地图的边界设置为当前位置的正方形区域,并将Localmap_Initialized设置为true
    for (int i = 0; i < 3; i++) {
      LocalMap_Points.vertex_min[i] = pos_LiD(i) - cube_len / 2.0;
      LocalMap_Points.vertex_max[i] = pos_LiD(i) + cube_len / 2.0;
    }
    Localmap_Initialized = true;
    return;
  }
  float dist_to_map_edge[3][2];
  bool need_move = false;
  //如果不需要初始化,则计算激光雷达当前位姿与局部地图边界的距离,并根据移动阈值判断是否需要移动局部地图
  for (int i = 0; i < 3; i++) {
    dist_to_map_edge[i][0] = fabs(pos_LiD(i) - LocalMap_Points.vertex_min[i]);
    dist_to_map_edge[i][1] = fabs(pos_LiD(i) - LocalMap_Points.vertex_max[i]);
    if (dist_to_map_edge[i][0] <= MOV_THRESHOLD * DET_RANGE ||
        dist_to_map_edge[i][1] <= MOV_THRESHOLD * DET_RANGE)
      need_move = true;
  }
  //如果需要移动,则计算新的局部地图边界
  if (!need_move)
    return;
  BoxPointType New_LocalMap_Points, tmp_boxpoints;
  New_LocalMap_Points = LocalMap_Points;
  float mov_dist = max((cube_len - 2.0 * MOV_THRESHOLD * DET_RANGE) * 0.5 * 0.9,
                       double(DET_RANGE * (MOV_THRESHOLD - 1)));
  for (int i = 0; i < 3; i++) {
    tmp_boxpoints = LocalMap_Points;
    if (dist_to_map_edge[i][0] <= MOV_THRESHOLD * DET_RANGE) {
      New_LocalMap_Points.vertex_max[i] -= mov_dist;
      New_LocalMap_Points.vertex_min[i] -= mov_dist;
      tmp_boxpoints.vertex_min[i] = LocalMap_Points.vertex_max[i] - mov_dist;
      cub_needrm.emplace_back(tmp_boxpoints); //将需要移除的框添加到cub_needrm中
    } else if (dist_to_map_edge[i][1] <= MOV_THRESHOLD * DET_RANGE) {
      New_LocalMap_Points.vertex_max[i] += mov_dist;
      New_LocalMap_Points.vertex_min[i] += mov_dist;
      tmp_boxpoints.vertex_max[i] = LocalMap_Points.vertex_min[i] + mov_dist;
      cub_needrm.emplace_back(tmp_boxpoints);
    }
  }
  LocalMap_Points = New_LocalMap_Points;

  points_cache_collect();
  if (cub_needrm.size() > 0)
    int kdtree_delete_counter = ikdtree.Delete_Point_Boxes(
        cub_needrm); //收集点云缓存,并根据cub_needrm中的框删除点云,返回删除的框数量。
}

下面我们来看看怎么使用这个函数的,下面的代码主要实现了以下的操作:

1.对激光雷达采集到的点云进行空间下采样和时间压缩;

2.初始化地图kd-tree;

3.使用迭代最近点算法(ICP)和卡尔曼滤波更新地图。其中,ICP主要用于点云配准,卡尔曼滤波则用于对机器人位姿进行估计和更新。

lasermap_fov_segment();
      /*** downsample the feature points in a scan ***/
      t1 = omp_get_wtime();
      if (space_down_sample) { //空间下采样
        downSizeFilterSurf.setInputCloud(feats_undistort);
        downSizeFilterSurf.filter(*feats_down_body);
        sort(feats_down_body->points.begin(), feats_down_body->points.end(),
             time_list); //按时间排序
      } else {
        feats_down_body = Measures.lidar;
        sort(feats_down_body->points.begin(), feats_down_body->points.end(),
             time_list);
      }
      time_seq = time_compressing<int>(feats_down_body); //时间压缩
      feats_down_size = feats_down_body->points.size();  //点云数量

      /*** initialize the map kdtree ***/
      if (!init_map) {
        if (ikdtree.Root_Node == nullptr) //
        // if(feats_down_size > 5)
        {
          ikdtree.set_downsample_param(filter_size_map_min); //设置滤波参数
        }

        feats_down_world->resize(feats_down_size); //初始化点云
        for (int i = 0; i < feats_down_size; i++) {
          pointBodyToWorld(&(feats_down_body->points[i]),
                           &(feats_down_world->points[i])); //转换到世界坐标系
        }
        for (size_t i = 0; i < feats_down_world->size(); i++) {
          init_feats_world->points.emplace_back(
              feats_down_world
                  ->points[i]); //将转换到世界坐标西的点云加入到init_feats_world
        }
        if (init_feats_world->size() < init_map_size) //等待构建地图
          continue;
        ikdtree.Build(init_feats_world->points); //构建地图
        init_map = true;
        publish_init_kdtree(pubLaserCloudMap); //(pubLaserCloudFullRes);
        continue;
      }
      /*** ICP and Kalman filter update ***/
      normvec->resize(feats_down_size);
      feats_down_world->resize(feats_down_size);

      Nearest_Points.resize(feats_down_size);

      t2 = omp_get_wtime(); //初始化t2为当前时间

      /*** iterated state estimation ***/
      crossmat_list.reserve(feats_down_size);
      pbody_list.reserve(feats_down_size);
      // pbody_ext_list.reserve(feats_down_size);

      //对于每个点,将其坐标转换为V3D类型的point_this
      for (size_t i = 0; i < feats_down_body->size(); i++) {
        V3D point_this(feats_down_body->points[i].x,
                       feats_down_body->points[i].y,
                       feats_down_body->points[i].z);
        pbody_list[i] = point_this;
        //如果使用外参估计
        if (extrinsic_est_en) {
          if (!use_imu_as_input) {
            //对于每个点,使用卡尔曼滤波估计出的外参对其进行坐标变换
            point_this = kf_output.x_.offset_R_L_I.normalized() * point_this +
                         kf_output.x_.offset_T_L_I;
          } else {
            point_this = kf_input.x_.offset_R_L_I.normalized() * point_this +
                         kf_input.x_.offset_T_L_I;
          }
        } else {
          // 使用Lidar_R_wrt_IMU和Lidar_T_wrt_IMU对其进行变换
          point_this = Lidar_R_wrt_IMU * point_this + Lidar_T_wrt_IMU;
        }
        M3D point_crossmat;
        point_crossmat << SKEW_SYM_MATRX(point_this); //根据当前点生成矩阵
        crossmat_list[i] = point_crossmat;
      }

      if (!use_imu_as_input) {
        bool imu_upda_cov = false; //是否需要更新imu的协方差
        effct_feat_num = 0;
        /**** point by point update ****/

        double pcl_beg_time =
            Measures
                .lidar_beg_time; //首先设置pcl_beg_time为Measures.lidar_beg_time,idx为-1
        idx = -1;
        for (k = 0; k < time_seq.size(); k++) {
          PointType &point_body = feats_down_body->points[idx + time_seq[k]];

          time_current =
              point_body.curvature / 1000.0 +
              pcl_beg_time; //找到对应的点并计算出当前时间time_current

          if (is_first_frame) {
            if (imu_en) { //如果是第一帧,且启用了IMU,那么需要找到最近的IMU数据
              while (time_current > imu_next.header.stamp.toSec()) {
                imu_last = imu_next;
                imu_next = *(imu_deque.front());
                imu_deque.pop_front();
                // imu_deque.pop();
              }
              //计算出对应的角速度和加速度
              angvel_avr << imu_last.angular_velocity.x,
                  imu_last.angular_velocity.y, imu_last.angular_velocity.z;
              acc_avr << imu_last.linear_acceleration.x,
                  imu_last.linear_acceleration.y,
                  imu_last.linear_acceleration.z;
            }
            is_first_frame = false;
            imu_upda_cov = true;
            time_update_last = time_current;
            time_predict_last_const = time_current;
          }
          if (imu_en) {
            bool imu_comes = time_current > imu_next.header.stamp.toSec();
            // 如果启用了IMU,那么需要在当前时间之前的IMU数据都进行卡尔曼滤波更新
            while (imu_comes) {
              imu_upda_cov = true;
              //将IMU数据中的角速度和线性加速度分别存储到angvel_avr和acc_avr中
              angvel_avr << imu_next.angular_velocity.x,
                  imu_next.angular_velocity.y, imu_next.angular_velocity.z;
              acc_avr << imu_next.linear_acceleration.x,
                  imu_next.linear_acceleration.y,
                  imu_next.linear_acceleration.z;

              /*** 对协方差进行更新 ***/
              imu_last = imu_next; //将当前IMU数据存储为imu_last
              imu_next = *(imu_deque.front()); //将下一个IMU数据存储为imu_next
              imu_deque.pop_front();
              double dt = imu_last.header.stamp.toSec() -
                          time_predict_last_const; //接着计算时间差dt
              kf_output.predict(dt, Q_output, input_in, true,
                                false); //通过kf_output.predict函数进行预测
              time_predict_last_const =
                  imu_last.header.stamp.toSec(); // big problem
              imu_comes = time_current > imu_next.header.stamp.toSec();
              // if (!imu_comes)
              {
                double dt_cov = imu_last.header.stamp.toSec() -
                                time_update_last; //就计算时间差dt_cov

                if (dt_cov > 0.0) {
                  time_update_last = imu_last.header.stamp.toSec();
                  double propag_imu_start = omp_get_wtime();

                  kf_output.predict(dt_cov, Q_output, input_in, false,
                                    true); //行卡尔曼滤波预测

                  propag_time += omp_get_wtime() - propag_imu_start;
                  double solve_imu_start = omp_get_wtime();
                  kf_output.update_iterated_dyn_share_IMU(); //进行eskf迭代更新
                  solve_time += omp_get_wtime() - solve_imu_start;
                }
              }
            }
          }

          double dt = time_current - time_predict_last_const;
          double propag_state_start = omp_get_wtime();
          if (!prop_at_freq_of_imu) {
            double dt_cov = time_current - time_update_last;
            if (dt_cov > 0.0) {
              kf_output.predict(dt_cov, Q_output, input_in, false, true);
              time_update_last = time_current;
            }
          }
          kf_output.predict(dt, Q_output, input_in, true, false);
          propag_time += omp_get_wtime() - propag_state_start;
          time_predict_last_const = time_current;
          // if(k == 0)
          // {
          //     fout_imu_pbp << Measures.lidar_last_time - first_lidar_time <<
          //     " " << imu_last.angular_velocity.x << " " <<
          //     imu_last.angular_velocity.y << " " <<
          //     imu_last.angular_velocity.z \
                    //             << " " << imu_last.linear_acceleration.x << " " <<
          //             imu_last.linear_acceleration.y << " " <<
          //             imu_last.linear_acceleration.z << endl;
          // }

          double t_update_start = omp_get_wtime();

          if (feats_down_size < 1) {
            ROS_WARN("No point, skip this scan!\n");
            idx += time_seq[k];
            continue;
          }
          if (!kf_output.update_iterated_dyn_share_modified()) {
            idx = idx + time_seq[k];
            continue;
          }

          if (prop_at_freq_of_imu) {
            double dt_cov = time_current - time_update_last;
            if (!imu_en &&
                (dt_cov >=
                 imu_time_inte)) // //需要在当前时间之前的时间间隔大于imu_time_inte时进行卡尔曼滤波协方差更新
            {
              double propag_cov_start = omp_get_wtime();
              kf_output.predict(
                  dt_cov, Q_output, input_in, false,
                  true); //对于每个时间片中的点,进行卡尔曼滤波更新,并将点转换到世界坐标系中
              imu_upda_cov = false;
              time_update_last = time_current;
              propag_time += omp_get_wtime() - propag_cov_start;
            }
          }

          solve_start = omp_get_wtime();

2. Estimator.cpp

除此以外,其他的内容差不多,比较具有区别性的还有就是在Estimator.cpp里面加入了单点激光优化的操作部分

esekfom::esekf<state_input, 24, input_ikfom>
    kf_input; // EKF的输入,针对IMU优化
esekfom::esekf<state_output, 30, input_ikfom>
    kf_output; // EKF的输出,针对单点激光雷达

该代码定义了一个函数process_noise_cov_output(),用于生成一个30x30的矩阵cov,表示系统的噪声协方差矩阵。以及获得输入的f矩阵值

Eigen::Matrix<double, 30, 30> process_noise_cov_output() {
  Eigen::Matrix<double, 30, 30> cov;
  cov.setZero(); //创建一个30x30的矩阵cov,并将其所有元素初始化为0
  cov.block<3, 3>(12, 12).diagonal() << vel_cov, vel_cov,
      vel_cov; //从(12,12)开始的一个3x3的块,表示速度的协方差
  cov.block<3, 3>(15, 15).diagonal() << gyr_cov_output, gyr_cov_output,
      gyr_cov_output; //表示角速度的噪声协方差
  cov.block<3, 3>(18, 18).diagonal() << acc_cov_output, acc_cov_output,
      acc_cov_output; //表示加速度计的噪声协方差
  cov.block<3, 3>(24, 24).diagonal() << b_gyr_cov, b_gyr_cov,
      b_gyr_cov; // bg的噪声协方差
  cov.block<3, 3>(27, 27).diagonal() << b_acc_cov, b_acc_cov,
      b_acc_cov; // ba的噪声协方差
  // MTK::get_cov<process_noise_output>::type cov =
  // MTK::get_cov<process_noise_output>::type::Zero();
  // MTK::setDiagonal<process_noise_output, vect3, 0>(cov,
  // &process_noise_output::vel, vel_cov);// 0.03
  // MTK::setDiagonal<process_noise_output, vect3, 3>(cov,
  // &process_noise_output::ng, gyr_cov_output); // *dt 0.01 0.01 * dt * dt 0.05
  // MTK::setDiagonal<process_noise_output, vect3, 6>(cov,
  // &process_noise_output::na, acc_cov_output); // *dt 0.00001 0.00001 * dt *dt
  // 0.3 //0.001 0.0001 0.01 MTK::setDiagonal<process_noise_output, vect3,
  // 9>(cov, &process_noise_output::nbg, b_gyr_cov);   //0.001 0.05 0.0001/out
  // 0.01 MTK::setDiagonal<process_noise_output, vect3, 12>(cov,
  // &process_noise_output::nba, b_acc_cov);   //0.001 0.05 0.0001/out 0.01
  return cov;
}

//这段代码的作用是将输入的IMU数据转化为状态转移方程中的输入向量f。其中状态向量s包含了位置、速度、姿态、陀螺仪bias和加速度计bias等信息,in包含了IMU测量得到的角速度和线性加速度数据。
Eigen::Matrix<double, 24, 1> get_f_input(state_input &s,
                                         const input_ikfom &in) {
  Eigen::Matrix<double, 24, 1> res = Eigen::Matrix<double, 24, 1>::Zero();
  vect3 omega;
  in.gyro.boxminus(
      omega,
      s.bg); //通过in.gyro.boxminus函数将in.gyro和s.bg进行运算,得到角速度向量omega
  vect3 a_inertial =
      s.rot.normalized() *
      (in.acc -
       s.ba); //计算惯性系下的加速度向量a_inertial,首先通过s.rot.normalized()将s.rot单位化,再通过乘法得到加速度向量,最后减去s.ba得到相对于惯性系的加速度。
  for (int i = 0; i < 3; i++) {
    res(i) = s.vel[i];
    res(i + 3) = omega[i];
    res(i + 12) = a_inertial[i] + s.gravity[i];
  }
  return res;
}
//这段代码的作用是将输入的单点激光数据转化为状态转移方程中的输入向量f。其中状态向量s包含了位置、速度、姿态、陀螺仪bias和加速度计bias等信息,in包含了IMU测量得到的角速度和线性加速度数据,没用到
Eigen::Matrix<double, 30, 1> get_f_output(state_output &s,
                                          const input_ikfom &in) {
  Eigen::Matrix<double, 30, 1> res = Eigen::Matrix<double, 30, 1>::Zero();
  vect3 a_inertial =
      s.rot.normalized() *
      s.acc; //计算惯性系下的加速度向量a_inertial,首先通过s.rot.normalized()将s.rot单位化,再通过乘法得到加速度向量。
  for (int i = 0; i < 3; i++) {
    res(i) = s.vel[i];
    res(i + 3) = s.omg[i];
    res(i + 12) = a_inertial[i] + s.gravity[i];
  }
  return res;
}

这部分对应了原文的4.2和5.2的部分。该函数用于计算当前时刻下所有满足匹配条件的特征点的观测值和雅可比矩阵,并将其保存到ekfom_data中。主要流程如下:

  1. 遍历当前时刻下所有的特征点,依次计算每个特征点的法向量和对应的观测值。
  2. 对于每个特征点,首先将其从机体系转换到世界系,并计算其在世界系下的位置和在机体系下的位置。
  3. 通过ikdtree.Nearest_Search函数在地图点云中搜索与当前特征点最近的NUM_MATCH_POINTS个点,并计算它们之间的平面方程pabcd。
  4. 如果搜索到的点数量小于NUM_MATCH_POINTS或者最远点距离大于5,则认为该特征点不在地图中,将point_selected_surf[idx+j+1]标记为false。
  5. 如果搜索到的点数量大于等于NUM_MATCH_POINTS且最远点距离小于等于5,则认为该特征点在地图中,计算其与地图平面的距离pd2。
  6. 判断其是否满足匹配条件(即p_body.norm() > match_s _ pd2 _ pd2),如果满足,则将point_selected_surf[idx+j+1]标记为true,并将该特征点的法向量normvec->points[j]保存到normvec中。
  7. 如果当前时刻下没有满足匹配条件的特征点,则将ekfom_data.valid设为false,并直接返回。
  8. 否则,对于每个满足匹配条件的特征点,计算其对应的观测值z和雅可比矩阵H。
  9. 将所有满足匹配条件的特征点的观测值z和雅可比矩阵H保存到ekfom_data中。
  10. 最后将effect_num_k加到effct_feat_num中,表示当前时刻下满足匹配条件的特征点的数量。
void h_model_output(state_output &s,
                    esekfom::dyn_share_modified<double> &ekfom_data) {
  bool match_in_map = false;
  VF(4) pabcd;
  pabcd.setZero(); //定义一个4维向量pabcd,将其所有元素初始化为0

  normvec->resize(time_seq[k]); //用于存储当前时刻下所有特征点的法向量
  int effect_num_k = 0;
  //遍历当前时刻下所有的特征点,依次计算每个特征点的法向量和对应的观测值
  for (int j = 0; j < time_seq[k]; j++) {
    //对于每个特征点,首先将其从机体系转换到世界系,并计算其在世界系下的位置p_world和在机体系下的位置p_body。
    PointType &point_body_j = feats_down_body->points[idx + j + 1];
    PointType &point_world_j = feats_down_world->points[idx + j + 1];
    pointBodyToWorld(&point_body_j, &point_world_j);
    V3D p_body = pbody_list[idx + j + 1];
    V3D p_world;
    p_world << point_world_j.x, point_world_j.y, point_world_j.z;
    {
      auto &points_near = Nearest_Points[idx + j + 1];
      //通过ikdtree.Nearest_Search函数在地图点云中搜索与当前特征点最近的NUM_MATCH_POINTS个点,并计算它们之间的平面方程pabcd。
      ikdtree.Nearest_Search(point_world_j, NUM_MATCH_POINTS, points_near,
                             pointSearchSqDis, 2.236);
      //如果搜索到的点数量小于NUM_MATCH_POINTS或者最远点距离大于5,则认为该特征点不在地图中,将point_selected_surf[idx
      //+ j + 1]标记为false
      if ((points_near.size() < NUM_MATCH_POINTS) ||
          pointSearchSqDis[NUM_MATCH_POINTS - 1] > 5) {
        point_selected_surf[idx + j + 1] = false;
      } else {
        //如果搜索到的点数量大于等于NUM_MATCH_POINTS且最远点距离小于等于5,则认为该特征点在地图中,计算其与地图平面的距离pd2
        point_selected_surf[idx + j + 1] = false;
        if (esti_plane(pabcd, points_near, plane_thr)) //(planeValid)
        {
          float pd2 = pabcd(0) * point_world_j.x + pabcd(1) * point_world_j.y +
                      pabcd(2) * point_world_j.z + pabcd(3);
          //判断其是否满足匹配条件(即p_body.norm() > match_s * pd2 *
          // pd2),如果满足,则将point_selected_surf[idx + j +
          // 1]标记为true,并将该特征点的法向量normvec->points[j]保存到normvec中。
          if (p_body.norm() > match_s * pd2 * pd2) {
            // point_selected_surf[i] = true;
            point_selected_surf[idx + j + 1] = true;
            normvec->points[j].x = pabcd(0);
            normvec->points[j].y = pabcd(1);
            normvec->points[j].z = pabcd(2);
            normvec->points[j].intensity = pabcd(3);
            effect_num_k++;
          }
        }
      }
    }
  }
  //如果当前时刻下没有满足匹配条件的特征点,则将ekfom_data.valid设为false,并直接返回。
  if (effect_num_k == 0) {
    ekfom_data.valid = false;
    return;
  }
  //否则,对于每个满足匹配条件的特征点,计算其对应的观测值z和雅可比矩阵H
  ekfom_data.M_Noise = laser_point_cov;
  ekfom_data.h_x = Eigen::MatrixXd::Zero(effect_num_k, 12);
  ekfom_data.z.resize(effect_num_k);
  int m = 0;
  for (int j = 0; j < time_seq[k]; j++) {
    if (point_selected_surf[idx + j + 1]) {
      V3D norm_vec(normvec->points[j].x, normvec->points[j].y,
                   normvec->points[j].z);
      //如果开启了外参估计(extrinsic_est_en为true),则需要先计算特征点在IMU系下的位置,然后计算C、A、B三个矩阵,并将它们放入雅可比矩阵H中。
      if (extrinsic_est_en) {
        V3D p_body = pbody_list[idx + j + 1];
        M3D p_crossmat, p_imu_crossmat;
        p_crossmat << SKEW_SYM_MATRX(p_body);
        V3D point_imu = s.offset_R_L_I.normalized() * p_body + s.offset_T_L_I;
        p_imu_crossmat << SKEW_SYM_MATRX(point_imu);
        V3D C(s.rot.conjugate().normalized() * norm_vec);
        V3D A(p_imu_crossmat * C);
        V3D B(p_crossmat * s.offset_R_L_I.conjugate().normalized() * C);
        ekfom_data.h_x.block<1, 12>(m, 0) << norm_vec(0), norm_vec(1),
            norm_vec(2), VEC_FROM_ARRAY(A), VEC_FROM_ARRAY(B),
            VEC_FROM_ARRAY(C);
      } else {
        //如果没有开启外参估计,则只需要计算C、A两个矩阵,并将它们放入雅可比矩阵H中。
        M3D point_crossmat = crossmat_list[idx + j + 1];
        V3D C(s.rot.conjugate().normalized() * norm_vec);
        V3D A(point_crossmat * C);
        // V3D A(point_crossmat * state.rot_end.transpose() * norm_vec);
        ekfom_data.h_x.block<1, 12>(m, 0) << norm_vec(0), norm_vec(1),
            norm_vec(2), VEC_FROM_ARRAY(A), 0.0, 0.0, 0.0, 0.0, 0.0, 0.0;
      }
      //将所有满足匹配条件的特征点的观测值z和雅可比矩阵H保存到ekfom_data中。
      ekfom_data.z(m) = -norm_vec(0) * feats_down_world->points[idx + j + 1].x -
                        norm_vec(1) * feats_down_world->points[idx + j + 1].y -
                        norm_vec(2) * feats_down_world->points[idx + j + 1].z -
                        normvec->points[j].intensity;
      m++;
    }
  }
  //最后将effect_num_k加到effct_feat_num中,表示当前时刻下满足匹配条件的特征点的数量
  effct_feat_num += effect_num_k;
}

3. esekfom.hpp

最后一步让我们来看一下esekfom.hpp中优化部分的操作,这部分对应了原文5.3的内容

bool update_iterated_dyn_share_modified() {
    dyn_share_modified<scalar_type> dyn_share; //定义一个动态共享变量
    state x_propagated = x_; //用当前状态变量初始化一个新的状态变量
    int dof_Measurement; //定义一个整数变量,用于存储测量维度
    double m_noise;      //用于存储测量噪声的方差
    for (int i = 0; i < maximum_iter; i++) {
      dyn_share.valid = true;
      h_dyn_share_modified_1(x_, dyn_share);//不带IMU的优化
      if (!dyn_share.valid) {
        return false;
        // continue;
      }
      Matrix<scalar_type, Eigen::Dynamic, Eigen::Dynamic> z =
          dyn_share.z; //从动态共享变量中获取测量值
      // Matrix<scalar_type, Eigen::Dynamic, Eigen::Dynamic> R = dyn_share.R;
      Matrix<scalar_type, Eigen::Dynamic, Eigen::Dynamic> h_x =
          dyn_share.h_x; //从动态共享变量中获取测量H
      // Matrix<scalar_type, Eigen::Dynamic, Eigen::Dynamic> h_v =
      // dyn_share.h_v;
      dof_Measurement = h_x.rows(); //获取测量函数的行数,即测量维度
      m_noise = dyn_share.M_Noise; //获取测量噪声的方差
      // dof_Measurement_noise = dyn_share.R.rows();
      // vectorized_state dx, dx_new;
      // x_.boxminus(dx, x_propagated);
      // dx_new = dx;
      // P_ = P_propagated;

      Matrix<scalar_type, n, Eigen::Dynamic>
          PHT; //用于存储协方差矩阵和测量函数的乘积
      Matrix<scalar_type, Eigen::Dynamic, Eigen::Dynamic>
          HPHT; //用于存储测量函数和协方差矩阵的乘积
      Matrix<scalar_type, n, Eigen::Dynamic> K_; //存储卡尔曼增益
      // if(n > dof_Measurement)
      {
        PHT =
            P_.template block<n, 12>(0, 0) *
            h_x.transpose(); //将协方差矩阵的前12行和测量函数的转置相乘,得到一个n\timesn测量维度的矩阵。
        HPHT =
            h_x *
            PHT.topRows(
                12); //将测量函数和协方差矩阵的前12列相乘,得到一个测量维度×\times×测量维度的矩阵
        for (int m = 0; m < dof_Measurement; m++) {
          HPHT(m, m) += m_noise; //将测量噪声的方差加到矩阵的对角线上
        }
        K_ = PHT * HPHT.inverse(); //计算卡尔曼增益
      }
      Matrix<scalar_type, n, 1> dx_ = K_ * z; //计算状态变量的更新量

      x_.boxplus(dx_); //将状态变量和更新量相加,得到更新后的状态变量
      dyn_share.converge = true;
      {
        P_ = P_ - K_ * h_x * P_.template block<12, n>(0, 0); //更新协方差矩阵
      }
      return true;
    }

下面这部分和上面类似,这里着重就是走EKF的流程,只是作者这边简化了公式

    void update_iterated_dyn_share_IMU() {
      dyn_share_modified<scalar_type> dyn_share;
      for (int i = 0; i < maximum_iter; i++) {
        dyn_share.valid = true;
        h_dyn_share_modified_2(
            x_,
            dyn_share); //调用函数h_dyn_share_modified_2(),这个是带IMU的优化

        Matrix<scalar_type, 6, 1> z =
            dyn_share
                .z_IMU; //将状态向量x_和dyn_share作为参数传入,计算出一个包含IMU测量值的向量z。

        Matrix<double, 30, 6> PHT;
        Matrix<double, 6, 30> HP;
        Matrix<double, 6, 6> HPHT;
        PHT.setZero();
        HP.setZero();
        HPHT.setZero();
        //将P_中的第15到20列和第24到29列分别与PHT和HP中的第0到5行相加
        for (int l_ = 0; l_ < 6; l_++) {
          if (!dyn_share.satu_check[l_]) {
            PHT.col(l_) =
                P_.col(15 + l_) + P_.col(24 + l_); // P和H相乘的简化表示
            HP.row(l_) = P_.row(15 + l_) + P_.row(24 + l_);
          }
        }
        //将HP的第15到20列和第24到29列分别与HPHT的第0到5行相加,如果dyn_share.satu_check[l_]为false。
        //同时,将dyn_share.R_IMU的第l_行(l_从0到5)加到HPHT的第l_行和第l_列上。
        for (int l_ = 0; l_ < 6; l_++) {
          if (!dyn_share.satu_check[l_]) {
            HPHT.col(l_) =
                HP.col(15 + l_) + HP.col(24 + l_); //根据HP算出的HPHT的值
          }
          HPHT(l_, l_) += dyn_share.R_IMU(l_); //加了R后的值
        }
        Eigen::Matrix<double, 30, 6> K = PHT * HPHT.inverse();

        Matrix<scalar_type, n, 1> dx_ = K * z;

        P_ -= K * HP;
        x_.boxplus(dx_);
      }
      return;
    }