论文 PP-PicoDet: A Better Real-Time Object Detector on Mobile DevicespaddleDetection代码:picodetPP-PicoDet 是百度提出的移动端友好和高精度Anchor-Free 目标检测算法,实测性能非常优越。关于模型的配置与训练的解读可以参考 飞桨 PP-PicoDet 配置与训练 本文将详解 picodet 的
获取深度图后要对目标抓取位姿进行估计,在机器人抓取(六)—— 平面抓取位姿估计( gqcnn代码测试与解读) 中对抓取位姿估计项目 gqcnn 的源码做了详细解读。为方便应用,本文用 FullyConvolutionalGraspingPolicyParallelJaw 模型重写了抓取位姿服务器节点 grasp_planner_node.py。代码如下 #!/usr/bin/env python
基于视觉的机器人抓取方法首先要获取抓取位姿,在机器人抓取(六)—— 平面抓取位姿估计( gqcnn代码测试与解读) 中,我们对抓取位姿估计网络gqcnn做了详细讲解。 在进行抓取位姿估计时,首先要获取一张深度图。我们可以通过 ros 的 topic 机制不断的发送深度图,不过其实我们并不需要实时读取每一帧的图像,只需要在做抓取位姿估计时读取一张深度图即可。本着不浪费计算资源的原则,用 ros Se
论文 PP-PicoDet: A Better Real-Time Object Detector on Mobile DevicespaddleDetection代码:picodetPP-PicoDet 是百度提出的移动端友好和高精度Anchor-Free 目标检测算法,实测性能非常优越。关于模型的配置与训练的解读可以参考https://www.guyuehome.com/36666。 本文将
深度目标检测网络的性能在很大程度上取决于标注数据集的大小。添加更多标注数据会有所帮助,但会增加标注成本。大量未数据中其实包含了很多冗余数据,那么如何只挑选其中有价值的数据进行标注,而达到与标注全量数据相似甚至更好的训练效果呢?这正是主动学习要解决的问题。 Not All Labels Are Equal: Rationalizing The Labeling Costs for Training
参考:https://pytorch.org/tutorials/advanced/super_resolution_with_onnxruntime.htmlhttps://github.com/BBuf/onnx_learn ONNX是微软和Facebook提出用来表示深度学习模型的开放格式。所谓开放就是ONNX定义了一组和环境,平台均无关的标准格式,来增强各种AI模型的可交互性。不同的机器学
论文 PP-PicoDet项目github地址 1. 安装 1.1 conda 安装 paddlepaddle conda create -n paddle python=3.7 # 创建python环境 conda activate paddle # 进入环境 python3 -c "import platform;print(platform.architec
准备工作 1. 准备自己的数据集 Animals_Coco├─annotations├─train2017└─val2017 在annotations 文件夹下包含两个重要的文件instances_train2017.json,instances_val2017.json在train2017和val2017 包含的是训练和验证的图片数据。 2. YOLOX环境搭建 下载 YO
两个开源工作做得比较好的二维平面抓取位姿估计项目:gqcnn, 文档 GR-ConvNet本文测试了 gqcnn。 1. gqcnn 安装与测试 Dex-Net是 Berkeley Auto Lab 维护的一个项目,旨在训练机器人学习抓取。项目主要包含两个部分:Dex-net用于生成数据集,GQ-CNN (Grasp Quality Convolutional Neural Networks)用于
1. 相机的参数 参考:Step1:模型 16个相机参数(内参、外参、畸变参数)摄像机标定(Camera calibration)是从空间点及其对应的像素点,获得相机的位置信息和内部参数信息的过程。 相机外参:从世界坐标坐标系到相机坐标系 相机内参:从相机坐标系到图像坐标系 简要总结:单目相机共有 16 个参数: 10个相机内参(只与相机有关):
硬件:jetson agx xavier,系统 ubuntu 18.04. 1. Azure kinect 简介 Azure Kinect DK 文档github: Azure-Kinect-Sensor-SDKgithub:Azure_Kinect_ROS_Driver 深度相机与 rgb 相机的简要说明 Azure Kinect DK 硬件规格深度相机的视场:Narrow
1. 原理篇 参考:机器人手眼标定的基础理论分析3D视觉之手眼标定胡春旭:“手眼”结合完成物体抓取应用在实际应用中,我们通常需要将相机观察到的外界环境中物体的姿态从相机坐标系转换到机械臂的坐标系中,辅助机械臂规划一些后续动作(如抓取)。为了得到机器人坐标系和相机坐标系的转换矩阵,我们就要对机器人进行手眼标定。手眼标定有两种常见的标定方法。第一种是通过特殊的标定物,第二种是通过机器人运
机械臂为UR5 CB3 。机械手onrobot第二代rg6夹抓。上位机为Jetson AGX Xavier ubuntu 18.04.接上篇:机器人抓取(一)—— ROS MoveIt! 程序控制真实UR5机器人运动(python) 1. Onrobot RG6 机械手 (采坑记录,可跳过) rg2/6 有两种控制模式:Compute Box+urcap 和 teach Mode
moveit! ur5 机器人控制 接上篇:ubuntu18.04 ros-melodic 安装 ur_robot_driver,驱动真实的 ur5 机器人 上文在 ubuntu 系统中配置了ur 机器人ros功能包 universal_robot 和驱动 Universal_Robots_ROS_Driver,并实现了用 moveit_rviz 拖动机器人运动。本文旨在学习如何使
积分
粉丝
勋章
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信