我在以前的博客中提到过,我在工作中大量使用ChatGPT(GPT4-32k)来辅助我,方案设计、函数编写、code review、编写测试案例以及Debug等等,虽然它做不到完全正确,但是作为一个辅助和参考工具,还是非常有用的。这次为OriginBot开发监控功能的时候就想尝试用GPT4来完整地开发这个功能,我以前从来没有让GPT4做过完整的任务,因为它受限于上下文的长度,很难完成大型的任务。这是
这篇博客是 OriginBot家庭助理计划 这个系列的第二篇,详细讲一下怎么样通过OriginBot上的摄像头来起到在家庭中可以移动监控的作用。 这个功能其实还没有完全开发完整,但是代码和步骤已经很多了,决定拆成两篇博客来写。 一、架构 先放一张监控功能整体架构图,配合架构图应该能更好地理解后面的内容。这个里面用来MQTT方案来解决远程数据传输的问题,详细的介绍可以看这篇博客 , 下面的内容都假
地平线的Nodehub前一段时间推出了一个适用于旭日X3派的LLM(大语言模型),叫做harbot_llm。我因为工作上几乎天天使用GPT4,而且最近基于GPT4和LangChain开发知识库聊天机器人,所以对于这个能部署在端侧的LLM非常好奇,就尝试了一下,以下是具体的步骤和过程。 一、安装 1. OriginBot系统安装 目前OriginBot系统有V1和V2两个版本,只有V2才支持har
一、简介 MQTT 是 Message Queuing Telemetry Transport 的缩写,是一种轻量级的、基于发布/订阅模式的物联网通信协议。它具有以下特点: 简单易用:MQTT 的协议规范很简单,易于学习和使用。 可靠性高:MQTT 使用了 TCP 协议进行传输,具有较高的可靠性。 低延迟:MQTT 使用了发布/订阅模式,可以减少消息传递的延迟。 在机器人应用中,MQTT 可以
前言 之前写过几篇基于OriginBot的家庭监控方案的博客,后来搁置了很久。 最近打算重新开启这个计划,但是想了很久发现“家庭监控方案”这个描述没有准确地表述我的想法,所以重新给这个计划想了一个名字,叫做“OriginBot家庭助理”。 关于这个计划,目前还没有非常完善的想法,初步打算把之前开发的监控和语音控制这两个空能迁移过来,并且重写前端,之前的前端是利用一些现有的代码拼接的,比较乱,
最近工作特别忙,导致博客一直没有时间更新。但是作业也不能一直鸽着,刚好最近在做abb机器人的ros开发。不妨就拿x3 model来做上位机,测试一下。本来要测试自己的机械臂的,可是还没来得及组装,等这段时间忙过了,我再出个详细评测自己机械臂的ros开发过程。 接着上次的工作。开发板已经装好官方系统。接下来就是装ros2的环境了。这里要感谢鱼香ROS大佬的一键安装系列工具,简直太好用了。为大佬点赞
ROS2无人车开发(RDK X3 module+Raspberry PICO)--环境配置篇 我之前一直在做ROS1的无人机与无人车开发工作,作为一个强大的机器人操作系统,ROS为我们的机器人开发工作提供了极大的便利,但是ROS 也有一些局限性和缺点。例如,ROS1 不是实时的,这对于某些高性能、高精度的应用来说可能是一个问题。此外,ROS1 的网络通信也存在一定的局限性,这可能影响到大型系统或
0. 前言 Github 仓库链接:Hikvision Camera ROS2 package 0.1 问题背景 上一篇博客](https://www.guyuehome.com/blog/detail/id/12240))介绍了我开源的海康相机 ROS2 功能包,在本地机器上可以实时订阅和发布图像消息,但是在通过局域网进行多机通信的测试时,PC 端收不到边缘端发布的图像消息,不过可以通过
官方其实有一个语音控制功能, 是加装了一个地平线机器人开发平台的智能语音模块实现的。 几个月前OriginBot开发送给我一个语音模块(在此表示感谢),我试过之后感觉还不错,官方也总结了很多优点,我就不再赘述了。 但是我一直想开发一个远程语音控制的功能,利用手机、电脑进行语音识别然后把指令发送给OriginBot,首先这样不受距离限制,不用在小车旁边才能发出指令,再就是语音是要单独买的,据说要
官方其实提供了自动导航方案了,https://www.originbot.org/application/navigation/#4。 但是这个方案里最不好的地方在于需要通过rviz手动指定具体的目标点和姿势才能驱动OriginBot进行导航,也就是手动的自动导航,这个就限制了后续基于这个功能做拓展的可能,因为总不能每次需要导航的时候都手动在rviz上做吧。 所以我就想用代码来实现这一块功能,
0. 前言 上一篇博客中介绍了基于 librviz 多线程可视化点云(进阶) 有时我们保存了单帧或者多帧点云后会调用 PCL 点云库进行一些处理,这篇博客介绍了如何在 QT 中使用 VTK 可视化点云。 效果图如下,直接上 Github 链接:ros2_qt_template 1. 无新的系统环境 PCL-1.13.1,VTK-7.1。 在通过源码编译安装 PCL 的同
0. 前言 上一篇博客: 【基于 QT5 的 ROS2 GUI 开发教程(二)】基于 librviz 可视化点云(附 Livox ROS2 驱动和功能包配置) - 古月居 (guyuehome.com) 在官方给的 Demo 上,我们需要开发自己的人机交互界面,就需要在项目中参考官方的用例,但官方只是授人以鱼,很多地方需要 QT 和 ROS2 这两者的基础和经验才行,这里我再 Debug
0. 前言 关于 ROS1 的 librviz 文档已经很完善了,但 ROS2 下的相关文档目前缺失,但在 ROS2 下开发可视化界面又是一个迫切的需求,好在官方给出了 ROS2 下 librviz 的一个简单范例,在学习的过程中,需要类比 ROS1 下的 librviz,对一些函数和头文件进行替换,迁移也就不那么困难了。 官方的范例是针对目前最新的 ROS2 Rolling 的,头文件和
0. 前言 网上对于 QT5 开发 ROS2 界面的资料几乎没有,我从 Github 上的一个仓库 Fork 了一个,进行了修改,形成一个模板,可以在此模板的基础上进行修改开发自己的 ROS2 GUI 。 Github 链接:ros2_qt_template 1. QT5 和 ROS 插件安装 下载 .run 文件,推荐使用清华源在线安装包,速度很快: 下载链接
你的机器人安全吗? ROS1中的通信数据基本是开放的。只要我们知道机器的IP。然后使用下面的命令在自己的笔记本电脑里声明一下机器人系统中ROS_MASTER ROS_MASTER 的地址。 export ROS_MASTER_URI="http://192.7.8.48:11311" export ROS_MASTER_URI="http://192.7.8.48:11311" 注
0. 前言 对于很多传感器,网上基于 ROS1 的功能包比较多,对于 ROS2 的适配目前很少,但 ROS2 在稳定性、实时性方面具有更大的优势,可以投入实际的工业应用中。 这篇播客介绍了海康相机的 ROS2 功能包,是我在 ROS1 功能包 的基础上进行修改,最后在 Ubuntu20.04 ROS2 Foxy 下测试通过,大家可以直接克隆下来使用。 仓库链接:SEUZTh/hk_camer
大致学习了前面的 micro-ROS 之后,我们就可以开始动手实践了。那么我们现在就使用 micro-ROS 来让我们的小车动起来。其作用就是让我们的小车的控制器——ESP32,能够接入我们的 ROS 机器人系统,方便我们的编程和使用。 移动机器人 硬件设备 使用的移动小车,需要两个电机和一个驱动模块,驱动模块使用的是 L298N,用 PWM 来控制电机转速和方向。 配置文件 那么还是一
四驱四转移动机器人 web移动端显示 在进行四驱四转机器人控制过程中,由于使用手柄进行进行控制,为了更加清晰的观测到摄像头采集的数据,经过查阅资料 ,以及古月居泡泡论坛的提问,本人将使用手机作为移动端,使用手机Web端查看USB摄像头图像,搭配手柄支架,将手机固定的方式。 硬件如下 Xbox手柄一个,手机一个,移动机器人(ros2 foxy版本) 步骤如下: 1、摄像头画面获取 在
上一篇已经讲述了如何创建一个micro-ROS节点,那么之后便是需要使用Topic、Service等进行节点间的通讯。下面将会对Publisher- Subscriber,Server-Client的详细用法进行讲解。 Publisher 若想使用 Publisher 进行通信,那么需要进行初始化 Publisher,之后便可以使用 Publisher 进行消息的发送。使用 Publisher
旭日X3派连接蓝牙与控制小海龟 非常感谢古月居平台推出的高校合作计划,我有幸能够使用旭日X3派进行学习和制作毕业设计。本周使用旭日X3派作为主控芯片,与手柄进行连接,通信,并控制小海龟进行运动。 硬件准备 XBOX one 手柄一个,旭日X3派 (ubuntu20.04 ros2 foxy) 旭日X3派蓝牙开启 开发板蓝牙功能默认没有开启,需要执行 /usr/bin/startb
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信