OriginCar智能机器人
在使用时,我先使用用hobot_codec先把/image转为/image_raw,再用hobot_codec把/image_raw转为/image_raw/compressed,发布为jpeg格式的图像。预期/image_raw/compressed的格式应该是sensor_msgs::msg::CompressedImage,但实际发不出来的是sensor_msgs::msg::Image,使
各位大佬,你们pt转onnx在YOLOv5-2.0条件下可以实现吗,我的总是报错,6.0的可以转成功,但是往bin文件转的时候还是会报错
2024-04-28 14:54:11,845 ERROR load cal data for input 'images' error 2024-04-28 14:54:11,848 ERROR cannot reshape array of size 61898 into shape (1,3,640,480) 训练所采用的数据集格式为640*480,多次更改或赋空值时,仍出现如上错误,求指
小车向右转能转很大,但是向左转只能转很小,有没有办法调节呢
如题,usb_cam启动时设置zero_copy参数为True,使用ros2 topic list可以看到话题列表中有/hbmem_img话题,但使用ros2 topic echo该话题没有任何反馈,启动nodehub中赛道检测节点(使用自己训练的模型),echo /racing_track_center_detection话题也没有任何响应,这是什么原因。
想问一下FoxGlove各面板(包括图像面板、小车信号面板等)订阅的话题名称可以自己更改吗? 界面布局(即各面板的相对位置)是否允许修改呢? 具体来说,图像面板可以订阅我发布的其他话题吗?还是说只能订阅默认的/image话题,不允许修改?
发布的是Int32类型的,接收也是Int32类型的。我使用ros2 topic echo /sign4return 打印也是对的,Foxglove却接收不到,不懂无法序列化的意思。
是否需要重新在小车文件夹中重新下载opencv库
在遥操作的时候每次增加小车速度是0.3m/s的速度增加,能不能修改代码让小车速度0.1m/s速度增加呢
大家巡线都是什么思路?传统视觉识别+PID可行吗?用起来感觉系统的延迟很高,能否优化通信,还是用预测?如何获取电机的编码器值(PWM)?
各位佬,给STM32供电以后你们X3派直接亮吗....我这边STM32无法给X3派供电....排除串口和线的问题了...
为什么我用usb摄像头,先运行ros2 launch hobot_usb_cam hobot_usb_cam.launch.py usb_video_device:=/dev/video8;然后再另起终端输入ros2 run racing_image_collect racing_image_collect --ros-agrs -p sub_image_topic:=image_raw怎么不运行
按照originbot给出的教程 视觉巡线(AI深度学习) - OriginBot智能机器人开源套件 我先运行hobot_usb_cam以mjpeg-compressed的格式打开摄像头后,用hobot_codec进行解编码,使其格式转为nv12,并且发出数据的传输方式为shared_mem,可是当我运行ros2 run line_follower_perception line_followe
右后轮的电机编码器好像坏掉了,左轮松开按键正常停止(速度环正常),但右轮根本停不下来。我尝试交换了左右电机线,仍然是右后轮在键盘松开后不减速,左后轮正常停止,所以排除了软件问题。如下面视频所演示的。https://v.douyin.com/iYsvVVqb/ 请问是否电机真的坏了呢,如果真坏了该买什么型号的编码器电机来替换呢?我真的真的卡住了,我需要帮助。
按照指南windows端命令⾏运⾏ 确保 bridge_client.py 同级⽬录有 map.png 图⽚ 终端进⼊ src ⽬录 输⼊命令 python bridge_client.py 打不开端口按群里介绍可能rosbridge 端口没开,按照下面命令行下载rosbridge 报错,不知道为什么,求告知!!!
ros2 launch racing_obstacle_detection_yolo racing_obstacle_detection_yolo.launch.py在运行nodehub上给出的项目时,报下面的错误,但是在文件中找不到multi_model_task_delegation.cpp文件
在查阅originbot代码时,发现深度学习功能包中/src/line_follower_perception.cpp第154行定义了PostProcess函数。这个函数根据模型输出的x,y坐标,发布小车速度的控制话题,一定是在哪个地方被调用了。但查阅整个line_follower_perception.cpp,没有发现调用该函数的地方,请问这个是在dnn包中被调用的吗?但函数名称是LineFol
已经下载了对应的天工开物的文件,按照下面的教程: 在命令行输入后出现错误:也不知道这个是不是错误。
通过将yolov5s.pt转化为onnx格式,后面再利用地平线的工具就可以转化为可以被BPU加速的.bin模型 我按照这个教程https://blog.csdn.net/Johnor/article/details/136018664?spm=1001.2014.3001.5506做了一遍 后续也得到了需要的.bin模型,但是后面跑检测代码的时候跑不了。 上图是教程里的模型的输出信息 错误原因
FoxGlove的“上位机信号”板块订阅的是"sign_foxglove"这个话题。我们在小车上往sign_foxglove发送消息后,FoxGlove中的“上位机信号”板块无法接收到对应的信息,这可能是什么问题? 如图,我们在小车上已经能正常echo出sign_foxglove话题中发送的data为1,但是上位机FoxGlove里接收到的sign_foxglove 仍为0的状态。 (追加描述:
我想问一下,foxglove的bridge_client.py里latch这个参数的含义和作用是什么呢? 另:比赛允许自己更改FoxGlove的相关代码(例如bridge_client.py)吗?
请问任务一小车发车操作是要在上位机bridge文件里面写新的话题吗?是不是不太需要改32的代码部分呢?
启动foxglove后就不知道如何识别二维码了
完成巡线以后结束任务1,按上位机相应的遥测按钮如何实现代码的衔接,按下图标的同时巡线以及避障代码开启,结束遥测返回时点击图标如何实现巡线避障代码的开启
安装好了串口驱动,能在mobaxterm里识别到串行端口,按照教程设置了波特率和流控制。 点击OK之后打开了小车开关,但是mobax界面没有输出,而且串口模块显示变为红灯。 尝试过关闭开关重启小车,重新烧录控制板,烧录系统镜像,检查连线,都没法解决问题。
小车实际前进的距离和foxglove里地图里小车前进的距离不匹配应该怎么解决?比如物理环境中小车行驶到了P点,但是数字环境里往往与P点的位置偏离很远,并且这个误差感觉会越来越大。origincar小车的里程计已经校准。请赐教!
加入者
泡泡
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信