将Jetson用于生产环境之前的配置
为什么要进行这些配置? 当将Jetson作为生产环境使用时(对于我来说是参加竞赛),默认的许多设置都并不太合适,例如默认的休眠设置、软件更新弹窗等等……因此需要进行调整。 系统设置 性能模式 如果你使用默认的GNOME桌面环境,那么在右上角英伟达小Logo处的快捷栏就可以更改。 如果更换了桌面或使用
NVIDIA Jetson Xavier NX通过源码编译安装ROS2 Humble(Ubuntu20.04)
为什么使用源码编译安装? 因为ROS2 Humble官方支持的Tier1 Ubuntu版本为22.04,20.04(Tier3)只能通过编译安装。 并且,ROS2 Foxy已经在2023年停止支持,Humble是主流的LTS(长期支持)版本。 或许你可能会问:为什么不用Docker? 那必然是纯物理
NVIDIA Jetson运行PyQt6出现qt.glx错误的解决办法
问题 设备:NVIDIA Jetson Xavier NX Developer Kit 8GB 系统:Ubuntu 20.04 / JetPack 5.1.3 / L4T 35.5.0 环境:Python 3.8(Default) / PyQt6.7.1 / PyQt6-Qt6 6.7.2 由于最近
边缘计算
未读
通过VSCode SSH远程连接Ubuntu搭建PlatformIO开发环境(NVIDIA Jetson)
写在前面 本教程基于NVIDIA Jetson Xavier NX (JetPack 5.1.3/Ubuntu 20.04)撰写,其他Ubuntu系统设备也同样适用此教程。 如果是本地搭建,没有远程开发的需求,请直接跳转到#配置VSCode代理 VSCode通过SSH连接Jetson 打开VSCod
NVIDIA Jetson Xaiver NX通过Docker安装任意版本ROS(Jetson Container)
前言 众所周知,ROS由于对于系统软件包版本的高度依赖,导致每个大版本ROS都必须绑定着新版Ubuntu系统发布,例如: 这里只是简单列出一些,并不完整,详细可以参考: https://blog.csdn.net/qq_42450767/article/details/124738627
边缘计算
未读
NVIDIA Jetson Xavier NX 将PyTorch(.pt)模型转为TensorRT加速推理
使用PyTorch导出ONNX再使用trtexec转换为engine 这种方式导出的兼容性最好,可以用于Triton服务器部署,也可以用Python代码直接使用模型推理。 准备PyTorch模型 对YOLOv8进行训练之后,在train/run**/weights文件夹内会有last.pt和best
边缘计算
未读
YOLOv8转换PyTorch模型为TensorRT(.engine)运行Numpy报错的解决办法
起因:根据官方教程将PyTorch模型转换为了.engine的TensorRT格式以期提高加载和推理速度,在Windows10/RTX4060上没有任何问题,推理所需时间从20ms/frame降低到了8ms/frame,提升显著。 然而在Jetson Xavier NX上转换后,虽然转换过程没有报任
边缘计算
未读
NVIDIA Jetson Xavier NX 部署 Triton-Inference-Server
参考:https://blog.csdn.net/zachary_hao/article/details/132149492 查看当前的JetPack版本 jtop 使用jtop查看系统信息,按数字键7切换到INFO:
边缘计算
未读
NVIDIA Jetson Xavier NX开启蓝牙音频功能
默认情况下,Jetson的蓝牙音频是关闭的,需要手动开启: sudo nano /lib/systemd/system/bluetooth.service.d/nv-bluetooth-service.conf 可以看到,默认是禁用了蓝牙音频协议的,我们只要把禁用声明删掉即可。 然后,还需要安装Pu
NVIDIA Jetson Xavier NX 部署 pytorch环境(YOLOv8/v5)
部分参考:https://blog.csdn.net/weixin_50060664/article/details/121960835 虽然新款Xavier开发板已经发布且Xaiver NX的JetPack已经基本不再更新(停留在5.x),但我装的版本JetPack5.1.3(Ubuntu20.0