边缘计算
未读
NVIDIA Jetson Xavier NX 将PyTorch(.pt)模型转为TensorRT加速推理
使用PyTorch导出ONNX再使用trtexec转换为engine 这种方式导出的兼容性最好,可以用于Triton服务器部署,也可以用Python代码直接使用模型推理。 准备PyTorch模型 对YOLOv8进行训练之后,在train/run**/weights文件夹内会有last.pt和best
边缘计算
未读
NVIDIA Jetson Xavier NX 部署 Triton-Inference-Server
参考:https://blog.csdn.net/zachary_hao/article/details/132149492 查看当前的JetPack版本 jtop 使用jtop查看系统信息,按数字键7切换到INFO: