观前提醒:你以为我斥资6600买了一个NX玩?我其实买了三个NX

NVIDIA Jetson Orin NX 简介:

NVIDIA Jetson Orin NX是NVIDIA推出的一款高性能边缘计算平台,其设计目标是提供卓越的计算能力以支持各种复杂的人工智能(AI)应用,包括机器人、无人机、智能相机和便携式医疗设备等。下面将详细介绍这款平台的核心特性、性能参数、软件支持以及可能的应用场景。

Orin NX核心板:

Orin NX参数:

jetson orin nx 8GB 16GB
AI性能 70Tops 100tops
GPU 搭载 32 个 Tensor Core 的 1024 核 NVIDIA Ampere 架构 GPU 和8GB一样
GPU 最大频率 765 MHz 918 MHz
CPU 6 核 Arm® Cortex®-A78AE v8.2 64 位 CPU 1.5MB L2 + 4MB L3 8 核 Arm® Cortex®-A78AE v8.2 64 位 CPU 2MB L2 + 4MB L3
CPU 最大频率 2 GHz 和8GB一样
显存 8GB 128 位 LPDDR5 102.4GB/s 16GB 128 位 LPDDR5 102.4GB/s
存储 (支持外部 NVMe) (支持外部 NVMe)

性能

NVIDIA Jetson Orin NX 具有 NVIDIA Ampere 架构 GPU 和 Arm® Cortex®-A78AE CPU,以及新一代深度学习和视觉加速器。高速 IO、102GB/s 的内存带宽以及 12GB 的 DRAM 能够馈送多个并发 AI 应用程序管道。

尺寸(对核心板来讲,不带上基础底板)

尺寸仅70 毫米 x 45 毫米 ,Jetson Orin™ NX 的性能是 NVIDIA Jetson Xavier™ NX 的 5 倍。体积小,性能强,能效高,能够为无人机和手持设备等新一代产品带来卓越性能。

功率

低功耗 在紧凑、节能高效的系统中,体验外形小巧的机器人和自主机器的更高性能。紧凑型模组的功耗只有 10 瓦,上限可达 25 瓦。深入了解 Jetson Orin NX 颠覆性的尺寸、性能和功耗,以及 NVIDIA JetPack™ SDK、NVIDIA AI 软件堆栈和服务和产品的生态系统,助力您的产品快速推向市场。

开箱:

不知道为什么,亚博的nx盒子都是鼓鼓囊囊的,一点也不方正(只要里面东西没坏就行)

掀起他的天灵盖(bushi),映入眼帘的装在黑色不透明包装袋内的NX,(缓震的泡棉上还有一层天鹅绒针不戳)

拿出板卡,下方是说明书和三包凭证、跳线帽。

总结就是亚博智能的NX包装一般般

打开包装袋,做工确实很精致没的说,引脚也根据功能的不同做了颜色上的区分。

接口方面共有:四个USB3.0、一个网口、一个Type-C、一个DP(为什么没有HDMI啊?)、一个电源接口

背面是安装网卡和固态硬盘的位置(固态硬盘需要手动安装),分别是M.2 Key E(75针) 、M.2 Key M 插槽(2-lane)、M.2 Key M 插槽(4-lane)

插上电源,开机!

分别连接鼠标、键盘、显示屏。我购买的套餐中的系统已经提前刷好,我们可以直接开始基础功能的测试

硬盘还需要扩容操作,这需要另外一台linux来进行(系统都预装了为什么不能把盘扩好)。

扩容操作:

  1. 安装软件:sudo apt install gparted
  2. 打开软件并选定硬盘
  3. 右键点击app分区,卸载app分区
  4. 右键点击app分区,检查app分区

以上是官方给的教程,不过在这里我遇到了一些问题:我检查分区之后并没有自动扩充硬盘分区

解决办法:直接右键点击app分区后选择改变分区大小,在弹出选择中更改现有分区的大小,直接在增大选择中输入9999999,程序会自动跳变为最大数值。

扩容完毕,如下图:

完成了开机的必要工作后,我们终于可以尝试一下nx100TOPS的性能哩:

运行一个简单的图形分类处理:

ImageNet对图像进行分类

有多种类型的深度学习网络可用,包括识别、检测/定位和语义分割。

imageNet对象接受输入图像并输出每个类别的概率。在1000个对象的ImageNet ILSVRC数据集上进行了训练后,GoogleNet和ResNet-18模型在构建步骤中自动下载。

有关可以下载和使用的其他分类模型,这里亚博智能提供了C++和Python的示例程序,我们下面尝试运行。

在Jetson上使用ImageNet程序:

首先,让我们尝试使用imagenet程序在一些示例图像上测试imagenet识别。它加载一个或多个图像,使用TensorRT和imageNet类进行推理,然后覆盖分类结果并保存输出图像。该项目在images/目录下提供了示例图像。

构建项目后,确保终端位于aarch64/bin目录中

cd jetson-inference/build/aarch64/bin

接下来,让我们使用imagenet程序对示例图像进行分类,使用C++或Python变体。如果您使用的是Docker容器,建议将已分类的输出映像保存到images/test挂载的目录中。然后,这些图像将很容易从主机设备的jetson推理/data/images/test目录中查看

# C++
$ ./imagenet images/orange_0.jpg images/test/output_0.jpg     # (default network is googlenet)
​
# Python
$ ./imagenet.py images/orange_0.jpg images/test/output_0.jpg  # (default network is googlenet)

第一次运行跑起来确实慢了一点,原因是第一次运行每个模型时,TensorRT将花费几分钟时间来优化网络。

这个经过优化的网络文件随后被缓存到磁盘上,因此将来使用该模型运行会更快地加载

结语

这一学期的主线任务是搓机器狗,需要一块板卡做上位机,最开始我是打算使用nano或者旭日X3。但是我亲爱的老师nano还是差点火候,所以选择用nx作为上位机。又考虑到一台没有冗余,直接好事成三!