非常荣幸受邀参加此次香橙派开发板的测评活动。除了开发板本身做工精细令人眼前一亮外,举办方还贴心地准备了散热套件、预装系统的TF卡、电源适配器和数据线。官网提供的详尽资料,使得整个体验过程非常愉快。下面让我们正式开始测评,先来看看产品套件的全家福:
OrangePi AI Pro是香橙派厂商与华为昇腾合作开发的最新一代边缘计算产品。这款AI开发板基于昇腾深度研发,无论在外观、性能还是技术服务支持上都非常出色。它采用昇腾AI技术,集成图形处理器,配备8GB/16GB LPDDR4X内存,并支持32GB/64GB/128GB/256GB eMMC模块,支持双4K高清输出和8/20 TOPS AI算力。
丰富的接口配置赋予了Orange Pi AI Pro强大的扩展能力,包括两个HDMI输出、GPIO接口、Type-C电源接口、SATA/NVMe SSD 2280的M.2插槽、TF插槽、千兆网口、两个USB3.0、一个USB Type-C 3.0、一个Micro USB、两个MIPI摄像头和一个MIPI屏,预留电池接口。
在操作系统方面,Orange Pi AI Pro支持Ubuntu和openEuler,满足大多数AI算法原型验证和推理应用开发需求,广泛适用于AI边缘计算、深度视觉学习、视频流AI分析、图像分析、自然语言处理、智能小车、机械臂、人工智能、无人机、云计算、AR/VR、智能安防和智能家居等领域,覆盖AIoT各个行业。
丰富的接口使得我们可以使用它完成绝大多数的开发场景需求。
使用SD卡读卡器,将Ubuntu镜像写入MicroSD卡中。推荐使用官方工具进行镜像烧录,以确保操作简便。
将MicroSD卡插入Orange Pi AI Pro的相应插槽,连接电源适配器、HDMI线(如果需要直接查看启动过程),以及USB键盘和鼠标。
按下电源键启动设备。如果连接了显示器,你将看到Ubuntu的安装界面或直接进入系统(取决于SD卡是否已预装系统并设置了自动启动)。由于我拿到的板子已经预装系统,直接上电即可自动开机。
默认系统是Ubuntu 22.04
。
接好电源线、屏幕线和USB键盘鼠标后,可以看到显示。初始系统密码为Mind@123
通过nmcli连接WIFI。首先在命令行中输入nmcli dev wifi
命令扫描周围的WIFI热点,其中第一个“TP-LINK_99E8”为我当前使用的路由器的WIFI名称。
**连接无线热点:**然后输入如下命令连接WIFI,其中“TP-LINK_99E8”为WIFI名称,“tplink888”为WIFI密码:
nmcli dev wifi connect TP-LINK_99E8 password tplink888
命令模板如下: name是账号 passwprds 是密码
sudo nmcli dev wifi connect name password passwprds
显示连接无线热点成功后,可以查看Orange Pi板子的IP地址。查看IP的命令是:ipconfig
测试网络是否通?可以ping 一下百度来测试是否能正常访问公网:
ping www.baidu.com
如图所示,网络连接成功。
OrangePi AI Pro的Ubuntu系统SSH是默认开启的,所以在连接到网络后即可通过SSH登录。获取到IP地址后,使用MobaXterm软件进行SSH登录:
如下图所示,登录成功:
SSH连接属于命令行管理,但如果希望查看系统中的图片或视频等资源,就必须先将文件拉取到本地,非常麻烦。
解决方法是通过VNC远程连接到Linux系统桌面。官方提供的Ubuntu镜像默认已运行VNC服务,用户直接通过客户端进行远程连接即可。
ps -ef | grep vnc
netstat -antulp | grep 5901 #查看5901端口是否在进程
sudo apt install tightvncserver
使用以下命令启动VNC服务器:
vncserver :1
首次运行时,系统会要求你设置一个连接密码。请确保设置一个安全的密码。
在Windows系统上,打开TightVNC Viewer,输入远程桌面的IP地址和端口,然后使用初始密码Mind@123
进行连接。
连接成功后,你应该能看到远程桌面,如下图所示:
通过以上步骤,你可以方便地在不同设备之间使用TightVNC进行远程桌面访问。
根据文档说明,进入samples目录,然后使用start_notebook.sh脚本启动Jupyter Lab:
./start_notebook.sh IP(当前连接网络所分配的IP地址)
在电脑上打开浏览器即可看到左侧文件管理器中的9个AI应用样例和Jupyter Lab启动脚本。
运行目标检测样例
首先在Jupyter Lab界面双击“01-yolov5”,进入该目录。可以看到目录下有运行该示例的所有资源,其中main.ipynb是在Jupyter Lab中运行该样例的文件,双击打开main.ipynb,在右侧窗口中会显示main.ipynb文件的内容。
单击如下按钮即可运行样例,在弹出的对话框中单击“Restart”按钮,此时样例开始运行。
稍等片刻后,我们可以看到在窗口中出现了一段赛车的视频,模型对视频的每一帧进行推理, 并将检测到的赛车标注了出来:
本次体验使用了Jupyter Lab中的目标检测样例,实际场景中,还可以结合自身需求进行相关开发工作。
由于香橙派Kunpeng Pro具备强大的算力,我们将尝试在其上部署大语言模型(Large Language Model, LLM)。LLM是一种旨在理解和生成人类语言的人工智能模型。它们经过大量文本数据的训练,可以执行包括文本总结、翻译和情感分析在内的广泛任务。
要使用 chatglm-cpp 部署大模型,需要首先安装 chatglm-cpp 软件包。安装前,可能需要配置 yum 源。
yum install chatglm-cpp
chatglm_cpp_main -h
若成功显示帮助信息,则安装成功。
接下来,下载开源大模型,如 ChatGLM-6B、ChatGLM2-6B 等。将下载的开源大模型通过 chatglm_convert.py
进行模型量化:
python3 /usr/bin/chatglm_convert.py -i model_path/ -t q4_0 -o chatglm-ggml_1.bin
其中,model_path
是开源大模型的存放路径,q4_0
是开源大模型量化的精度,chatglm-ggml_1.bin
是输出的量化模型名称。然后启动模型,进行对话:
chatglm_cpp_main -m model_path -i
其中,model_path
是量化模型的存放路径。
通过以下命令查看命令行选项的用法:
chatglm_cpp_main -h
启动模型界面如下,然后就可以进行交流了~
性能表现 香橙派AiPro搭载了昇腾AI技术,配备4核64位处理器和AI处理器,支持高达8TOPS的AI算力,并拥有8GB/16GB LPDDR4X内存。该开发板能够在60FPS的视频上实时进行推理,一张640x640的图像推理时间在15-20ms之间,未进行量化设计,使用float16精度,未来通过Int量化可以进一步提升性能。
散热和噪音 香橙派AiPro配备了高效的散热风扇,即使长时间运行(3小时)后,板子的温度仍保持在较低水平,表现出色。噪音控制方面,开机启动时会有6-10秒的较大声音,但在正常运行过程中几乎无声,风扇的散热效果和静音表现令人满意。
硬件拓展性 香橙派AiPro配备了丰富的硬件接口,包括两个HDMI输出、GPIO接口、Type-C电源接口、支持SATA/NVMe SSD 2280的M.2插槽、TF插槽、千兆网口、USB接口等,还预留了电池接口。这样的设计赋予了开发板强大的可拓展性,能够适应多种应用场景,满足复杂AI应用的开发需求。
操作系统支持 香橙派AiPro支持多种操作系统,包括Ubuntu和openEuler,为用户提供了更多选择,方便根据需求进行开发和部署。多系统兼容性使其适应性更强,适合不同开发环境和项目需求。
使用体验 香橙派AiPro的包装精致小巧,官方提供完整的配件,包括开发板、适配器和充电器。开发板上的静音风扇效果良好,WIFI和蓝牙的天线设计位置方便用户操作。在实际使用中,可以通过HDMI接口连接开发板显示,也可以通过SSH等方式远程连接。官方提供的资料和项目demo较为完善,部署过程简便,适合新手快速上手。
香橙派AiPro作为一款AI开发板,具备强大的AI算力、丰富的硬件接口和良好的操作系统兼容性。其散热和静音表现出色,使用体验便捷,非常适合AI开发者和技术爱好者使用。无论是进行AI算法原型验证、推理应用开发,还是复杂AI应用的开发,香橙派AiPro都能提供强有力的支持,帮助用户实现更多的AI应用创作。