Jetson Nano 配置小记

内容纲要

Jetson Nano 配置小记

要测试jetson nano的温度曲线,要推高温度,想试试它跑神经网络的时候的温度。
参考:https://github.com/dusty-nv/jetson-inference/blob/master/docs/building-repo-2.md?tdsourcetag=s_pctim_aiomsg

配置步骤

  1. 下载镜像:
    https://developer.download.nvidia.cn/assets/embedded/downloads/jetson-nano-sd-card-image/r32.1.1-2019-05-31/jetson-nano-sd-r32.1.1-2019-05-31.zip
  2. 解压并烧录到TF卡,然后启动
  3. 启动后联网更新系统:
    sudo apt-get update
    sudo apt-get -y upgrade 
    sudo apt-get -y install git cmake
  4. 克隆jetson-inference仓库
    clone https://github.com/dusty-nv/jetson-inference
    cd jetson-inference
    git submodule update --init

    Python开发包

    此项目的Python功能是通过Python扩展模块实现的,这些模块使用Python C API提供对本机C ++代码的绑定。在配置项目时,repo会搜索在系统上安装了开发包的Python版本,然后为每个Python版本(例如Python 2.7,3.6和3.7)构建绑定。它还将为已安装的numpy版本构建numpy绑定。

默认情况下,Ubuntu自带与libpython-dev和python-numpy包预装了(这是Python 2.7版)。虽然Python 3.6解释器是由Ubuntu预先安装的,但是Python 3.6开发包(libpython3-dev)并python3-numpy没有。使用Python C API构建绑定需要这些开发包。

因此,如果希望项目为Python 3.6创建绑定,需要继续安装如下内容;

sudo apt-get install libpython3-dev python3-numpy

使用CMake进行配置

接下来,在项目中创建一个构建目录并运行cmake以配置构建。当cmake运行时,脚本启动(CMakePreBuild.sh),它会自动安装任何需要的依赖和下载DNN模型。模型需要自己选择一下,默认也可以,这里要配置git代理,wget代理,apt代理,反正你如果不能扶墙而出,那么基本上玩儿不了了。很多东西都在墙外,扶墙小技巧自己百度吧。

cd jetson-inference   
mkdir build
cd build
cmake ../

下载模型

repo带有许多预先训练好的网络,您可以选择通过Model Downloader工具(download-models.sh)下载和安装。
默认情况下,并非最初选择下载所有模型以节省磁盘空间。
您可以选择所需的模型,或稍后再次运行该工具以再次下载更多模型。

最初配置repo时,cmake会自动为您运行下载工具:
如果无法扶墙获取资源,就会看到如下图片:

而正常扶墙出去后,获取资料为:

然后选择好以后,就开始各种安装,这时候可以去喝杯咖啡,小憩一会儿。
注意:对于无法连接Box.com下载模型的用户,此处提供镜像:

https://github.com/dusty-nv/jetson-inference/releases

要稍后再次运行Model Downloader工具,您可以使用以下命令:

cd jetson-inference / tools 
./download-models.sh

安装PyTorch

如果您正在使用JetPack 4.2或更新版本,现在将运行另一个工具,如果您想在本教程后面的传输学习中重新训练网络,可以选择在Jetson上安装PyTorch 。此步骤是可选的,如果需要,请选择要安装的Python 2.7和/或Python 3.6的PyTorch软件包版本,然后单击Enter以继续。否则,保持选项未选中,它将跳过PyTorch的安装。

我选择了python3.6,继续安装
注意:自动PyTorch安装工具需要JetPack 4.2或更高版本。
对于其他版本,请参阅http://eLinux.org/Jetson_Zoo从源代码构建。
如果您决定在其他时间安装PyTorch,也可以稍后再次运行此工具:

cd jetson-inference / build 
./install-pytorch.sh

运行这些命令将提示您使用与上面相同的对话框。

最后一步:编译项目

确保您仍在jetson-inference/build上面步骤#3中创建的目录中。
然后运行,make然后sudo make install构建库,Python扩展绑定和代码示例:

cd jetson-inference/build
make
sudo make install

根据体系结构,项目将构建为aarch64或者armhf,具有以下目录结构:

|-build
\aarch64 (64-bit)
\bin where the sample binaries are built to
\include where the headers reside
\lib where the libraries are build to
\armhf (32-bit)
\bin where the sample binaries are built to
\include where the headers reside
\lib where the libraries are build to

基本上到这里就安装的差不多了, 下一篇文章讲一下怎么燃烧jetson nano,温度推到极致的状态。

发布者

yoyojacky

我是骑驴玩儿漂移, 喜欢玩儿电子,喜欢的编程语言, C, shell, python, 爱玩儿的开发板: 树莓派, arduino,STM32系列, 还有3D 打印机,四轴飞行器,业余时间也喜欢玩儿吉他,非洲鼓. 欢迎来光临我的小站~

发表评论

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据