树莓派串口编程

树莓派串口编程

简单做个笔记记录一下串口编程的方法。

  1. 树莓派需要释放蓝牙所占用的的串口。
  2. 编辑/boot/config.txt 或者通过raspi-config启用串口(serial) ,编辑文件的话直接加入enable_uart=1 然后重启。
  3. 添加 dtoverlay = pi3-miniuart-bt 或者:dtoverlay = pi3-disable-bt

    基本思路

    操作示例代码

    • C 语言
      #include <stdio.h>
      #include <string.h>
      #include <errno.h>
      #include <wiringPi.h>
      #include <wiringSerial.h>
      int main ()
      {
      int serial_port ;
      char dat;
      if ((serial_port = serialOpen ("/dev/ttyS0", 9600)) < 0) /* open serial port */
      {
      fprintf (stderr, "Unable to open serial device: %s\n", strerror (errno)) ;
      return 1 ;
      }
      if (wiringPiSetup () == -1)                   /* initializes wiringPi setup */
      {
      fprintf (stdout, "Unable to start wiringPi: %s\n", strerror (errno)) ;
      return 1 ;
      }
      while(1){   
      if(serialDataAvail (serial_port) )
      { 
      dat = serialGetchar (serial_port);      /* receive character serially*/ 
      printf ("%c", dat) ;
      fflush (stdout) ;
      serialPutchar(serial_port, dat);        /* transmit character serially on port */
        }
      }
      }

      编译测试

      gcc -o serialtest -lwiringPi serialtest.c 
      ./serialtest

      结果:

ESP32测试脚本

ESP32 测试脚本

Micropython

from machine import Pin
from time import sleep

leds = [13, 12, 14, 27, 26, 25, 33, 32, 23, 22, 21, 19, 18, 5, 16, 17, 4, 0, 2, 15 ]
try:
    while True:
        for i in range(len(leds)):
            print(leds[i])
            i = Pin(leds[i], Pin.OUT)
            i.on()
except KeyboardInterrupt:
    print("\nCtrl-C pressed.")

树莓派超声波测距

树莓派超声波测距

超声波传感器

就是传说中的Ultrasonic传感器,学名:HC-SR04 , 某宝上非常cheap, 自己搜.

测距原理

  • 超声波距离传感器设计为使用超声波来测量源与目标之间的距离。
  • 我们之所以使用超声波,是因为超声波在短距离内相对准确,并且不会引起人耳无法听到的干扰。

特性说明

HC-SR04是用于2cm至400cm距离非接触距离测量的常用模块。
它使用声纳(如蝙蝠和海豚)以高精度和稳定的读数来测量距离。
它由超声波发射器,接收器和控制电路组成。
发射器发射短脉冲,该短脉冲被目标反射并被接收器拾取。
计算超声波信号的发送和接收之间的时间差。
使用声速和“ 速度=距离/时间 ”等式,可以轻松计算源与目标之间的距离。

引脚说明

HC-SR04超声波距离传感器模块具有四个引脚:

  • VCC – 5V,输入电源

  • TRIG –触发输入

  • 回声 –回声输出

  • GND –接地

    实际工作原理

  • 1.向TRIG输入提供触发信号,它需要至少10μS持续时间的高电平信号。

  • 2.这使模块能够发送八个40KHz超声波脉冲串。

  • 3.如果模块前面有障碍物,它将反射那些超声波

  • 4.如果信号返回,则模块的ECHO输出将在发送和接收超声信号所花费的时间内保持为高电平。脉冲宽度的范围为150μS至25mS,具体取决于障碍物与传感器之间的距离,如果没有障碍物,则脉冲宽度约为38ms。

    接线方式

    非常关键的分压步骤

    ECHO输出为5v而Raspberry Pi GPIO的输入引脚的额定电压为3.3V,因此,无法将5V直接提供给不受保护的3.3V输入引脚,除非你想把树莓派干掉...
    因此,我们得使用分压电路,使用适当的电阻将电压降至3.3V。

    以下公式可用于计算电阻值,
    “ Vout = Vin x R2 /(R1 + R2)”
    这里我用的是常用的4.7K和10K电阻做的分压电路,中间抽头给树莓派GPIO引脚,安全可靠。

    连接实物模拟图

    画图软件是frizing, 不要再私信问我了...

    计算方法

  • 距离计算
    脉冲所花费的时间实际上是超声波信号往返的时间,而我们只需要一半的时间。因此,时间被视为时间/ 2。

  • 距离=速度时间/ 2
    而海平面声速= 343 m / s或34300 cm / s
    因此,距离= 17150
    时间(单位厘米)

*校准
为了获得准确的距离读数,可以使用尺子校准输出。在下面的程序中,添加了0.5 cm的校准。
你如果不想校准也可以尝试不加,就是大致有点儿偏移量。

测试代码:

import RPi.GPIO as GPIO                    #Import GPIO library
import time                                #Import time library
GPIO.setmode(GPIO.BCM)                     #Set GPIO pin numbering 

TRIG = 23                                  #Associate pin 23 to TRIG
ECHO = 24                                  #Associate pin 24 to ECHO

print "Distance measurement in progress"

GPIO.setup(TRIG,GPIO.OUT)                  #Set pin as GPIO out
GPIO.setup(ECHO,GPIO.IN)                   #Set pin as GPIO in

while True:

  GPIO.output(TRIG, False)                 #Set TRIG as LOW
  print "Waitng For Sensor To Settle"
  time.sleep(2)                            #Delay of 2 seconds

  GPIO.output(TRIG, True)                  #Set TRIG as HIGH
  time.sleep(0.00001)                      #Delay of 0.00001 seconds
  GPIO.output(TRIG, False)                 #Set TRIG as LOW

  while GPIO.input(ECHO)==0:               #Check whether the ECHO is LOW
    pulse_start = time.time()              #Saves the last known time of LOW pulse

  while GPIO.input(ECHO)==1:               #Check whether the ECHO is HIGH
    pulse_end = time.time()                #Saves the last known time of HIGH pulse 

  pulse_duration = pulse_end - pulse_start #Get pulse duration to a variable

  distance = pulse_duration * 17150        #Multiply pulse duration by 17150 to get distance
  distance = round(distance, 2)            #Round to two decimal points

  if distance > 2 and distance < 400:      #Check whether the distance is within range
    print "Distance:",distance - 0.5,"cm"  #Print distance with 0.5 cm calibration
  else:
    print "Out Of Range"                   #display out of range

测试

python3 ultrasonic_distance_detect.py

效果很明显。

总结

反射角度如果大于15度有可能会出现值不准,如果附近噪声很大也许会有干扰,其他的没啥,很简单的一个模块,可以结合树莓派或者别的设备做一个超声波控制音量的玩意儿,树莓派爬音乐网站,播放音乐,由超声波传感器来进行检测,距离小于多少就降低音量,否则就开大音量, 自己想办法玩儿吧! 转载记得标识出处!
谢谢观看,我是骑驴玩儿漂移,甩你三条街~ 白了个白~

Live555直播

树莓派上用 Live555 直播摄像头数据

最近在群里听到有朋友推荐使用 live555 来在树莓派上进行rtsp 服务器的搭建,非常简单做个记录防忘记.
Live555是一个开源的 C++源码编写的流媒体推流软件合集,功能好多,还咩有玩儿透彻,但是你也看得懂源码的.非常激动人心.

软件包下载

链接: http://www.live555.com/liveMedia/public/

通过命令解压并执行 makefile 的生成.

tar -xf live555-latest.tar.gz
cd live/
./genMakefiles linux

编辑当前目录下面的live/testProgs/testOnDemandRTSPServer.cpp

修改这部分内容:

树莓派上创建一个 fifo 文件,先进先出管道.

mkfifo /tmp/rpicam

然后编译并安装.

make 
sudo make install

进入 testProgs 目录执行二进制文件.

./testOnDemandRTSPServer &

树莓派开启摄像头并执行:

raspivid -rot 180 -o /tmp/rpicam -f -t 0

VLC 测试或者 opencv 测试:

  1. vlc 在打开网络流的URL 里面输入设备流地址: rtsp://192.168.3.20:8554/liv0 就可以观看了.
  2. 使用 opencv 打开,自己创建一个文件:
    如图,截图中缩进层级有点儿变化,主要看后面的代码.
    图为:

    代码走一波

    # get streaming video via opencv
    import cv2
    import numpy as np
    cap = cv2.VideoCapture("rtsp://192.168.3.20:8554/liv0")
    try:
    while True:
        ret, frame = cap.read()
        if ret == True:
            smallFrame = cv2.resize(frame, (480, 240))
    
            key = cv2.waitKey(1)
            if key == 27:
                break
            cv2.imshow("small size Frame", smallFrame)
    except KeyboardInterrupt:
    print("quit")
    cap.release()
    cv2.destroyAllWindows()

    执行查看:

    python3 streaming_get_from_opencv.py

    效果如图:

    好了,还有一个我在蘑菇云参加一个 piday4fun 的活动地址在: https://github.com/piday4fun

    还楞啥,燥起来吧!!!

    转发记得标明出处, 否则小心菊花万人捅~

KiCAD 第一弹: 小白入门级

KiCAD

缘起

自从安装了 KiCAD 以后,突然发现这是一个非常棒的开源软件,好多的资源可以用,内心激动的迫不及待的想做出一个 PCB 板.手头还有一片 ATmega328P-AU 的 arduino 芯片,赶紧搜索了一下 arduino 的最小系统原理图,照猫画虎来了一遍.其实还是有多小细节要注意的.

其实发现还是有 arduino Uno 的一个器件的.还需要慢慢摸索.这次的硬核马拉松我觉得我要败了..

发现

树莓派上竟然也可以跑 kicad, 而且安装极其简单,简单的不像话....

sudo apt-get update 
sudo apt-get -y install kicad
kicad &

就好了.就打开了,第一次可能有点儿卡顿,但是一旦跑起来那种丝般柔顺的感觉真的很舒服~
突然就爱上了这个软件.虽然相比 AD 可能还有很大差距,但是毕竟是开源软件,还有那么多用户,github 也是人气满满.强烈推荐大家尝试一下..
我发现我需要学习的东西太多了,我一直感觉自己是一个小白一样的存在, 看了很多资料还是前面看完后面就不记得了....
哎,人到中年不如狗系列啊!
好了,不吐槽了.还是要有满满的正能量才可以, 继续啃啃技术材料吧~
我是骑驴玩儿漂移,一个胖胖的爱玩儿树莓派或者是喜欢嘚瑟的胖纸!

抗击疫情宅家充电系列-树莓派编程基础

抗击疫情宅家充电系列

今天受邀在电子森林,哦,应该是硬禾学堂做了树莓派的入门级讲解,昨天也做了一个硬件讲解的直播,使用的软件是小鹅通,感觉还不错,有兴趣的朋友可以尝试一下.

下面是直播的地址:

第一天内容

树莓派上安装Opencv遇到的小bug解决方法

前言

最近很多人用树莓派跑opencv,我之前也用过,后来最近突然迷上了openCV的应用,就烧录了最新的系统,然后重新安装了opencv的环境,测试的时候发现加载不进来。
提示:

pi@raspberrypi:~ $ python3
Python 3.7.3 (default, Apr  3 2019, 05:39:12) 
[GCC 8.2.0] on linux
Type "help", "copyright", "credits" or "license" for more information.
>>> import cv2
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
  File "/home/pi/cv2/__init__.py", line 3, in <module>
    from .cv2 import *
ImportError: /home/pi/cv2/cv2.cpython-37m-arm-linux-gnueabihf.so: undefined symbol: __atomic_fetch_add_8

提示找到不到cv2.cpython-37m-arm-linux-gnueabihf.so 一个未定义的__atomic_fetch_add_8, 搜了一下发现github上面有官方的issue,里面说这个是一个bug, 难怪很多人抱怨安装不来opencv呢。
其实只需要加载一下一个库文件就好了。

LD_PRELOAD=/usr/lib/arm-linux-gnueabihf/libatomic.so.1

把这一条加载到/etc/bashrc 或者 /etc/profile文件里面就好了,我是直接加载到pi用户的初始化脚本里面了。

vim.tiny .bashrc
添加:export LD_PRELOAD=/usr/lib/arm-linux-gnueabihf/libatomic.so.1 

保存,退出。

source .bashrc

然后进入python3的环境再测试。

小bug解决了,每次开机也都不用担心了。

ffmpeg小技巧总结

ffmpeg强大的爆,直接记录一些使用小技巧。

视频转换

比如avi文件想转mp4,或者mp4想转为ts。

ffmpeg -i test.avi output.mp4
ffmpeg -i test.mp4 output.ts

如果想指定解码方式,比如h265可以使用libx264

ffmpeg -i test.avi -vcodec libx264 output.mp4

直接获取网络上的视频,自动下载并且转码并保存,该方式需要带上-y,按顺序读取

ffmpeg -i "http://www.yoyojacky.com/video/test.avi" -y -vcodec libx264 output.mp4

分离并提取音频存为AAC格式

ffmpeg -i test.mp4 -acodec copy -vn output.aac

默认mp4的audio codec是aac,如果不是,可以都转为最常见的aac,苹果手机支持,想做铃声的自己可以抓视频然后采集声音。

ffmpeg -i test.mp4 -acodec aac -vn output.aac

提取视频

ffmpeg -i test.mp4 -vcodec copy -an output.mp4

视频截图

ffmpeg -i test.mp4 -r 1 -q:v 2 -f image2 snapshot.jpg

-r 表示每一秒几帧
-q:v表示存储jpg的图像质量,一般2是高质量。
这条命令ffmpeg会把test.mp4,每隔一秒,存一张图片下来。假设有60s,那会有60张。
如果你想,也可以设置开始的时间,和你想要截取的时间。

ffmpeg -i test.mp4 -ss 00:00:30 -t 20 -r 1 -q:v 2 -f image2 pic-1.jpg

-ss 表示开始时间
-t 表示共要多少时间。
以上的命令,ffmpeg会从test.mp4的第30s时间开始,往下20s,即30~50s这20秒钟之间,每隔1s就抓一帧,总共会抓20帧。

视频剪切

下面的命令,可以从时间为00:00:45开始,截取10秒钟的视频。

ffmpeg -ss 00:00:45 -t 00:00:10 -i test.mp4 -vcodec copy -acodec copy output.mp4

-ss表示开始切割的时间,-t表示要切多少。上面就是从45秒开始,截取10秒钟的视频。

码率控制

码率控制对于在线视频比较重要,因为在线视频需要考虑带宽。
那么什么是码率?so easy:
bitrate = file size / duration
比如一个文件20.8M,时长1分钟,那么,码率就是:
biterate = 20.8M bit/60s = 20.810241024*8 bit/60s= 2831Kbps
一般音频的码率只有固定几种,比如是128Kbps,
那么,video的就是
video biterate = 2831Kbps -128Kbps = 2703Kbps。

 那么ffmpeg如何控制码率?

ffmpg控制码率有3种选择:-minrate -b:v -maxrate
-b:v主要是控制平均码率。
比如一个视频源的码率太高了,有10Mbps,文件太大,想把文件弄小一点,但是又不破坏分辨率。

ffmpeg -i test.mp4 -b:v 2000k output.mp4

上面把码率从原码率转成2Mbps码率,这样其实也间接让文件变小了,目测接近一半。
不过,ffmpeg官方wiki比较建议,设置b:v时,同时加上 -bufsize
-bufsize 用于设置码率控制缓冲器的大小,设置的好处是,让整体的码率更趋近于希望的值,减少波动。(简单来说,比如1 2的平均值是1.5, 1.49 1.51 也是1.5, 当然是第二种比较好)

ffmpeg -i test.mp4 -b:v 2000k -bufsize 2000k output.mp4

-minrate -maxrate就简单了,在线视频有时候,希望码率波动不要超过一个阈值,可以设置maxrate。

ffmpeg -i test.mp4 -b:v 2000k -bufsize 2000k -maxrate 2500k output.mp4

视频编码格式转换

比如一个视频的编码是MPEG4,想用H264编码,咋办?

ffmpeg -i test.mp4 -vcodec h264 output.mp4

相反也一样

ffmpeg -i test.mp4 -vcodec mpeg4 output.mp4

当然了,如果ffmpeg当时编译时,添加了外部的x265或者X264,那也可以用外部的编码器来编码。(不知道什么是X265,可以 Google一下,简单的说,就是她不包含在ffmpeg的源码里,是独立的一个开源代码,用于编码HEVC,ffmpeg编码时可以调用它。当然 了,ffmpeg自己也有编码器)

ffmpeg -i test.mp4 -c:v libx265 output.mp4 
ffmpeg -i test.mp4 -c:v libx264 output.mp4

将视频进行m3u8切片

ffmpeg -i 本地视频.ts -c copy -map 0 -f segment -segment_list 视频索引.m3u8 -segment_time 5 前缀-%03d.ts

其中segment 就是切片,-segment_time表示隔几秒进行切一个文件,上面命令是隔5s,你也可以调整成更大的参数。
上面是网上抄的,下面是我经常用的:

ffmpeg -i test.mp4 -c copy hls_list_size 0 output.m3u8 hls_time 5

上面的hls_list_size表示目录文件中需要播放的文件数量,0表示整个视频,hls_time表示每个切片的长度,上面设置的5秒

只提取视频ES数据

ffmpeg –i test.mp4 –vcodec copy –an –f m4v output.h264

过滤器的使用

动态设置视频分辨率

将输入的1920x1080缩小到800:600输出:

ffmpeg -i test.mp4 -vf scale=800:600 output.mp4

ps: 如果600不写,写成-1,即scale=800:-1, 那也是可以的,ffmpeg会通知缩放滤镜在输出时保持原始的宽高比。

ffmpeg -i input.mp4 -vf scale=800:-1 output.mp4

为视频添加logo

比如我有一个图片想要贴到一个视频上:

ffmpeg -i test.mp4 -i logo.png -filter_complex overlay output.mp4
####要贴到其他地方?看下面: 
右上角: 
```bash
ffmpeg -i test.mp4 -i logo.png -filter_complex overlay=W-w output.mp4

左下角:

ffmpeg -i test.mp4 -i logo.png -filter_complex overlay=0:H-h output.mp4

右下角:

ffmpeg -i input.mp4 -i logo.png -filter_complex overlay=W-w:H-h output.mp4

去掉视频的logo

语法:-vf delogo=x:y:w:h[:t[:show]]
x:y 离左上角的坐标
w:h logo的宽和高
t: 矩形边缘的厚度默认值4
show:若设置为1有一个绿色的矩形,默认值0。

ffmpeg -i test.mp4 -vf delogo=0:0:220:90:100:1 output.mp4 

序列帧与视频的相互转换

把test.[001-100].jpg序列帧和music.mp3音频文件利用mpeg4编码方式合成视频文件test.avi:

ffmpeg -i music.mp3 -i test.%3d.jpg -s 800x600 -author yoyo -vcodec mpeg4 test.avi

还可以把视频文件导出成jpg序列帧:

ffmpeg -i test.avi pic.%d.jpg

好了,后面有空继续添加小技巧。

树莓派配置 vim 支持 python 代码补全

首先在树莓派中安装vim:

sudo apt-get update
sudo apt-get install vim  

克隆rkulla 的pydiction项目到本地:

mkdir -p ~/.vim/bundle
cd ~/.vim/bundle
git clone https://github.com/rkulla/pydiction.git
cp -r ~/.vim/bundle/pydiction/after/ ~/.vim   # 这步非常关键

如果有新的软件包想要支持补全.例如 RPi.GPIO
那么先安装包

sudo apt-get -y install RPi.GPIO

然后进入目录
cd ~/.vim/bundle/pydiction/
python3 pydiction.py RPi.GPIO
就可以生成全新的 complete-dict 了.

配置.vimrc文件:
" 启用文件类型插件

filetype plugin on

" 配置pydiction插件路径

let g:pydiction_location = '~/.vim/bundle/pydiction/complete-dict'

" 设置pydiction补全菜单的高度,默认是8

let g:pydiction_menu_height = 20
set syntax on

国庆节学习小计

今天下班开始就进入了十一小长假的状态,但是内心里面忐忑不安的是,太多事情要处理了,没有一天可以闲着.真的很累.
明天要去嘉定,非常远,昨天 3 点多才睡觉,生活不规律,但也没办法,就像现在我还在查资料一样.

搭建在阿里云的个人博客也应为 mysql 数据库服务器的日志塞满导致了宕机,由于开启了秘钥登陆,在公司还无法操作,眼睁着看着也无计可施.
刚才维护了一下,其实阿里云的平台也还不错,最近也试了试 azure iot 的平台,感觉更加成熟和稳定. 未来的物联网 Demo 还是要在这个平台上多做做测试.

明天一天忙碌完,就可以好好休息了.
假期安排:

  1. 继续写书
  2. 整理家里的东西,该扔的扔了,该卖的卖了.保持轻装前行
  3. 假期可以好好看看书,打打篮球
  4. 减肥减肥,继续减肥
  5. 陪老婆做做计划,干点儿有意义的事情.
  6. 把构想的电路图画完.
  7. 优化雷达小车的代码.

wiringPi updated to 2.52 for the Raspberry Pi 4B

前言

不知道你卖树莓派4B了么?不知道你们是否尝试在树莓派4b上用wiringpi的库,反正是官方的不好用。
那么你该怎么办?

场景展示

  • 如果你用sudo apt -y install wiringpi, 然后执行gpio readall的时候,提示你OPPS, the libararies is fucked.
    那么你就赶紧卸载掉吧!

    sudo apt -y purge wiringpi
    hash -r 

    下载软件包并且安装

    cd /tmp
    wget https://project-downloads.drogon.net/wiringpi-latest.deb
    sudo dpkg -i wiringpi-latest.deb

    检查:

    gpio readall 
    gpio -v 

    正常显示

    补充一下,源码下载的官方站点有点儿不稳定,我下载下来放在我博客上了,有需要的直接下载我这里的deb包安装效果一样的。

    wiringpi-latest.deb.tar
    下载后上传树莓派,通过命令

    tar -xf wiringpi-latest.deb_.tar.gz
    dpkg -i wiringpi-latest.deb

各种应用代理的配置

缘起

昨天因为要弄jetson nano的环境,好多资源要扶墙,所以正好也整理了一下,在不同的应用上添加代理的方法:

APT

全局代理

在Ubuntu系统中,使用代理有一种通用方式:系统设置 –> 网络 –> 网络代理 –> 应用到整个系统,这里设置的代理是全局代理,整个系统都会走这个代理设置。但一般我们不会这样使用,我们需要对我们指定的工具或软件设置代理。

APT代理

apt-get工具可以使用-o参数来使用配置字符串,或使用-c参数使用指定配置文件。

APT工具集使用的默认配置文件是/etc/apt/apt.conf,打开后发现文件默认是空文件。但是当我们设置了全局代理后,文件的内容变为:

Acquire::http::proxy "http://192.168.3.3:1080/";
Acquire::https::proxy "https://192.168.3.3:1080/";

这里稍微解释一下,这里的代理服务器是我跑了shadowsocks的一台主机,1080是这台主机开放的端口。记得在shadowsocks上开允许局域网接入。
如果只是偶尔用一次:

sudo apt-get -o Acquire::http::proxy="http://192.168.3.3:1080/" update

当然,如果你用man查看过还会发现-c选项

使用-c选项

创建个人配置文件~/apt_proxy.conf,

Acquire::http::proxy "http://192.168.3.3:1080/";
Acquire::https::proxy "https://192.168.3.3:1080/";

使用命令:

sudo apt-get -c ~/apt_proxy.conf update
  1. 如果我们设置了环境变量APT_CONFIG, 那么apt工具也将使用APT_CONFIG指向的配置文件。
    export APT_CONFIG=~/apt_proxy.conf
    sudo apt-get update

    这是软件包安装使用代理,那么还有使用wget下载有时候也要用。

    wget使用代理

    为wget使用代理,直接修改/etc/wgetrc,也可以在主目录下创建.wgetrc,并编辑相应内容。
    将/etc/wgetrc中与proxy有关的几行复制到~/.wgetrc,然后填写代理的地址和端口

    https_proxy = http://192.168.3.3:1080/
    http_proxy = http://192.168.3.3:1080/
    use_proxy = on

    这里 use_proxy = on 开启了代理,如果不想使用代理,每次都修改此文件未免麻烦,我们可以在命令中使用-Y参数来临时设置:

-Y, --proxy=on/off           打开或关闭代理

使用-e参数

wget本身没有专门设置代理的命令行参数,但是有一个"-e"参数,可以在命令行上指定一个原本出现在".wgetrc"中的设置。于是可以变相在命令行上指定代理:

-e, --execute=COMMAND   执行`.wgetrc'格式的命令

例如:

wget -c -r -np -k -L -p -e "http_proxy=http://192.168.3.3:1080" http://www.kernel.org/latest_version

临时使用代理下载比较方便。

git 使用代理

设置代理

git config --global https.proxy http://192.168.3.3:1080
git config --global https.proxy https://192.168.3.3:1080

取消设置

git config --global --unset http.proxy
git config --global --unset https.proxy

socks5

git config --global http.proxy 'socks5://192.168.3.3:1080'
git config --global https.proxy 'socks5://192.168.3.3:1080'

单一定向

只对github.com

git config --global http.https://github.com.proxy socks5://192.168.3.3:1080

取消代理

git config --global --unset http.https://github.com.proxy

目前用到这些,先记录下来,以后有别的再继续补充。
另外,还有个taskset比较好用,可以将任务绑定到CPU执行。
例如: omxplayer -o local xxx.mp4 播放一个影片,产生了一个进程,用ps aux |grep omxplayer发现其pid为40945
那么可以让单个cpu专门处理视频的解码和播放或者让1核,2核,3核工作,留一个核干别的。

taskset -cp 1,2,3 40945

意思就是让这个播放的进程可以使用1,2,3核, 通过htop就可以看到工作效果了。

Jetson Nano 配置小记

Jetson Nano 配置小记

要测试jetson nano的温度曲线,要推高温度,想试试它跑神经网络的时候的温度。
参考:https://github.com/dusty-nv/jetson-inference/blob/master/docs/building-repo-2.md?tdsourcetag=s_pctim_aiomsg

配置步骤

  1. 下载镜像:
    https://developer.download.nvidia.cn/assets/embedded/downloads/jetson-nano-sd-card-image/r32.1.1-2019-05-31/jetson-nano-sd-r32.1.1-2019-05-31.zip
  2. 解压并烧录到TF卡,然后启动
  3. 启动后联网更新系统:
    sudo apt-get update
    sudo apt-get -y upgrade 
    sudo apt-get -y install git cmake
  4. 克隆jetson-inference仓库
    clone https://github.com/dusty-nv/jetson-inference
    cd jetson-inference
    git submodule update --init

    Python开发包

    此项目的Python功能是通过Python扩展模块实现的,这些模块使用Python C API提供对本机C ++代码的绑定。在配置项目时,repo会搜索在系统上安装了开发包的Python版本,然后为每个Python版本(例如Python 2.7,3.6和3.7)构建绑定。它还将为已安装的numpy版本构建numpy绑定。

默认情况下,Ubuntu自带与libpython-dev和python-numpy包预装了(这是Python 2.7版)。虽然Python 3.6解释器是由Ubuntu预先安装的,但是Python 3.6开发包(libpython3-dev)并python3-numpy没有。使用Python C API构建绑定需要这些开发包。

因此,如果希望项目为Python 3.6创建绑定,需要继续安装如下内容;

sudo apt-get install libpython3-dev python3-numpy

使用CMake进行配置

接下来,在项目中创建一个构建目录并运行cmake以配置构建。当cmake运行时,脚本启动(CMakePreBuild.sh),它会自动安装任何需要的依赖和下载DNN模型。模型需要自己选择一下,默认也可以,这里要配置git代理,wget代理,apt代理,反正你如果不能扶墙而出,那么基本上玩儿不了了。很多东西都在墙外,扶墙小技巧自己百度吧。

cd jetson-inference   
mkdir build
cd build
cmake ../

下载模型

repo带有许多预先训练好的网络,您可以选择通过Model Downloader工具(download-models.sh)下载和安装。
默认情况下,并非最初选择下载所有模型以节省磁盘空间。
您可以选择所需的模型,或稍后再次运行该工具以再次下载更多模型。

最初配置repo时,cmake会自动为您运行下载工具:
如果无法扶墙获取资源,就会看到如下图片:

而正常扶墙出去后,获取资料为:

然后选择好以后,就开始各种安装,这时候可以去喝杯咖啡,小憩一会儿。
注意:对于无法连接Box.com下载模型的用户,此处提供镜像:

https://github.com/dusty-nv/jetson-inference/releases

要稍后再次运行Model Downloader工具,您可以使用以下命令:

cd jetson-inference / tools 
./download-models.sh

安装PyTorch

如果您正在使用JetPack 4.2或更新版本,现在将运行另一个工具,如果您想在本教程后面的传输学习中重新训练网络,可以选择在Jetson上安装PyTorch 。此步骤是可选的,如果需要,请选择要安装的Python 2.7和/或Python 3.6的PyTorch软件包版本,然后单击Enter以继续。否则,保持选项未选中,它将跳过PyTorch的安装。

我选择了python3.6,继续安装
注意:自动PyTorch安装工具需要JetPack 4.2或更高版本。
对于其他版本,请参阅http://eLinux.org/Jetson_Zoo从源代码构建。
如果您决定在其他时间安装PyTorch,也可以稍后再次运行此工具:

cd jetson-inference / build 
./install-pytorch.sh

运行这些命令将提示您使用与上面相同的对话框。

最后一步:编译项目

确保您仍在jetson-inference/build上面步骤#3中创建的目录中。
然后运行,make然后sudo make install构建库,Python扩展绑定和代码示例:

cd jetson-inference/build
make
sudo make install

根据体系结构,项目将构建为aarch64或者armhf,具有以下目录结构:

|-build
\aarch64 (64-bit)
\bin where the sample binaries are built to
\include where the headers reside
\lib where the libraries are build to
\armhf (32-bit)
\bin where the sample binaries are built to
\include where the headers reside
\lib where the libraries are build to

基本上到这里就安装的差不多了, 下一篇文章讲一下怎么燃烧jetson nano,温度推到极致的状态。