amobbs.com 阿莫电子技术论坛

标题: 有用树莓派跑 AI 模型的吗 [打印本页]

作者: MurphyZhao    时间: 2019-7-13 09:22
标题: 有用树莓派跑 AI 模型的吗
想跟大神一起在树莓派上跑跑训练好的 AI 模型,有没有大神在玩,求带飞
作者: kingqxj    时间: 2019-7-13 10:25
树莓派支持TensorFlow。直接安装对应的系统下载模型就可以了。
作者: albert_w    时间: 2019-7-13 12:24
3开始, 小模型就可以跑跑的. 图片分类, 甚至物体检测都可以跑跑. 树莓派4出来更厉害了
作者: MurphyZhao    时间: 2019-7-13 13:53
albert_w 发表于 2019-7-13 12:24
3开始, 小模型就可以跑跑的. 图片分类, 甚至物体检测都可以跑跑. 树莓派4出来更厉害了 ...

只有一个裸板可以干什么?我想把我的那个落灰的 3B 用起来
作者: MurphyZhao    时间: 2019-7-13 13:54
albert_w 发表于 2019-7-13 12:24
3开始, 小模型就可以跑跑的. 图片分类, 甚至物体检测都可以跑跑. 树莓派4出来更厉害了 ...

晚上捣鼓下
作者: biezhen    时间: 2019-7-13 14:41
3b+上 跑过mbnet1-128, 印象是600ms  还是800ms,,反正很长时间果断放弃。  pi4 性能也就和rk3399相当,随便一个usb加速棒就干死他了
作者: javabean    时间: 2019-7-13 14:54
intel有个计算棒,可以用那个跑识别的,光树莓派自己做训练就别想了,好慢死了,做简单应用还可以
作者: vermon    时间: 2019-7-13 14:57
似乎那个棒子   可以并列差很多?
作者: albert_w    时间: 2019-7-13 18:12
biezhen 发表于 2019-7-13 14:41
3b+上 跑过mbnet1-128, 印象是600ms  还是800ms,,反正很长时间果断放弃。  pi4 性能也就和rk3399相当, ...

问题加速棒多少钱
作者: 2005n2005    时间: 2019-7-13 18:16
不知树莓派可以拿来搞安防视频AI捉贼吗
作者: biezhen    时间: 2019-7-13 18:27
albert_w 发表于 2019-7-13 18:12
问题加速棒多少钱

基本上国内组装的usb加速棒价格在300-450元之间
但速度提高了10-20倍 。
作者: qiqirachel    时间: 2019-7-13 18:38
感觉上与AI相关的东西特别是视频类的,树莓派肯定都是带不动的。还是电脑或者类似于nvidia tegra之流吧
作者: albert_w    时间: 2019-7-15 09:58
biezhen 发表于 2019-7-13 18:27
基本上国内组装的usb加速棒价格在300-450元之间
但速度提高了10-20倍 。

哦~!? 还没了解过国内版本的加速棒呢, 有点意思.

有什么推荐硬件平台对TF, opencv, 支持比较好的? 之前试过一些平台感觉支持的内核还是太低了, 安装软件就抓狂...
作者: ammcu    时间: 2019-7-15 14:50
biezhen 发表于 2019-7-13 18:27
基本上国内组装的usb加速棒价格在300-450元之间
但速度提高了10-20倍 。

除了intel还有什么国内组装?
作者: biezhen    时间: 2019-7-15 15:28
ammcu 发表于 2019-7-15 14:50
除了intel还有什么国内组装?

intel也是收购的别人的芯片做的那个加速棒。这个加速棒IC,其实国产有ic。只是你不是这个行业的,也拿不到芯片和相应的开发工具。
卷积加速计算ic设计难度是非常小的,很多玩fpga的个人都可以搞得定。  现在intel用的那个加速ic  国内代理价在几十元到100元之间。但是你拿不到资料,因为你是个人玩的。
树莓派3b+,就不要想AI, 一张128的图片都要接近一秒,还玩个毛呢.
作者: ammcu    时间: 2019-7-15 16:22
biezhen 发表于 2019-7-15 15:28
intel也是收购的别人的芯片做的那个加速棒。这个加速棒IC,其实国产有ic。只是你不是这个行业的,也拿不 ...

嵌入式平台跑AI那推荐上什么平台和AI辅助计算?
我知道国产有个光矛芯片是辅助计算的,关键还要看开发工具支持度如何
作者: MurphyZhao    时间: 2019-7-15 17:37
ammcu 发表于 2019-7-15 16:22
嵌入式平台跑AI那推荐上什么平台和AI辅助计算?
我知道国产有个光矛芯片是辅助计算的,关键还要看开发工 ...

同问,嵌入式平台上怎么跑那些模型啊?属于什么模式?

比如 ARM 开源的 https://github.com/ARM-software/ML-KWS-for-MCU 这个在 Cortex-M 上跑关键字识别
,貌似是在 PC 上训练,然后 down 到设备上运行
作者: flying_bai    时间: 2019-7-15 17:54
我知道的我们公司的AI 是在电脑上用服务器训练模型,好了后转8bit的模型给hi3519a这个级别的芯片跑,可以干的事情还挺多的。
作者: ammcu    时间: 2019-7-15 18:02
flying_bai 发表于 2019-7-15 17:54
我知道的我们公司的AI 是在电脑上用服务器训练模型,好了后转8bit的模型给hi3519a这个级别的芯片跑,可以干 ...

转8bit的模型:具体是什么意思?
作者: flying_bai    时间: 2019-7-15 18:14
ammcu 发表于 2019-7-15 18:02
转8bit的模型:具体是什么意思?

我也不是很懂。好像就是用服务器可以做16bit或说更高位数的浮点运算,但是单片机这种的就没有那么大的运算能力了,所以要将训练好的16bit的模型转化为8bit的模型方便单片机使用。
作者: biezhen    时间: 2019-7-15 18:54
ammcu 发表于 2019-7-15 18:02
转8bit的模型:具体是什么意思?

就是模型从float成int8
但这个需要从模型在pc上训练时就开始搞.可以提高速。精度损失相对较小。
作者: meerlin    时间: 2019-7-28 15:00
你的树莓派RAM多大?
作者: MurphyZhao    时间: 2019-7-31 08:46
本帖最后由 MurphyZhao 于 2019-7-31 08:48 编辑
meerlin 发表于 2019-7-28 15:00
你的树莓派RAM多大?


树莓派 3B+ 1GB DDR2 的 SDRAM
作者: meerlin    时间: 2019-7-31 14:12
MurphyZhao 发表于 2019-7-31 08:46
树莓派 3B+ 1GB DDR2 的 SDRAM

你刷的什么系统?开机后还有多少剩余内存?
作者: qq11qqviki    时间: 2019-7-31 14:44
javabean 发表于 2019-7-13 14:54
intel有个计算棒,可以用那个跑识别的,光树莓派自己做训练就别想了,好慢死了,做简单应用还可以 ...

加速棒多少钱
作者: lantstar    时间: 2019-7-31 17:18
树莓派配谷歌的tpu加速棒呀,https://cora.withgoogle.com,加速棒75刀,淘宝650
作者: lantstar    时间: 2019-7-31 17:20
不过只能用来做图片分类,训练支持部分
作者: biezhen    时间: 2019-7-31 17:34
lantstar 发表于 2019-7-31 17:18
树莓派配谷歌的tpu加速棒呀,https://cora.withgoogle.com,加速棒75刀,淘宝650

国产加速棒可以做到280-400元,和intel用的同样的芯片。就外壳不一样。  但国产价格和量有关系,如果不做项目没有量个人玩的话,还是建议咸鱼上收个二手的intel的棒子玩玩
作者: lantstar    时间: 2019-7-31 17:49
EdgeTpu和intel性能还是有区别,能做到4TOPS,224x224识别毫秒级,希望国产能尽快生产
作者: MurphyZhao    时间: 2019-8-1 09:15
biezhen 发表于 2019-7-31 17:34
国产加速棒可以做到280-400元,和intel用的同样的芯片。就外壳不一样。  但国产价格和量有关系,如果不做 ...

[attach]473027[/attach]

感觉还是这个家伙合适
作者: nibia    时间: 2019-8-8 08:15
谁解答一下,如果我不做ai,而是vslam ,雷达这些,用加速棒是否有用?
作者: 海果不能吃    时间: 2019-8-9 21:12
nibia 发表于 2019-8-8 08:15
谁解答一下,如果我不做ai,而是vslam ,雷达这些,用加速棒是否有用?

基本没什么用
作者: MurphyZhao    时间: 2019-10-30 18:40
牛皮,有人在 RT-Thread 上跑神经网络

通用神经网络模型 onnx 在 RT-Thread 上的后端,这个可以学习下,https://github.com/wuhanstudio/onnx-backend
作者: 风风火火    时间: 2019-11-7 13:45
跑个qq机器人,让它待群里学讲话
作者: MurphyZhao    时间: 2019-11-11 18:33
风风火火 发表于 2019-11-7 13:45
跑个qq机器人,让它待群里学讲话

结果,话还没有学好,QQ 就被封了
作者: pplive    时间: 2020-4-17 09:18
biezhen 发表于 2019-7-15 18:54
就是模型从float成int8
但这个需要从模型在pc上训练时就开始搞.可以提高速。精度损失相对较小。 ...

这种叫定dian

作者: brentcao    时间: 2020-5-7 13:16
可以使用树莓派4玩一些轻量化的model

作者: brentcao    时间: 2020-5-7 14:23
像tflite   mobile net 之类的




欢迎光临 amobbs.com 阿莫电子技术论坛 (https://www.amobbs.com/) Powered by Discuz! X3.4