-
Notifications
You must be signed in to change notification settings - Fork 4.2k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
关于模型的优化 #39
Comments
检查下编译 libncnn.a 的时候是否有编译 arm 目录里的代码 |
怎么检查啊 |
检查生成的 layer_declaration.h 里头是不是有 xxx_arm 的那种 |
caffe2ncnn设置quantize_level == 256后 用转化后的模型app蹦掉 |
quantize_level 256 只能降低模型大小,不能提升运行速度,而且会降低效果 |
@nihui 你好,我编译libncnn.a已经编译了arm目录下代码,也看到了layer_declaration.h 里的 xxx_arm ,但是我用mobilenetV2测的时候耗时5s多,而且跟原来不用neon耗时差不多,请问这是怎么回事? |
quantize_level 256 只能降低模型大小,不能提升运行速度。为什么呢,我看到你实现了卷积的int8 这个会和float速度一样吗? |
压缩前模型120M,压缩到float后是60M左右,但是在load_bin文件时,消耗的内存都是一样的,这是怎么回事?不是应该压缩后模型加载时内存要小一半么? |
armv7a/arm64-v8a均已支持int8加速,请更新代码 :) |
刚才终于编译好 so文件了 但是我放android里面运行 时间消耗居然有4s
前段时间 用caffe测试是2.5s
我想请教一下 转android项目的具体流程 看看是不是遗漏了什么步骤
The text was updated successfully, but these errors were encountered: