新闻动态
新闻动态
精于型 悍于心!Tengine-Lite以开源致敬AIoT!
2020.07.07
公司动态

近日,借OPEN AI LAB(开放智能) AI端侧推理框架Tengine-Lite开源之际,同为tengine核心开发者的端侧开源界“四大卷王”齐聚一堂,共话AI。


此次畅聊涉及两方面内容,首先,Tengine-Lite项目负责人圈圈虫为众大咖抽丝剥茧,层层揭开了Tengine-Lite神秘面纱。同时,“四大卷王”也是真情流露,与大家真诚分享了端侧框架的发展之路。
那么,传说中的“四大卷王”究竟何许人也?小编帮诸位准备了人物画像,我们一睹为快~


Tengine-Lite,驱动最强大脑


越来越多的手机市场用户,会在意APP的大小。当然,IoT领域用户也不例外。在低功耗的浪潮下,芯片越来越倾向于片上SRAM与Flash的结构。Tengine-Lite二进制文件库(包括.a静态库与.so的动态库)大小急剧减小,以.so动态库为例,Tengine-Lite库文件大小相较Tengine,较小非常显著。


目前安卓的库大小在1MB以内,Linux版本在500KB以内。


Tengine-Lite,独具高效思维

Tengine-Lite采用前后端松耦合设计,框架和计算库采用Plug-in,可以更好地保证后续异构后端的灵活挂载。同时,Tengine-Lite高效的运作思维,使得源代码编译时间大幅缩减,极大的增强了用户代码编译的体验感。



Tengine-Lite,给你“稳稳的幸福”


性能抖动会对嵌入式平台和手机平台的系统性能设计、用户使用体验带来较大影响。考虑到这一点,Tengine-Lite在单核、双核、多核的性能稳定性方面,相较Tengine有明显提升。


Tengine-Lite,用智慧“流畅运行”


目前,Tengine-Lite是市面上唯一可在各种嵌入式操作系统上运行的AI计算框架。不但可以在FreeRTOS\RTT\Lite-OS等极简的实时操作系统或裸机Bare-matel上运行,还可以在MCU、RISC-V等低功耗、资源极为有限的IoT芯片主控上运行。




架构重构后兼容性方面,也是用户比较关心的。现有以下四点说明:


1、NNIR模型格式保留现有tmfile格式,兼容当前应用,用户现有tmfile模型可以无缝切换到新的Tengine-Lite上运行;


2、编译方式统一,采用CMake进行编译管理,并将新增一些编译配置选项(新功能和新特性);


3、依旧提供.so动态库和.a静态库形式,若想不修改代码可以通过rename库文件的方式进行代码复用;


4、保留绝大多数常用API不变,会增减部分API。原则是删减对用户无效或极少使用的API,新增API主要是功能性的,更改的API是提升用户反馈的易用性;当然也会提供API修改对比文档。




Tengine开源3年来,表现可圈可点。相信此次“后浪”Tengine-Lite开源,定会在保持原有优势项的基础上,不断精进,继续为海量AIoT应用和设备提供高性能AI推理的技术支持,赋能万物,万物智能!