据说,这个刚刚开源的深度学习框架把LocalConv和sublinear memory做出了新境界!还
能让你玩转分布式多机多卡训练,就问你香不香?!
我们不吹不黑地来说一说,事情发生在3月25号,深度学习框架MegEngine开源发布会上
,旷视大咖位人物唐文斌、孙剑悉数登场,还有MegEngine负责人田忠博,一起祭出了既
可以训得快、训得动、训得爽(一训三得)又可以训推一体、动静合一、灵活高效、兼
容并包(四位一体)的工业级框架MegEngine。
说大词你可能体会不到它小而美的细节和优点:
高效实现LocalConv
高效实现LocalConv的前提下,支持任意channel输入输出,
甚至还支持GroupLocalConv(是的,你没有看错)
(PyTorch没有官方支持sublinear memory)
(TensorFlow没有官方支持sublinear memory)
(MXNet 仅半官方支持sublinear memory)
MegEngine官方支持sublinear memory
MegEngine官方支持sublinear memory,还有工业级验证
MegEngine sublinear memory支持任意图
MegEngine sublinear memory是全自动的
.........
那么,欢迎来证实/证伪以上的小细节,也欢迎发现和补充更多的小细节,以下附上传送
门:
website:https://megengine.org.cn/
github:https://github.com/MegEngine/MegEngine
知乎:如何看待3月25号开源的旷视深度学习框架天元(MegEngine)?