旷视深度学习
  • 浏览:546 评论:0 人

  • 据说,这个刚刚开源的深度学习框架把LocalConv和sublinear memory做出了新境界!还
    能让你玩转分布式多机多卡训练,就问你香不香?!
    我们不吹不黑地来说一说,事情发生在3月25号,深度学习框架MegEngine开源发布会上
    ,旷视大咖位人物唐文斌、孙剑悉数登场,还有MegEngine负责人田忠博,一起祭出了既
    可以训得快、训得动、训得爽(一训三得)又可以训推一体、动静合一、灵活高效、兼
    容并包(四位一体)的工业级框架MegEngine。
    说大词你可能体会不到它小而美的细节和优点:
    高效实现LocalConv
    高效实现LocalConv的前提下,支持任意channel输入输出,
    甚至还支持GroupLocalConv(是的,你没有看错)
    (PyTorch没有官方支持sublinear memory)
    (TensorFlow没有官方支持sublinear memory)
    (MXNet 仅半官方支持sublinear memory)
    MegEngine官方支持sublinear memory
    MegEngine官方支持sublinear memory,还有工业级验证
    MegEngine sublinear memory支持任意图
    MegEngine sublinear memory是全自动的
    .........
    那么,欢迎来证实/证伪以上的小细节,也欢迎发现和补充更多的小细节,以下附上传送
    门:
    website:https://megengine.org.cn/
    github:https://github.com/MegEngine/MegEngine
    知乎:如何看待3月25号开源的旷视深度学习框架天元(MegEngine)?