https://mp.weixin.qq.com/s/p_qdKcQwQ8y_JUw3gQUEnA
谷歌大脑用强化学习为移动设备量身定做最好最快的CNN模型
https://mp.weixin.qq.com/s/OyEIcS5o6kWUu2UzuWZi3g
这么Deep且又轻量的Network,实时目标检测
https://mp.weixin.qq.com/s/8NDOf_8qxMMpcuXIZGJCGg
Google又发大招:高效实时实现视频目标检测
https://mp.weixin.qq.com/s/IxVMMu_7UL5zFsDCcYfzYA
AutoML自动模型压缩再升级,MIT韩松团队利用强化学习全面超越手工调参
https://mp.weixin.qq.com/s/BMsvhXytSy2nWIsGOSOSBQ
自动生成高效DNN,适用于边缘设备的生成合成工具FermiNets
https://mp.weixin.qq.com/s/nEMvoiqImd0RxrskIH7c9A
仅17KB、一万个权重的微型风格迁移网络!
https://mp.weixin.qq.com/s/pc8fJx5StxnX9it2AVU5NA
基于手机系统的实时目标检测
https://mp.weixin.qq.com/s/6wzmyhIvUVeAN4Xjfhb1Yw
论文解读:Channel pruning for Accelerating Very Deep Neural Networks
https://mp.weixin.qq.com/s/-X7NYTzOzljzOaQL7_jOkw
惊呆了!速度高达15000fps的人脸检测算法!
https://mp.weixin.qq.com/s/Faej1LKqurtwEIreUVJ0cw
普林斯顿新算法自动生成高性能神经网络,同时超高效压缩
https://mp.weixin.qq.com/s/uK-HasmiavM3jv6hNRY11A
深度梯度压缩:降低分布式训练的通信带宽
https://mp.weixin.qq.com/s/MDbbGzDOGHk5TBgbu-oA
中大商汤等提出深度网络加速新方法,具有强大兼容能力
https://mp.weixin.qq.com/s/gbOmpP7XO1Hz_ld4iSEsrw
三星提出移动端神经网络模型加速框架DeepRebirth
https://mp.weixin.qq.com/s/rTFLiZ7DCo6vzD5O64UnMQ
阿里提出新神经网络算法,压缩掉最后一个比特
https://mp.weixin.qq.com/s/m9I5TM9uJcgZvMusO667OA
5MB的神经网络也高效,Facebook新压缩算法造福嵌入式设备
https://mp.weixin.qq.com/s/FFs0-ROvbXSAIOspW_rMbw
超越MobileNetV3!谷歌大脑提出MixNet轻量级网络
https://mp.weixin.qq.com/s/uXbLb5ITHOU0dZRSWNobVg
算力限制场景下的目标检测实战浅谈
https://mp.weixin.qq.com/s/DoeoPGnS88HQmxagKJWLlg
小米开源FALSR算法:快速精确轻量级的超分辨率模型
https://mp.weixin.qq.com/s/wT39oUWfrQK-dg7hGXRynQ
实时单人姿态估计,在自己手机上就能实现
https://mp.weixin.qq.com/s/RVsXUnAJ2f0Cby7BPaWifA
人物属性模型移动端实验记录
https://mp.weixin.qq.com/s/yCcK6UJqm850HON7xU3R6g
模型压缩重要方向-动态模型,如何对其长期深入
https://zhuanlan.zhihu.com/p/93020471
轻量型网络:IdleBlock
https://mp.weixin.qq.com/s/AjuTXFmxHYdUUqodSpP_4w
10倍加速!爱奇艺超分辨模型加速实践
https://mp.weixin.qq.com/s/rzv8VCAxBQi0HsUcnLqqUA
处理移动端传感器时序数据的深度学习框架:DeepSense
https://mp.weixin.qq.com/s/UYk3YQmFW7-44RUojUqfGg
上交大ICCV:精度保证下的新型深度网络压缩框架
https://mp.weixin.qq.com/s/ZuEi32ZBSjruvtyUimBgxQ
揭秘支付宝中的深度学习引擎:xNN
https://mp.weixin.qq.com/s/0KlnQ8UUxpyhBRdeo0EOAA
用于网络压缩的滤波器级别剪枝算法ThiNet
https://mp.weixin.qq.com/s/FvR6loJ8KUxm7qwclestcQ
专门为卷积神经网络设计的训练方法:RePr
https://mp.weixin.qq.com/s/67GSnZnJySFrCESvmwhO9A
论文解读Channel pruning for Accelerating Very Deep Neural Networks
https://mp.weixin.qq.com/s/Lkxc_9sbRY157sMWaD5c7g
视频分割在移动端的算法进展综述
https://mp.weixin.qq.com/s/ie2O5BPT-QxTRhK3S0Oa0Q
剪枝需有的放矢,快手&罗切斯特大学提出基于能耗建模的模型压缩
https://mp.weixin.qq.com/s/3uu50NWFJqA_MTb8wSxIKA
如何优雅地训练大型模型?
https://mp.weixin.qq.com/s/RMDEvy-3-L-Rag1OrZLYhg
深度学习模型的训练时内存次线性优化
https://mp.weixin.qq.com/s/8PUIJykzoNe-fYht5ozrcQ
新一代CTR预测服务的GPU优化实践
https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650771181&idx=1&sn=30b2a5abc7261b4f2ea122e8e96fdabf
世界第一超算跑深度学习模型,2.76万块V100 GPU将分布式训练扩展到极致
https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650771231&idx=2&sn=6907d6d7a98eab353a076ed48352aadc
15分钟完成Kinetics视频识别训练,除了超级计算机你还需要TSM
https://www.zhihu.com/question/404721763
如何评价Google的GShard论文?
https://mp.weixin.qq.com/s/eTwSo3GnxSnK-BwwZeWmKA
Jeff Dean等提出自动化分层模型,优化CPU、GPU等异构环境,性能提升超60%
https://mp.weixin.qq.com/s/q0VENBNgolpeWmDapF5q_g
在有池化层、1步幅的CNN上减少冗余计算,一种广泛适用的架构转换方法
https://mp.weixin.qq.com/s/YusIuUtvTwoskNRV_OV7iw
100万帧数据仅1秒!AI大牛颜水成团队强化学习新作,代码已开源
https://www.zhihu.com/answer/2259890109
资源受限的人工智能
https://mp.weixin.qq.com/s/ai_XI8ddP5I2m3ChCqnQsA
高效大规模机器学习训练,198页PDF带你概览领域前沿进展
https://mp.weixin.qq.com/s/RAjusu-Jyqb8K19N8KZ_3w
一份552页《大规模数据系统:Large-scale Data Systems》硬核课程PPT
https://mp.weixin.qq.com/s/AeCQK2hFy60pq6y1tRcs_A
20页pdf,A Survey on Large-scale Machine
https://mp.weixin.qq.com/s/iW0k80TUPuWDE9xwHvX91g
为什么你需要Raven:全球首个真正分布式深度学习训练协议
https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650750181&idx=1&sn=156dac3c5646143fc2577972f1506836
GPU捉襟见肘还想训练大批量模型?谁说不可以
https://mp.weixin.qq.com/s/-CTVyKWtdTK0RIfzzPVyNQ
分布式与高效深度学习,140页ppt详述深度学习压缩与联邦学习训练技术进展
https://mp.weixin.qq.com/s/nTBuYuW7h9wZYuo3w1xGmQ
分布式训练的方案和效率对比
https://mp.weixin.qq.com/s/LOTQfD9KKtAq0zz4rObCGA
EB级系统空中换引擎:阿里调度执行框架如何全面升级?(DAG 2.0)
https://mp.weixin.qq.com/s/kOCftzSbHe2mvDmlRp-ihA
Jeff Dean:AI对计算机系统设计的影响
https://mp.weixin.qq.com/s/XjNPaL6PC9LHX1PEGn5UZg
微软实时AI系统“脑波计划”有多牛?看完秒懂!
https://mp.weixin.qq.com/s/OkqUulFYHQSdgAbf9Fi9LA
CoCoA:大规模机器学习的分布式优化通用框架
https://mp.weixin.qq.com/s/ToIDncp9dS_qk47PsdZm5A
杜克大学:分布式深度学习训练算法TernGrad
https://mp.weixin.qq.com/s/rhtrN2qDspGkpJYDAVSX7w
UC Berkeley展示全新并行处理方法
https://mp.weixin.qq.com/s/ASqpPSIgW_bcFPBfRYz7Xg
哈佛大学提出在云、边缘与终端设备上的分布式深度神经网络DDNN
http://blog.sina.com.cn/s/blog_81f72ca70101kuk9.html
《Large Scale Distributed Deep Networks》中译文
https://zhuanlan.zhihu.com/p/26552293
Dataflow架构和神经网络加速器
https://zhuanlan.zhihu.com/p/28445511
浅析深度学习框架设计中的关键技术
https://mp.weixin.qq.com/s/wu32LBwrkkBIANMdknHlCA
C++并行实战,592页pdf,C++ Concurrency in Action
https://zhuanlan.zhihu.com/p/79385727
有限元并行计算简介
https://mp.weixin.qq.com/s/heVQ9AIZKxTiCNiAtYKaag
新加坡国立大学最新“大规模深度学习优化”综述论文,带你全面了解最新深度学习准确率和效率的优化方法
https://mp.weixin.qq.com/s/B4aQp_0YvS0jyUHNLQ5rRA
IBM发布新型分布式深度学习系统:结合软硬件实现当前最优性能
http://engineering.skymind.io/distributed-deep-learning-part-1-an-introduction-to-distributed-training-of-neural-networks
神经网络的分布式训练
https://mp.weixin.qq.com/s/nvuflLfOolidDDXJVe2DZA
美团深度学习系统的工程实践
https://mp.weixin.qq.com/s/IE6blClvhYlq3-QAGHo5ww
TensorFlow分布式计算机制解读:以数据并行为重
https://mp.weixin.qq.com/s/4Ii3um3jqfm5yKKxZAFdmA
继1小时训练ImageNet之后,大批量训练扩展到了3万2千个样本
https://mp.weixin.qq.com/s/IqjKdAlGYREqCR9XQB5N1A
伯克利AI分布式框架Ray,兼容TensorFlow、PyTorch与MXNet
https://mp.weixin.qq.com/s/aNX_8UDYI_0u-MwMTYeqdQ
开发易、通用难,深度学习框架何时才能飞入寻常百姓家?
https://mp.weixin.qq.com/s/UbAHB-uEIvqYZCB7xIAJTg
机器学习新框架Propel:使用JavaScript做可微分编程
https://mp.weixin.qq.com/s/Ctl65r4iZNEOBxiiX2I2eQ
Momenta王晋玮:让深度学习更高效运行的两个视角
https://zhuanlan.zhihu.com/p/371499074
OneFlow——让每一位算法工程师都有能力训练GPT
https://mp.weixin.qq.com/s/X7XG51yohLnEZ_Jg6XK9oQ
Caffe作者贾扬清教你怎样打造更加优秀的深度学习架构
https://zhuanlan.zhihu.com/p/529388795
训练千亿参数大模型,离不开四种GPU并行策略
https://mp.weixin.qq.com/s/_mrYI7McMBUx0lEh4rNiYQ
百度开源移动端深度学习框架MDL,手机部署CNN支持iOS GPU
https://mp.weixin.qq.com/s/ZCNSq5FC2REoVTKAK2mJQg
分布式深度学习原理、算法详细介绍
https://mp.weixin.qq.com/s/Ewiil56vMkzhO2xDWgo-Wg
苹果发布Turi Create机器学习框架,5行代码开发图像识别
https://mp.weixin.qq.com/s/jOVUPhrCBI9W9vPvD9eKYg
UC Berkeley提出新型分布式框架Ray:实时动态学习的开端
您的打赏,是对我的鼓励