Facebook:计算机视觉新升级,1秒钟可训练40000张图片
2023-06-13 09:13:30 时间
图片来源:Trusted Reviews
雷锋网(公众号:雷锋网)6月9日消息 Facebook今日在西雅图 Data@Scale 大会上公布的一篇研究论文中表示,已成功开发一套新的计算机视觉系统,该系统在每秒钟可完成4万张图片的训练。这样一来在60分钟内就可以完成ImageNet -1K的数据集(共计120万张图片)的训练就成了可能,而且不会降低质量。而在现阶段,完成数据集的训练至少需要几天时间。
目前,Facebook的月活用户已达19.6亿。如果要从海量的图片中筛选出有意义的和值得纪念图片的话,会给AI、机器学习的训练带来很大的压力,而且较大的网络和数据集会导致更长的训练时间,阻碍其研发进度。所以,Facebook一直在研究更好的方法来解决这一问题。
该研究论文表示,Facebook的AI、机器学习团队在试验中采用了新的系统——用基于Caffe2的系统,以高达8192张图的minibatch大小,在256个GPU上用包含120万张图片的ImageNet -1k来训练ResNet-50,只花了1个小时,同时确保了准确性。
从硬件角度来看,Facebook此前的系统只有8个GPU,增至256 个GPU后,规模效益可提升90%。
同时,Facebook还表示,愿意向外公开自己的研发成果和硬件堆栈。
以下即Facebook本次研究论文的下载链接,有需要的小伙伴请猛戳↓
https://research.fb.com/wp-content/uploads/2017/06/imagenet1kin1h3.pdf
。
原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/85981.html
aliyuniPhonePhone硬件相关文章
- 基于bert训练自己的分词系统
- 大师,我悟了!模型没训练几个,思考了半天人生
- 视频识别训练2.3(实现TensorFlow视频识别)
- 最全深度学习训练过程可视化工具(附github源码)
- AiTrust下预训练和小样本学习在中文医疗信息处理挑战榜CBLUE表现
- Leetcode模块训练1
- Leetcode模块训练2
- NeurIPS 2022 | 拯救“中国相声” ! 预训练模型(PLMs)应用新场景 ??(含源码)
- COLING2022 | 情感分析?零样本预训练模型调优 “Prompt 设计指南”(含源码)
- 基于python的opencv人脸训练模型
- 训练集和测试集的分布差距太大有好的处理方法吗?
- PaddleHub--飞桨预训练模型应用工具{风格迁移模型、词法分析情感分析、Fine-tune API微调}【一】
- [JCIM | 论文简读] 低资源反应预测场景的自监督分子预训练策略
- 训练个中文版ChatGPT没那么难:不用A100,开源Alpaca-LoRA+RTX 4090就能搞定
- 大规模预训练、可控文本生成方向,清华大学计算机系NLP实验室招聘博士后(长期有效)
- 一日一卡挑战:RTX2080Ti搞定大模型训练,算力节省136倍,学界欢呼
- DiffusionBERT项目原作解读:掩码预训练语言模型的扩散生成探索
- 立即停止训练比 GPT-4 更强的模型,至少六个月!马斯克、图灵奖得主等数千 AI 专家紧急呼吁
- 无需成千上万张目标图片训练:GAN 没见过猪,却能把狗变成猪
- 训练鲁班学院Redis面试无懈可击(鲁班学院redis面试)