从分散的(联合的)和集中的数据中联合学习以减轻分布转移
以隐私为动机,联合学习(FL)是一种越来越多使用的范式,学习在边缘设备上集体进行,每个设备都有一个用户生成的训练实例的缓存,并保持在本地设备上。这些设备上的训练实例是在用户与设备互动的过程中就地收集的,因此高度反映了至少部分推理数据的分布。然而,分布的变化可能仍然存在;设备上的训练实例可能缺乏在推理时预期会遇到的一些数据输入。本文提出了一种缓解这种转变的方法:选择性地使用数据中心数据,与FL混合。通过混合分散的(联盟的)和集中的(数据中心的)数据,我们可以形成一个有效的训练数据分布,更好地匹配推理数据分布,从而产生更有用的模型,同时仍然满足FL所施加的私人训练数据访问限制。
原文题目:Jointly Learning from Decentralized (Federated) and Centralized Data to Mitigate Distribution Shift
原文:With privacy as a motivation, Federated Learning (FL) is an increasingly used paradigm where learning takes place collectively on edge devices, each with a cache of user-generated training examples that remain resident on the local device. These on-device training examples are gathered in situ during the course of users' interactions with their devices, and thus are highly reflective of at least part of the inference data distribution. Yet a distribution shift may still exist; the on-device training examples may lack for some data inputs expected to be encountered at inference time. This paper proposes a way to mitigate this shift: selective usage of datacenter data, mixed in with FL. By mixing decentralized (federated) and centralized (datacenter) data, we can form an effective training data distribution that better matches the inference data distribution, resulting in more useful models while still meeting the private training data access constraints imposed by FL.
相关文章
- 一篇运维老司机的大数据平台监控宝典(2)-联通大数据集群平台监控体系详解
- 一篇运维老司机的大数据平台监控宝典(1)-联通大数据集群平台监控体系进程详解
- 空中换引擎 博时基金数字化转型经验谈
- 如何高效地学习编程语言
- 作为一名阿里巴巴数据分析大牛,送给学弟学妹的经验积分
- 为什么要学习R语言
- Hadoop大数据分析平台的介绍性讨论
- 最全面的Spring学习笔记
- 16个用于数据科学和机器学习的顶级平台
- 给有抱负的数据科学家的六条建议
- 如何做一枚合格的数据产品经理
- 除Kaggle外,还有哪些顶级数据科学竞赛平台
- 一个鲜为人知却可以保护隐私的训练方法:联合学习
- 干货 :送你12个关于数据科学学习的关键提示(附链接)
- 大数据行业有多少种工作岗位,各自的技能需求是什么?
- 中国移动研究院常耀斌:商用大数据平台的研发之路
- 这些数据科学家必备的技能,你拥有哪些?
- 自学成才的开发者有何优势和劣势?
- Gartner报告:正处于数据科学与机器学习工具 “大爆炸”的时代
- Ready Computing借助InterSystems IRIS医疗版为医疗机构提供具有高度互操作性和可扩展性的解决方案