人工智能的三大风险以及如何避免
人工智能系统和人工智能项目如今变得越来越普遍,因为企业可以利用这种新兴技术的力量来自动化决策和提高效率。
如果企业正在实施一个大规模的人工智能项目,那么应该如何准备?以下是与人工智能相关的三个最重要的风险,以及如何预防和减轻它们。
1、从隐私到安全
人们都很关注自己的隐私,而面部识别人工智能在某些方面正在迅速发展,引发了关于隐私和监控的伦理担忧。例如,这项技术可以让企业在未经用户同意的情况下跟踪用户的行为,甚至是情绪。美国政府最近提出了一项“人工智能权利法案”,以防止人工智能技术造成与核心价值观相悖的真正伤害,包括基本的隐私权。
IT领导者需要让用户知道正在收集什么数据,并获得用户的同意。除此之外,关于数据集的适当培训和实施对于防止数据泄露和潜在的安全漏洞至关重要。
测试人工智能系统以确保它实现目标,而不会产生意想不到的影响,例如允许黑客使用虚假的生物识别数据访问敏感信息。实施人工智能系统的监督,可以使企业在必要时停止或撤销它的行动。
2、从不透明到透明
许多使用机器学习的人工智能系统是不透明的,这意味着不清楚它们是如何做出决定的。例如,对抵押贷款数据广泛的研究表明,用于批准或拒绝贷款的预测性人工智能工具对少数族裔申请者的准确性较低。技术的不透明性侵犯了贷款被拒绝的申请者的“解释权”。
当企业的人工智能/机器学习工具对其用户做出了重要的决定时,需要确保他们得到通知,并能得到关于为什么做出这个决定的完整解释。
企业的人工智能团队还应该能够追踪导致每个决策的关键因素,并在这一过程中诊断出任何错误。内部面向员工的文档和外部面向客户的文档应该解释人工智能系统是如何以及为什么这样运作的。
3、从偏见到公平
最近的一项研究表明,根据具有偏见的数据训练的人工智能系统强化了歧视模式,从医学研究招募不足到科学家参与度降低,甚至少数族裔患者不太愿意参与研究。
人们需要问问自己:如果意想不到的结果发生了,它会影响谁或哪个群体?它是否平等地影响所有用户,还是只影响特定群体?
仔细查看历史数据,评估是否引入了任何潜在的偏见或减轻了偏见。一个经常被忽视的因素是企业的开发团队的多样性,而更加多样化的团队通常会引入更公平的过程和结果。
为了避免意外的伤害,企业需要确保来自人工智能/机器学习开发、产品、审计和治理团队的所有涉众完全理解指导企业的人工智能项目的高级原则、价值和控制计划。获得独立的评估,以确认所有项目都符合这些原则和价值观。
相关文章
- 抛弃VS Code,转向终端,我“移情别恋”的理由是什么?
- 在 Go 语言中管理 Concurrency 的三种方式
- 提高GIT中代码质量的七点优秀实践
- 构建Kubernetes集群应该有几个?优缺点是什么?
- 微软收购TikTok或面临技术难题:特朗普期限太紧
- 2020年8月编程语言排行榜:C语言第一无悬念,SQL进入前十靠运气?
- DevOps二三事:用持续集成构建自动模型训练系统的理论和实践指南
- Go语言生成二维码是如此简单
- HTTP/3协议的安全优势与挑战
- 上“中台”,是送分,还是送命?
- 公司差点因为代码写得差把我直接给开掉
- Kubernetes架构设计与核心组件工作流
- 你要「老婆」不要?谷歌程序员20行代码把二次元老婆带到现实世界
- 10个很受欢迎的代码编辑器,让开发效率翻倍
- 老板喊你设计一个高效的定时任务系统!
- 快速实施现代化数据架构的五点建议
- 鼠标发明者William English离世,终年 91 岁
- 《三十而已》火爆全网,我分析了21万条弹幕,发现了这些秘密
- 确保Kubernetes安全的三个阶段:构建、部署和运行时!
- GitHub霸榜项目:30万字图解算法题典,超全实用资源,狂揽6000星