研究人员正确理解人工智能决策的三种方法
2023-04-18 12:55:22 时间
理解人工智能决策对研究人员、决策者和广大人民来说非常重要。幸运的是,有一些方法可以确保我们了解更多。前沿人工智能公司和学术届使用的深度学习模型已经变得如此复杂,以至于即使是构建模型的研究人员也难以理解正在做出的决策。
这一点在某锦标赛上得到了最明显的体现。在这场比赛中,数据科学家和职业围棋选手经常被人工智能在比赛中的决策所迷惑,因为它做出了非正式的游戏,而这并不被认为是最强的一步。
为了更好地理解他们构建的模型,人工智能研究人员开发了三种主要的解释方法。这些是局部解释方法,只解释一个具体的决定,而不是整个模型的决定,考虑到规模,这可能具有挑战性。
研究人员正确理解人工智能决策的三种方法
特征归因
通过特征归因,人工智能模型将识别输入的哪些部分对特定决策是重要的。对于X射线,研究人员可以看到热图或模型认为对其决策最重要的单个像素。
使用这种特征归因解释,可以检查是否存在虚假相关性。例如,它会显示水印中的像素是否被突出显示,或者实际肿瘤中的像素是否被突出显示。
反事实解释
当做出决定时,我们可能会感到困惑,不知道为什么人工智能会做出这样或那样的决定。由于人工智能被部署在高风险的环境中,如监狱、保险或抵押贷款,了解人工智能拒绝因素或上诉的原因应该有助于他们在下次申请时获得批准。
反事实解释方法的好处是,它确切地告诉你需要如何更改输入来翻转决策,这可能具有实际用途。对于那些申请抵押贷款却没有得到的人来说,这个解释会告诉他们需要做些什么来达到他们想要的结果。
样本重要性
样本重要性解释需要访问模型背后的基础数据。如果研究人员注意到他们认为是错误的,他们可以运行一个样本重要性解释,以查看人工智能是否输入了它无法计算的数据,从而导致判断错误。
相关文章
- 谨慎升级!多用户曝旧款Mac升级macOS Monterey系统后变砖
- Windows 7系统出现0x0000007B蓝屏怎么解决?Windows 7系统蓝屏解决方法
- Annotator:为 Linux 图片添加基本注解
- 注意了:火狐浏览器国际版被曝篡改主页 给国内用户塞广告
- 一次 Fork 引发的惨案!
- 应需而生 基于OpenHarmony构建工业操作系统的探究
- Linux 文件系统十问
- 如何在 Linux 上杀死一个僵尸进程
- Ubuntu Online 21.10 惊艳亮相,让你在 Web 浏览器中体验 Ubuntu 桌面
- 升级到Windows 11后如何回收硬驱空间?
- 微软突然删除了Windows 10系统的大量旧版本累积更新
- Avast免费杀毒软件宣布全面兼容Windows 11
- 微软测试 Windows 服务体验包:Windows 11 功能将支持单独下载
- Windows 11右键设计反人类?教你恢复完整右键菜单
- 浅谈 Windows 驱动开发,你会了吗?
- Windows 11值得升级吗?保姆级教程带你一步步体验,赶紧收藏
- Windows电脑必装的10款软件,个个都是精品
- Windows 10系统怎么解除安全模式?
- Windows 10系统,怎么查看x86是32位还是64位?Windows 10系统版本查看方法
- Android 12新调整:未经验证的链接会在默认浏览器中打开