我们需要重新定义人工智能伦理吗?
人工智能(AI)有两个明确的目标,目前它们并不相互排斥,但只有一个目标对人类长期有利。这些目标是要么提高人们的工作效率,要么取代人们。最近有两件事表明我们可能需要调整道德行为,以恰当地利用人工智能。
第一个是关于一名艺术家使用人工智能创作艺术,在艺术比赛中赢得了不公平的胜利;而另一个则是关于使用人工智能让学生花很少的精力更快地写出更好的论文。
围绕事件的争论同以往一样,许多人认为学校应该禁止使用计算器和个人电脑,因为这降低了学生们学习乘法表的需要,也逃避了许多初级研究,从而转到线上搜索和百科上。尽管随着时间的推移,使用计算器和个人电脑的技能对走上工作岗位的学生来说,工作方法更有价值(效率)。
简而言之,我们最终必须思考的是,使用人工智能更快地创造出更好的产品是否被认为是欺骗,还是理所应当?
关于人工智能有一种新观点:创造取代人类的人工智能可能要比创造增强人类的人工智能更容易。第一种方法只需要专注于复制这个人所做的事情,创建一个他们的数字孪生,现在已经有公司在做这个了。比如制造业的智能自动化。不需要与人类接触,而人类缺乏共同的语言、共同的技能、共同的兴趣。
这意味着AI最有效的使用路径不是增强路径,而是替代路径,因为AI在其参数范围内单独运行并不会令人反感,但AI被用于显著增强用户,特别是在竞争中,会被视为作弊。
例如在自动驾驶汽车上尤为明显。对于自动驾驶汽车,目前默认的技术是增强驾驶员的能力,丰田称之为“守护天使”(Guardian Angel)。但在测试中,英特尔发现,在自动驾驶汽车中为人类驾驶员提供控制选项会增加驾驶员的压力,因为他们不知道自己是否会突然被要求驾驶汽车。如果汽车不提供人类驾驶选项,未经训练的驾驶员会感到更舒服。这表明,从长远来看,不允许人类驾驶员控制的自动驾驶汽车将比那些提供人类驾驶员控制功能的自动驾驶汽车更受欢迎和成功。
对于艺术家或作家来说,与比他们更有能力的人合作创作一件艺术品、一篇论文甚至一本书是很正常的。而且,有人在得到其他作者许可的情况下,利用其他作者的名义来创作一本书,这种情况也并不少见。如果使用AI而不是老师/导师/合作者/合作伙伴/代笔,情况会更糟吗?
公司只是想要高质量的工作,如果他们能从机器那里获得比人力更高的质量,他们就会做出并已经做出了这样的选择。想想过去几十年制造业和仓库自动化的过程就知道了。
我们需要了解如何使用人工智能,如何接受最有效利用人工智能资源的工作产品,同时确保我们能够防止知识产权盗窃和剽窃。如果我们不这样做,人工智能的发展趋势将继续从关注人类的辅助转向替代人类,这将不利于行业或越来越多的职业更好地利用人工智能。
相关文章
- 【技术种草】cdn+轻量服务器+hugo=让博客“云原生”一下
- CLB运维&运营最佳实践 ---访问日志大洞察
- vnc方式登陆服务器
- 轻松学排序算法:眼睛直观感受几种常用排序算法
- 十二个经典的大数据项目
- 为什么使用 CDN 内容分发网络?
- 大数据——大数据默认端口号列表
- Weld 1.1.5.Final,JSR-299 的框架
- JavaFX 2012:彻底开源
- 提升as3程序性能的十大要点
- 通过凸面几何学进行独立于边际的在线多类学习
- 利用行动影响的规律性和部分已知的模型进行离线强化学习
- ModelLight:基于模型的交通信号控制的元强化学习
- 浅谈Visual Source Safe项目分支
- 基于先验知识的递归卡尔曼滤波的代理人联合状态和输入估计
- 结合网络结构和非线性恢复来提高声誉评估的性能
- 最佳实践丨云开发CloudBase多环境管理实践
- TimeVAE:用于生成多变量时间序列的变异自动编码器
- 具有线性阈值激活的神经网络:结构和算法
- 内网渗透之横向移动 -- 从域外向域内进行密码喷洒攻击