AI 应用研究 “淹没” 基础研究现象明显,应加强人工智能机器学习的基础研究
一、前言
从下棋的 AlphaGo 到预测蛋白质结构的 AlphaFold,从画画的 DALL·E 2 到聊天的 ChatGPT,这些或曾红极一时,或正风头正盛的 AI 模型们,正一步一步将人类幻想中的未来推到了眼前。
可盛名之下的人工智能是否真正拥有了我们以为的 “智能”?ChatGPT 的爆火将如何影响学界的研究方向?“大模型大数据大算力” 这条路还能走多远?
全国两会期间,南都记者就上述问题对全国政协委员、南京大学计算机系主任兼人工智能学院院长、欧洲科学院院士周志华进行了专访。
周志华老师表示,ChatGPT 的成功显示出 “大模型大数据大算力” 这条路具有潜力,产业界多半会跟着当前最火热的路线走,但学术界应该鼓励百花齐放。他还在今年的两会提案中提及,当前人工智能领域中基础研究被应用研究 “淹没” 的现象较为明显,应加强人工智能机器学习的基础研究。
二、主要内容
ChatGPT 不算真的 “拥有了智能”
南都:您认为最近大火的 ChatGPT 可以算作真正拥有了 “智能” 吗?
周志华:我们可以说它在某些方面展现出了 “智能行为”,或者 “表现得像拥有智能”,但并不等于真的 “拥有了智能”。ChatGPT 最厉害的地方是能在一段涉及几十个回合的对话中体现出良好的上下文处理能力,给出流畅自然的回答。换句话说,它擅长的是 “说话”,至于说得对不对,至少在目前没有保障。而且,今天你告诉它训练语料之外的东西,明天再问它就不知道了,这显然跟我们人类所谓的 “拥有智能” 不是一码事。
南都:ChatGPT 背后的大模型也被频繁提起,我们该如何理解这条技术路线?
周志华:自然语言对话这件事天然就适合 “大模型大数据大算力” 的路线。从某种程度上说,人类语言本身就是一种 “大数据现象”。比如,一种表达即便本身并不通顺,但这样说的人多了,就能成为大家都接受甚至流行的用法,这一过程就是在综合利用大量语料数据形成 “合适” 的表达。但对于其他任务,或许天然就没有这么多数据,或者本质上并非 “用得多就正确”。总之,没有任何一个模型可以 “包打天下”,需要具体问题具体分析。
南都:那么当前以 ChatGPT 为代表的这波浪潮会影响业内未来的研究方向吗?
周志华:产业界多半会跟着当前最火热的路线走,但学术界应该鼓励百花齐放。ChatGPT 的成功显示出 “大模型大数据大算力” 这条路还有潜力、可以继续往前走,但这不等于说其他路线就不该尝试了。
南都:您所说的 “其他路线” 有哪些?
周志华:比如说,大家都知道大模型消耗数据能源的问题特别严重,那么能不能通过很多小模型来达到目前大模型才有的效果?通过利用领域知识,能否把对大数据的需求降下来?等等。这些都非常值得探索。一旦哪条路线探索成功了,可能又会带来一种 “颠覆式” 的发展。特别是基础研究,其实事先并不知道哪条路能走得更远。当前红得发紫的生成式 AI 和 ChatGPT,背后都是神经网络这一模型,但在 50 年前,神经网络还是业内公认的 “死路”,经历了将近 15 年冰河期后迎来第二波热潮,但 13 年后又再次沉寂。如果因为当时其他路线更成功就放弃神经网络,也就没有今天的这一波人工智能热潮了。事实上,热潮时的引领者正是在残酷环境下坚持下来的人。
机器学习基础研究被应用研究 “淹没” 现象明显,应加强人工智能机器学习的基础研究。
南都:人工智能蝉联三年高考热搜专业榜一,作为导师,您如何看待这一现象?
周志华:现在大家常说全世界都缺人工智能专业人才,但实际上缺的并不是只会使用别人开发的现成工具的人,而是能够在源头上创新、能够针对现实难题发明、设计算法解决方案的高水平人才。这样的人才需要较强的数学基础,计算机学科知识基础和程序能力,还要有全面且深厚的人工智能专业知识,这几样加起来,必然造成在学习过程中会很辛苦。如果希望认真往这个专业方面发展的同学,要有心理准备,不要幻想很轻松就能学好。
南都:你今年的提案与 “人工智能机器学习” 有关。当前机器学习领域现状如何?
周志华:机器学习是人工智能的一个基础核心领域,就是大家平时说的 “人工智能算法” 研究领域,比方说下围棋的 AlphaGo、如今火爆的 ChatGPT,背后的关键算法就是机器学习算法。人工智能基础研究中的核心部分之一就是机器学习基础理论方法和关键算法模型的研究。机器学习科研工作大体可分为两类:“研究机器学习算法” 和 “应用机器学习算法”,前者属于基础研究,是提升人工智能系统的智能性、可靠性、可解释性的关键;后者围绕某个特定应用任务领域,对已有方法和模型调整改进以获得现实效用。我国目前在机器学习应用研究方面发展快、热情高,而在机器学习基础研究方面相对薄弱。并且,相比于人工智能其他领域,机器学习的基础研究被应用研究 “淹没” 的现象尤为明显。
南都:机器学习基础研究被应用研究 “淹没” 的现象是怎么造成的?
周志华:相对于应用技术研究,机器学习基础研究本身的研究门槛更高,取得成果也更慢,不易直接产生效益,年轻科研人员自然就会觉得后者 “性价比低”,对前者热情更高。此外,在科研项目申请与人才选拔过程中,机器学习基础研究与应用技术研究通常被放在一起实施 “打包评审”,评审专家又多为 “大同行”,不易精准把握工作内涵,较多以高质量论文数、引用数等为参考进行评价,这就导致基础研究项目竞争处于劣势,引起更多青年人才趋向应用研究。而在科研项目的考核上,当前通常要求明确量化指标,这对于应用技术研究类项目并无不妥,但基础研究注重从 0 到 1 的探索,难免会有失败,且 “知道什么路走不通” 本身就有重要价值,所以项目管理考核中 “试错机制” 的缺乏,使得科研工作者 “不敢” 从事风险较大的原创性探索。
南都:这些问题可以如何改善?
周志华:我有 3 点建议。第一,完善评审机制,强化 “量身定制” 的分类评价。应尽量避免机器学习基础研究与应用技术研究两类项目 / {/} /人员被分在一起统一评价的情况,同时强化评审专家与项目的匹配度,引导专家从研究工作的技术内涵评价其质量水平。第二,优化考核方式。对于基础研究工作,重点考核其原创价值和对于推动领域发展的学术贡献,不事先规定量化考核指标,允许原创探索过程中的试错。第三,适当调整对机器学习基础研究和应用技术研究两类项目的支持力度。比如,在指南类项目中预设一定比例的基础类指南,在评审环节适当调高对前者的支持比例等,形成基础与应用研究齐头并进的良性发展态势。
三、总结
ChatGPT 其实不算真的 “拥有了智能”,但以 ChatGPT 为代表的这波浪潮会影响业内未来的研究方向,产业界多半会跟着当前最火热的路线走,而学术界应该鼓励百花齐放。ChatGPT 的成功显示出 “大模型大数据大算力” 这条路还有潜力、可以继续往前走。
AI 应用研究 “淹没” 基础研究现象明显,应加强人工智能机器学习的基础研究。机器学习科研工作大体可分为两类:“研究机器学习算法” 和 “应用机器学习算法”,前者属于基础研究,是提升人工智能系统的智能性、可靠性、可解释性的关键;后者围绕某个特定应用任务领域,对已有方法和模型调整改进以获得现实效用。
我国目前在机器学习应用研究方面发展快、热情高,而在机器学习基础研究方面相对薄弱。并且,相比于人工智能其他领域,机器学习的基础研究被应用研究 “淹没” 的现象尤为明显,急需加强人工智能机器学习的基础研究。可以通过完善评审机制,优化考核方式,适当调整对机器学习基础研究和应用技术研究两类项目的支持力度等策略来改善
📚️ 相关资讯:
相关文章
- 深度学习和其他机器学习方法相比有哪些关键的不同点,它为何能在许多领域取得成功?
- (《机器学习》完整版系列)第6章 支持向量机SVM——6.3 何为松驰变量(当搜寻范围扩大时,可能会找到更高的山、更低的谷)
- 机器手臂(3):机械手臂底座
- Stanford大学机器学习公开课(二):监督学习应用与梯度下降
- 面向机器学习的自然语言标注3.2 计算出现次数
- 看穿机器学习(W-GAN模型)的黑箱
- 用机器算法预测自杀倾向
- 吴恩达机器学习笔记 —— 19 应用举例:照片OCR(光学字符识别)
- 《NLTK基础教程——用NLTK和Python库构建机器学习应用》——1.3 向NLTK迈进
- 《NLTK基础教程——用NLTK和Python库构建机器学习应用》——2.5 词干提取
- 《NLTK基础教程——用NLTK和Python库构建机器学习应用》——2.9 拼写纠错
- 《NLTK基础教程——用NLTK和Python库构建机器学习应用》——2.10 练习
- Python数据处理Tips机器学习英文数据集8种算法应用
- 如何在同一台机器上安装多个MySQL的实例 转
- Rust机器学习之Linfa
- 机器学习中的范数规则化之(一)L0、L1与L2范数
- 将机器学习应用于网络安全, RiskIQ 获3050万美元C轮融资
- Gartner说机器学习被严重高估 这事不靠谱
- 机器学习如何威胁企业安全
- 机器学习实践指南:案例应用解析
- 【机器学习】:特征筛选方法
- Windows上最全wsl2使用配置,包含基础配置、高级配置、开发工具、机器学习环境配置、机器人与自动驾驶环境配置(如Ros及百度的无人驾驶系统apollo)、服务器及Web开发环境配置等等