光子处理器达到前所未有的计算密度
一个国际研究人员团队开发了一种用于光子处理器的新方法和体系结构,可加快机器学习领域的复杂数学任务。
越来越多的AI应用程序的出现(例如在自动驾驶汽车,智能城市和语音识别中)给当前的计算机处理器带来了沉重的负担,无法满足需求。
一组科学家开发了一种解决该问题的方法,使用光子(基于光的)处理器将处理和数据存储结合在单个芯片上。这些可以通过并行且更快地处理信息来超越常规电子芯片。
明斯特大学的Wolfram Pernice教授说:“用于加速机器学习领域任务的轻型处理器使复杂的数学任务能够以较高的速度和吞吐量进行处理。” “这比依靠电子数据传输的传统芯片(如图形卡或专用硬件(如TPU))要快得多。”
科学家们开发了一种用于矩阵矢量乘法的硬件加速器,矩阵矢量乘法是人工神经网络的骨干:受到通常用于处理图像或音频数据的生物大脑的松动启发的网络。由于不同波长的光不会干涉,因此它们能够使用多个波长进行并行计算(多路复用),这为光子处理器打开了大门,光子处理器具有更高的数据速率和每单位面积更多的操作。
但是,要抓住这个机会,就需要使用另一种技术作为光源:EPFL开发的基于芯片的“频率梳”。
EPFL的教授Tobias Kippenberg说:“我们的研究是第一个将频率梳应用于人工神经网络领域的研究。” 肯彭贝格(Kippenberg)的工作开创了频率梳的开发领域,它提供了可以在同一光子芯片内独立处理的多种波长。
研究人员还选择将光子结构与相变材料结合起来作为节能存储元件。这样就可以在不需要能源的情况下存储和保存矩阵元素。
制造光子芯片后,研究人员在神经网络上对其进行了测试,以识别手写数字。研究人员认为,输入数据与一个或多个过滤器(可以识别例如图像的边缘)之间的操作非常适合其矩阵体系结构,从而使研究人员可以达到前所未有的计算密度。
牛津大学的Johannes Feldman博士是该研究的主要作者,他解释说:“利用光进行信号传输使处理器能够通过波长多路复用执行并行数据处理,这导致更高的计算密度和仅需执行许多矩阵乘法即可。一个时间步。与通常在低GHz范围内工作的传统电子产品相比,光调制速度可以达到50至100GHz范围。”
这项研究发表在本周的某媒体杂志上,具有极为广泛的应用。这可能包括更高的AI应用程序数据同步处理;更大的神经网络,可提供更准确的预测和精确的数据分析;大量的临床数据有助于诊断;更快速地评估自动驾驶汽车中的传感器数据,并扩展云计算基础架构。
相关文章
- c语言中如何计算数组长度
- 如何使用mysql查询where条件里的or和and
- 【ASP.NET Core】EF Core - “影子属性”
- 如何用python list删除指定元素?
- 【ASP.NET Core】EF Core 模型与数据库的创建
- 如何处理单元测试中的请求?
- 【.net 深呼吸】连接Access数据库应注意的几点
- 【Win 10 应用开发】Sqlite 数据库的简单用法
- 【Win 10 应用开发】通过数据绑定更新进度条
- 【Win 10 应用开发】UDP广播
- 【Win 10应用开发】延迟共享
- 【Win 10 应用开发】共享目标(UWP)
- 金融/语音/音频处理学术速递[11.24]
- 计算照片的面积(UWP篇)
- 【Win 10应用开发】分阶段进行数据绑定
- 【Win10 应用开发】实现数据的增量加载
- Mysql基础入门知识点总结笔记
- TCP/IP四层模型对比OSI七层网络模型的区别是啥?数据传输过程原来是这样的!
- 【Win10应用开发】签名与验证
- BT × IT | 如何利用神经网络做空间转录组分析?