ai|计算能力的突破,使系统能够在较短时间内计算复杂的机器学习算法

ai|计算能力的突破,使系统能够在较短时间内计算复杂的机器学习算法

文章图片

ai|计算能力的突破,使系统能够在较短时间内计算复杂的机器学习算法

文章图片

ai|计算能力的突破,使系统能够在较短时间内计算复杂的机器学习算法

文章图片


机器学习目前广泛应用于现代人工智能应用 。 计算能力的突破 , 使系统能够在较短时间内计算复杂的机器学习算法 。 在所有这些应用中 , 高检测精度需要复杂的机器学习计算 , 其代价是计算复杂度高 。 这就对硬件平台提出了很高的要求 。 目前 , 大多数应用程序都是在通用计算引擎上实现的 , 尤其是图形处理单元 。



然而 , 最近工业界和学术界的正在为机器学习设计专用集成电路的趋势 , 尤其是在深度神经网络领域 。 在过去的几十年中 , 图形处理单元在面部、对象识别、数据挖掘和其他人工智能应用程序训练深度学习算法或卷积神经网络方面已经变得流行和标准 。 处理单元提供广泛的硬件选择、高性能的吞吐量以及稳定但不断扩展的生态系统 。 处理单元架构通常使用几个迷你图形处理器来实现 , 每个图形处理器都有自己的计算单元和适合矩阵乘法的本地缓存 。



多个微型处理器中包含共享高速总线 , 以实现微型处理器之间的快速数据交换 。 此外 , 它还充当连接主CPU和多个迷你图形处理器的桥梁 。 由于大量并行处理内核 , 处理单元提供了显着的计算速度 。 然而 , 计算和数据移动也需要相对较大的功耗 。 此外 , 需要高速互连接口来支持快速数据交换 。 因此 , 与其他技术相比 , 处理单元以高设计成本和功耗为代价提供了强大的计算能力 。



随着行业的成熟 , 可编程门阵列现在开始成为处理单元实施基于卷积神经网络的深度学习算法的可靠竞争对手 。 微软研究的弹射项目在业界引起了相当多的关注 , 因为它声称使用可编程门阵列的能效比处理单元高10倍 。 尽管单个可编程门阵列的性能远低于同等价格的处理单元 , 但功耗低得多的事实可能对许多高性能可能不是首要任务的应用产生重大影响 。
【ai|计算能力的突破,使系统能够在较短时间内计算复杂的机器学习算法】


DRAM充当存储临时数据的大缓冲区 , 而CPU负责管理计算 , 包括向可编程门阵列发送指令 , 对可编程门阵列进行编程以适应机器学习算法 。 由于机器学习算法通过编程在硬件层面进行了优化 , 因此与常规处理单元计算相比 , 对相应机器学习算法没有任何硬件优化 , 数据访问效率更高 。 可编程门阵列虽然在硬件设计上通过优化机器学习算法降低了计算功耗 , 但总体效率与单一算法的集成电路相比仍然低很多 。



与集成电路相比 , 可编程门阵列引入的可编程性也带来了复杂的逻辑 , 增加了硬件设计成本 。 在数据中心 , 硬件加速器解决方案以处理单元和可编程门阵列解决方案为主 。 最先进的机器学习计算主要依赖于云服务器 。 然而 , 高功耗使得这种方法在许多实际应用场景中受到限制 。 由于便携式设备上基于云的人工智能应用程序需要网络连接能力 , 网络连接的质量会影响用户体验 。



此外 , 实时人工智能应用程序无法接受网络和通信延迟 。 此外 , 大多数物联网人工智能应用都有严格的功耗和成本约束 , 既不能支持大功率处理单元 , 也不能将大量数据传输到云服务器 。 为了解决上述问题 , 科研人员引入了几种基于边缘的AI处理方案 , 旨在利用边缘侧的本地化数据 , 避免网络通信开销 。 目前 , 大多数本地化的人工智能处理器都专注于处理卷积神经网络 , 它被广泛用于计算视觉算法 , 需要大量的计算资源 。

相关经验推荐