易商讯
当前位置: 首页 » 网络 » AI » 正文

谷歌 AI 开源张量计算库 TensorNetwork,计算速度暴涨 100 倍

放大字体  缩小字体 发布日期:2020-09-21 13:39:52
导读

谷歌宣布开源张量计算库 TensorNetwork 及其 API,使用 TensorFlow 为后端,对 GPU 处理速度进行优化,与 CPU 相比,计算加速效果高达 100 倍。现代科学领域中,有很多艰巨困难的科学任务,比如开发高温超导体材料、了解空间和时间的本质等,都涉及到处理量子系统的复杂性。这些问题之所以困难,是因为这些系统中的量子态数

谷歌宣布开源张量计算库 TensorNetwork 及其 API,使用 TensorFlow 为后端,对 GPU 处理速度进行优化,与 CPU 相比,计算加速效果高达 100 倍。

现代科学领域中,有很多艰巨困难的科学任务,比如开发高温超导体材料、了解空间和时间的本质等,都涉及到处理量子系统的复杂性。这些问题之所以困难,是因为这些系统中的量子态数量呈指数级增长,使得暴力计算行不通了。

为了解决这个问题,人们利用名为 “张量网络” 的数据结构,可以专注于与现实问题最为相关的量子态 —— 低能量状态,而忽略其他不相关的状态。张量网络也越来越多地在机器学习中得到应用。

然而,目前在机器学习中应用张量还存在一些困难:比如用于加速硬件的生产级张量网络库尚未在大规模运行张量网络算法中部署,而且,大多数关于张量网络的文献是面向物理学科领域的应用。这也让人们产生一种错误印象,认为需要掌握量子力学的专业知识才能理解张量算法。

本次开源的 TensorNetwork 使用 TensorFlow 作为后端,并针对 GPU 处理进行了优化,与 CPU 相比,处理速度可以实现 100 倍的加速。此前已经介绍了 TensorNetwork,包括新的库及其 API,并针对非物理学背景的读者对张量网络进行了概述,介绍了张量网络在物理学中的特定应用实例,展示了使用 GPU 带来的处理速度的显著提升。

为什么 Tensor Networks 有用?从张量的图解表示说起

张量是一种多维数组,根据数组元素的顺序按层级分类:例如,普通数是零阶张量 (也称为标量),向量可视为一阶张量,矩阵可视为二阶张量等等。低阶张量可以很容易用一个明确的数字数组或数学符号来表示。

不过涉及到高阶时,这种符号法就变得非常麻烦。使用图解符号对于解决这个问题很有用,一种方法是简单地绘制一个圆 (或其他形状),引出多条线或者说 “腿”,腿的数量与张量的阶数相同。在这种表示法中,标量表示为一个圆,矢量有一条腿,矩阵有两条腿等。张量的每条腿也有一个尺寸,就是腿的长短。例如,表示物体通过空间的速度的矢量就是三维的一阶张量。

 

 

张量的图解表示法

以这种方式表示张量的好处是可以简洁地对数学运算进行编码,例如,用矩阵乘以向量,获得另一个向量,或者将两个向量相乘,得到一个标量。这些都是所谓 “张量收缩” 的更一般的概念。

 

 

张量收缩的图解表示法。图中所示为矢量和矩阵乘法以及矩阵迹线 (即矩阵的对角元素的总和)

以下是张量网络的简单示例。张量网络是对几个张量收缩,形成新张量的模式进行编码的图形化表示。构成新张量的每个张量具有各自的阶数,图上表示为腿的数量。互相连接的腿,在图中形成边,表示张量的收缩,而剩余的悬在外面的腿的数量就是生成的新张量的阶数。

 

 

左:四个矩阵乘积的表示,即 tr (ABCD),它是一个标量,图中没有腿。右:三个三阶张量收缩,最终有三条腿悬在外面,即产生一个新的三阶张量。

虽然这些例子非常简单,但张量网络通常代表以各种方式收缩的数百个张量。用传统的符号来描述这样一件事是很难理解的,这就是 Roger Penrose 在 1971 年发明图解符号 (diagrammatic notation) 的原因。

张量网络在实践中的应用

想象一组黑白图像,每个图像都可以看作是一个 n 个像素值的列表。单个图像的单个像素可以被一个 one-hot 编码为二维矢量,通过将这些像素编码结合在一起,我们可以对整个图像进行 2N 维的 one-hot 编码。我们可以将这个高维向量重塑成一个 order-N 张量,然后将图像集中的所有张量相加,得到一个总张量 Ti1,i2,…,iN 集合。

这听起来是一件非常浪费的事:用这种方式编码大约 50 像素的图像将占内存许多 PB 的空间。这就该用到张量网络了。与其直接存储或操纵张量 T,不如将 T 表示为张量网络形状中许多较小组分张量的收缩。结果证明效率更高。例如,流行的矩阵积态 (MPS) 网络将把 T 写成 N 个更小的张量,这样参数的总数在 N 中只是线性的,而不是指数的。

 

 

在矩阵积态张量网络中,高阶张量 T 用许多低阶张量表示。

不明显的是,大张量网络可以被有效地创建或操作,同时始终避免占用大量内存。但事实证明,这在许多情况下是可能的,这就是为什么张量网络在量子物理学和现在的机器学习中被广泛使用的原因。

谷歌 AI 的研究人员 Stoudenmire 和 Schwab 使用刚才描述的编码来建立一个图像分类模型,展示了张量网络的新用途。TensorNetwork 库的设计就是为了方便这种工作,我们第一篇论文 (https://arxiv.org/pdf/1905.01330.pdf) 就描述了该库如何用于一般的张量网络操作。

性能实例分析:计算速度提升 100 倍

张量网络是张量网络算法的通用库,对物理学家也有一定的帮助。量子态的近似是物理中张量网络的一个典型用例,非常适合用来说明张量网络库的功能。在第二篇论文 (https://arxiv.org/pdf/1905.01331.pdf) 中,我们描述了一种 tree tensor network (TTN) 算法,用于估算周期性量子自旋链 (1D) 或薄环面上的晶格模型 (2D) 的基态,并用张量网络实现了该算法。在使用 GPU 和 TensorNetwork 库时,我们比较了 CPU 和 GPU 的使用情况,并观察到计算速度显著提高,高达 100 倍。

 

 

计算时间作为键维数的函数,χ。 键合维度决定了张量网络的组成张量的大小。 更大的键维度意味着更强大的张量网络,但需要更多的计算资源来操纵。

未来方向:时间序列分析和量子电路模拟

我们计划用一系列的论文来说明张量网络在实际应用中的强大之处,这是第一篇。在下一篇论文中,我们将使用 TensorNetwork 对 MNIST 和 Fashion-MNIST 数据集中的图像进行分类。

未来的计划包括机器学习方面的时间序列分析和物理方面的量子电路模拟。通过开源社区,我们会经常为 TensorNetwork 添加新功能。我们希望 TensorNetwork 将成为物理学家和机器学习实践者的宝贵工具。

参考链接:

https://ai.googleblog.com/2019/06/introducing-tensornetwork-open-source.html

论文资源:

https://arxiv.org/pdf/1905.01330.pdf

https://arxiv.org/pdf/1905.01331.pdf

GitHub 资源:

https://github.com/google/TensorNetwork

 
(文/小编)
免责声明
• 
本文谷歌 AI 开源张量计算库 TensorNetwork,计算速度暴涨 100 倍链接:http://www.esxun.cn/internet/733.html 。本文仅代表作者个人观点,请读者仅做参考,如若文中涉及有违公德、触犯法律的内容,一经发现,立即删除,作者需自行承担相应责任。涉及到版权或其他问题,请及时联系我们,我们将在24小时内处理完毕。如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。
 

Copyright © www.esxun.cn 易商讯ALL Right Reserved


冀ICP备2023038169号-3