作者:噬血--男爵_380_203 | 来源:互联网 | 2022-12-09 15:38
我最近一直在研究深度学习框架,并一直在想PyTorch这个名字的起源.
有了Keras,他们的主页很好地解释了这个名字的起源,而像TensorFlow这样的名字背后的推理似乎很清楚.然而,对于PyTorch,我似乎无法想象为什么它如此命名.
当然,我理解"Py-"前缀并且也知道PyTorch在某种意义上是Torch的继承者.但我仍然想知道:"-Torch"部分背后的原始想法是什么?知道这个名字的来源是什么吗?
谢谢你的帮助!
1> Good Lux..:
这是一个很好的问题,不确定它为什么被投票:有很多信息和历史存储在为工件选择的名称中.
这是一个简短的答案,形成另一个问题:
火炬,SMORCH ???
PyTorch是从Torch7开发的.原始Torch的前身是一个名为SVM-Torch(http://bengio.abracadoudou.com/SVMTorch.html)的库,它是在2001年左右开发的.SVM代表支持向量机.
根据本文,SVM-Torch是一种类似于SVM-Light(http://svmlight.joachims.org/)的分解算法,但适用于回归问题:
http://www.ai.mit.edu/projects/jmlr/papers/volume1/collobert01a/collobert01a.ps.gz
同样在此期间,GWFlake描述了序列最小优化算法(SMO),它可用于训练稀疏数据集上的SVM,并将其纳入NODElib.
有趣的是,这被称为SMORCH算法.你可以在回程机器上找到这篇论文:
https://web.archive.org/web/20030319153242/http://www.neci.nj.nec.com/homepages/flake/smorch.ps
更多关于NODElib文档中的SMORCH:https:
//github.com/gwf/NODElib/blob/master/include/nodelib/svm.h
SVM的优化是:
由约翰普拉特的序列最小变化执行
优化(SMO)算法.此版本的SMO是一般化的
对于回归,使用内核缓存,并包含几个
启发式; 由于这些原因,我们参考了优化
算法为SMORCH.
所以SMORCH =
小号 equential
中号 inimal
ö ptimization
ř egression
Ç疼痛
ħ euristics
我无法肯定地回答,但我的想法是"火炬"是来自SVM-Light的"光"的重复或演变以及大量帮助的SMORCHiness.您需要与SVMTorch和SVM-Light的作者一起检查,以确认这确实是"引发"名称的原因.这是合理的假设,"TO"的火炬代表了其他一些优化,而不是SMO,如 牛逼恩索尔Ø ptimization,但我还没有发现任何直接的参考...但.
更新12/3/2018:在下面的评论中.