欢迎使用tntorch,一个使用张量网络的PyTorch驱动的建模和学习库。 这种网络的独特之处在于它们使用多线性神经单元(而不是非线性激活单元)。...部分支持其他分解,如 INDSCAL, CANDELINC, DEDICOM, PARATUCK2, 和自定义格式
例如,以下网络都代表TT和TT-Tucker格式的4D张量(即可以采用 I1 x I2...在tntorch 中,所有张量分解共享相同的接口。...你可以用容易理解的形式处理它们,就像它们是纯NumPy数组或PyTorch张量一样:
> import tntorch as tn> t = tn.randn(32, 32, 32, 32, ranks_tt...:
> print(t.torch().shape)torch.Size([32, 32, 32, 32])
由于PyTorch的自动微分,你可以很容易地定义张量上的各种损失函数:
def loss(t