如何解决PyTorch张量
我是PyTorch的新手。谁能向我解释为什么我们应该在执行回归之前将数据帧转换为火炬张量? (如您所见,我已经拆分了数据集)。我还需要对这段代码进行解释:
x_train_tensor = torch.tensor(x_train.values.reshape(-1,1),dtype = torch.float)
y_train_tensor = torch.tensor(y_train.values.reshape(-1,dtype = torch.float)
x_test_tensor = torch.tensor(x_test.values.reshape(-1,dtype = torch.float)
y_test_tensor = torch.tensor(y_test.values.reshape(-1,dtype = torch.float)
谢谢!
解决方法
所有Pytorch操作均在Tensor
上定义,而disabled
本质上是多维矩阵。因此,如果要使用Pytorch,则需要使用张量。
pytorch库中的所有操作或方法仅在张量上执行。
在上面的代码中,您首先使用.reshape(-1,1)...将张量转换为列向量。这是一种告诉-1是编译器自动确定值的位置的方法,然后这些将转换为张量。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。