PyTorch最近几年可谓大火。相比于TensorFlow,PyTorch对于Python初学者更为友好,更易上手。
众所周知,numpy作为Python中数据分析的专业第三方库,比Python自带的Math库速度更快。同样的,在PyTorch中,有一个类似于numpy的库,称为Tensor。Tensor自称为神经网络界的numpy。
一、numpy和Tensor二者对比
对比项 numpy Tensor 相同点 可以定义多维数组,进行切片、改变维度、数学运算等 可以定义多维数组,进行切片、改变维度、数学运算等 不同点
1、产生的数组类型为numpy.ndarray;
2、会将ndarray放入CPU中进行运算;
3、导入方式为import numpy as np,后续通过np.array([1,2])建立数组;
4、numpy中没有x.type()的用法,只能使用type(x)。
1、产生的数组类型为torch.Tensor;
2、会将tensor放入GPU中进行加速运算(如果有GPU);
3、导入方式为import torch,后续通过torch.tensor([1,2])或torch.Tensor([1,2])建立数组;
4、Tensor中查看数组类型既可以使用type(x),也可以使用x.type()。但是更加推荐采用x.type(),具体原因详见下文。
举例(以下代码均在Jupyter Notebook上运行且通过):
numpy:
import numpy as np x = np.array([1,2]) #之所以这么写,是为了告诉大家,在Jupyter Notebook中,是否带有print()函数打印出来的效果是不一样的~ x #array([1, 2]) print(x) #[1 2] type(x) #numpy.ndarray print(type(x)) #<class 'numpy.ndarray'> #注意:numpy中没有x.type()的用法,只能使用type(x)!!!
Tensor:
import torch #注意,这里是import torch,不是import Tensor!!! x = torch.tensor([1,2]) x #tensor([1, 2]) print(x) #tensor([1, 2]),注意,这里与numpy就不一样了! type(x) #torch.Tensor print(type(x)) #<class 'torch.Tensor'> x.type() #'torch.LongTensor',注意:numpy中不可以这么写,会报错!!! print(x.type()) #torch.LongTensor,注意:numpy中不可以这么写,会报错!!!
numpy与Tensor在使用上还有其他差别。由于不是本文的重点,故暂不详述。后续可能会更新~
二、torch.tensor与torch.Tensor的区别
细心的读者可能注意到了,通过Tensor建立数组有torch.tensor([1,2])或torch.Tensor([1,2])两种方式。那么,这两种方式有什么区别呢?
(1)torch.tensor是从数据中推断数据类型,而torch.Tensor是torch.empty(会随机产生垃圾数组,详见实例)和torch.tensor之间的一种混合。但是,当传入数据时,torch.Tensor使用全局默认dtype(FloatTensor);
(2)torch.tensor(1)返回一个固定值1,而torch.Tensor(1)返回一个大小为1的张量,它是初始化的随机值。
import torch #注意,这里是import torch,不是import Tensor!!! x = torch.tensor([1,2]) x #tensor([1, 2]) print(x) #tensor([1, 2]),注意,这里与numpy就不一样了! type(x) #torch.Tensor print(type(x)) #<class 'torch.Tensor'> x.type() #'torch.LongTensor',注意:numpy中不可以这么写,会报错!!! print(x.type()) #torch.LongTensor,注意:numpy中不可以这么写,会报错!!! y = torch.Tensor([1,2]) y #tensor([1., 2.]),因为torch.Tensor使用全局默认dtype(FloatTensor) print(y) #tensor([1., 2.]),因为torch.Tensor使用全局默认dtype(FloatTensor) type(y) #torch.Tensor print(type(y)) #<class 'torch.Tensor'> y.type() #'torch.FloatTensor',注意:这里就与上面不一样了!tensor->LongTensor,Tensor->FloatTensor!!! print(y.type()) #torch.FloatTensor,注意:这里就与上面不一样了!tensor->LongTensor,Tensor->FloatTensor!!! z = torch.empty([1,2]) z #随机运行两次,结果不同:tensor([[0., 0.]]),tensor([[1.4013e-45, 0.0000e+00]]) print(z) #随机运行两次,结果不同:tensor([[0., 0.]]),tensor([[1.4013e-45, 0.0000e+00]]) type(z) #torch.Tensor print(type(z)) #<class 'torch.Tensor'> z.type() #'torch.FloatTensor',注意:empty()默认为torch.FloatTensor而不是torch.LongTensor print(z.type()) #torch.FloatTensor,注意:empty()默认为torch.FloatTensor而不是torch.LongTensor #torch.tensor(1)、torch.Tensor(1)和torch.empty(1)的对比: t1 = torch.tensor(1) t2 = torch.Tensor(1) t3 = torch.empty(1) t1 #tensor(1) print(t1) #tensor(1) type(t1) #torch.Tensor print(type(t1)) #<class 'torch.Tensor'> t1.type() #'torch.LongTenso' print(t1.type()) #torch.LongTensor t2 #随机运行两次,结果不同:tensor([2.8026e-45]),tensor([0.]) print(t2) #随机运行两次,结果不同:tensor([2.8026e-45]),tensor([0.]) type(t2) #torch.Tensor print(type(t2)) #<class 'torch.Tensor'> t2.type() #'torch.FloatTensor' print(t2.type()) #torch.FloatTensor t3 #随机运行两次,结果不同:tensor([0.]),tensor([1.4013e-45]) print(t3) #随机运行两次,结果不同:tensor([0.]),tensor([1.4013e-45]) type(t3) #torch.Tensor print(type(t3)) #<class 'torch.Tensor'> t3.type() #'torch.FloatTensor' print(t3.type()) #torch.FloatTensor
上文提到过,对于Tensor,更推荐采用x.type()来查看数据类型。是因为x.type()的输出结果为'torch.LongTensor'或'torch.FloatTensor',可以看出两个数组的种类区别。而采用type(x),则清一色的输出结果都是torch.Tensor,无法体现类型区别。
PyTorch是个神奇的工具,其中的Tensor用法要远比numpy丰富。大家可以在练习中多多总结,逐渐提高~
P70系列延期,华为新旗舰将在下月发布
3月20日消息,近期博主@数码闲聊站 透露,原定三月份发布的华为新旗舰P70系列延期发布,预计4月份上市。
而博主@定焦数码 爆料,华为的P70系列在定位上已经超过了Mate60,成为了重要的旗舰系列之一。它肩负着重返影像领域顶尖的使命。那么这次P70会带来哪些令人惊艳的创新呢?
根据目前爆料的消息来看,华为P70系列将推出三个版本,其中P70和P70 Pro采用了三角形的摄像头模组设计,而P70 Art则采用了与上一代P60 Art相似的不规则形状设计。这样的外观是否好看见仁见智,但辨识度绝对拉满。
更新日志
- 小骆驼-《草原狼2(蓝光CD)》[原抓WAV+CUE]
- 群星《欢迎来到我身边 电影原声专辑》[320K/MP3][105.02MB]
- 群星《欢迎来到我身边 电影原声专辑》[FLAC/分轨][480.9MB]
- 雷婷《梦里蓝天HQⅡ》 2023头版限量编号低速原抓[WAV+CUE][463M]
- 群星《2024好听新歌42》AI调整音效【WAV分轨】
- 王思雨-《思念陪着鸿雁飞》WAV
- 王思雨《喜马拉雅HQ》头版限量编号[WAV+CUE]
- 李健《无时无刻》[WAV+CUE][590M]
- 陈奕迅《酝酿》[WAV分轨][502M]
- 卓依婷《化蝶》2CD[WAV+CUE][1.1G]
- 群星《吉他王(黑胶CD)》[WAV+CUE]
- 齐秦《穿乐(穿越)》[WAV+CUE]
- 发烧珍品《数位CD音响测试-动向效果(九)》【WAV+CUE】
- 邝美云《邝美云精装歌集》[DSF][1.6G]
- 吕方《爱一回伤一回》[WAV+CUE][454M]