加入收藏 | 设为首页 | 会员中心 | 我要投稿 西安站长网 (https://www.029zz.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 建站 > 正文

PyTorch的4分钟教程,手把手教你完成线性回归

发布时间:2019-07-29 04:10:42 所属栏目:建站 来源:大数据文摘
导读:副标题#e# 大数据文摘出品 编译:洪颖菲、宁静 PyTorch深度学习框架库之一,是来自Facebook的开源深度学习平台,提供研究原型到生产部署的无缝衔接。 本文旨在介绍PyTorch基础部分,帮助新手在4分钟内实现python PyTorch代码的初步编写。 下文出现的所有功

运行结果:

PyTorch的4分钟教程,手把手教你完成线性回归

对于pytorch中的变量和梯度计算可参考下面这篇文章:

https://zhuanlan.zhihu.com/p/29904755

SLR: Simple Linear Regression

现在我们了解了基础知识,可以开始运用PyTorch 解决简单的机器学习问题——简单线性回归。我们将通过4个简单步骤完成:

第一步:

在步骤1中,我们创建一个由方程y = wx + b产生的人工数据集,并注入随机误差。请参阅以下示例:

  1. #Simple Liner Regression 
  2. # Fit a line to the data. Y =w.x+b 
  3. #Deterministic behavior 
  4. np.random.seed(0) 
  5. torch.manual_seed(0) 
  6. #Step 1:Dataset 
  7. w=2;b=3 
  8. x=np.linspace(0,10,100) 
  9. y=w*x+b+np.random.randn(100)*2 
  10. xx=x.reshape(-1,1) 
  11. yy=y.reshape(-1,1) 

第二步:

在第2步中,我们使用forward函数定义一个简单的类LinearRegressionModel,使用torch.nn.Linear定义构造函数以对输入数据进行线性转换:

  1. #Step 2:Model 
  2. class LinearRegressionModel(torch.nn.Module): 
  3.      
  4.     def __init__(self,in_dimn,out_dimn): 
  5.         super(LinearRegressionModel,self).__init__() 
  6.         self.model=torch.nn.Linear(in_dimn,out_dimn) 
  7.          
  8.     def forward(self,x): 
  9.         y_pred=self.model(x); 
  10.         return y_pred; 
  11.      
  12. model=LinearRegressionModel(in_dimn=1, out_dimn=1) 

torch.nn.Linear参考网站:

https://pytorch.org/docs/stable/_modules/torch/nn/modules/linear.html

第三步:

下一步:使用 MSELoss 作为代价函数,SGD作为优化器来训练模型。

  1. #Step 3: Training 
  2. cost=torch.nn.MSELoss() 
  3. optimizer=torch.optim.SGD(model.parameters(),lr=0.01,momentum=0.9) 
  4. inputs=Variable(torch.from_numpy(x.astype("float32"))) 
  5. outputs=Variable(torch.from_numpy(y.astype("float32"))) 
  6.  
  7.  
  8. for epoch in range(100): 
  9. #3.1 forward pass: 
  10.     y_pred=model(inputs) 
  11.      
  12. #3.2 compute loss 
  13.     loss=cost(y_pred,outputs) 
  14.      
  15. #3.3 backward pass 
  16.     optimizer.zero_grad(); 
  17.     loss.backward() 
  18.     optimizer.step() 
  19.     if((epoch+1)%10==0): 
  20.         print("epoch{},loss{}".format(epoch+1,loss.data)) 

(编辑:西安站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读