pytorch动态神经网络(拟合)实现

(1)首先要建立数据集

import torch  #引用torch模块
import matplotlib.pyplot as plt #引用画图模块
x=torch.unsqueeze(torch.linspace(-1,1,100),dim=1)#产生(-1,1)的100个点横坐标,dim表示维度,表示在这里增加第二维
y=x.pow(2)+0.2*torch.rand(x,size())
#0.2*torch.rand(x,size())是为了产生噪点使数据更加真实

(2)建立神经网络

import torch
imoort torch.nn.functional as F #激励函数在这个模块里
class Net (torch.nn.Module): #Net要继承torch中Module
(1)首先有定义(建立)神经网络层
def __init__(self,n_feature,n_hidden,n_output):
#__init__表示初始化数据
  super(Net,self).__init__()#Net的对象self转换为类nn.module的对象,然后在用nn.Module的方法使用__init__初始化。
self.hidden=torch.nn.Linear(n_feature,n_hidden)
#建立隐藏层线性输出
self.predict=torch.nn.Linear(n_hidden,n_output)
#建立输出层线性输出

(2)建立层与层之间的关系

def forward (self,x):
# 这同时也是 Module 中的 forward 功能
x=F.relu(self,hidden(x))
#使用激励函数把数据激活
return x #输出数据
net=Net(n_feature=1,n_hidden=10,n_output=1)
#一个隐藏层有10节点,输出层有1节点,输出数数据为一个

(3)训练网络

optimizer=torch.optim.SGD(net.parameter().lr=0.2)#传入 net 的所有参数, lr代表学习率,optimizer是训练工具
loss_func=torch.nn.MSELoss()#预测值和真实值的误差计算公式 (均方差)
for t in range(100):
prediction = net(x) # 喂给 net 训练数据 x, 输出预测值
  loss = loss_func(prediction, y)  # 计算两者的误差
  optimizer.zero_grad() # 清空上一步的残余更新参数值
  loss.backward()    # 误差反向传播, 计算参数更新值
  optimizer.step()    # 将参数更新值施加到 net 的 parameters 上

(四)可视化训练

import matplotlib.pyplot as plt
plt.ion() # 画图
plt.show()
for t in range(200):
  ...
  loss.backward()
  optimizer.step()
  # 接着上面来
  if t % 5 == 0:
    # plot and show learning process
    plt.cla()
    plt.scatter(x.data.numpy(), y.data.numpy())
    plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-', lw=5)
    plt.text(0.5, 0, 'Loss=%.4f' % loss.data.numpy(), fontdict={'size': 20, 'color': 'red'})
    plt.pause(0.1)

会得到如下图像:

整体代码如下:

import torch
import matplotlib.pyplot as plt
x=torch.unsqueeze(torch.linspace(-2,2,100),dim=1)
y=x.pow(2)+0.2*torch.rand(x.size())
import torch
import torch.nn.functional as F
class Net(torch.nn.Module):
  def __init__(self,n_feature,n_hidden,n_output):
    super(Net,self).__init__()
    self.hidden=torch.nn.Linear(n_feature,n_hidden)
    self.predict=torch.nn.Linear(n_hidden,n_output)
  def forward(self,x):
    x=F.relu(self.hidden(x))
    x=self.predict(x)
    return x
net=Net(n_feature=1,n_hidden=10,n_output=1)
optimizer=torch.optim.SGD(net.parameters(),lr=0.3)
loss_func=torch.nn.MSELoss()
plt.ion()
plt.show()
for t in range(100):
  prediction=net(x)
  loss=loss_func(prediction,y)
  optimizer.zero_grad()
  loss.backward()
  optimizer.step()
  if t % 5 == 0:

    plt.cla()
    plt.scatter(x.data.numpy(), y.data.numpy())
    plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-', lw=5)
    plt.text(0.5, 0, 'Loss=%.4f' % loss.data.numpy(), fontdict={'size': 20, 'color': 'red'})
    plt.pause(0.1)

【参考文献】https://mofanpy.com/tutorials/machine-learning/torch/regression/

到此这篇关于pytorch动态神经网络(拟合)实现的文章就介绍到这了,更多相关pytorch动态神经网络内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • 使用 pytorch 创建神经网络拟合sin函数的实现

    我们知道深度神经网络的本质是输入端数据和输出端数据的一种高维非线性拟合,如何更好的理解它,下面尝试拟合一个正弦函数,本文可以通过简单设置节点数,实现任意隐藏层数的拟合. 基于pytorch的深度神经网络实战,无论任务多么复杂,都可以将其拆分成必要的几个模块来进行理解. 1)构建数据集,包括输入,对应的标签y 2) 构建神经网络模型,一般基于nn.Module继承一个net类,必须的是__init__函数和forward函数.__init__构造函数包括创建该类是必须的参数,比如输入节点数,隐藏层

  • pytorch-神经网络拟合曲线实例

    代码已经调通,跑出来的效果如下: # coding=gbk import torch import matplotlib.pyplot as plt from torch.autograd import Variable import torch.nn.functional as F ''' Pytorch是一个拥有强力GPU加速的张量和动态构建网络的库,其主要构建是张量,所以可以把PyTorch当做Numpy 来用,Pytorch的很多操作好比Numpy都是类似的,但是其能够在GPU上运行,所

  • pytorch动态神经网络(拟合)实现

    (1)首先要建立数据集 import torch #引用torch模块 import matplotlib.pyplot as plt #引用画图模块 x=torch.unsqueeze(torch.linspace(-1,1,100),dim=1)#产生(-1,1)的100个点横坐标,dim表示维度,表示在这里增加第二维 y=x.pow(2)+0.2*torch.rand(x,size()) #0.2*torch.rand(x,size())是为了产生噪点使数据更加真实 (2)建立神经网络 i

  • pytorch 模拟关系拟合——回归实例

    本次用 pytroch 来实现一个简单的回归分析,也借此机会来熟悉 pytorch 的一些基本操作. 1. 建立数据集 import torch from torch.autograd import Variable import matplotlib.pyplot as plt # torch.linspace(-1,1,100)表示返回一个一维张量,包含在区间 -1到1 上均匀间隔的100个点: # torch.unsqueeze(input,dim=1)表示转换维度 x = torch.u

  • 基于Pytorch的神经网络之Regression的实现

    目录 1.引言 2.神经网络搭建 2.1准备工作 2.2搭建网络 2.3训练网络 3.效果 4.完整代码 1.引言 我们之前已经介绍了神经网络的基本知识,神经网络的主要作用就是预测与分类,现在让我们来搭建第一个用于拟合回归的神经网络吧. 2.神经网络搭建 2.1 准备工作 要搭建拟合神经网络并绘图我们需要使用python的几个库. import torch import torch.nn.functional as F import matplotlib.pyplot as plt x = to

  • Tensorflow实现神经网络拟合线性回归

    本文实例为大家分享了Tensorflow实现神经网络拟合线性回归的具体代码,供大家参考,具体内容如下 一.利用简单的一层神经网络拟合一个函数 y = x^2 ,其中加入部分噪声作为偏置值防止拟合曲线过拟合 import tensorflow as tf import numpy as np import matplotlib.pyplot as plt # 生成-0.5到0.5间均匀发布的200个点,将数据变为二维,200行一列的数据 x_data = np.linspace(-0.5, 0.5

  • Pytorch实现神经网络的分类方式

    本文用于利用Pytorch实现神经网络的分类!!! 1.训练神经网络分类模型 import torch from torch.autograd import Variable import matplotlib.pyplot as plt import torch.nn.functional as F import torch.utils.data as Data torch.manual_seed(1)#设置随机种子,使得每次生成的随机数是确定的 BATCH_SIZE = 5#设置batch

  • pytorch实现线性拟合方式

    一维线性拟合 数据为y=4x+5加上噪音 结果: import numpy as np from mpl_toolkits.mplot3d import Axes3D from matplotlib import pyplot as plt from torch.autograd import Variable import torch from torch import nn X = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1) Y =

  • pytorch Dropout过拟合的操作

    如下所示: import torch from torch.autograd import Variable import matplotlib.pyplot as plt torch.manual_seed(1) N_SAMPLES = 20 N_HIDDEN = 300 # training data x = torch.unsqueeze(torch.linspace(-1, 1, N_SAMPLES), 1) y = x + 0.3 * torch.normal(torch.zeros(

  • Python深度学习pytorch卷积神经网络LeNet

    目录 LeNet 模型训练 在本节中,我们将介绍LeNet,它是最早发布的卷积神经网络之一.这个模型是由AT&T贝尔实验室的研究院Yann LeCun在1989年提出的(并以其命名),目的是识别手写数字.当时,LeNet取得了与支持向量机性能相媲美的成果,成为监督学习的主流方法.LeNet被广泛用于自动取款机中,帮助识别处理支票的数字. LeNet 总体来看,LeNet(LeNet-5)由两个部分组成: 卷积编码器: 由两个卷积层组成 全连接层密集快: 由三个全连接层组成 每个卷积块中的基本单元

  • python进阶TensorFlow神经网络拟合线性及非线性函数

    目录 一.拟合线性函数 生成随机坐标 神经网络拟合 代码 二.拟合非线性函数 生成二次随机点 神经网络拟合 代码 一.拟合线性函数 学习率0.03,训练1000次: 学习率0.05,训练1000次: 学习率0.1,训练1000次: 可以发现,学习率为0.05时的训练效果是最好的. 生成随机坐标 1.生成x坐标 2.生成随机干扰 3.计算得到y坐标 4.画点 # 生成随机点 def Produce_Random_Data(): global x_data, y_data # 生成x坐标 x_dat

随机推荐