python编写Logistic逻辑回归

用一条直线对数据进行拟合的过程称为回归。逻辑回归分类的思想是:根据现有数据对分类边界线建立回归公式。
公式表示为:

一、梯度上升法

每次迭代所有的数据都参与计算。

for 循环次数:
        训练

代码如下:

import numpy as np
import matplotlib.pyplot as plt
def loadData():
  labelVec = []
  dataMat = []
  with open('testSet.txt') as f:
    for line in f.readlines():
      dataMat.append([1.0,line.strip().split()[0],line.strip().split()[1]])
      labelVec.append(line.strip().split()[2])
  return dataMat,labelVec

def Sigmoid(inX):
  return 1/(1+np.exp(-inX))

def trainLR(dataMat,labelVec):
  dataMatrix = np.mat(dataMat).astype(np.float64)
  lableMatrix = np.mat(labelVec).T.astype(np.float64)
  m,n = dataMatrix.shape
  w = np.ones((n,1))
  alpha = 0.001
  for i in range(500):
    predict = Sigmoid(dataMatrix*w)
    error = predict-lableMatrix
    w = w - alpha*dataMatrix.T*error
  return w

def plotBestFit(wei,data,label):
  if type(wei).__name__ == 'ndarray':
    weights = wei
  else:
    weights = wei.getA()
  fig = plt.figure(0)
  ax = fig.add_subplot(111)
  xxx = np.arange(-3,3,0.1)
  yyy = - weights[0]/weights[2] - weights[1]/weights[2]*xxx
  ax.plot(xxx,yyy)
  cord1 = []
  cord0 = []
  for i in range(len(label)):
    if label[i] == 1:
      cord1.append(data[i][1:3])
    else:
      cord0.append(data[i][1:3])
  cord1 = np.array(cord1)
  cord0 = np.array(cord0)
  ax.scatter(cord1[:,0],cord1[:,1],c='red')
  ax.scatter(cord0[:,0],cord0[:,1],c='green')
  plt.show()

if __name__ == "__main__":
  data,label = loadData()
  data = np.array(data).astype(np.float64)
  label = [int(item) for item in label]
  weight = trainLR(data,label)
  plotBestFit(weight,data,label)

二、随机梯度上升法

1.学习参数随迭代次数调整,可以缓解参数的高频波动。
2.随机选取样本来更新回归参数,可以减少周期性的波动。

for 循环次数:
    for 样本数量:
        更新学习速率
        随机选取样本
        训练
        在样本集中删除该样本

代码如下:

import numpy as np
import matplotlib.pyplot as plt
def loadData():
  labelVec = []
  dataMat = []
  with open('testSet.txt') as f:
    for line in f.readlines():
      dataMat.append([1.0,line.strip().split()[0],line.strip().split()[1]])
      labelVec.append(line.strip().split()[2])
  return dataMat,labelVec

def Sigmoid(inX):
  return 1/(1+np.exp(-inX))

def plotBestFit(wei,data,label):
  if type(wei).__name__ == 'ndarray':
    weights = wei
  else:
    weights = wei.getA()
  fig = plt.figure(0)
  ax = fig.add_subplot(111)
  xxx = np.arange(-3,3,0.1)
  yyy = - weights[0]/weights[2] - weights[1]/weights[2]*xxx
  ax.plot(xxx,yyy)
  cord1 = []
  cord0 = []
  for i in range(len(label)):
    if label[i] == 1:
      cord1.append(data[i][1:3])
    else:
      cord0.append(data[i][1:3])
  cord1 = np.array(cord1)
  cord0 = np.array(cord0)
  ax.scatter(cord1[:,0],cord1[:,1],c='red')
  ax.scatter(cord0[:,0],cord0[:,1],c='green')
  plt.show()

def stocGradAscent(dataMat,labelVec,trainLoop):
  m,n = np.shape(dataMat)
  w = np.ones((n,1))
  for j in range(trainLoop):
    dataIndex = range(m)
    for i in range(m):
      alpha = 4/(i+j+1) + 0.01
      randIndex = int(np.random.uniform(0,len(dataIndex)))
      predict = Sigmoid(np.dot(dataMat[dataIndex[randIndex]],w))
      error = predict - labelVec[dataIndex[randIndex]]
      w = w - alpha*error*dataMat[dataIndex[randIndex]].reshape(n,1)
      np.delete(dataIndex,randIndex,0)
  return w

if __name__ == "__main__":
  data,label = loadData()
  data = np.array(data).astype(np.float64)
  label = [int(item) for item in label]
  weight = stocGradAscent(data,label,300)
  plotBestFit(weight,data,label)

三、编程技巧

1.字符串提取

将字符串中的'\n', ‘\r', ‘\t', ' ‘去除,按空格符划分。

string.strip().split()

2.判断类型

if type(secondTree[value]).__name__ == 'dict':

3.乘法

numpy两个矩阵类型的向量相乘,结果还是一个矩阵

c = a*b

c
Out[66]: matrix([[ 6.830482]])

两个向量类型的向量相乘,结果为一个二维数组

b
Out[80]:
array([[ 1.],
    [ 1.],
    [ 1.]])

a
Out[81]: array([1, 2, 3])

a*b
Out[82]:
array([[ 1., 2., 3.],
    [ 1., 2., 3.],
    [ 1., 2., 3.]])

b*a
Out[83]:
array([[ 1., 2., 3.],
    [ 1., 2., 3.],
    [ 1., 2., 3.]])

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持我们。

(0)

相关推荐

  • python实现逻辑回归的方法示例

    本文实现的原理很简单,优化方法是用的梯度下降.后面有测试结果. 先来看看实现的示例代码: # coding=utf-8 from math import exp import matplotlib.pyplot as plt import numpy as np from sklearn.datasets.samples_generator import make_blobs def sigmoid(num): ''' :param num: 待计算的x :return: sigmoid之后的数

  • python编写Logistic逻辑回归

    用一条直线对数据进行拟合的过程称为回归.逻辑回归分类的思想是:根据现有数据对分类边界线建立回归公式. 公式表示为: 一.梯度上升法 每次迭代所有的数据都参与计算. for 循环次数:         训练 代码如下: import numpy as np import matplotlib.pyplot as plt def loadData(): labelVec = [] dataMat = [] with open('testSet.txt') as f: for line in f.re

  • python 牛顿法实现逻辑回归(Logistic Regression)

    本文采用的训练方法是牛顿法(Newton Method). 代码 import numpy as np class LogisticRegression(object): """ Logistic Regression Classifier training by Newton Method """ def __init__(self, error: float = 0.7, max_epoch: int = 100): ""

  • Python实现的逻辑回归算法示例【附测试csv文件下载】

    本文实例讲述了Python实现的逻辑回归算法.分享给大家供大家参考,具体如下: 使用python实现逻辑回归 Using Python to Implement Logistic Regression Algorithm 菜鸟写的逻辑回归,记录一下学习过程 代码: #encoding:utf-8 """ Author: njulpy Version: 1.0 Data: 2018/04/10 Project: Using Python to Implement Logisti

  • R语言多元Logistic逻辑回归应用实例

    可以使用逐步过程确定多元逻辑回归.此函数选择模型以最小化AIC. 如何进行多元逻辑回归 可以使用阶梯函数通过逐步过程确定多元逻辑回归.此函数选择模型以最小化AIC. 通常建议不要盲目地遵循逐步程序,而是要使用拟合统计(AIC,AICc,BIC)比较模型,或者根据生物学或科学上合理的可用变量建立模型. 多元相关是研究潜在自变量之间关系的一种工具.例如,如果两个独立变量彼此相关,可能在最终模型中都不需要这两个变量,但可能有理由选择一个变量而不是另一个变量. 多元相关 创建数值变量的数据框 Data.

  • Python机器学习之逻辑回归

    一.题目 1.主题:逻辑回归 2.描述:假设你是某大学招生主管,你想根据两次考试的结果决定每个申请者的录取 机会.现有以往申请者的历史数据,可以此作为训练集建立逻辑回归模型,并用 其预测某学生能否被大学录取. 3.数据集:文件 ex2data1.txt ,第一列.第二列分别表示申请者两次 考试的成绩,第三列表示录取结果(1 表示录取,0 表示不录取). 二.目的 1.理解逻辑回归模型 2.掌握逻辑回归模型的参数估计算法 三.平台 1.硬件:计算机 2.操作系统:WINDOWS 3.编程软件:Py

  • python机器基础逻辑回归与非监督学习

    目录 一.逻辑回归 1.模型的保存与加载 2.逻辑回归原理 ①逻辑回归的输入 ②sigmoid函数 ③逻辑回归的损失函数 ④逻辑回归特点 3.逻辑回归API 4.逻辑回归案例 ①案例概述 ②具体流程 5.逻辑回归总结 二.非监督学习 1.k-means聚类算法原理 2.k-means API 3.聚类性能评估 ①性能评估原理 ②性能评估API 一.逻辑回归 1.模型的保存与加载 模型训练好之后,可以直接保存,需要用到joblib库.保存的时候是pkl格式,二进制,通过dump方法保存.加载的时候

  • python代码实现逻辑回归logistic原理

    Logistic Regression Classifier逻辑回归主要思想就是用最大似然概率方法构建出方程,为最大化方程,利用牛顿梯度上升求解方程参数. 优点:计算代价不高,易于理解和实现. 缺点:容易欠拟合,分类精度可能不高. 使用数据类型:数值型和标称型数据. 介绍逻辑回归之前,我们先看一问题,有个黑箱,里面有白球和黑球,如何判断它们的比例. 我们从里面抓3个球,2个黑球,1个白球.这时候,有人就直接得出了黑球67%,白球占比33%.这个时候,其实这个人使用了最大似然概率的思想,通俗来讲,

  • 在R语言中实现Logistic逻辑回归的操作

    逻辑回归是拟合回归曲线的方法,当y是分类变量时,y = f(x).典型的使用这种模式被预测Ÿ给定一组预测的X.预测因子可以是连续的,分类的或两者的混合. R中的逻辑回归实现 R可以很容易地拟合逻辑回归模型.要调用的函数是glm(),拟合过程与线性回归中使用的过程没有太大差别.在这篇文章中,我将拟合一个二元逻辑回归模型并解释每一步. 数据集 我们将研究泰坦尼克号数据集.这个数据集有不同版本可以在线免费获得,但我建议使用Kaggle提供的数据集. 目标是预测生存(如果乘客幸存,则为1,否则为0)基于

  • python机器学习理论与实战(四)逻辑回归

    从这节算是开始进入"正规"的机器学习了吧,之所以"正规"因为它开始要建立价值函数(cost function),接着优化价值函数求出权重,然后测试验证.这整套的流程是机器学习必经环节.今天要学习的话题是逻辑回归,逻辑回归也是一种有监督学习方法(supervised machine learning).逻辑回归一般用来做预测,也可以用来做分类,预测是某个类别^.^!线性回归想比大家都不陌生了,y=kx+b,给定一堆数据点,拟合出k和b的值就行了,下次给定X时,就可以计

  • R语言逻辑回归、ROC曲线与十折交叉验证详解

    自己整理编写的逻辑回归模板,作为学习笔记记录分享.数据集用的是14个自变量Xi,一个因变量Y的australian数据集. 1. 测试集和训练集3.7分组 australian <- read.csv("australian.csv",as.is = T,sep=",",header=TRUE) #读取行数 N = length(australian$Y) #ind=1的是0.7概率出现的行,ind=2是0.3概率出现的行 ind=sample(2,N,rep

随机推荐