Python决策树和随机森林算法实例详解

本文实例讲述了Python决策树和随机森林算法。分享给大家供大家参考,具体如下:

决策树和随机森林都是常用的分类算法,它们的判断逻辑和人的思维方式非常类似,人们常常在遇到多个条件组合问题的时候,也通常可以画出一颗决策树来帮助决策判断。本文简要介绍了决策树和随机森林的算法以及实现,并使用随机森林算法和决策树算法来检测FTP暴力破解和POP3暴力破解,详细代码可以参考:

https://github.com/traviszeng/MLWithWebSecurity

决策树算法

决策树表现了对象属性和属性值之间的一种映射关系。决策树中的每个节点表示某个对象,而每个分叉路径则表示某个可能的属性值,而每个叶节点则对应从根节点到该叶节点所经历的路径所表现的对象值。在数据挖掘中,我们常常使用决策树来进行数据分类和预测。

决策树的helloworld

在这一小节,我们简单使用决策树来对iris数据集进行数据分类和预测。这里我们要使用sklearn下的tree的graphviz来帮助我们导出决策树,并以pdf的形式存储。具体代码如下:

#决策树的helloworld 使用决策树对iris数据集进行分类
from sklearn.datasets import load_iris
from sklearn import tree
import pydotplus
#导入iris数据集
iris = load_iris()
#初始化DecisionTreeClassifier
clf = tree.DecisionTreeClassifier()
#适配数据
clf = clf.fit(iris.data, iris.target)
#将决策树以pdf格式可视化
dot_data = tree.export_graphviz(clf, out_file=None)
graph = pydotplus.graph_from_dot_data(dot_data)
graph.write_pdf("iris.pdf")

iris数据集得到的可视化决策树如下图所示:

通过这个小例子,我们可以初步感受到决策树的工作过程和特点。相较于其他的分类算法,决策树产生的结果更加直观也更加符合人类的思维方式。

使用决策树检测POP3暴力破解

在这里我们是用KDD99数据集中POP3相关的数据来使用决策树算法来学习如何识别数据集中和POP3暴力破解相关的信息。关于KDD99数据集的相关内容可以自行google一下。下面是使用决策树算法的源码:

#使用决策树算法检测POP3暴力破解
import re
import matplotlib.pyplot as plt
from sklearn.feature_extraction.text import CountVectorizer
from sklearn.model_selection import cross_val_score
import os
from sklearn.datasets import load_iris
from sklearn import tree
import pydotplus
#加载kdd数据集
def load_kdd99(filename):
  X=[]
  with open(filename) as f:
    for line in f:
      line = line.strip('\n')
      line = line.split(',')
      X.append(line)
  return X
#找到训练数据集
def get_guess_passwdandNormal(x):
  v=[]
  features=[]
  targets=[]
  #找到标记为guess-passwd和normal且是POP3协议的数据
  for x1 in x:
    if ( x1[41] in ['guess_passwd.','normal.'] ) and ( x1[2] == 'pop_3' ):
      if x1[41] == 'guess_passwd.':
        targets.append(1)
      else:
        targets.append(0)
    #挑选与POP3密码破解相关的网络特征和TCP协议内容的特征作为样本特征
      x1 = [x1[0]] + x1[4:8]+x1[22:30]
      v.append(x1)
  for x1 in v :
    v1=[]
    for x2 in x1:
      v1.append(float(x2))
    features.append(v1)
  return features,targets
if __name__ == '__main__':
  v=load_kdd99("../../data/kddcup99/corrected")
  x,y=get_guess_passwdandNormal(v)
  clf = tree.DecisionTreeClassifier()
  print(cross_val_score(clf, x, y, n_jobs=-1, cv=10))
  clf = clf.fit(x, y)
  dot_data = tree.export_graphviz(clf, out_file=None)
  graph = pydotplus.graph_from_dot_data(dot_data)
  graph.write_pdf("POP3Detector.pdf")

随后生成的用于辨别是否POP3暴力破解的的决策树如下:

随机森林算法

随机森林指的是利用多棵树对样本进行训练并预测的一种分类器。是一个包含多个决策树的分类器,并且其输出类别是由个别树输出的类别的众数决定的。随机森林的每一颗决策树之间是没有关联的。在得到森林之后,当有一个新的输入样本进入的时候,就让森林中的每一颗决策树分别进行判断,看看这个样本属于哪一类,然后看看哪一类被选择最多,则预测这个样本为那一类。一般来说,随机森林的判决性能优于决策树。

随机森林的helloworld

接下来我们利用随机生成的一些数据直观的看看决策树和随机森林的准确率对比:

from sklearn.model_selection import cross_val_score
from sklearn.datasets import make_blobs
from sklearn.ensemble import RandomForestClassifier
from sklearn.ensemble import ExtraTreesClassifier
from sklearn.tree import DecisionTreeClassifier
X,y = make_blobs(n_samples = 10000,n_features=10,centers = 100,random_state = 0)
clf = DecisionTreeClassifier(max_depth = None,min_samples_split=2,random_state = 0)
scores = cross_val_score(clf,X,y)
print("决策树准确率;",scores.mean())
clf = RandomForestClassifier(n_estimators=10,max_depth = None,min_samples_split=2,random_state = 0)
scores = cross_val_score(clf,X,y)
print("随机森林准确率:",scores.mean())

最后可以看到决策树的准确率是要稍逊于随机森林的。

使用随机森林算法检测FTP暴力破解

接下来我们使用ADFA-LD数据集中关于FTP的数据使用随机森林算法建立一个随机森林分类器,ADFA-LD数据集中记录了函数调用序列,每个文件包含的函数调用的序列个数都不一样。相关数据集的详细内容请自行google。

详细源码如下:

# -*- coding:utf-8 -*-
#使用随机森林算法检测FTP暴力破解
import re
import matplotlib.pyplot as plt
from sklearn.feature_extraction.text import CountVectorizer
from sklearn.model_selection import cross_val_score
import os
from sklearn import tree
import pydotplus
import numpy as np
from sklearn.ensemble import RandomForestClassifier
def load_one_flle(filename):
  x=[]
  with open(filename) as f:
    line=f.readline()
    line=line.strip('\n')
  return line
def load_adfa_training_files(rootdir):
  x=[]
  y=[]
  list = os.listdir(rootdir)
  for i in range(0, len(list)):
    path = os.path.join(rootdir, list[i])
    if os.path.isfile(path):
      x.append(load_one_flle(path))
      y.append(0)
  return x,y
def dirlist(path, allfile):
  filelist = os.listdir(path)
  for filename in filelist:
    filepath = path+filename
    if os.path.isdir(filepath):
      #处理路径异常
      dirlist(filepath+'/', allfile)
    else:
      allfile.append(filepath)
  return allfile
def load_adfa_hydra_ftp_files(rootdir):
  x=[]
  y=[]
  allfile=dirlist(rootdir,[])
  for file in allfile:
    #正则表达式匹配hydra异常ftp文件
    if re.match(r"../../data/ADFA-LD/Attack_Data_Master/Hydra_FTP_\d+/UAD-Hydra-FTP*",file):
      x.append(load_one_flle(file))
      y.append(1)
  return x,y
if __name__ == '__main__':
  x1,y1=load_adfa_training_files("../../data/ADFA-LD/Training_Data_Master/")
  x2,y2=load_adfa_hydra_ftp_files("../../data/ADFA-LD/Attack_Data_Master/")
  x=x1+x2
  y=y1+y2
  vectorizer = CountVectorizer(min_df=1)
  x=vectorizer.fit_transform(x)
  x=x.toarray()
  #clf = tree.DecisionTreeClassifier()
  clf = RandomForestClassifier(n_estimators=10, max_depth=None,min_samples_split=2, random_state=0)
  clf = clf.fit(x,y)
  score = cross_val_score(clf, x, y, n_jobs=-1, cv=10)
  print(score)
  print('平均正确率为:',np.mean(score))

最后可以获得一个准确率约在98.4%的随机森林分类器。

更多关于Python相关内容感兴趣的读者可查看本站专题:《Python数据结构与算法教程》、《Python编码操作技巧总结》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》及《Python入门与进阶经典教程》

希望本文所述对大家Python程序设计有所帮助。

您可能感兴趣的文章:

  • python实现随机森林random forest的原理及方法
  • 用Python实现随机森林算法的示例
  • Python实现简单遗传算法(SGA)
  • python实现K最近邻算法
  • Python实现KNN邻近算法
  • python机器学习案例教程——K最近邻算法的实现
  • python实现决策树C4.5算法详解(在ID3基础上改进)
  • 基于ID3决策树算法的实现(Python版)
  • python实现ID3决策树算法
  • python实现决策树分类算法
  • Python机器学习之决策树算法
  • Python实现的随机森林算法与简单总结
(0)

相关推荐

  • python实现K最近邻算法

    KNN核心算法函数,具体内容如下 #! /usr/bin/env python3 # -*- coding: utf-8 -*- # fileName : KNNdistance.py # author : zoujiameng@aliyun.com.cn import math def getMaxLocate(target): # 查找target中最大值的locate maxValue = float("-inFinIty") for i in range(len(target)

  • 基于ID3决策树算法的实现(Python版)

    实例如下: # -*- coding:utf-8 -*- from numpy import * import numpy as np import pandas as pd from math import log import operator #计算数据集的香农熵 def calcShannonEnt(dataSet): numEntries=len(dataSet) labelCounts={} #给所有可能分类创建字典 for featVec in dataSet: currentLa

  • 用Python实现随机森林算法的示例

    拥有高方差使得决策树(secision tress)在处理特定训练数据集时其结果显得相对脆弱.bagging(bootstrap aggregating 的缩写)算法从训练数据的样本中建立复合模型,可以有效降低决策树的方差,但树与树之间有高度关联(并不是理想的树的状态). 随机森林算法(Random forest algorithm)是对 bagging 算法的扩展.除了仍然根据从训练数据样本建立复合模型之外,随机森林对用做构建树(tree)的数据特征做了一定限制,使得生成的决策树之间没有关联,

  • python实现随机森林random forest的原理及方法

    引言 想通过随机森林来获取数据的主要特征 1.理论 随机森林是一个高度灵活的机器学习方法,拥有广泛的应用前景,从市场营销到医疗保健保险. 既可以用来做市场营销模拟的建模,统计客户来源,保留和流失.也可用来预测疾病的风险和病患者的易感性. 根据个体学习器的生成方式,目前的集成学习方法大致可分为两大类,即个体学习器之间存在强依赖关系,必须串行生成的序列化方法,以及个体学习器间不存在强依赖关系,可同时生成的并行化方法: 前者的代表是Boosting,后者的代表是Bagging和"随机森林"(

  • Python机器学习之决策树算法

    一.决策树原理 决策树是用样本的属性作为结点,用属性的取值作为分支的树结构. 决策树的根结点是所有样本中信息量最大的属性.树的中间结点是该结点为根的子树所包含的样本子集中信息量最大的属性.决策树的叶结点是样本的类别值.决策树是一种知识表示形式,它是对所有样本数据的高度概括决策树能准确地识别所有样本的类别,也能有效地识别新样本的类别. 决策树算法ID3的基本思想: 首先找出最有判别力的属性,把样例分成多个子集,每个子集又选择最有判别力的属性进行划分,一直进行到所有子集仅包含同一类型的数据为止.最后

  • python实现决策树分类算法

    本文实例为大家分享了python实现决策树分类算法的具体代码,供大家参考,具体内容如下 1.概述 决策树(decision tree)--是一种被广泛使用的分类算法. 相比贝叶斯算法,决策树的优势在于构造过程不需要任何领域知识或参数设置 在实际应用中,对于探测式的知识发现,决策树更加适用. 2.算法思想 通俗来说,决策树分类的思想类似于找对象.现想象一个女孩的母亲要给这个女孩介绍男朋友,于是有了下面的对话: 女儿:多大年纪了? 母亲:26. 女儿:长的帅不帅? 母亲:挺帅的. 女儿:收入高不?

  • python实现决策树C4.5算法详解(在ID3基础上改进)

    一.概论 C4.5主要是在ID3的基础上改进,ID3选择(属性)树节点是选择信息增益值最大的属性作为节点.而C4.5引入了新概念"信息增益率",C4.5是选择信息增益率最大的属性作为树节点. 二.信息增益 以上公式是求信息增益率(ID3的知识点) 三.信息增益率 信息增益率是在求出信息增益值在除以. 例如下面公式为求属性为"outlook"的值: 四.C4.5的完整代码 from numpy import * from scipy import * from mat

  • Python实现的随机森林算法与简单总结

    本文实例讲述了Python实现的随机森林算法.分享给大家供大家参考,具体如下: 随机森林是数据挖掘中非常常用的分类预测算法,以分类或回归的决策树为基分类器.算法的一些基本要点: *对大小为m的数据集进行样本量同样为m的有放回抽样: *对K个特征进行随机抽样,形成特征的子集,样本量的确定方法可以有平方根.自然对数等: *每棵树完全生成,不进行剪枝: *每个样本的预测结果由每棵树的预测投票生成(回归的时候,即各棵树的叶节点的平均) 著名的python机器学习包scikit learn的文档对此算法有

  • Python实现简单遗传算法(SGA)

    本文用Python3完整实现了简单遗传算法(SGA) Simple Genetic Alogrithm是模拟生物进化过程而提出的一种优化算法.SGA采用随机导向搜索全局最优解或者说近似全局最优解.传统的爬山算法(例如梯度下降,牛顿法)一次只优化一个解,并且对于多峰的目标函数很容易陷入局部最优解,而SGA算法一次优化一个种群(即一次优化多个解),SGA比传统的爬山算法更容易收敛到全局最优解或者近似全局最优解. SGA基本流程如下: 1.对问题的解进行二进制编码.编码涉及精度的问题,在本例中精度de

  • Python实现KNN邻近算法

    简介 邻近算法,或者说K最近邻(kNN,k-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一.所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表. kNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性.该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别. kNN方法在类别决策时,只与极少量的相邻样本有关.由于kNN

  • python机器学习案例教程——K最近邻算法的实现

    K最近邻属于一种分类算法,他的解释最容易,近朱者赤,近墨者黑,我们想看一个人是什么样的,看他的朋友是什么样的就可以了.当然其他还牵着到,看哪方面和朋友比较接近(对象特征),怎样才算是跟朋友亲近,一起吃饭还是一起逛街算是亲近(距离函数),根据朋友的优秀不优秀如何评判目标任务优秀不优秀(分类算法),是否不同优秀程度的朋友和不同的接近程度要考虑一下(距离权重),看几个朋友合适(k值),能否以分数的形式表示优秀度(概率分布). K最近邻概念: 它的工作原理是:存在一个样本数据集合,也称作为训练样本集,并

随机推荐