python 使用Yolact训练自己的数据集

可能是由于yolact官方更新过其项目代码,所以网上其他人的yolact训练使用的config文件和我的稍微有区别。但总体还是差不多的。

1:提前准备好自己的数据集

使用labelme来制作分割数据集,但是得到的是一个个单独的json文件。需要将其转换成coco。
labelme2coco.py如下所示(代码来源:github链接):

import os
import json
import numpy as np
import glob
import shutil
from sklearn.model_selection import train_test_split
np.random.seed(41)

#0为背景,此处根据你数据集的类别来修改key
classname_to_id = {"1": 1}

class Lableme2CoCo:

 def __init__(self):
  self.images = []
  self.annotations = []
  self.categories = []
  self.img_id = 0
  self.ann_id = 0

 def save_coco_json(self, instance, save_path):
  json.dump(instance, open(save_path, 'w', encoding='utf-8'), ensure_ascii=False, indent=1) # indent=2 更加美观显示

 # 由json文件构建COCO
 def to_coco(self, json_path_list):
  self._init_categories()
  for json_path in json_path_list:
   obj = self.read_jsonfile(json_path)
   self.images.append(self._image(obj, json_path))
   shapes = obj['shapes']
   for shape in shapes:
    annotation = self._annotation(shape)
    self.annotations.append(annotation)
    self.ann_id += 1
   self.img_id += 1
  instance = {}
  instance['info'] = 'spytensor created'
  instance['license'] = ['license']
  instance['images'] = self.images
  instance['annotations'] = self.annotations
  instance['categories'] = self.categories
  return instance

 # 构建类别
 def _init_categories(self):
  for k, v in classname_to_id.items():
   category = {}
   category['id'] = v
   category['name'] = k
   self.categories.append(category)

 # 构建COCO的image字段
 def _image(self, obj, path):
  image = {}
  from labelme import utils
  img_x = utils.img_b64_to_arr(obj['imageData'])
  h, w = img_x.shape[:-1]
  image['height'] = h
  image['width'] = w
  image['id'] = self.img_id
  image['file_name'] = os.path.basename(path).replace(".json", ".jpg")
  return image

 # 构建COCO的annotation字段
 def _annotation(self, shape):
  label = shape['label']
  points = shape['points']
  annotation = {}
  annotation['id'] = self.ann_id
  annotation['image_id'] = self.img_id
  annotation['category_id'] = int(classname_to_id[label])
  annotation['segmentation'] = [np.asarray(points).flatten().tolist()]
  annotation['bbox'] = self._get_box(points)
  annotation['iscrowd'] = 0
  annotation['area'] = 1.0
  return annotation

 # 读取json文件,返回一个json对象
 def read_jsonfile(self, path):
  with open(path, "r", encoding='utf-8') as f:
   return json.load(f)

 # COCO的格式: [x1,y1,w,h] 对应COCO的bbox格式
 def _get_box(self, points):
  min_x = min_y = np.inf
  max_x = max_y = 0
  for x, y in points:
   min_x = min(min_x, x)
   min_y = min(min_y, y)
   max_x = max(max_x, x)
   max_y = max(max_y, y)
  return [min_x, min_y, max_x - min_x, max_y - min_y]

if __name__ == '__main__':
 labelme_path = "labelme/" # 此处根据你的数据集地址来修改
 saved_coco_path = "./"
 # 创建文件
 if not os.path.exists("%scoco/annotations/"%saved_coco_path):
  os.makedirs("%scoco/annotations/"%saved_coco_path)
 if not os.path.exists("%scoco/images/train2017/"%saved_coco_path):
  os.makedirs("%scoco/images/train2017"%saved_coco_path)
 if not os.path.exists("%scoco/images/val2017/"%saved_coco_path):
  os.makedirs("%scoco/images/val2017"%saved_coco_path)
 # 获取images目录下所有的joson文件列表
 json_list_path = glob.glob(labelme_path + "/*.json")
 # 数据划分,这里没有区分val2017和tran2017目录,所有图片都放在images目录下
 train_path, val_path = train_test_split(json_list_path, test_size=0.12)
 print("train_n:", len(train_path), 'val_n:', len(val_path))

 # 把训练集转化为COCO的json格式
 l2c_train = Lableme2CoCo()
 train_instance = l2c_train.to_coco(train_path)
 l2c_train.save_coco_json(train_instance, '%scoco/annotations/instances_train2017.json'%saved_coco_path)
 for file in train_path:
  shutil.copy(file.replace("json","jpg"),"%scoco/images/train2017/"%saved_coco_path)
 for file in val_path:
  shutil.copy(file.replace("json","jpg"),"%scoco/images/val2017/"%saved_coco_path)

 # 把验证集转化为COCO的json格式
 l2c_val = Lableme2CoCo()
 val_instance = l2c_val.to_coco(val_path)
 l2c_val.save_coco_json(val_instance, '%scoco/annotations/instances_val2017.json'%saved_coco_path)

只需要修改两个地方即可,然后放到data文件夹下。
最后,得到的coco格式的数据集如下所示:

至此,数据准备已经结束。

2:下载github存储库

网址:YOLACT

之后解压,但是我解压的时候不知道为啥没有yolact.py这个文件。后来又建了一个py文件,复制了里面的代码。

下载权重文件,把权重文件放到yolact-master下的weights文件夹里(没有就新建):

3:修改config.py

文件所在位置:

修改类别,把原本的coco的类别全部注释掉,修改成自己的(如红色框),注意COCO_CLASSES里有一个逗号。

修改数据集地址dataset_base

修改coco_base_config(下面第二个横线max_iter并不是控制训练轮数的,第二张图中的max_iter才是)

4:训练

cd到指定路径下,执行下面命令即可

python train.py --config=yolact_base_config

刚开始:

因为我是租的云服务器,在jupyter notebook里训练的。输出的训练信息比较乱。

训练几分钟后:

主要看T后面的数字即可,好像他就是总的loss,如果它收敛了,按下Ctrl+C,即可中止训练,保存模型权重。

第一个问题:

PytorchStreamReader failed reading zip archive: failed finding central directory

第二个问题:
(但是不知道为啥,我训练时如果中断,保存的模型不能用来测试,会爆出下面的错误)

RuntimeError: unexpected EOF, expected *** more bytes. The file might be corruptrd

没办法解决,所以只能跑完,自动结束之后保存的模型拿来测试(自动保存的必中断保存的要大十几兆)

模型保存的格式:<config>_<epoch>_<iter>.pth。如果是中断的:<config>_<epoch>_<iter>_interrupt.pth

5:测试

使用官网的测试命令即可

以上就是python 使用Yolact训练自己的数据集的详细内容,更多关于python 训练数据集的资料请关注我们其它相关文章!

(0)

相关推荐

  • 使用Python制作一个打字训练小工具

    一.写在前面 说道程序员,你会想到什么呢?有人认为程序员象征着高薪,有人认为程序员都是死肥宅,还有人想到的则是996和 ICU. 别人眼中的程序员:飞快的敲击键盘.酷炫的切换屏幕.各种看不懂的字符代码. 然而现实中的程序员呢?对于很多程序员来说,没有百度和 Google 解决不了的问题,也没有 ctrl + c 和 ctrl + v 实现不了的功能. 那么身为一个程序员,要怎么让自己看起来更加"专业"呢?答案就是加快自己的打字速度了,敲的代码可能是错的,但这个13却是必须装的! 然而还

  • Python 实现训练集、测试集随机划分

    随机从列表中取出元素: import random dataSet = [[0], [1], [2], [3], [4], [5], [6], [7], [8], [9], [10]] trainDataSet = random.sample(dataSet, 3) 以下函数,使用于我最近的一个机器学习的项目,将数据集数据按照比例随机划分成训练集数据和测试集数据: import csv import random def getDataSet(proportion): """

  • 在python下实现word2vec词向量训练与加载实例

    项目中要对短文本进行相似度估计,word2vec是一个很火的工具.本文就word2vec的训练以及加载进行了总结. word2vec的原理就不描述了,word2vec词向量工具是由google开发的,输入为文本文档,输出为基于这个文本文档的语料库训练得到的词向量模型. 通过该模型可以对单词的相似度进行量化分析. word2vec的训练方法有2种,一种是通过word2vec的官方手段,在linux环境下编译并执行. 在github上下载word2vec的安装包,然后make编译.查看demo-wo

  • Python实现Keras搭建神经网络训练分类模型教程

    我就废话不多说了,大家还是直接看代码吧~ 注释讲解版: # Classifier example import numpy as np # for reproducibility np.random.seed(1337) # from keras.datasets import mnist from keras.utils import np_utils from keras.models import Sequential from keras.layers import Dense, Act

  • Python分割训练集和测试集的方法示例

    数据集介绍 使用数据集Wine,来自UCI  .包括178条样本,13个特征. import pandas as pd import numpy as np df_wine = pd.read_csv('https://archive.ics.uci.edu/ml/machine-learning-databases/wine/wine.data', header=None) df_wine.columns = ['Class label', 'Alcohol', 'Malic acid', '

  • python 划分数据集为训练集和测试集的方法

    sklearn的cross_validation包中含有将数据集按照一定的比例,随机划分为训练集和测试集的函数train_test_split from sklearn.cross_validation import train_test_split #x为数据集的feature熟悉,y为label. x_train, x_test, y_train, y_test = train_test_split(x, y, test_size = 0.3) 得到的x_train,y_train(x_te

  • 对sklearn的使用之数据集的拆分与训练详解(python3.6)

    研修课上讲了两个例子,融合一下. 主要演示大致的过程: 导入->拆分->训练->模型报告 以及几个重要问题: ①标签二值化 ②网格搜索法调参 ③k折交叉验证 ④增加噪声特征(之前涉及) from sklearn import datasets #从cross_validation导入会出现warning,说已弃用 from sklearn.model_selection import train-test_split from sklearn.grid_search import Gri

  • Python编写打字训练小程序

    你眼中的程序猿 别人眼中的程序猿,是什么样子?打字如飞,各种炫酷的页面切换,一个个好似黑客般的网站破解.可现实呢? 二指禅的敲键盘,写一行代码,查半天百度-那么如何能让我们从外表上变得更像一个程序猿呢?当然是训练我们的打字速度了啊! 训练打字 很羡慕那些盲打速度炒鸡快的人,看起来就比较炫酷.但很多IT男打字速度并不快,甚至还有些二指禅的朋友们,太影响装13效果了.那么今天我们就来使用Python写一个打字训练的小工具吧.先来看看使用效果- 我们使用Python内置的GUI模块Tkinter来编写

  • python中如何实现将数据分成训练集与测试集的方法

    接下来,直接给出大家响应的代码,并对每一行进行标注,希望能够帮到大家. 需要用到的是库是.numpy .sklearn. #导入相应的库(对数据库进行切分需要用到的库是sklearn.model_selection 中的 train_test_split) import numpy as np from sklearn.model_selection import train_test_split #首先,读取.CSV文件成矩阵的形式. my_matrix = np.loadtxt(open("

  • python使用pandas抽样训练数据中某个类别实例

    废话真的一句也不想多说,直接看代码吧! # -*- coding: utf-8 -*- import numpy from sklearn import metrics from sklearn.svm import LinearSVC from sklearn.naive_bayes import MultinomialNB from sklearn import linear_model from sklearn.datasets import load_iris from sklearn.

  • Python通过TensorFLow进行线性模型训练原理与实现方法详解

    本文实例讲述了Python通过TensorFLow进行线性模型训练原理与实现方法.分享给大家供大家参考,具体如下: 1.相关概念 例如要从一个线性分布的途中抽象出其y=kx+b的分布规律 特征是输入变量,即简单线性回归中的 x 变量.简单的机器学习项目可能会使用单个特征,而比较复杂的机器学习项目可能会使用数百万个特征. 标签是我们要预测的事物,即简单线性回归中的 y 变量. 样本是指具体的数据实例.有标签样本是指具有{特征,标签}的数据,用于训练模型,总结规律.无标签样本只具有特征的数据x,通过

随机推荐