Golang并发读取文件数据并写入数据库的项目实践

目录
  • 需求
  • 项目结构
  • 获取data目录下的文件
  • 按行读取文本数据
  • 数据类型定义
  • 并发读取文件
  • 将数据写入数据库
  • 完整main.go代码
  • 测试运行

需求

最近接到一个任务,要把一批文件中的十几万条JSON格式数据写入到Oracle数据库中,Oracle是企业级别的数据库向来以高性能著称,所以尽可能地利用这一特性。当时第一时间想到的就是用多线程并发读文件并操作数据库,而Golang是为并发而生的,用Golang进行并发编程非常方便,因此这里选用Golang并发读取文件并用Gorm操作数据库。然而Gorm官方并不支持Oraclc,所以要借助第三方驱动,之前写了篇文章来记录Gorm操作Oracle的踩坑,详见使用Gorm操作Oracle数据库踩坑

项目结构

data文件夹中包含数十个.out结尾的数据文件,model.go声明数据类型,main.go中编写并发逻辑和数据库操作代码

|——db_test
|    |——data
|        |——xxx.out
|        |——yyy.out
|    |——model
|        |——model.go
|    |——main.go
|    |——go.mod

获取data目录下的文件

Golang自带的os库就可以对文件、目录进行各种丰富的操作,OpenFile函数第一个参数是目录的路径,第二个参数表示只读,第三个参数os.ModeDir表示以文件夹模式打开。ReadDir传入负数表示读取目录下所有文件信息,传入n表示读取前n个文件信息。最后将所有文件名保存到字符串数组并返回。

func loadFile(path string) []string {
        // 打开指定文件夹
    f, err := os.OpenFile(path, os.O_RDONLY, os.ModeDir)
    if err != nil {
        log.Fatalln(err.Error())
        os.Exit(0)
    }
    defer f.Close()
        // 读取目录下所有文件
    fileInfo, _ := f.ReadDir(-1)

    files := make([]string, 0)
    for _, info := range fileInfo {
        files = append(files, info.Name())
    }
    return files
}

按行读取文本数据

这里使用bufio.Scanner来一行一行读取JSON格式的数据,bufio.Reader也能实现按行读取,但bufio.Scanner是go1.1后开发的模块操作起来更简单一点。

func readRecord(filename string) {
    log.Println(filename)
    f, err := os.Open(filename)
    if err != nil {
        log.Println(filename + " error")
        return
    }
    defer f.Close()
    scanner := bufio.NewScanner(f)
    for scanner.Scan() {
        line := scanner.Text() // line就是每行文本
                // 对line进行处理
    }
}

数据类型定义

还是假设数据库中有一个SHOPS表,结构体方法TableName指定该类型对应的数据表,编写如下model.go文件

​package model

type ShopInfo struct {
    ShopId   string `gorm:"column:SHOPID;not null"`
    ShopName string `gorm:"column:SHOPNAME;not null"`
        // 省略剩余的字段
}
func (s *ShopInfo) TableName() string {
    return "SHOPS"
}

并发读取文件

基本逻辑是主函数读取文件夹下面的所有文件,然后用循环开启goroutine并传入文件名和数据库指针,goroutine中按行读取每个文件并将其JSON数据转换为结构体,在调用Gorm写入Oracle数据库。这里用Golang的等待组来同步主函数与goroutine。

var wg sync.WaitGroup
func main() {
        // 打开Oracle连接
    db, err := gorm.Open(oracle.Open("database/password@127.0.0.1:1521/XE"), &gorm.Config{
        Logger: logger.New(log.New(os.Stdout, "\r\n", log.LstdFlags), logger.Config{
            SlowThreshold: 1 * time.Millisecond,
            LogLevel:      logger.Error,
            Colorful:      true,
        }),
    })
    if err != nil {
        log.Fatalln(err)
    }

    if e := db.AutoMigrate(&model.ShopInfo{}); e != nil {
        log.Fatalln(e.Error())
    }

    path := "./data/"
    files := loadFile(path) // 加载所有文件名
        // 循环创建goroutine
    for i, v := range files {
        wg.Add(1)
                // 将数据库指针和文件名传给goroutine处理
        go writeRecord(db, path+v)
    }

    wg.Wait() // 等待所有goroutine执行完成
    log.Println("over")

}

将数据写入数据库

由于这些文件中可能有重复的数据,所以这里调用了Gorm的Clauses设置,当有主键重复的数据什么都不做,有些情况下主键相同但是更新了某些字段,这时可以用Clauses设置主键重复时进行更新操作。虽然主键重复时什么都不做,但是db的执行结果也会包含"unique constraint"错误,所以在错误处理时要排除主键冲突的情况,把其他错误(如字段太长或类型不匹配)记录下来。

func writeRecord(db *gorm.DB, filename string) {
    defer wg.Done() // 不要忘记等待组-1
    f, err := os.Open(filename)
    if err != nil {
        log.Println(filename + " error")
        return
    }
    defer f.Close()
    scanner := bufio.NewScanner(f)
    iter := 0 // 记录出错的行数
    for scanner.Scan() {
        var shop model.ShopInfo
        iter++
        // 调用json.Unmarshal()将文本转换为结构体
        if err = json.Unmarshal([]byte(scanner.Text()), &shop); err != nil {
            log.Println("转换错误--->" + scanner.Text())
            return
        }
        // 用clause设置当发生ID冲突时什么都不做
        res := db.Clauses(clause.OnConflict{DoNothing: true}).Create(&shop)
        // 虽然ID相同时程序不会停止,但是还是有错误返回
        // 所以这里排除ID冲突错误,将其他错误(字段冲突)打印出来
        if res.Error != nil && !strings.Contains(res.Error.Error(), "unique constraint") {
            log.Println("插入出错--->" + shop.ShopId + " 在" + filename + "第" + strconv.Itoa(iter) + "行")
            return
        }
    }
}

完整main.go代码

将上面每一步整合后得到完整的主函数代码如下:

package main

import (
    "bufio"
    "db_test/model"
    "encoding/json"
    "log"
    "os"
    "strconv"
    "strings"
    "sync"
    "time"

    "github.com/cengsin/oracle"
    "gorm.io/gorm"
    "gorm.io/gorm/clause"
    "gorm.io/gorm/logger"
)

var wg sync.WaitGroup

func main() {
    log.Println("initial database connect……")
    db, err := gorm.Open(oracle.Open("database/password@127.0.0.1:1521/XE"), &gorm.Config{
        Logger: logger.New(log.New(os.Stdout, "\r\n", log.LstdFlags), logger.Config{
            SlowThreshold: 1 * time.Millisecond,
            LogLevel:      logger.Error,
            Colorful:      true,
        }),
    })
    if err != nil {
        log.Fatalln(err)
    }

    if e := db.AutoMigrate(&model.ShopInfo{}); e != nil {
        log.Fatalln(e.Error())
    }

    path := "../out1/"
    files := loadFile(path)
    time.Sleep(2 * time.Second)
    for i, v := range files {
        wg.Add(1)
        go writeRecord(db, path+v)
    }

    wg.Wait()
    log.Println("over")

}

func loadFile(path string) []string {
        // 打开指定文件夹
    f, err := os.OpenFile(path, os.O_RDONLY, os.ModeDir)
    if err != nil {
        log.Fatalln(err.Error())
        os.Exit(0)
    }
    defer f.Close()
        // 读取目录下所有文件
    fileInfo, _ := f.ReadDir(-1)

    files := make([]string, 0)
    for _, info := range fileInfo {
        files = append(files, info.Name())
    }
    return files
}

func writeRecord(db *gorm.DB, filename string) {
    defer wg.Done()
    f, err := os.Open(filename)
    if err != nil {
        log.Println(filename + " error")
        return
    }
    defer f.Close()
    scanner := bufio.NewScanner(f)
    iter := 0 // 记录出错的行数
    for scanner.Scan() {
        var shop model.ShopInfo
        iter++
        // 调用json.Unmarshal()将文本转换为结构体
        if err = json.Unmarshal([]byte(scanner.Text()), &shop); err != nil {
            log.Println("转换错误--->" + scanner.Text())
            return
        }
        // 用clause设置当发生ID冲突时什么都不做
        res := db.Clauses(clause.OnConflict{DoNothing: true}).Create(&shop)
        // 虽然ID相同时程序不会停止,但是还是有错误返回
        // 所以这里排除ID冲突错误,将其他错误(字段冲突)打印出来
        if res.Error != nil && !strings.Contains(res.Error.Error(), "unique constraint") {
            log.Println("插入出错--->" + shop.ShopId + " 在" + filename + "第" + strconv.Itoa(iter) + "行")
            return
        }
    }
}

测试运行

go run ./main.go运行过程非常快,十几万条数据几分钟就写完了,并且CPU占用率100%,证明非常有效的利用了并发优势。若是文件数量太多(上千个)的话会创建非常多goroutine,可能消耗非常多系统资源,可以在循环创建goroutine时进行限制,只创建30或50个,一个goroutine结束后再给它传入一个新的文件名。

到此这篇关于Golang并发读取文件数据并写入数据库的项目实践的文章就介绍到这了,更多相关Golang并发读取并写入内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • Golang 实现分片读取http超大文件流和并发控制

    分片读取http超大文件流 Golang中的HTTP发送get请求,在获取内容有两种情况. Golang发送http get请求方式 resp, err := http.Get(sendUrl) if err != nil { fmt.Println("出错", err) return } 第一种方式是直接全部读取出来,这种方式在小数据量的时候很方便. body变量直接全部接收resp响应内容 body, err2 := ioutil.ReadAll(resp.Body) 第二种方式,

  • golang中sync.Map并发创建、读取问题实战记录

    背景: 我们有一个用go做的项目,其中用到了zmq4进行通信,一个简单的rpc过程,早期远端是使用一个map去做ip和具体socket的映射. 问题 大概是这样 struct SocketMap { sync.Mutex sockets map[string]*zmq4.Socket } 然后调用的时候的代码大概就是这样的: func (pushList *SocketMap) push(ip string, data []byte) { pushList.Lock() defer pushLi

  • Golang并发读取文件数据并写入数据库的项目实践

    目录 需求 项目结构 获取data目录下的文件 按行读取文本数据 数据类型定义 并发读取文件 将数据写入数据库 完整main.go代码 测试运行 需求 最近接到一个任务,要把一批文件中的十几万条JSON格式数据写入到Oracle数据库中,Oracle是企业级别的数据库向来以高性能著称,所以尽可能地利用这一特性.当时第一时间想到的就是用多线程并发读文件并操作数据库,而Golang是为并发而生的,用Golang进行并发编程非常方便,因此这里选用Golang并发读取文件并用Gorm操作数据库.然而Go

  • C#逐行分元素读取记事本数据并写入数据库的方法

    本文实例讲述了C#逐行分元素读取记事本数据并写入数据库的方法.分享给大家供大家参考.具体分析如下: 其实这里最关键的一个方法是 StreamReader类里的 ReadLine();这个方法可以逐行读取txt流里面的数据.写了个简单的demo,已经加上了详细的注释说明. ok,好了,不废话,下面直接上代码 复制代码 代码如下: public void InputData()  {      DataTable dt = new DataTable();      string strFilePa

  • Python从数据库读取大量数据批量写入文件的方法

    使用机器学习训练数据时,如果数据量较大可能我们不能够一次性将数据加载进内存,这时我们需要将数据进行预处理,分批次加载进内存. 下面是代码作用是将数据从数据库读取出来分批次写入txt文本文件,方便我们做数据的预处理和训练机器学习模型. #%% import pymssql as MySQLdb #这里是python3 如果你是python2.x的话,import MySQLdb #数据库连接属性 hst = '188.10.34.18' usr = 'sa' passwd = 'p@ssw0rd'

  • golang逐行读取文件的操作

    我就废话不多说了,大家还是直接看代码吧~ func ReadLine(fileName string) ([]string,error){ f, err := os.Open(fileName) if err != nil { return nil,err } buf := bufio.NewReader(f) var result []string for { line, err := buf.ReadString('\n') line = strings.TrimSpace(line) if

  • python实现用类读取文件数据并计算矩形面积

    1.创建一个类Rectangle,已知a.b求面积,求三角形的面积 2.结合题目一,从题目一文件中读取数据,并采用类的方法,将计算的结果写在另一个文档中. (1)利用类进行计算一个矩形的面积,已经a.b边长. class Rectangle: '''这是关于矩形面积的计算公式,只用给出矩形的长和宽, 调用实例函数,就可以返回所需要的面积''' number=0 def __init__(self,a,b): # a.b类似C中的形参 或者叫作构造方法 self.a1=a # 将形参中的值传入到类

  • Java读取json数据并存入数据库的操作代码

    Java读取json数据并存入数据库 1. pom依赖 <dependency> <groupId>com.alibaba</groupId> <artifactId>fastjson</artifactId> <version>1.2.47</version> </dependency> 2.students.json文件 { "students": [ { "stuId&quo

  • Python实现的读取文件内容并写入其他文件操作示例

    本文实例讲述了Python实现的读取文件内容并写入其他文件操作.分享给大家供大家参考,具体如下: 文件目录结构,如图: read_file.py是工作文件,file_test.py是读取文件源,write_test.py是写入目标文件. 文件A:file_test.py #coding=utf-8 for i in range(1, 10): print i 文件B:read_file.py # coding=utf-8 # 打开件A f = open('./file_test.py', 'rb

  • Java 按行读取文件按行写入文件并以空格分割字符串的方法

    首先是按行读取字符串 import java.io.BufferedReader; import java.io.File; import java.io.FileReader; public class TxtChange { public static void main(String[] args){ File file=new File("E:\\oldData.txt"); BufferedReader reader=null; String temp=null; int l

  • 详解FileInputStream读取文件数据的两种方式

    FileInputStream(文件字节读取流): read():一个一个字节的读 read(byte[] buf):先把字节存入到缓冲区字节数组中,一下读一个数组(常用) import java.io.File; import java.io.FileInputStream; import java.io.FileNotFoundException; import java.io.IOException; import java.util.Arrays; public class FileIn

  • 浅谈Golang是如何读取文件内容的(7种)

    本文旨在快速介绍Go标准库中读取文件的许多选项. 在Go中(就此而言,大多数底层语言和某些动态语言(如Node))返回字节流. 不将所有内容自动转换为字符串的好处是,其中之一是避免昂贵的字符串分配,这会增加GC压力. 为了使本文更加简单,我将使用string(arrayOfBytes)将bytes数组转换为字符串. 但是,在发布生产代码时,不应将其作为一般建议. 1.读取整个文件到内存中 首先,标准库提供了多种功能和实用程序来读取文件数据.我们将从os软件包中提供的基本情况开始.这意味着两个先决

随机推荐