MongoDB 主从复制实例讲解

主从复制可以用来做数据库的备份,故障恢复,读写分离。

本实验使用Mongodb 3.2版本,我们先查看一下mongod的帮助

[root@localhost mongodb]# mongod --help
.....省略
Master/slave options (old; use replica sets instead):
 --master               master mode
 --slave                slave mode
 --source arg             when slave: specify master as
                    <server:port>
 --only arg              when slave: specify a single database
                    to replicate
 --slavedelay arg           specify delay (in seconds) to be used
                    when applying master ops to slave
 --autoresync             automatically resync if slave data is
                    stale
.....省略

主从复制已经是过期的功能,目前使用副本集代替。主从复制和副本集的区别,可以简单的理解成主从复制不能自动故障转移,副本集中的集群在主节点宕机后,可以使用选举的策略选择一个新的主节点出来。实现自动的故障转移。

从节点可以是一个,也可以是多个。

下面我们在一台机器上,使用两个实例的方式实现主从复制。

建立数据库目录

[root@localhost data]# mkdir -p /application/mongodb/data/{master,slave}

2. 启动master实例

[root@localhost data]# mongod --dbpath=/application/mongodb/data/master/ --port 27017 --master

--master 指定该实例是主服务器 。

3. 启动从实例

[root@localhost ~]# mongod --dbpath=/application/mongodb/data/slave/ --port 27018 --slave --source 127.0.0.1:27017

--slave 指定该实例为从服务器
--source 指定主服务器是谁?

从服务器启动后,即不断的想主服务器请求同步数据

2016-01-16T10:30:10.208+0800 I REPL   [replslave] syncing from host:127.0.0.1:27017
2016-01-16T10:30:11.210+0800 I REPL   [replslave] syncing from host:127.0.0.1:27017
2016-01-16T10:30:12.211+0800 I REPL   [replslave] syncing from host:127.0.0.1:27017
2016-01-16T10:30:14.196+0800 I REPL   [replslave] syncing from host:127.0.0.1:27017
2016-01-16T10:30:15.197+0800 I REPL   [replslave] syncing from host:127.0.0.1:27017
2016-01-16T10:30:16.199+0800 I REPL   [replslave] syncing from host:127.0.0.1:27017
2016-01-16T10:30:17.202+0800 I REPL   [replslave] syncing from host:127.0.0.1:27017
2016-01-16T10:30:18.204+0800 I REPL   [replslave] syncing from host:127.0.0.1:27017
2016-01-16T10:30:19.207+0800 I REPL   [replslave] syncing from host:127.0.0.1:27017
2016-01-16T10:30:20.209+0800 I REPL   [replslave] syncing from host:127.0.0.1:27017

至此,主从复制已经配置完成,就是这么的简单。

对于从服务器,还有三个参数需要解释一下。

--only arg

从节点指定只复制某个特定的数据库(默认复制所有数据库)

--slavedelay arg

指定从服务器延迟多久时间再同步,此选项在主服务器发生人为操作失误时,比较有用。发现错误时,从服务器还没有同步错误。这样可以避免错误的发生。

--autoresync

如果从节点的数据与主节点发生断裂(某些oplog中的数据还未被同步,即被覆盖了),那么该选项将是从节点自动的从新从头开始同步数据库。

下面我们验证一下,数据的同步是否有效。
在主库中插入数据。

[root@localhost ~]# mongo 127.0.0.1:27017
MongoDB shell version: 3.2.1
connecting to: 127.0.0.1:27017/test
> db.user.insert({"name":"jack","age":40,"job":"moive star"})
WriteResult({ "nInserted" : 1 })
> db.user.insert({"name":"vicent","age":25,"job":"teacher"})
WriteResult({ "nInserted" : 1 })

登录从数据库,检查数据是否同步

[root@localhost ~]# mongo 127.0.0.1:27018
MongoDB shell version: 3.2.1
connecting to: 127.0.0.1:27018/test
> > db.user.find()
{ "_id" : ObjectId("5699af720102a61caffb76e8"), "name" : "jack", "age" : 40, "job" : "moive star" }
{ "_id" : ObjectId("5699af920102a61caffb76e9"), "name" : "vicent", "age" : 25, "job" : "teacher" }

可以看到数据已经同步啦~

默认情况下,要想在从库开启查询功能,必须告知服务器,你接受从服务器的数据(有可能同步有延迟,数据不一致,你能够接受这种不一致)

> show collections
2016-01-16T10:52:04.363+0800 E QUERY  [thread1] Error: listCollections failed: { "ok" : 0, "errmsg" : "not master and slaveOk=false", "code" : 13435 } :
_getErrorWithCode@src/mongo/shell/utils.js:23:13
DB.prototype._getCollectionInfosCommand@src/mongo/shell/db.js:746:1
DB.prototype.getCollectionInfos@src/mongo/shell/db.js:758:15
DB.prototype.getCollectionNames@src/mongo/shell/db.js:769:12
shellHelper.show@src/mongo/shell/utils.js:695:9
shellHelper@src/mongo/shell/utils.js:594:15
@(shellhelp2):1:1

执行rs.slaveOK

> rs.slaveOk()
> show collections
user
>

在从服务的local数据库中有个sources集合,记录了主服务的信息

> use local
switched to db local
> show collections
me
sources
startup_log
> db.sources.find().pretty()
{
  "_id" : ObjectId("5699aaafa33311c25ab793df"),
  "host" : "127.0.0.1:27017",
  "source" : "main",
  "syncedTo" : Timestamp(1452913003, 1)
}

我们再次启动从库时,就无需指定source参数啦。

[root@localhost ~]# mongod --dbpath=/application/mongodb/data/slave/ --port 27018 --slave
2016-01-16T10:57:45.965+0800 I CONTROL [initandlisten] MongoDB starting : pid=21820 port=27018 dbpath=/application/mongodb/data/slave/ slave=1 64-bit host=localhost.localdomain
2016-01-16T10:57:45.967+0800 I CONTROL [initandlisten] db version v3.2.1
2016-01-16T10:57:45.968+0800 I CONTROL [initandlisten] git version: a14d55980c2cdc565d4704a7e3ad37e4e535c1b2
2016-01-16T10:57:45.969+0800 I CONTROL [initandlisten] OpenSSL version: OpenSSL 1.0.1e-fips 11 Feb 2013
2016-01-16T10:57:45.969+0800 I CONTROL [initandlisten] allocator: tcmalloc
2016-01-16T10:57:45.969+0800 I CONTROL [initandlisten] modules: none
2016-01-16T10:57:45.969+0800 I CONTROL [initandlisten] build environment:
2016-01-16T10:57:45.969+0800 I CONTROL [initandlisten]   distmod: rhel62
2016-01-16T10:57:45.969+0800 I CONTROL [initandlisten]   distarch: x86_64
2016-01-16T10:57:45.969+0800 I CONTROL [initandlisten]   target_arch: x86_64
2016-01-16T10:57:45.969+0800 I CONTROL [initandlisten] options: { net: { port: 27018 }, slave: true, storage: { dbPath: "/application/mongodb/data/slave/" } }
2016-01-16T10:57:46.010+0800 I -    [initandlisten] Detected data files in /application/mongodb/data/slave/ created by the 'wiredTiger' storage engine, so setting the active storage engine to 'wiredTiger'.
2016-01-16T10:57:46.011+0800 I STORAGE [initandlisten] wiredtiger_open config: create,cache_size=1G,session_max=20000,eviction=(threads_max=4),config_base=false,statistics=(fast),log=(enabled=true,archive=true,path=journal,compressor=snappy),file_manager=(close_idle_time=100000),checkpoint=(wait=60,log_size=2GB),statistics_log=(wait=0),
2016-01-16T10:57:48.485+0800 I CONTROL [initandlisten] ** WARNING: You are running this process as the root user, which is not recommended.
2016-01-16T10:57:48.486+0800 I CONTROL [initandlisten]
2016-01-16T10:57:48.488+0800 I CONTROL [initandlisten]
2016-01-16T10:57:48.490+0800 I CONTROL [initandlisten] ** WARNING: /sys/kernel/mm/transparent_hugepage/enabled is 'always'.
2016-01-16T10:57:48.490+0800 I CONTROL [initandlisten] **    We suggest setting it to 'never'
2016-01-16T10:57:48.490+0800 I CONTROL [initandlisten]
2016-01-16T10:57:48.490+0800 I CONTROL [initandlisten] ** WARNING: /sys/kernel/mm/transparent_hugepage/defrag is 'always'.
2016-01-16T10:57:48.490+0800 I CONTROL [initandlisten] **    We suggest setting it to 'never'
2016-01-16T10:57:48.490+0800 I CONTROL [initandlisten]
2016-01-16T10:57:48.493+0800 I FTDC   [initandlisten] Initializing full-time diagnostic data capture with directory '/application/mongodb/data/slave/diagnostic.data'
2016-01-16T10:57:48.494+0800 I NETWORK [initandlisten] waiting for connections on port 27018
2016-01-16T10:57:48.495+0800 I NETWORK [HostnameCanonicalizationWorker] Starting hostname canonicalization worker
2016-01-16T10:57:49.497+0800 I REPL   [replslave] syncing from host:127.0.0.1:27017
2016-01-16T10:57:50.503+0800 I REPL   [replslave] sleep 1 sec before next pass
2016-01-16T10:57:51.504+0800 I REPL   [replslave] syncing from host:127.0.0.1:27017
2016-01-16T10:57:52.505+0800 I REPL   [replslave] syncing from host:127.0.0.1:27017
2016-01-16T10:57:54.295+0800 I REPL   [replslave] syncing from host:127.0.0.1:27017
2016-01-16T10:57:55.296+0800 I REPL   [replslave] syncing from host:127.0.0.1:27017

主从库之间利用oplog日志进行同步。oplog存在于主库的local数据库,oplog.$main集合。

> use local
switched to db local
> db.oplog.$main.find({"op":"i"}).sort({"ts":-1}).pretty()
{
  "ts" : Timestamp(1452916694, 1),
  "h" : NumberLong(0),
  "v" : 2,
  "op" : "i",
  "ns" : "test.user",
  "o" : {
    "_id" : ObjectId("5699bfd6647c735cb3a50e0c"),
    "name" : "zhangcong"
  }
}
{
  "ts" : Timestamp(1452913156, 1),
  "h" : NumberLong(0),
  "v" : 2,
  "op" : "i",
  "ns" : "test.user",
  "o" : {
    "_id" : ObjectId("5699b204358c4672cad1cc6e"),
    "name" : "zhangdd",
    "age" : 30,
    "job" : "teacher"
  }
}
{
  "ts" : Timestamp(1452912530, 1),
  "h" : NumberLong(0),
  "v" : 2,
  "op" : "i",
  "ns" : "test.user",
  "o" : {
    "_id" : ObjectId("5699af920102a61caffb76e9"),
    "name" : "vicent",
    "age" : 25,
    "job" : "teacher"
  }
}
{
  "ts" : Timestamp(1452912498, 2),
  "h" : NumberLong(0),
  "v" : 2,
  "op" : "i",
  "ns" : "test.user",
  "o" : {
    "_id" : ObjectId("5699af720102a61caffb76e8"),
    "name" : "jack",
    "age" : 40,
    "job" : "moive star"
  }
}

该集合属于固定集合。在一定时间后,旧日志会被覆盖。如果日志已经被覆盖,从库还没有来的及同步。那么从库就无法再同步数据了。只有使用--autoresync让其重新同步数据。

备注:命令行参数指定的参数值,可以写到config文件中,启动时使用

mongod --config /path/to/file.conf

mongod 2.4以后的版本使用YAML的格式来编写配置文件。关于主从复制的配置如何在配置文件中声明,官方文件没有给出方法。试了几种写法都不正确。 因为mongodb使用副本集代替了主从复制,从而可能配置文件不再支持主从复制。

感谢阅读,希望能帮助到大家,谢谢大家对本站的支持!

(0)

相关推荐

  • MongoDB的主从复制及副本集的replSet配置教程

    复制 MongoDB的复制功能很重要,尤其是现在的存储引擎还不支持单击持久性.不仅可以用复制来应对故障切换,数据集成,还可以做读扩展,热备份或作为离线批处理的数据源. 1.主从复制 主从复制是MongoDB最常用的复制方式.可用于备份,故障恢复和读扩展等. 基本就是搭建一个主节点和一个或多个从节点,每个从节点需要知道主节点的地址.运行mongod --master启动主服务器.运行mongod --slave --source master_address启动从服务器. [root@test02

  • 详解mongoDB主从复制搭建详细过程

    详解mongoDB主从复制搭建详细过程 实验目的搭建mongoDB主从复制 主 192.168.0.4 从 192.168.0.7 mongodb的安装 1: 下载mongodb www.mongodb.org 下载最新的stable版 查看自己服务器 适合哪个种方式下载(wget 不可以的 可以用下面方式下载) wget https://fastdl.mongodb.org/linux/mongodb-linux-x86_64-rhel62-3.0.5.tgz curl -O -L https

  • mongodb主从复制_动力节点Java学院整理

    从这一篇开始我们主要讨论mongodb的部署技术. 我们知道sql server能够做到读写分离,双机热备份和集群部署,当然mongodb也能做到,实际应用中我们不希望数据库采用单点部署,如果碰到数据库宕机或者被毁灭性破坏那是多么的糟糕. 一:主从复制 1: 首先看看模型图 2: 从上面的图形中我们可以分析出这种架构有如下的好处: <1> 数据备份. <2> 数据恢复. <3> 读写分离. 3:下面我们就一一实践 实际应用中我们肯定是多服务器部署,限于自己懒的装虚拟机,

  • MongoDB的Master-Slave主从模式配置及主从复制要点解析

    主从配置 mongodb的master-slave模式配置方式如下 1.keyFile 生成key_file openssl rand -base64 741 > mongo_key 将mongo_key 分别置于master 和 slave mongodb user可以access的地方. 设置权限 chmod 700 mongo_key 设置 onwer chown mongodb:nogroup mongo_key 2.master配置 编辑/etc/mongodb.conf, 设置如下

  • MongoDB入门教程之主从复制配置详解

    从这一篇开始我们主要讨论mongodb的部署技术. 我们知道sql server能够做到读写分离,双机热备份和集群部署,当然mongodb也能做到,实际应用中我们不希望数据库采用单点部署, 如果碰到数据库宕机或者被毁灭性破坏那是多么的糟糕.  一:主从复制 1: 首先看看模型图   2: 从上面的图形中我们可以分析出这种架构有如下的好处: <1>  数据备份. <2>  数据恢复. <3>  读写分离.  3:下面我们就一一实践 实际应用中我们肯定是多服务器部署,限于自

  • MongoDB 主从复制实例讲解

    主从复制可以用来做数据库的备份,故障恢复,读写分离. 本实验使用Mongodb 3.2版本,我们先查看一下mongod的帮助 [root@localhost mongodb]# mongod --help .....省略 Master/slave options (old; use replica sets instead): --master master mode --slave slave mode --source arg when slave: specify master as <s

  • MongoDB安全及身份认证(实例讲解)

    前面的话 本文将详细介绍MongoDB安全相关的内容 概述 MongoDB安全主要包括以下4个方面 1.物理隔离 系统不论设计的多么完善,在实施过程中,总会存在一些漏洞.如果能够把不安全的使用方与MongoDB数据库做物理上的隔离,即通过任何手段都不能连接到数据库,这是最安全的防护.但,通常这是不现实的.一些重要的数据可能会保存下来,放置到物理隔离的机房中 2.网络隔离 许多公司的开发机处于内网环境中.即使数据库存在漏洞,外部环境也没有机会利用,因为根本无法访问内网 3.防火墙隔离 可以利用防火

  • MongoDB单表数据的导出和恢复实例讲解

    MongoDB 是一个跨平台的,面向文档的数据库,提供高性能,高可用性和可扩展性方便. MongoDB 工作在收集和文件的概念. 数据库 数据库是一个物理容器集合.每个数据库都有自己的一套文件系统上的文件.一个单一的MongoDB服务器通常有多个数据库. 集合 集合是一组MongoDB的文档.它相当于一个RDBMS表.收集存在于一个单一的数据库.集合不执行模式.集合内的文档可以有不同的领域.通常情况下,一个集合中的所有文件是相同或相关的目的. 文档 文档是一组键 - 值对.文件动态模式.动态模式

  • 基于微信签名signature获取(实例讲解)

    微信分享的签名算法微信也写有,主要是调用接口需要使用服务器(微信官方文档是这么说的,试了下前端居然特么也可以),不过微信的access_token和jsapi_ticket是有使用次数限制的,所以还是用服务器来获取,得到以后存下来,下次使用判断超时以后再重新获取,这样就够用了,要不然就会出现接口调用次数超出限制这种尴尬的事情了. 如果需要使用自定义分享文案的时候,服务号或者订阅号一定要是已认证的(我的是个人类型的订阅号,不能认证,所以不能使用分享功能) 我这边用的是node做的后台,所以代码用的

  • JS设计模式之数据访问对象模式的实例讲解

    引言 HTML5 提供了两种在客户端存储数据的新方法:localStorage.sessionStorage,他们是Web Storage API 提供的两种存储机制,区别在于前者属于永久性存储,而后者是局限于当前窗口的数据传递,存储在其中的数据会在当前会话结束时被删除.localStorage.sessionStorage的具体内容在这里就不多做介绍了,我们主要探讨一下在实际开发中怎样合理使用他们. 问题 大部分网站会将一些数据(如:用户Token)存储在前端,用来实现页面间的传值,对于一些大

  • django定期执行任务(实例讲解)

    要在django项目中定期执行任务,比如每天一定的时间点抓取数据,刷新数据库等,可以参考stackoverflow的方法,先编写一个manage.py命令,然后使用crontab来定时执行这个命令. 定制manage.py命令 app可以使用manage.py注册自己的命令,比如要在polls这个app中定制一个closepoll命令,要先向polls文件夹中添加一个management/commands的目录: polls/ __init__.py models.py management/

  • jq源码解析之绑在$,jQuery上面的方法(实例讲解)

    1.当我们用$符号直接调用的方法.在jQuery内部是如何封装的呢?有没有好奇心? // jQuery.extend 的方法 是绑定在 $ 上面的. jQuery.extend( { //expando 用于决定当前页面的唯一性. /\D/ 非数字.其实就是去掉小数点. expando: "jQuery" + ( version + Math.random() ).replace( /\D/g, "" ), // Assume jQuery is ready wit

  • jquery之基本选择器practice(实例讲解)

    一.在输入框中输入数字,点击按钮,实现对应事件的功能. html代码: <input id="txt1" type="text" value="2" /> <input id="Button5" type="button" value="改变大于N的行背景为绿色" /> jQuery代码: //改变大于N的行背景为绿色 $("#Button5"

  • python爬取安居客二手房网站数据(实例讲解)

    是小打小闹 哈哈,现在开始正式进行爬虫书写首先,需要分析一下要爬取的网站的结构:作为一名河南的学生,那就看看郑州的二手房信息吧! 在上面这个页面中,我们可以看到一条条的房源信息,从中我们发现了什么,发现了连郑州的二手房都是这么的贵,作为即将毕业的学生狗惹不起啊惹不起 还是正文吧!!!由上可以看到网页一条条的房源信息,点击进去后就会发现: 房源的详细信息.OK!那么我们要干嘛呢,就是把郑州这个地区的二手房房源信息都能拿到手,可以保存到数据库中,用来干嘛呢,作为一个地理人,还是有点用处的,这次就不说

随机推荐