命令:tar -zxf mongodb-linux-x86_64-rhel70-4.4.4.tgz
打开配置文件,命令:vim /etc/profile
PATH=$PATH:/home/mongodb-linux-x86_64-rhel70-4.4.4/bin
配置生效,命令:source /etc/profile
命令:mongo
# 数据文件位置 dbpath = /home/mongodb-linux-x86_64-rhel70-4.4.4/data # 日志文件位置 logpath = /home/mongodb-linux-x86_64-rhel70-4.4.4/logs/mongodb.log # 以追加方式写入日志,true为追加。false是覆盖 logappend = true # 日志输出都发送到主机的syslog系统,而不是标准输出到logpath指定日志文件。syslog和logpath不能一起用,会报错:Cant use both a logpath and syslog # syslog = true # 绑定地址。默认127.0.0.1,只能通过本地连接。进程绑定和监听来自这个地址上的应用连接。要是需要给其他服务器连接,则需要注释掉这个或则 把IP改成本机地址, # 如192.168.200.201[其他服务器用 mongo --host=192.168.200.201 连接] ,可以用一个逗号分隔的列表绑定多个IP地址。 # 远程访问则配置为0.0.0.0 # bind_ip = 127.0.0.1 bind_ip = 0.0.0.0 # 默认端口27017 port = 27017 # 是否后台运行,设置为true 启动 进程在后台运行的守护进程模式。默认false。 fork = true # 安静模式。这个选项可以过滤掉一些无用的日志信息,若需要调试使用请设置为false quiet = false # 启用日志文件,默认启用 journal = true # 刷写提交机制,默认是30ms或则100ms。较低的值,会更消耗磁盘的性能。此选项接受2和300毫秒之间的值: # 如果单块设备提供日志和数据文件,默认的日记提交时间间隔为100毫秒。如果不同的块设备提供的日志和数据文件,默认的日记提交的时间间隔为30毫秒。 # journalCommitInterval=100 # 启用定期记录CPU利用率和 I/O 等待,设置为true会强制mongodb每4s报告cpu利用率和io等待,把日志信息写到标准输出或日志文件。 # 默认为false。开启日志会出现:1.Mon Jun 10 10:21:42.241 [snapshotthread] cpu: elapsed:4000 writelock: 0% # cpu = true # 用户认证,默认false。不需要认证。当设置为true时候,进入数据库需要auth验证,当数据库里没有用户,则不需要验证也可以操作。直到创建了第一个用户,之后操作都需要验证。 # noauth = true # auth = true # 详细记录输出 # verbose = true # 设置oplog记录等级 0=off (default) 1=W 2=R 3=both 7=W+some reads # diaglog = 0 # 动态调试项 # nocursors = true # 忽略查询提示 # nohints = true # 指定的复制操作日志(OPLOG)的最大大小。mongod创建一个OPLOG的大小基于最大可用空间量。对于64位系统,OPLOG通常是5%的可用磁盘空间。 # 一旦mongod第一次创建OPLOG,改变oplogSize将不会影响OPLOG的大小。 # oplogSize = 1024 # 指定存储身份验证信息的密钥文件的路径,默认缺省 # keyFile = /path/to/keyfile # 最大连接数。默认值:取决于系统(即的ulimit和文件描述符)限制。MongoDB中不会限制其自身的连接。当设置大于系统的限制,则无效,以系统限制为准。这对于客户端创建很多“表”, # 允许连接超时而不关闭“表”的时候很有用。设置该值的高于连接池和总连接数的大小,以防止尖峰时 候的连接。注意:不能设置该值大于20000。 # maxConns = 100 # 强制验证客户端请求。2.4的默认设置为objcheck成为true,在早期版本objcheck默认为false。因为它强制验证客户端请求,确保客户端绝不插入无效文件到数据库中。 # 对于嵌套文档的对象,会有一点性能影响。设置noobjcheck 关闭。 # objcheck = true # 同上,默认false # noobjcheck = false # 进程ID,没有指定则启动时候就没有PID文件。默认缺省。 # pidfilepath = /var/run/mongo.pid # 套接字文件,默认为false,有生成socket文件。当设置为true时,不会生成socket文件 # nounixsocket = false # 套接字文件路径,默认/tmp # unixSocketPrefix = /tmp # 设置为true,修改数据目录存储模式,每个数据库的文件存储在DBPATH指定目录的不同的文件夹中。使用此选项,可以配置的MongoDB将数据存储在不同的磁盘设备上,以提高写入吞吐量或磁盘容量。默认为false。 # 注意:要是在运行一段时间的数据库中,开启该参数,会导致原始的数据都会消失(注释参数则会回来)。因为数据目录都不同了,除非迁移现有的数据文件到directoryperdb产生的数据库目录中 # directoryperdb = false # 是否支持ipv6,默认false # ipv6 = false # 是否允许JSONP访问通过一个HTTP接口,默认false。 # jsonp = false # 是否禁止http接口,即28017 端口开启的服务。默认false,支持 # nohttpinterface = false # 预分配方式。默认false:使用预分配方式来保证写入性能的稳定,预分配在后台进行,并且每个预分配的文件都用0进行填充。这会让MongoDB始终保持额外的空间和空余的数据文件, # 从而避免了数据增长过快而带来的分配磁盘空间引起的阻塞。设置noprealloc= true来禁用预分配的数据文件,会缩短启动时间,但在正常操作过程中,可能会导致性能显著下降。 # noprealloc = false # 是否禁止脚本引擎。默认是false:不禁止。ture:禁止。 # 要是设置成true:运行一些脚本的时候会出现:JavaScript execution failed: group command failed: { "ok" : 0, "errmsg" : "server-side JavaScript execution is disabled" } # noscripting = false # 是否禁止表扫描操作。默认false:不禁止,ture:禁止 # 禁止要是执行表扫描会出现:error: { "$err" : "table scans not allowed:test.emp", "code" : 10111 } # notablescan = false # 命名空间的文件(即NS)的默认大小,默认16M,最大2G。所有新创建的默认大小命名空间的文件(即NS)。 # 此选项不会影响现有的命名空间的文件的大小。默认值是16M字节,最大大小为2 GB。让小数据库不让浪费太多的磁盘空间,同时让大数据在磁盘上有连续的空间。 # nssize = 16 # 数据库分析等级设置。记录一些操作性能到标准输出或则指定的logpath的日志文件中,默认0:关闭。 # 数据库分析可以影响数据库的性能,因为分析器必须记录和处理所有的数据库操作。所以在需要的时候用动态修改就可以了 # 0:关,无分析。 1:开,仅包括慢操作。 2:开,包括所有操作。 # 控制 Profiling 的开关和级别:2种 # 第一种是直接在启动参数里直接进行设置或则启动MongoDB时加上–profile=级别,其信息保存在 生成的system.profile 中。 # profile = 0 # 记录profile分析的慢查询的时间,默认是100毫秒 # slowms = 100 # 配额,默认false。是否开启配置每个数据库的最多文件数的限制。当为true则用quotaFiles来配置最多文件的数量。 # quota = false # 配额数量。每个数据库的数据文件数量的限制。此选项需要quota为true。默认为8 # quotaFiles = 8 # 使一个简单的 REST API,默认false,设置为true。 # rest = true # 修复数据库操作,默认是false。设置为true时,启动后修复所有数据库,设置这个选项最好在命令行上,而不是在配置文件或控制脚本。 # repair = true # 修复路径,默认是在dbpath路径下的_tmp 目录。 # repairpath # 是否使用较小的默认文件。默认为false,不使用。设置为true,使用较小的默认数据文件大小。smallfiles减少数据文件的初始大小,并限制他们到512M, # 也减少了日志文件的大小,并限制他们到128M。如果数据库很大,各持有少量的数据,会导致mongodb创建很多文件,会影响性能。 # smallfiles = true # 刷写数据到日志的频率,通过fsync操作数据。默认60秒。 # 警告:如果设置为0,SYNCDELAY 不会同步到磁盘的内存映射文件。在生产系统上,不要设置这个值。 # syncdelay = 60 # 系统信息,默认false。设置为true,mongod会诊断系统有关的页面大小,数量的物理页面,可用物理??页面的数量输出到标准输出。 # 当开启sysinfo参数的时候,只会打印信息,不会启动mongodb的程序。所以要关闭该参数,才能开启mongodb。 # sysinfo = false # 升级。默认为false。当设置为true,指定DBPATH,升级磁盘上的数据格式的文件到最新版本。会影响数据库操作,更新元数据。大部分情况下,不需要设置该值。 # upgrade = false # 是否使用内部诊断。默认false。 # traceExceptions = false # 2.4的新参数,指定启动选项配置。想设置多个选项则用一个setParameter选项指定,可以setParameter的参数请见这里。 # 声明setParameter设置在这个文件中,使用下面的格式:setParameter = <parameter>=<value> # 例如: setParameter = syncdelay= 55,notablescan = true,journalCommitInterval = 50,traceExceptions = true # setParameter = # 使用此设置来配置复制副本集。指定一个副本集名称作为参数,所有主机都必须有相同的名称作为同一个副本集。 # replSet = # 默认为false。在副本集下,设置为true,从一个dbpath里启用从库复制服务,该dbpath的数据库是主库的快照,可用于快速启用同步, # 否则的mongod将尝试执行初始同步。注意:如果数据不完全同步,mongod指定fastsync开启,secondary或slave与主永久不同步,这可能会导致显着的一致性问题。 # fastsync = # 2.2版本出现的新参数,默认是all。可以设置的值有:all, none, and _id_only。只能在副本集(replSet)中使用。默认情况下, # secondary副本集的成员将加载所有索引到内存中(从OPLOG之前的操作有关的)。您可以修改此行为,使secondary只会加载_id索引。指定id或none,防止mongod的任何索引加载到内存。 # replIndexPrefetch = # 主从复制的相关设置 # master:默认为false,当设置为true,则配置当前实例作为主实例。 # master = false # slave:默认为false,当设置为true,则配置当前实例作为从实例。 # slave = true # 设置从库同步主库的延迟时间,用于从设置,默认为0。 # slavedelay = 0 # 是否自动重新同步.默认为false,用于从设置。设置为true,如果落后主超过10秒,会强制从自动重新同步。 # 如果oplogSize太小,此设置可能有问题。如果OPLOG大小不足以存储主的变化状态和从的状态变化之间的差异,这种情况下强制重新同步是不必要的。 # 当设置autoresync选项设置为false,10分钟内从不会进行大于1次的自动重新同步。 # autoresync = false # 默认为空,格式为:<host><:port>。用于从实例的复制:设置从的时候指定该选项会让从复制指定主的实例 # source = 127.0.0.1:30001 # 默认为空,用于从选项,指定一个数据库进行复制。 # only =
mongodb.conf上传到服务器
创建mongodb.service
[Unit] Description=mongodb After=network.target remote-fs.target nss-lookup.target [Service] Type=forking ExecStart=/home/mongodb-linux-x86_64-rhel70-4.4.4/bin/mongod --config /home/mongodb-linux-x86_64-rhel70-4.4.4/mongodb.conf ExecReload=/bin/kill -s HUP $MAINPID ExecStop=/home/mongodb-linux-x86_64-rhel70-4.4.4/bin/mongod --shutdown --config /home/mongodb-linux-x86_64-rhel70-4.4.4/mongodb.conf PrivateTmp=true [Install] WantedBy=multi-user.target