Restauración del conjunto de réplicas de configsvr
Preparación de directorios
rm -rf /compile/cluster-restore/cfg*
mkdir -p /compile/cluster-restore/cfg1/data/db
mkdir -p /compile/cluster-restore/cfg1/log
mkdir -p /compile/cluster-restore/cfg2/data/db
mkdir -p /compile/cluster-restore/cfg2/log
mkdir -p /compile/cluster-restore/cfg3/data/db
mkdir -p /compile/cluster-restore/cfg3/log
Procedimiento
- Prepare el archivo de configuración y el directorio de datos de un solo nodo e inicie el proceso en modo de nodo único.
- El archivo de configuración es el siguiente (restoreconfig/single_40303.yaml):
net: bindIp: 127.0.0.1 port: 40303 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/cluster-restore/cfg1/configsvr.pid} storage: dbPath: /compile/cluster-restore/cfg1/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/cluster-restore/cfg1/log/configsingle.log}
- Copie el archivo configsvr descomprimido en el directorio dbPath del nodo único.
cp -aR
/compile/download/backups/cac1efc8e65e42ecad8953352321bfeein02_41c8a32fb10245899708dea453a8c5c9no02/* /compile/cluster-restore/cfg1/data/db/
- Inicie el proceso.
- El archivo de configuración es el siguiente (restoreconfig/single_40303.yaml):
- Conéctese al nodo único y ejecute el siguiente comando de configuración:
./mongo --host 127.0.0.1 --port 40303
- Ejecute los siguientes comandos para modificar la configuración del conjunto de réplicas:
var cf=db.getSiblingDB('local').system.replset.findOne();
cf['members'][0]['host']='127.0.0.1:40303';
cf['members'][1]['host']='127.0.0.1:40304';
cf['members'][2]['host']='127.0.0.1:40305';
cf['members'][0]['hidden']=false;
cf['members'][1]['hidden']=false;
cf['members'][2]['hidden']=false;
cf['members'][0]['priority']=1;
cf['members'][1]['priority']=1;
cf['members'][2]['priority']=1;
db.getSiblingDB('local').system.replset.remove({});
db.getSiblingDB('local').system.replset.insert(cf)
- Ejecute los siguientes comandos para borrar las cuentas integradas:
db.getSiblingDB('admin').dropAllUsers();
db.getSiblingDB('admin').dropAllRoles();
- Ejecute el siguiente comando para actualizar la información de mongos y shard:
db.getSiblingDB('config').mongos.remove({});
Consulte la información _id acerca de varios shards en la tabla config.shards. La información _id se utiliza como la condición de consulta de _id en las siguientes instrucciones. Actualice los registros en secuencia.
db.getSiblingDB('config').shards.update({'_id' : 'shard_1'},{$set: {'host': 'shard_1/127.0.0.1:40306,127.0.0.1:40307,127.0.0.1:40308'}})
db.getSiblingDB('config').shards.update({'_id' : 'shard_2'},{$set: {'host': 'shard_2/127.0.0.1:40309,127.0.0.1:40310,127.0.0.1:40311'}})
db.getSiblingDB('config').mongos.find({});
db.getSiblingDB('config').shards.find({});
- Ejecute el siguiente comando para detener el proceso de un solo nodo:
- Ejecute los siguientes comandos para modificar la configuración del conjunto de réplicas:
- Cree un conjunto de réplicas configsvr.
- Copie el archivo dbPath del nodo configsvr1 en los directorios de los otros dos nodos configsvr.
cp -aR /compile/cluster-restore/cfg1/data/db/ /compile/cluster-restore/cfg2/data/db/
cp -aR /compile/cluster-restore/cfg1/data/db/ /compile/cluster-restore/cfg3/data/db/
- Agregue el atributo de configuración del conjunto de réplicas al archivo de configuración (restoreconfig/configsvr_40303.yaml) del nodo configsvr-1.
net: bindIp: 127.0.0.1 port: 40303 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/cluster-restore/cfg1/configsvr.pid} replication: {replSetName: config} sharding: {archiveMovedChunks: false, clusterRole: configsvr} storage: dbPath: /compile/cluster-restore/cfg1/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/cluster-restore/cfg1/log/configsvr.log}
- Inicie el proceso.
- Agregue el atributo de configuración del conjunto de réplicas al archivo de configuración (restoreconfig/configsvr_40304.yaml) del nodo configsvr-2.
net: bindIp: 127.0.0.1 port: 40304 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/cluster-restore/cfg2/configsvr.pid} replication: {replSetName: config} sharding: {archiveMovedChunks: false, clusterRole: configsvr} storage: dbPath: /compile/cluster-restore/cfg2/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/cluster-restore/cfg2/log/configsvr.log}
- Inicie el proceso.
- Agregue el atributo de configuración del conjunto de réplicas al archivo de configuración (restoreconfig/configsvr_40305.yaml) del nodo configsvr-3.
net: bindIp: 127.0.0.1 port: 40305 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/cluster-restore/cfg3/configsvr.pid} replication: {replSetName: config} sharding: {archiveMovedChunks: false, clusterRole: configsvr} storage: dbPath: /compile/cluster-restore/cfg3/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/cluster-restore/cfg3/log/configsvr.log}
- Inicie el proceso.
- Copie el archivo dbPath del nodo configsvr1 en los directorios de los otros dos nodos configsvr.
- Espere hasta que se seleccione el nodo principal.
./mongo --host 127.0.0.1 --port 40303
Ejecute el comando rs.status() para comprobar si existe el nodo primario.