Documente Academic
Documente Profesional
Documente Cultură
Autor: @Dijara
Fecha: 17/01/2017
Versión: 1.7
ÍNDICE.
Agradecimientos.
4.COMPARTIR CARPETAS.
5. COMANDOS COMUNES.
Antes de nada, quiero agradecer la ayuda de @elDanixd para la realización de este tutorial ya
que me ayudó en la configuración de mi primer “remote” dentro del uso del programa.
Igualmente tengo que dar las gracias a @cere84 por compartir también los comandos de
instalación y montaje de rclone en DSM y a @s_ergi0, por sus detallados pasos para monitorizar
el proceso dentro de DSM con tmux y copiar archivos comprobando directorios. Agradecimiento
además de por rapidez y dedicación a @Medisan, por su ayuda en los pasos para la configuración
de un remoto en servidores Ubuntu/Debian, a @CultHero por el script de automontaje de la
unidad y a @hanni3al por su explicación sobre el montaje del servidor FTP mediante proftpd.
Espero que sirva a la gente que se pueda encontrar en la situación en la que me encontraba yo
antes de saber utilizar el programa bajo Windows tras varios intentos fallidos de subir archivos
a Google Drive, ya que las unidades montadas por otros programas hacían que las subidas
fallasen, o se paralizase el pc, o las subidas a través de la web no fuesen lo suficientemente
rápidas, por lo que esta forma ha sido a través de la cual he conseguido mayor estabilidad.
Es por ello por lo que he querido compartir esta guía para principiantes, que espero que alguien
siga para configurarlo, o bien alguien continúe y aprendamos más sobre la configuración de este
programa. No es un tutorial oficial de rclone, puesto que son las directrices más básicas para
configurarlo con un uso exclusivo para hacer una copia en la nube.
http://rclone.org/docs/
Comentar igual igualmente que si alguien detecta algún error en la misma o tiene alguna
sugerencia para mejorarla, sin problema puede comentármelo y estaría agradecido de que
alguien me ayudara a hacerla más completa para dejarlo explicado para principiantes.
OJO: Los comandos debemos escribirlos exactamente igual que aquí respetando las mayúsculas
y minúsculas que tengamos en nuestras rutas particulares, puesto que de lo contrario, nos
encontraremos con fallos y errores. Aquí todo es case sensitive.
Comenzamos…
CONFIGURACIÓN DE REMOTES Y SECRETS EN RCLONE (en este caso a través de Windows pero
configurable desde cualquier otro sistema operativo).
Para comenzar a utilizar r.clone, tras realizar la pertinente descarga del programa para Windows
(http://rclone.org/downloads/), debemos descomprimir el contenido en C:\Archivos de
Programa (x86), creando previamente en esta ruta una carpeta llamada rclone.
Una vez creada la carpeta, lo que hay que hacer es ejecutar cmd.exe. Al ejecutarlo,
normalmente se abre por defecto en la ruta C:\Users\tuusuario, por lo que para volver a la raíz,
tecleamos: cd..
Y para volver a una carpeta anterior volvemos a teclear cd.. para llegar a C:\ y teclear la ruta en
la que tenemos el ejecutable de r.clone, accediendo a ella mediante el comando:
cd C:\Program Files (x86)\rclone
A continuación, ponemos “rclone config”, para seguidamente elegir de entre la lista sugerida, la
letra “n”, new remote.
A continuación, se abrirá el navegador web para decirnos que si deseamos permitir a rclone ver
y administrar los archivos que tienes en Google Drive, por lo que por supuesto, permitimos.
Nos aparecerá un código que hay que copiar y pegar en la consola de nuevo.
Pulsamos “y” para aceptar tras haber introducido el código, y por último pulsamos “q” quit, para
salir.
Hemos terminado la configuración y ya no hay que volver a tocarla, a no ser que queramos
volver a configurar otra cuenta u otro proveedor de servicios.
Ahora nos disponemos a copiar contenido a Google Drive, en mi caso, tengo las unidades del
NAS, mapeadas en Windows como unidades de red, con sus letras de unidad correspondientes,
por lo que pondríamos el siguiente comando:
Recetitas, sería la carpeta que hemos creado en Google Drive para incluir el contenido de la
carpeta del NAS. Hay que decir que si no la hemos creado previamente, haciendo esto, él la crea
directamente.
En el caso de que la ruta con el nombre de una carpeta contenga espacios, debemos incluirla
entre comillas, por ejemplo:
Comentar primeramente, que rclone, en Windows no es capaz por sí mismo de montar una
unidad, por lo que tendríamos que usar para ello otro tipo de software como NetDrive o
ExpanDrive por ejemplo, si bien es cierto que sí hay una versión con entorno gráfico de rclone
para Windows que se llama Rclone Browser.
Bien, ahora nuestra idea es que nuestros archivos se encuentren seguros en la nube, por lo que
vamos a proceder a encriptarlos.
Lo primero que tenemos que hacer es crear un nuevo “remote” que este caso llamaremos
“Backup”.
Ahora ponemos el nombre de nuestro primer “remote” creado, que en nuestro caso era
“google”, seguido de los dos puntos y el nombre de nuestro remote en el que se van a encriptar
los archivos como vemos a continuación.
Remote> google:Backup
En esta opción que nos saldría ahora deberíamos elegir 1, ó 2, En el número 1, únicamente
encripta los archivos y no los nombres de carpetas, cambiando la extensión de los archivos
añadiendo el .bin a los mismos. En el número 2 quedaría encriptado todo lo añadido, incluyendo
nombres de carpetas.
Por tanto, en este caso vamos a utilizar la opción 1, por poner una de ejemplo.
Como queremos crear nuestra propia contraseña, pulsamos y, para que no lo genere el
programa.
Ahora, opcionalmente nos pide una segunda contraseña, que debe ser diferente a la primera.
Podemos dejarla en blanco eligiendo n, teclear la nuestra pulsando y, o que la genere el
programa pulsando g.
Generamos la nuestra: y.
Está lista, por lo que pulsamos de nuevo y, yes, this is ok, y seguidamente q, para salir.
Para copiar archivos a esta ruta, lo que debemos de hacer ahora es lo siguiente:
rclone -u --transfers 6 copy “Y:/Recetas de la abuela” Backup:Recetitas
En este caso, todo lo que no esté creado dentro de la carpeta Backup, tras los dos puntos de la
ruta final, la creará el programa solo, y todas las carpetas que incluyera la carpeta “Recetas de
la abuela”, irán a la carpeta Backup con nombres ilegibles totalmente encriptados si elegimos la
opción 2, o veríamos todos los nombres de las carpetas correctamente en la opción 1, pero con
los archivos que incluyen con un formato que no nos deja abrir.
Para DSM 5.2 no hay opción para fusermount, por lo que algún compañero está investigando
sobre ello.
Si alguien prueba con el siguiente link que pasó por Telegram @Debianjoker en teoría nos
serviría para investigar el montaje de unidad en DSM 5.2 (como en mi caso, que aún no he tenido
tiempo para probarlo). Si alguien lo consigue, ¡¡que comparta por favor!!
https://forum.synology.com/enu/viewtopic.php?f=36&t=59671
Describimos la instalación:
En primer lugar, para utilizar rclone en DSM, tenemos que descargar de la web oficial de rclone,
la versión 386 de Linux del programa y descomprimirla en una carpeta alojada en el NAS.
Para poder hacer uso desde fuera, por ejemplo Windows, podemos utilizar Putty para acceder
a través de SSH, o Terminal en Mac, habilitando el servicio previamente desde DSM, bien desde
la red local, o abriendo puerto para utilizar desde fuera de ella. Como ejemplo podemos utilizar:
https://the.earth.li/~sgtatham/putty/latest/x86/putty.exe
DSM 6
sudo –i
Y tecleamos:
cd /volumen1/rclone/
sudo cp rclone /usr/sbin/
sudo chown root:root /usr/sbin/rclone
sudo chmod 755 /usr/sbin/rclone
sudo mkdir -p /usr/local/share/man/man1
sudo cp rclone.1 /usr/local/share/man/man1/
sudo mandb **
** Si da error no pasa nada, todo funciona igual.
*Podría suceder, como en mi caso, que por motivos de seguridad, tuviéramos deshabilitado el
usuario “admin” que viene por defecto en nuestros equipos, por defecto el sistema sólo suele
aceptar conexiones ssh del usuario “admin” o “root” en la versión 5.2, en la 6 hay que dar
permisos a root, por lo que en este caso, nos toca habilitar temporalmente al usuario “admin”
para acceder como root a nuestro sistema. Para esto, conectaríamos de la siguiente manera a
través de putty:
DSM 5.2
ssh root@iplocaldelnas
En mi caso no fue posible hacerlo así hasta que a través de Android instalé la app “Termius”
Hay que señalar que la clave de acceso root es la misma que la del usuario “admin”.
Una vez tengamos acceso y nos marque el nombre de nuestro server en terminal, escribimos:
vi /etc/passwd
y en la lista de usuarios, veremos que el que queramos que tenga acceso marca al final del todo:
“sbin/nologin”, por lo que habría que ir con el cursor hasta ese parámetro y modificarlo por:
“bin/sh”, para tras esto pulsar esc. Y teclear :wq e intro.
Ya mediante putty accederíamos poniendo la ip del nas únicamente para que terminal nos pida
user, y nos identificamos con nuestra contraseña.
Para ver los archivos de Google Drive en nuestro DSM, tenemos que montar la unidad mediante
el siguiente comando:
Mount encriptado para verlo desencriptado (después de haber creado el remoto secret
“Backup” que apunta a la carpeta destino del remoto principal con contenido cifrado) (ej:
google:/Backup)
rclone ls /ruta/montada/
Unmount
fusermount -u /ruta/a/desmontar/
- Crear una carpeta y mover el contenido NO encriptado a esa carpeta (ej; noencriptado
y moverlo ahí) y otra carpeta donde quieras poner lo encriptado (ej: encriptado)
- Tener creado el remoto y al igual que montar encriptado, tener el remoto “secret” que
apunte a la carpeta donde van a ir los archivos encriptados (ej: remote:/encriptado)
- Ejecutar el siguiente comando para que empiece a encriptar el contenido:
rclone sync remote:/noencriptado secret: & (no es necesario poner /encriptado porque ya se
ha enlazado al crear el remoto secret=)
Remontar remoto
En ocasiones se desconecta solo, para que no ocurra esto, se puede crear un script que se
ejecuta automáticamente cada 15 minutos, y así se mantiene accesible las 24 horas del día.
Para crearlo, accedemos al panel de control de DSM y a tareas programadas. Creamos tarea
programada- user define script y en la pestaña de opciones de tarea poner el comando señalado.
Por último, cambiamos la programación de una vez al día a cada 15 minutos.
Desde la carpeta montada de los archivos encriptados, se pueden copiar y pegar los archivos a
otra carpeta sin necesidad de poner contraseña, lo cual es muy cómodo.
Otra opción de las muchas que ofrece rclone, es la de subir los archivos comparando directorios
(directorio origen vs directorio destino). Esta función lo que permite es comprobar si alguno de
los ficheros que se van a subir ya existen en el directorio destino y, por lo tanto, tiene que evitar
volver a copiarlos (y así ahorrar duplicados y tiempo de espera en la subida). Los parámetros a
utilizar son:
Ejemplo a utilizar:
rclone copy /volume1/media/series/ google:series --checksum --ignore-existing --transfers=8 --
stats 20s
Esto lo que hace es: copiar el contenido de la carpeta local “series” ubicada en
/volume1/media/series/, a la carpeta remota “series” ubicada en nuestro remoto google,
comprobando si los ficheros están bien, y si no existen en la carpeta remota. Hará 8
transferencias simultáneamente, y mostrará el progreso cada 20 segundos.
Para montar una unidad en un servidor de tipo Ubuntu o Debian en este caso con Quickbox
instalado que es lo que personalmente uso, primeramente podemos copiar nuestro archivo de
configuración con las claves de nuestros remotes o secrets creados en otros equipos para no
tener que volver a hacer configuraciones, de tal manera, que importamos el archivo .rclone.conf
a la carpeta de usuario que tengamos creada en nuestro servidor, quedando de esta forma:
/home/usuario/.rclone.conf. Tras ello, accediendo a él mediante terminal tendríamos que
copiar lo siguiente para crear un punto de montaje:
mkdir /home/usuario/Drive
Podemos encontrarnos que nos de error diciendo: Failed to save config file: open
/home/usuario/.rclone.conf: permission dennied, por lo que lo solucionaríamos escribiendo:
user_allow_other
# user_allow_other
ls /home/usuario/Backup
fusermount -u /ruta/local/montada
Si esto fallase:
fusermount -z -u /ruta/local/montada
https://rclone.org/commands/rclone_mount/
En ocasiones, si intentamos acceder a la unidad montada con rclone, nos encontramos con que
se ha desmontado, como sabemos, esta función sigue marcada en su web oficial como
experimental, por tanto, podemos hacer que la unidad se monte automáticamente en caso de
desmontarse.
Para ello, procederemos a crear algunas carpetas en nuestro usuario. Comentar que este script
está probado en Ubuntu.
mkdir /home/usuario/scripts
mkdir /home/usuario/logs
Dentro de la carpeta raíz o carpeta montada dentro de nuestro remote, creamos por ejemplo
un archivo pdf en blanco llamado “mountcheck.pdf”
Bien, para crear ese archivo .cron, lo haremos con los siguientes parámetros:
#!/bin/bash
# Change paths for mount and log file & create mountchek file.
# Add script to crontb by typig crontab -e and pasting the line bellow (without # in front )
exit 1
fi
echo "$(date "+%d.%m.%Y %T") INFO: Check successful, Google Drive mounted." | tee -a
"$logfile"
exit
else
echo "$(date "+%d.%m.%Y %T") ERROR: Drive not mounted, remount in progress." | tee -a
"$logfile"
rclone mount \
--read-only \
--allow-non-empty \
--allow-other \
else
fi
crontab -e
El funcionamiento es simple:
· Se recibe una lista de remotes (previamente configurados mediante rclone config); el fichero
remoteslist:
gdrive:/temp2/montaje:--allow-non-empty --allow-other
sdrive:/temp2/montaje2
Todo está pensado para que solamente se tenga que modificar la lista de remotes.
Lo ideal es dejar este fichero junto al script, es tal como está planteado. No obstante se puede
modificar la ruta de este archivo, y configurarla en el propio script.
Suponiendo que tomamos la convención por defecto, es decir, que este fichero que contiene la
lista de remotes, lo conservamos junto al script, solamente es necesario realizar lo siguiente en
dicho fichero:
Es tan simple como eso. Realmente no hay que modificar nada más.
Por último, comentar que la idea es que la salida de este script, se redirija a un fichero a modo
de log, y de esta forma, podremos tener un feedback del comportamiento del mismo, y de los
remotes (ya que podemos tener una idea de cuánto se ha perdido el montaje).
1. Si hubiese alguna opción/flag que necesite de un caracter ':' el script puede fallar, es la única
casuística que puede dar problemas. Es complicado que se de el caso en la mayoría de opciones
que manejamos, pero se comenta por si las moscas.
2. El script se programa pensando en el montaje del remote desde su raíz, es decir, si queremos
montar solamente una carpeta del remote, el script no controla esta casuística (se puede
integrar si es necesario, se tiene en cuenta).
#!/bin/bash
#
# Este script comprueba si un remote de rclone está correctamente montado, y en caso de no
ser así, realiza el montaje.
# Es necesario personalizar:
# listremotes: fichero que contiene la lista de remotes y por linea
nombre_remote:ruta_montaje:opciones_montaje
# rclone_path: ruta absoluta donde se encuentra el binario rclone
# Cualquier añadido o mejora que se pueda ocurrir, comentadlo.
# Por supuesto, y aunque se sobreentiende, lo ideal es programar mediante cron cada x
tiempo (cada 30 segundos, 1 min, 15 min... cada uno el tiempo que estime), y redirigir la salida
a un fichero log en su programación (no olvidar que cuanto mayor sea la frecuencia, si
guardamos la salida en un log, esta puede crecer bastante en tamaño).
#
# By Sergi_O
listremotes="./remoteslist"
rclone_path="/temp2"
while read -r line
do
mount_path=`echo $line | cut -d : -f 2`
your_remote_name=`echo $line | cut -d : -f 1`
mount_options=`echo $line | cut -d : -f 3`
is_mount=`mount | grep $your_remote_name | grep $mount_path`
date=`date +%d-%m-%Y:%H:%M:%S`
if [ "$is_mount" == "" ]
then
echo $date": Unidad no montada, realizando montaje del remote:
"$your_remote_name
$rclone_path/rclone mount $mount_options $your_remote_name:/ $mount_path &
else
echo $date": Montaje del remote "$your_remote_name" correcto."
fi
done < $listremotes
Podemos crear un grupo de usuarios para que no tengan acceso SSH al servidor, por lo que
podremos darles permisos especiales:
nano /etc/shells
/bin/ftp
Nos toca crear una carpeta al usuario FTP asignando los permisos correspondientes:
mkdir /home/ftp/usuarioftp
O bien, podremos asignar la unidad de Drive para ello, convirtiendo su /home y reduciéndola
a:
/home/usuario/Drive
nano /etc/passwd
Esta línea anterior debemos copiarla y pegarla en el siguiente archivo guardando los cambios
por supuesto:
nano /etc//vsftpd.chroot_list
b) Configuración de usuarios.
Para tener acceso a una determinada carpeta en nuestro servidor a través de FTP, debemos
instalar FTP Server, y una de las formas de hacerlo es mediante vsftpd, que por ejemplo es el
que usa Quickbox para el que lo use. Los parámetros descritos a continuación, pueden
cambiarse a gusto del usuario:
#Las líneas descritas a continuación pueden ser omitidas de la configuración, ya que se limitan
a explicar lo que configuramos.
#connect_from_port_20 Puerto para acceder por FTP (Por defecto suele ser el 20, pero puede
cambiarse por otro que no esté en uso).
listen=YES
anonymous_enable=NO
local_enable=YES
write_enable=YES
dirmessage_enable=NO
use_localtime=YES
xferlog_enable=NO
connect_from_port_20=YES
chroot_local_user=YES
secure_chroot_dir=/var/run/vsftpd/empty
pam_service_name=vsftpd
rsa_cert_file=/etc/ssl/private/vsftpd.pem
Si queremos “enjaular” a un usuario FTP en su propio directorio /home y tener el /home para
el administrador, si tecleamos YES para chroot_local_user, lo que haremos será convertir la
lista de usuarios de chroot_list_enable en los usuarios que tendrían acceso a la raíz del
sistema, por lo que deberíamos añadir:
chroot_local_user=YES
chroot_list_enable=YES
Por defecto, la lista se encuentra en la ruta que sigue, la cual habría que añadir en otra línea:
chroot_list_file=/etc/vsftpd_chroot_list
En este archivo debemos escribir el nombre de los usuarios a los que queremos dar permiso
para salir a la raíz o únicamente al administrador del servidor, el resto de usuarios estarían
enjaulados en su /home, para ahora aplicar los cambios reiniciando el servidor.
Añadiendo >> en lugar de >, hace que lo que escribamos tras la palabra echo, se añada al final
del archivo mencionado en la ruta que le sigue. Sin embargo, si utilizamos sólo el símbolo >,
borraríamos todo el contenido para sustituirlo por esta línea con el nombre de usuario.
En este caso, algunos de los comandos son idénticos al uso mediante vsftpd.
Si queremos que alguna carpeta a la que accede algún usuario por ftp, éste no pueda modificar
su contenido (el cliente solo podrá ver y descargar), tenemos que agregar encima de la línea
248 (# Include other custom configuration files) del archivo /etc/proftpd/proftpd.conf lo
siguiente (por ejemplo carpeta 123 dentro de carpeta ftp):
<Directory /ftp/123>
<LIMIT WRITE>
DenyAll
</Limit>
<Limit STOR>
DenyAll
</Limit>
</Directory>
Al final del todo del archivo /etc/proftpd/proftpd.conf también añadimos (con esto le decimos
que usuarios del sistema podrán acceder por ftp, solo los que pongas aquí podrán acceder):
<Limit LOGIN>
DenyAll
</Limit>
Añadir usuarios para el FTP (sobre todo poner el comando de –no-create-home, sino en el
directorio /home de nuestro Linux tendremos una carpeta creada con cada usuario que
añadimos):
Si por algún motivo no nos pide que le demos contraseña al usuario que acabamos de crear,
con el siguiente comando le podremos dar una contraseña:
Una vez todo lo de arriba hecho, editamos el archivo /etc/passwd y la última línea nos
aparecerá el ultimo usuario creado con una serie de números y rutas tipo así:
usuario:x:1000:1000:,,,:/home/usuario:/bin/bash
Aquí tendremos que modificar la última palabra bash por false, y la ruta /home/usuario por la
carpeta a la que queremos que ese usuario acceda cuando entre por ftp, x ejemplo /ftp, si
modificamos para este ejemplo quedaría una cosa así, el resto de la línea habría que dejarlo
como está:
usuario:x:1000:1000:,,,:/ftp:/bin/false
Una vez todo hecho reiniciamos el servicio proftpd y si todo ha salido bien debería de
funcionar, para reiniciar con el siguiente comando:
Puerto: El que hayamos determinado, por defecto es el 21, que como anteriormente
decíamos, puede modificarse.
2.2.3 Compartir archivos de unidad remota creada en servidor externo por NFS
Lo primero que tenemos que hacer es instalar el servicio NFS en nuestro servidor Ubuntu, ya
que en DSM viene por defecto y únicamente tendríamos que configurar las carpetas a compartir
por dicho protocolo.
Por ello, para instalar mediante SSH, el servicio NFS haríamos lo siguiente:
Las carpetas a compartir deberían incluirse en el fichero /etc/exports, por lo que habría que
editarlo con nano:
Tmux es un programa command-line que hará de nuestro terminal un súper terminal. Se pueden
crear múltiples terminales dentro de la terminal principal, visualizar varios terminales a la vez a
través de paneles, y muchas cosas más, pero lo que nos interesa en este caso es que funcione
incluso si no estamos conectados por SSH. Al ser Synology un OS cerrado, el famoso apt-get
install tmux no nos va a funcionar en este caso, pero SynoCommunity tiene la aplicación en el
Centro de Paquetes, así que hay que añadir en “Orígenes del paquete” el siguiente repo:
http://packages.synocommunity.com/
Antes de nada, siempre está bien tener a mano una cheatsheet por si no nos acordamos de
cómo funciona el comando. Aquí hay una muy buena y sencilla:
https://gist.github.com/MohamedAlaa/2961058
Tiene los comandos y shortcuts más importantes, por si queremos experimentar más con la
herramienta.
tmux: el comando sin parámetros simplemente crea una nueva sesión sin nombre.
tmux new -s nombredesesión: Esto lo que hace es iniciar una nueva sesión (un nuevo
terminal) con el nombre nombredesesión. Así luego podremos acceder a ella a través
de ese nombre.
tmux a -t nombredesesión: Lo que hace es volver a entrar a la sesión creada
previamente.
tmux ls: Lista las sesiones activas (nombre, ID…).
tmux kill-session -t nombredesesión: Cierra por completo la sesión indicada.
Esto son básicamente los comandos que hacen falta para nuestro propósito, pero siempre
podemos investigar y darles un uso más avanzado u orientado a nuestros fines.
Una vez dentro, veremos una terminal nueva. Es como su hubieramos abierto una nueva sesión
en Putty, con la peculiaridad de que siempre que queramos, va a estar en segundo plano
funcionando, accesible y manipulable.
Puede que tengamos, por ejemplo, 500gb de archivos para subir, y éste es un buen método para
poder monitorizar ese proceso. Una salida ejemplo sería esta:
Así podemos ver cómo va la subida siempre que entremos en la sesión. Para salir de la sesión y
volver a la principal (a la sesión desde la que hemos entrado a través de Putty), hay que utilizar
unos atajos de teclado:
Teclas Ctrl-B + D. Primero un Ctrl+B y después click en D, para que lo entendamos. Podemos leer
mucho más sobre los atajos de teclado de tmux a través de este enlace:
https://wiki.archlinux.org/index.php/Tmux#Key_bindings
Para entrar a comprobar cómo va, ejecutamos desde la sesión principal:
tmux a -t subirarchivos
4.COMPARTIR CARPETAS
Suponemos que la carpeta que nos comparten se llama Trabajos, y una vez añadida, en
nuestro Drive, podremos llamarla igual o cambiarle el nombre. En este caso, vamos a cambiarle
el nombre para verlo más claro y le vamos a llamar Trabajoscompartidos
5.COMANDOS COMUNES
A continuación se listan los comandos más comúnmente usados con el programa, no todos, (ya
que pueden verse en la web oficial ya mencionada) debiendo todos ellos ir seguidos de las rutas
correspondientes a excepción de la configuración.
rclone copy: Sirve para copiar archivos desde la ruta donde se encuentra un archivo (fuente)
hacia un destino. En teoría se salta los archivos ya copiados.
rclone check: Comprueba que los archivos de la fuente y destino son los mismos.
rclone ls: Lista los elementos que contiene una ruta, indicando su tamaño y ruta.
rclone mount: Monta la unidad en la ruta indicada. La web la marca como EXPERIMENTAL.
Otros comandos:
--no-traverse: Controla si los archivos de sistema se cruzan al utilizar copy o move. Es importante
decir que este comando no es compatible con sync, ya que si utilizamos sync, éste último suplirá
a --no-traverse.
Al hacer una copia de un número pequeño de archivos, utilizando este comando para de listar
el destino ahorrando tiempo.
Una opción a tener en cuenta si utilizamos otros servicios en la nube como Amazon Cloud Drive
(ACD), es que permiten una capacidad máxima por fichero de 50Gb, y rclone no tiene la
posibilidad de detectar eso por sí mismo, por lo que él lo subiría aparentemente sin problemas
para dar fallo al final. Para ello, tenemos una opción en rclone copy, que sería añadir el comando:
--max-size 50000M
Espero seguir aprendiendo a utilizarlo y seguir compartiendo y ampliando esto con todo el que
lo necesite y que aquella persona que se anime a seguir ayudando en la elaboración de este
tutorial, o encuentre algún fallo, que por favor lo haga y/o lo diga en beneficio de todos.
Muchas gracias.