copiar disco duro a NAS

6 views
Skip to first unread message

Javi

unread,
May 12, 2014, 7:26:48 AM5/12/14
to gnulinu...@googlegroups.com
Tengo un HD físico con sistema operativo Ubuntu pinchado en mi pc también Ubuntu. Quiero copiar todo el contenido del segundo disco duro en un NAS para hacerle una copia de seguridad antes de formatearlo. Mi problema es que si copio con un explorador (Nautilus en mi caso) no me deja copiar ciertos ficheros por tema de permisos (lógicamente), y si lo intento mediante comandos mi problema es peor, porque no se cómo acceder al NAS a través de la linea de comandos para hacer un "sudo cp /media/HD_Origen NAS"

¿cómo puedo acceder al NAS desde linea de comandos?, sino ¿cómo copio como superusuario desde nautilus?

gracias

Salomón Rincón Torres

unread,
May 12, 2014, 9:45:36 AM5/12/14
to gnulinu...@googlegroups.com
Por que no lo intentas por FTP ?

Saludos
--
Has recibido este mensaje porque estás suscrito al grupo "GNU/Linux Puebla" de Grupos de Google.
Para anular la suscripción a este grupo y dejar de recibir sus mensajes, envía un correo electrónico a gnulinuxpuebl...@googlegroups.com.
Para publicar en este grupo, envía un correo electrónico a gnulinu...@googlegroups.com.
Visita este grupo en http://groups.google.com/group/gnulinuxpuebla.
Para acceder a más opciones, visita https://groups.google.com/d/optout.

-- 

M.S.L. Salomón Rincón Torres
Director General
Top Systems, S.A. de C.V.
www.topsystems.com.mx
(222) 404-8627



Este mensaje no contiene virus ni malware porque la protección de avast! Antivirus está activa.


Félix Urbina

unread,
May 12, 2014, 9:48:08 AM5/12/14
to gnulinu...@googlegroups.com
No apunté que también puedes usar sudo con el cp desde la shell, sería parecido a:

     sudo cp -r /home/directorio/* /media/HD_Origen\ NAS/.

Saludos.
@felixurbina

Félix Urbina

unread,
May 12, 2014, 9:44:41 AM5/12/14
to gnulinu...@googlegroups.com
Qué tal Javi,

Lo importante es que ya ves el disco de la NAS en tu sistema operativo.

Si ves el disco desde Nautilus entonces puedes verlo desde la shell, tendrías que revisar.

Con:
            mount

Te debería mostrar todos los recursos de almacenamiento disponibles.

Ahí chequeas que esté montado el disco NAS y en qué ruta, vi que colocaste una ruta "HD_Origen NAS", imaginemos que es esa, la copia desde la shell debería ser algo parecido a los siguiente:

          cp -r /home/directorio/* /media/HD_Origen\ NAS/.

Si lo ves muy complicado, para usar Nautilus deberías desde la misma shell activarlo con sudo, sería algo como:

          sudo nautilus

Te abriría el Nautilus con privilegios de root.

Saludos.


--
Has recibido este mensaje porque estás suscrito al grupo "GNU/Linux Puebla" de Grupos de Google.
Para anular la suscripción a este grupo y dejar de recibir sus mensajes, envía un correo electrónico a gnulinuxpuebl...@googlegroups.com.
Para publicar en este grupo, envía un correo electrónico a gnulinu...@googlegroups.com.
Visita este grupo en http://groups.google.com/group/gnulinuxpuebla.
Para acceder a más opciones, visita https://groups.google.com/d/optout.



--
@felixurbina

Jose M Martz

unread,
May 12, 2014, 11:53:02 AM5/12/14
to gnulinu...@googlegroups.com
Que tal Javi,

yo lo intentaría por ftp, para hacerlo desde la shell encontré esta página

http://recursostic.educacion.es/usuarios/web/ayudas/28-ftp-en-linea-de-comandos-

Saludos

David Flores

unread,
May 12, 2014, 12:16:27 PM5/12/14
to gnulinuxpuebla
Si tienes muchos archivos yo intentaría hacer un Rsync o un scp =P no soy fan del FTP(estornudo sucks) xD



--
David Flores
- Web & Drupal Developer

- Tweet: @dmouse
- Skype:  xdmouse 
- Puebla, México

- (+521) 22-24-10-95-86

- da...@hechoendrupal.com

http://hechoendrupal.com

Javi

unread,
May 12, 2014, 1:03:54 PM5/12/14
to gnulinu...@googlegroups.com
Muchas gracias a todos.

La verdad es que esto me ha servido para aprender a mapear las unidades de red de linux (yo vengo del mundo windows) y mediante el comando mount he podido averiguar donde estaba la ruta para poder hacer el cp

También he intentado abrir nautilus en en modo superusuario, pero no se la causa pero no me acede a la red...

Por otro lado la opción del FTP es una opción que cae por su própio peso, simplemente he tenido que habilitar el FTP del NAS y dotarlo de un usuario y contraseña, y ahí lo tengo subiendo casi 400GB.

Me he quedado con la opción del ftp para poder estandarizar todos los sistemas ya que el NAS es un sistema basado en mac y tengo servidores y máquinas windows, linux de las cuales quiero automatizar las copias de seguridad.

Lo dicho muchas gracias a todos.

Jose M Martz

unread,
May 12, 2014, 2:59:36 PM5/12/14
to gnulinu...@googlegroups.com
Que bien suerte y saludos

Javi

unread,
May 13, 2014, 4:06:13 AM5/13/14
to gnulinu...@googlegroups.com
Bueno, despues de dejar mas o menos 15 horas subiendo por ftp la copia del HD sólamente me ha subido 2GB de mas o menos 300GB, por lo que si lo dejase asi igual para navidades ya tendria la copia hecha.... pues bien he lanzado el comando que me propone Dmouse scp y en 5 minutos se han pasado más de 10GB

Félix Urbina

unread,
May 13, 2014, 9:59:28 AM5/13/14
to gnulinu...@googlegroups.com
Perdón Javi, el scp -c es con scp -C en mayúsculas.

Saludos.


El 13 de mayo de 2014, 8:56, Félix Urbina <felix.e...@gmail.com> escribió:
Qué tal Javi,

Todo depende también de cómo el sistema operativo ve tu disco duro de la NAS, si es a través de red probablemente puedes usar un "scp -c" o un "rsync". Si se ve de manera local puedes usar rsync, creo que maneja mejor esa transferencia de archivos.

Lo otro que generalmente hago si tengo el disco duro montado en mi sistema y lo ve como recurso de almacenamiento local, con un script que verifica directorios y subdirectorios, a su vez, va ir copiando archivo por archivo. Creo que de esa manera se me ha hecho más rápida la copia, nunca he tomado el tiempo detalladamente, pero he probado varias formas y me ha resultado más rápido.

Dentro de tu directorio origen de archivos puedes hacer algo parecido a lo siguiente:

ls | while read LINEA; do mkdir /ruta/destino/"${DIR}"; ls "${DIR}" | while read ARCHIVOS; do cp -r "${DIR}/${ARCHIVOS}" /ruta/destino/"${DIR}"/. ; done ; done


Ahí juegas, si quieres verificas qué es archivo y qué es directorio, haces alguna que otra discriminación, también sucede que cuando hay archivos muy grandes, la transferencia se torna pesada, más si es a través de la red por lo que se debe distribuir la calidad de servicio a todos los que estén conectados y todos los servicios.

Cuando es así, a través de la red, el "scp -c" resulta bastante cómodo, al igual que el "rsync", rsync también maneja atributos de scp.

Con esa cantidad de archivos que suman 300 GB tienes para jugar por un buen rato y probar alternativas, pero lo que sí sería más práctico es montar el disco y que el sistema lo vea de manera local como un recurso de almacenamiento.

Saludos.


El 13 de mayo de 2014, 3:06, Javi <informat...@riegos.com> escribió:
Bueno, despues de dejar mas o menos 15 horas subiendo por ftp la copia del HD sólamente me ha subido 2GB de mas o menos 300GB, por lo que si lo dejase asi igual para navidades ya tendria la copia hecha.... pues bien he lanzado el comando que me propone Dmouse scp y en 5 minutos se han pasado más de 10GB

--
Has recibido este mensaje porque estás suscrito al grupo "GNU/Linux Puebla" de Grupos de Google.
Para anular la suscripción a este grupo y dejar de recibir sus mensajes, envía un correo electrónico a gnulinuxpuebl...@googlegroups.com.
Para publicar en este grupo, envía un correo electrónico a gnulinu...@googlegroups.com.
Visita este grupo en http://groups.google.com/group/gnulinuxpuebla.
Para acceder a más opciones, visita https://groups.google.com/d/optout.



--
@felixurbina



--
@felixurbina

Félix Urbina

unread,
May 13, 2014, 9:56:52 AM5/13/14
to gnulinu...@googlegroups.com
Qué tal Javi,

Todo depende también de cómo el sistema operativo ve tu disco duro de la NAS, si es a través de red probablemente puedes usar un "scp -c" o un "rsync". Si se ve de manera local puedes usar rsync, creo que maneja mejor esa transferencia de archivos.

Lo otro que generalmente hago si tengo el disco duro montado en mi sistema y lo ve como recurso de almacenamiento local, con un script que verifica directorios y subdirectorios, a su vez, va ir copiando archivo por archivo. Creo que de esa manera se me ha hecho más rápida la copia, nunca he tomado el tiempo detalladamente, pero he probado varias formas y me ha resultado más rápido.

Dentro de tu directorio origen de archivos puedes hacer algo parecido a lo siguiente:

ls | while read LINEA; do mkdir /ruta/destino/"${DIR}"; ls "${DIR}" | while read ARCHIVOS; do cp -r "${DIR}/${ARCHIVOS}" /ruta/destino/"${DIR}"/. ; done ; done


Ahí juegas, si quieres verificas qué es archivo y qué es directorio, haces alguna que otra discriminación, también sucede que cuando hay archivos muy grandes, la transferencia se torna pesada, más si es a través de la red por lo que se debe distribuir la calidad de servicio a todos los que estén conectados y todos los servicios.

Cuando es así, a través de la red, el "scp -c" resulta bastante cómodo, al igual que el "rsync", rsync también maneja atributos de scp.

Con esa cantidad de archivos que suman 300 GB tienes para jugar por un buen rato y probar alternativas, pero lo que sí sería más práctico es montar el disco y que el sistema lo vea de manera local como un recurso de almacenamiento.

Saludos.
El 13 de mayo de 2014, 3:06, Javi <informat...@riegos.com> escribió:
Bueno, despues de dejar mas o menos 15 horas subiendo por ftp la copia del HD sólamente me ha subido 2GB de mas o menos 300GB, por lo que si lo dejase asi igual para navidades ya tendria la copia hecha.... pues bien he lanzado el comando que me propone Dmouse scp y en 5 minutos se han pasado más de 10GB

--
Has recibido este mensaje porque estás suscrito al grupo "GNU/Linux Puebla" de Grupos de Google.
Para anular la suscripción a este grupo y dejar de recibir sus mensajes, envía un correo electrónico a gnulinuxpuebl...@googlegroups.com.
Para publicar en este grupo, envía un correo electrónico a gnulinu...@googlegroups.com.
Visita este grupo en http://groups.google.com/group/gnulinuxpuebla.
Para acceder a más opciones, visita https://groups.google.com/d/optout.



--
@felixurbina
Reply all
Reply to author
Forward
0 new messages