wget: Bajando sitios enteros facilmente
Unos trucos para lograr bajar automaticamente los sitios que necesites desde el internet a tu pc.
Wget es una herramienta que viene en cualquier linux, es usada para bajar archivos desde internet. Su forma basica de uso es: wget
Esta es la manera en la cual wget se utiliza normalmente, pero tambien puede ser utilizado recursivamente, esto es su poder escondido. wget puede conectarse a los sitios y recursivamente bajar todas las paginas (imagenes y otro tipo de datos) que esten linkeadas en la pagina principal:
wget -r http://www.guatewireless.org/
Sin embargo, existen muchos sitios los cuales nos deniegan poder bajar el sitio completo. Para prevenir esto, los sitios verifican la identificacion de los navegadores. Para evitar estas molestias wget tiene la opcion -U.
wget -r -p -U Mozilla http://www.guatewireless.org/
Seria bueno que agregaran las opciones –limit-rate= y –wait=. Lo anterior es para hacer pausa entre cada pagina, ya que de lo contrario el dueno del sitio puede darse cuenta que con un simple comando wget le estamos bajando el sitio completamente. Sin embargo, nadie se dara cuenta si limitan la velocidad de descarga y hacen pausa entre archivos.
wget --wait=20 --limit-rate=20K -r -p -U Mozilla http://www.guatewireless.org/
Use –no-parent
–no-parent esta opcion garantiza de que wget no descargara archivos por debajo del directorio que deseamos descargar.
esta muy bien, pero te has olvidado de explicar la opcion k, para poder navegar en la pagina des en local sin tener acceso a internet
una pregunta
Espero me puedan ayudar porque es para el lunes 3 de diciembre del 2012
Es para un examen y no se como hacerlo solo nos dijo el profesor que es lo que se iba hacer.
Reubicacion de un sitio web ajustando las referencias href.
1.-Considerando un sitio Web, descargar el sitio completo a un directorio local mediante el comando wget. Y mediante un script de su autorÃa realizar las siguientes operaciones:
1.1.-Crear un directorio independiente para cada tipo de contenido: imágenes gif, imágenes jpeg, etc, vÃdeos avi, vÃdeos mpg, etc, audio mp3, audio wav, etc., contenido web (HTML, javascript, etc).
1.2.-Una vez que se ha reubicado cada uno de estos contenidos, llevar a cabo el ajuste de las referencias hacÃa las ubicaciones locales de cada recurso del sitio.
1.3.-Activar un servidor Web, y configurar el directorio raÃz en donde se encuentra el respaldo del sitio Web como el directorio root del servidor Web local.
1.4.-Nota: el comando wget solo se podrá usar con las opciones siguientes:
–recursive
–domains
–page-requisites
Si por alguna razón son necesario mas comandos, utilizar los necesarios.
Saludos,
Los archivos los guarda en el directorio que te escuentres en el SSH, para cambiar cd NombreCarpeta
Muy bueno, funciona perfecto.
gracias por el dato pero una duda como hago para que descarga hasta las paginas que estan en los link por ejemplo que me descarge la pagina que tiene un link en una imagen
Gracias amigo, pero perdon la ignorancia, en donde guarda los archivos que se van descargando?
que bueno que estas cosas sirvan!
que bueno compartir nuestros los conocimientos!
que bueno seguir conectados!
@Narsil: saludos desde Argentina a nuestrxs hermanxs, al pueblo Cubano!
Muchas gracias. Estaba buscando esto hace tiempo.
Me sirvió de mucho la información, que bueno que exista personas que compartan el conocimiento de esta forma, Saludos desde la UCLV, Cuba !!!!!!!!!
Rovix, creo que la opciones es:
(1)debes apretar jutamente las teclas: “Ctrl” + “c”.
Cuando cierras una terminal los procesos siguen en segundo plano
Y como paras la descarga ?
Yo cierro la terminal, me indica que esto matará el proceso, pero mirando sigue aun en memoria, tengo que matarlo a mano desde el monitor del sistema.
Perdonad si parece tonta la pregunta, pero uno no es muy diestro en estos temas.
Gracias
Muchas gracias por la informacion dada, fue de mucha utilidad
Pedro O no seas webon …
el codigo en el explorador es html capa 7 de aplicacion del modelo OSI
claro que no te baja el php, aprende a programar ……..webon
fercho no seas gilipollas…
no a todo el mundo lo pare su madre siendo ingeniero informático
el chaval sólo preguntaba, aprende educación, no hace falta insultar… gilipollas.
Por si a alguien le interesa, wget está tambien para windows
http://pages.interlog.com/~tcharron/wgetwin.html
gran respuesta carnal si hubieses omitido el gilipollas tu comentario no aplicaria ati jeje….. Pedro O mis disculpas
La verdad que yo tambien redacté mal mi pregunta. porque la idea era saber si bajaba las “paginas generadas por php”. Ya que he conocido otras herramientas que cuando ven una pagina php, se cuelgan.. Obviamente sé los de las capas de red, ya que soy un programador.
Acepto tus disculpas fercho
y para colmo, capa 7 es hardware jajajajajaja
funciona bien, pero veo que no descarga ni enlaza bien los css ni los js.
¿Hay alguna manera de que los descargue y enlace también?
Y que pasa con las paginas php, ¿ las baja igual?
Saludos
Baja las paginas generadas, pero no te baja el codigo fuente en php.
Muchas gracias amigo, me ha servido mucho este post…
esta bueno el tutorial