Overblog Suivre ce blog
Editer l'article Administration Créer mon blog

Aspirer un site en ligne de commandes avec wget

Wget est un client HTTP, HTTPS et FTP développé en janvier 1996 par Hrvoje Nikšić puis maintenu pour le projet GNU depuis février 1997. Son interface en ligne de commande permet de récupérer du contenu d'un serveur serveur Web ou FTP. C'est un logiciel libre dont le nom est dérivé de l'anglais World Wide Web et get.http://img2.generation-nt.com/wget-logo_0080000000943381.png

 

À noter que cet utilitaire unix / linux a été porté sous windows.

 

Pour aspirer une page d'un site et ses liens sans sortir du domaine et sans remonter dans les répertoires parents : wget -r -k -np AdresseDeLaPage


l'option -r signifie que le téléchargement sera récursif (il télécharge aussi les liens de la page)
le -k permet de reconstituer le site localement (les liens sont modifié pour pointer localement)
le -np empêche de remonter dans le répertoire parent.


Plus d'infos sur la doc Ubuntu

Source

Jean-Luc 12/05/2013 13:06


Au fait, Thierry (mon fils) est ok,


il aime bien aussi ce que tu fais.

Mike Da Funk 13/05/2013 19:01



Il est bien ton Thierry, tu as bien travaillé ;)



Jean-Luc 12/05/2013 13:04


Au fait, Mike, j'ai, dans mon garage, un amiga 1000 avec extension 1.5 Mo,


moniteur 1084s, les docs d'origines + quelques bricoles, tout cela t'appartenant.


N'hésites pas à passer à Meyrargues, tu auras l'hébergement, petites bouffes, etc.


Amitiés, Jean-Luc

Mike Da Funk 13/05/2013 19:01



Salut Jean Luc,


Je vois que tu ne m'as pas oublié et que tes paroles sont loin d'être vaines.


Les beaux jours arrivant, je prendrai quelques jours pour venir vous voir, promis !


Je te tiens au jus, j'ai hâte de toucher le matos, d'abord avec la rétine ;)


C'est le plus beau cadeau que tu puisses me faire, après l'amitié bien sur !



Jean-Luc 12/05/2013 13:01


Httrack est-il obsolète ? Ais-je intérêt à tenter la même manip avec wget ?


Je me suis servi de httrack pour rapatrier (respectueusement) quelques sites sensibles,


c'est à dire risquant de disparaitre.


pourrais-je avoir les mêmes commodités avec wget, performances en plus ?


y a-t'il une nterface graphique aussi pratique que httrack pour trouver un site et paramétrer les fonctionnatités d'aspiration de site ?


 

Mike Da Funk 13/05/2013 18:48



Je ne dirai pas ça, disons que wget a l'avantage d'être installé par défaut ;)



luluchon25 10/05/2013 11:02


haaa ce wget toujours aussi étonnant et dire à une époque ont utilisais HTTrack

Mike Da Funk 12/05/2013 12:05



Exact !



Jean-Luc 09/05/2013 23:52


Merci Mike, ce logiciel est vraiment efficace.


J'utilise la version avec interface graphique,


httrack et webhttrack :


http://doc.ubuntu-fr.org/httrack


Permettant un parametrage respectueux pour ne pas surcharger le serveur distant.


P.S. 


Ma démo préférée du moment, fr-041_debris.


Elle tourne parfaitement avec wine.

Mike Da Funk 12/05/2013 12:03



Salut Jean Luc,


Tu as de bons gouts niveau démo ;)