Je veux par exemple telecharger toutes les photos du trombinoscope de la page http://www.labos.upmc.fr/lcmcp/site/?q=node/184
Si je fais un
Code : Tout sélectionner
wget -r -A jpg,png,jpeg -nd http://www.labos.upmc.fr/lcmcp/site/\?q\=node/1845 -P test
Maintenant je regarde l'url d'une image precise : http://www.labos.upmc.fr/lcmcp/site/fil ... %20Web.jpg
Et je decide de refaire un telechargement, mais en adaptant l'url comme ceci
Code : Tout sélectionner
wget -r -A jpg,png,jpeg -nd http://www.labos.upmc.fr/lcmcp/site/files/pictures/ABDOUL-ARIBI%20Nora%20Web.jpg -P test
Alors pourquoi ca a fonctionne avec la premiere url et pas la seconde ?
Ma seconde question concerne l'option -r pour la recursion.
Si j'ai une page a l'adresse http://monsite.mapage.html et que je veux chopper toutes les images de cette page, pourquoi est-ce que je suis oblige d'utiliser l'option -r pour que cela fonctionne, sachant que mes telechargements de doivent concerner que mapage.html, sans l'option r je telecharge la page html en elle meme uniquement.
Et puis sa quoi servira l'option r si les images liees a une page web sont stockees dans un repertoire qui ne peut pas etre atteind recursivement.
je veux toutes les images de la page http://monsite/mapage.html, mais toutes les images sont dans http://monsite/uploads/pictures
J'aimerai vraiment comprendre comment se comporte wget
Merci a vous