Cela fait maintenant un petit moment que je lis des webcomics à travers la toile. Commençant à en avoir une bonne liste, je me suis mis à écrire des scripts shell pour les récupérer automatiquement et m'eviter d'aller consulter chaque site.
Je vous propose donc de partager ici, nos scripts/programmes pour récupérer vos bd favoris. (et aussi en découvrir de nouvelles)
Tous les scripts créent un dossier dans le répertoire parent (cela vient de l'organisation mon arborescence)
http://www.lfgcomic.com/
Code : Tout sélectionner
#!/bin/bash
chemin='../Looking_For_Group'
url='http://www.lfgcomic.com/page/'
extension='.gif'
if [ ! -d $chemin ]
then
mkdir $chemin
echo 'Creation du repertoire '$chemin
touch $chemin/lfg0.gif
fi
nb_last=`ls $chemin | tail -n 1 | sed -E 's/[^0-9]*([0-9]+).*/\1/'`
nb_last=`expr $nb_last + 1`
cd $chemin
while(wget $url$nb_last)
do
image=`cat $nb_last | grep 'http://newcdn.lfgcomic.com/uploads/' | sed -E 's/[^"]+"([^"]+)".*/\1/'`
wget $image -O lfg${nb_last}.gif &
rm $nb_last
nb_last=`expr $nb_last + 1`
echo $nb_last
done
Code : Tout sélectionner
#!/bin/bash
chemin='../Xkcd'
nom_page='index.html'
url='72.26.203.99'
url_img='http://imgs.xkcd.com/comics/'
if [ ! -d $chemin ]
then
mkdir $chemin
echo 'Creation du repertoire '$chemin
fi
cd $chemin
wget $url -O $nom_page
nb_last=`cat $nom_page | grep '<h3>' | head -n 1 | cut -d '/' -f 4`
possede=0
while ( test $possede == 0)
do
nom_last=`cat $nom_page | grep '<h3>' | tail -n 1 | cut -d '/' -f 6 | cut -d '<' -f 1`
if [ -e $nb_last'_'$nom_last ]
then
possede=1
else
if [ ! $nb_last -eq 404 ]
then
wget $url_img$nom_last -O $nb_last'_'$nom_last &
fi
nb_last=`expr $nb_last - 1`
wget $url'/'$nb_last'/' -O $nom_page
fi
done
rm $nom_page
Code : Tout sélectionner
#!/bin/bash
chemin='../Geekscottes'
url='http://www.nojhan.net/geekscottes/strips/geekscottes_'
extension='.png'
if [ ! -d $chemin ]
then
mkdir $ chemin
echo 'Creation du repetoire '$chemin
nb_last=1
else
nb_last=`ls $chemin | tail -n 1 | sed -E 's/[^0-9]*([0-9]+).*/\1/'`
nb_last=`expr $nb_last + 1`
fi
cd $chemin
while(wget $url$nb_last$extension)
do
nb_last=`expr $nb_last + 1`
echo $nb_last
done
Code : Tout sélectionner
#!/bin/bash
chemin='../Boulet'
year_deb=2011
year_fin=2005
url=www.bouletcorp.com
url=$url/blog/archive/
if [ ! -d $chemin ]
then
mkdir $chemin
echo 'Creation du repertoire '$chemin
fi
cd $chemin
for y in {2011..2005}
do
for m in {12..1}
do
for d in {31..1}
do
if [ $m -lt 10 ]
then
if [ $d -lt 10 ]
then
if [ -e $y'0'$m'0'$d.jpg ]
then
exit
else
wget $url$y'0'$m'0'$d'.jpg' &
fi
else
if [ -e $y'0'$m$d.jpg ]
then
exit
else
wget $url$y'0'$m$d'.jpg' &
fi
fi
else
if [ $d -lt 10 ]
then
if [ -e $y$m'0'$d.jpg ]
then
exit
else
wget $url$y$m'0'$d'.jpg' &
fi
else
if [ -e $y$m$d.jpg ]
then
exit
else
wget $url$y$m$d'.jpg' &
fi
fi
fi
done
done
done