[Webcomic] Partager vos scripts de récupération

Autres projets et contributions
Avatar de l’utilisateur
erèbe
newbie
Messages : 1
Inscription : dim. 19 juin 2011, 15:58

[Webcomic] Partager vos scripts de récupération

Message par erèbe » dim. 19 juin 2011, 16:18

Bonjour à tous,

Cela fait maintenant un petit moment que je lis des webcomics à travers la toile. Commençant à en avoir une bonne liste, je me suis mis à écrire des scripts shell pour les récupérer automatiquement et m'eviter d'aller consulter chaque site.

Je vous propose donc de partager ici, nos scripts/programmes pour récupérer vos bd favoris. (et aussi en découvrir de nouvelles)

Tous les scripts créent un dossier dans le répertoire parent (cela vient de l'organisation mon arborescence)


http://www.lfgcomic.com/

Code : Tout sélectionner

#!/bin/bash

chemin='../Looking_For_Group'
url='http://www.lfgcomic.com/page/'
extension='.gif'

if [ ! -d $chemin ]
then
	mkdir $chemin
	echo 'Creation du repertoire '$chemin
	touch $chemin/lfg0.gif
fi


nb_last=`ls $chemin | tail -n 1 | sed -E 's/[^0-9]*([0-9]+).*/\1/'`
nb_last=`expr $nb_last + 1`

cd $chemin

while(wget $url$nb_last)
do

	image=`cat $nb_last | grep 'http://newcdn.lfgcomic.com/uploads/' | sed -E 's/[^"]+"([^"]+)".*/\1/'`
	wget $image -O lfg${nb_last}.gif &
	rm $nb_last	

	nb_last=`expr $nb_last + 1`
	echo $nb_last
done
http://xkcd.com/

Code : Tout sélectionner

#!/bin/bash

chemin='../Xkcd'
nom_page='index.html'
url='72.26.203.99'
url_img='http://imgs.xkcd.com/comics/'


if [ ! -d $chemin ]
then
	mkdir $chemin
	echo 'Creation du repertoire '$chemin
fi

cd $chemin

wget $url -O $nom_page
nb_last=`cat $nom_page | grep '<h3>' | head -n 1 | cut -d '/' -f 4`

possede=0

while ( test $possede == 0)
do
	nom_last=`cat $nom_page | grep '<h3>' | tail -n 1 | cut -d '/' -f 6 | cut -d '<' -f 1`

	if [ -e $nb_last'_'$nom_last ]
	then
		possede=1
	else
		if [ ! $nb_last -eq 404 ]
		then
			wget $url_img$nom_last -O $nb_last'_'$nom_last &
		fi
			nb_last=`expr $nb_last - 1`
			wget $url'/'$nb_last'/' -O $nom_page
	fi
done

rm $nom_page
http://www.nojhan.net/geekscottes/

Code : Tout sélectionner

#!/bin/bash

chemin='../Geekscottes'
url='http://www.nojhan.net/geekscottes/strips/geekscottes_'
extension='.png'


if [ ! -d $chemin ]
then
	mkdir $ chemin
	echo 'Creation du repetoire '$chemin
	nb_last=1
else
	nb_last=`ls $chemin | tail -n 1 | sed -E 's/[^0-9]*([0-9]+).*/\1/'`
	nb_last=`expr $nb_last + 1`
fi


cd $chemin

while(wget $url$nb_last$extension)
do
	nb_last=`expr $nb_last + 1`
	echo $nb_last
done

http://www.bouletcorp.com --Ce script fait un peu la grosse brutasse

Code : Tout sélectionner

#!/bin/bash

chemin='../Boulet'
year_deb=2011
year_fin=2005
url=www.bouletcorp.com
url=$url/blog/archive/

if [ ! -d $chemin ] 
then
	mkdir $chemin
	echo 'Creation du repertoire '$chemin
fi

cd $chemin

for y in {2011..2005}
do
	
	for m in {12..1}
	do

		for d in {31..1}
		do

			if [ $m -lt 10 ]
			then
				
				if [ $d -lt 10 ]
				then

					if [ -e $y'0'$m'0'$d.jpg ]
					then
						exit
					else
						wget $url$y'0'$m'0'$d'.jpg' & 
					fi
				else
					if [ -e $y'0'$m$d.jpg ]
					then
						exit
					else
						wget $url$y'0'$m$d'.jpg' &
					fi
				fi


			else 

					
				if [ $d -lt 10 ] 
				then
					if [ -e $y$m'0'$d.jpg ]
					then
						exit
					else
						wget $url$y$m'0'$d'.jpg' &
					fi

				else
					if [ -e $y$m$d.jpg ]
					then
						exit
					else
						wget $url$y$m$d'.jpg' &
					fi
				fi


			fi	

					

		done
	done
done


Répondre