seboseb a écritGénial ! J'ai maintenant un fichier liens.txt qui contient tous mes liens.
Si tu as
exclusivement les liens dans ce fichier, tu tiens le bon bout.
Une méthode consiste
à d'abord utiliser
Ctrl h pour avoir tous tes liens sur
une seule ligne, séparés par une (ou plusieurs) espaces, mais
sans tabulation.
(
Détail pratique : je te conseille d'activer la numérotation des lignes dans ton éditeur de texte, pour être sûr qu'aucun saut de ligne ne subsiste.)
Ensuite,
tu obtiens alors une
trèèèèèès longue ligne de ce type :
http://blabla.image.jpeg https://(...).jpg https://(...).png (...) http://www.toto.com/(...).JPG
Tu crées le répertoire vide destiné à accueillir
toutes ces images et
rien qu'elles :
mkdir /quelque-chose/rep-images/
Tu vérifies avec
df -h
que tu as assez d'espace dans la partition où tu as créé /quelque-chose/rep-images/.
Tu te places dans ce répertoire :
cd /quelque-chose/rep-images/
et tu tapes
wget -c -N -o mon-log.txt --
Et, avant de valider,
- tu tapes une espace [pour décoller "--" (ce sont deux tirets attachés) de la suite]
- et tu colles la trèèès longue ligne obtenue précédemment.
Il n'y a plus :
qu'à surveiller de temps en temps qu'il n'y a pas de message d'erreur,
et à patienter en regardant un bon dvd, voire en laissant tourner jusqu'au lendemain...
- -
J'attire ton attention sur le fait que cette commande télécharge les fichiers, mais pas l'arboresence.
Donc si ton hébergeur a donné le même nom à deux images différentes à des endroits différents (/toto/a/2.jpg et /bibi/c/2.jpg), alors seule la première du nom sera téléchargée.
(ça se voit dans le fichier mon-log.txt, où apparaissent des lignes disant :
--2018-04-22 20:00:49-- http://(...)
Le fichier a déjà été complètement récupéré; rien à faire.
)
Donc pour simplifier la lecture du log, évite de relancer la commande sans bon motif ! 🙂
Si le problème d'homonymie se pose, our avoir toutes les images, il faudra utiliser d'autres options, décrites dans
man wget