Christophe C a écrit
j'ai remplacé
https://www. par
ftp://, et cela fonctionne.
De ce que j’ai compris, wget en http(s) télécharge le fichiers robots.txt et doit sans doute l’interpréter.
Or, sur deb-multimedia.org le fichier contient ceci :
User-Agent: *
Allow: /
User-agent: wget
User-agent: lftp
Disallow: /
Ce qui, si j’interprète bien, n’autorise pas le téléchargement avec wget. Tout au moins de manière récursive puisque le téléchargement direct d’un seul fichier fonctionne.
Et, avec ftp, il semble ne pas tenir compte de robots.txt.
On peut d’ailleurs voir ceci :
Ouverture de session en tant que anonymous… Session établie.
[edit]
Et ça passe bien avec https en reprenant la commande curl de bruno.
curl -O -f https://www.deb-multimedia.org/pool/main/a/aacgain/aacgain_[0-9].[0-9]-dmo4_amd64.deb
[/edit]