Apparemment, il y a une parade pour un site qui ne veut pas être aspiré avec wget.
Pour certains sites, rien n'est downloadé, sauf un fichier "robots.txt"
Ce fichier contient le message suivant :
User-agent: ia_archiver
Disallow: /
Pour éviter que le site d'Ubuntu ne subisse des aspirations, une technique similaire peut être surement employée (notez que je ne sais pas comment ça marche)
A+
Chaton.