C'est trop spécifique pour qu'un aspirateur puisse faire ça pour n'importe quel site.
Mais tu peux faire des scripts pour récupérer les données. Par exemple, pour le premier lien :
#!/bin/bash
for i in $(seq 1 596); do
wget -q "http://www.tous-les-prenoms.com/recherche/index.php?longueur=&origine=&tendance=&sexe=&commencantpar=&page=$i" -O - | grep '<a class="prenom' -A 1 | grep '</a>' | tr -s '\t' | cut -f 2
done
Tu peux regarder les commandes que tu ne connais pas dans le man, pour pouvoir l'adapter à d'autres tâches.
Il y a peut être mieux pour extraire des données de la page. Le site aurait été en XML, j'aurais utilisé xmllint et de l'xpath mais je sais pas s'il existe un équivalent pour l'HTML.
Edit: En fait, xmllint supporte l'HTML. Donc un autre script pour le premier site :
#!/bin/bash
for i in $(seq 1 596); do
wget -q "http://www.tous-les-prenoms.com/recherche/index.php?longueur=&origine=&tendance=&sexe=&commencantpar=&page=$i" -O - | xmllint --html --xpath '//div[@class="prenomsearch"]//a[contains(@class, "prenom sexe")]/text()' - 2> /dev/null | sed -e 's/^\s*//' -e 's/\s*$//'
done
Pour le second, on peut extraire les noms d'une page avec
xmllint --html --xpath '//font[@size="2"]' - | sed -e 's/<font[^>]*>//g' -e 's/<\/font>/\n/g'
mais les pages sont plus dur à parcourir. Je vois pas de moyen simple de connaitre le nombre de page : les liens vers les pages ne sont pas dans le code mais sont générés par du javascript.