Effectivement, je viens de faire le test et c'est assez bizarre. La page web est bien en UTF-8 mais il a l'air de te télécharger un .csv en ISO-8859-15 en perdant les caractères Unicode au passage.
J'ai peut-être une solution mais je ne suis pas sûr qu'elle soit valide, étant donné que je n'obtiens apparemment pas les mêmes données avec que dans le fichier CSV (à moins qu'elles soient juste organisées différemment) : sur la page de ta requête Wikidata, tu as apparemment un lien SPARQL (Link → SPARQL endpoint) : est-ce que ce qu'il génère correspond à ce que tu essaies d'obtenir ? Si c'est le cas, tu peux télécharger les données en CSV avec cURL en faisant un copier/coller du lien en question avec une syntaxe de ce genre pour télécharger un fichier monfichier.csv :
curl "https://query.wikidata.org/bigdata/namespace/wdq/sparql?query=SELECT%20%3Fitem%20%3Flabel_id%20WHERE%20%7B%0A%20%20%3Fitem%20wdt%3AP31%20wd%3AQ101352.%0A%20%20%3Fitem%20wdt%3AP282%20wd%3AQ8229.%0A%20%20%3Fitem%20rdfs%3Alabel%20%3Flabel_id.%0A%20%20MINUS%20%7B%0A%20%20%20%20%3Fitem%20rdfs%3Alabel%20%3Flabel_fr.%0A%20%20%20%20FILTER((LANG(%3Flabel_fr))%20%3D%20%22fr%22)%0A%20%20%7D%0A%20%20FILTER((LANG(%3Flabel_id))%20%3D%20%22en%22)%0A%7D%0ALIMIT%201000" -H "Accept: text/csv" -o monfichier.csv
(Attention à bien mettre la requête entre guillemets.)
Si cURL n'est pas installé, il est dans les dépôts :
sudo apt-get install curl