Je veux utiliser Wget pour sauvegarder des pages web individuelles (pas de manière récursive, pas de sites entiers) pour référence. Un peu comme la fonction "Page Web, complète" de Firefox.
Mon premier problème est le suivant : je n'arrive pas à faire en sorte que Wget enregistre les images d'arrière-plan spécifiées dans le CSS. Même s'il enregistrait les fichiers d'images d'arrière-plan, je ne pense pas que --convert-links convertirait les URL d'images d'arrière-plan dans le fichier CSS pour pointer vers les images d'arrière-plan enregistrées localement. Firefox a le même problème.
Mon deuxième problème est le suivant : si la page que je veux sauvegarder contient des images hébergées sur un autre serveur (comme des publicités), celles-ci ne seront pas incluses. --span-hosts ne semble pas résoudre ce problème avec la ligne ci-dessous.
Je l'utilise : wget --no-parent --timestamping --convert-links --page-requisites --no-directories --no-host-directories -erobots=off [http://domain.tld/webpage.html](http://domain.tld/webpage.html)