Quand j'utilise un navigateur pour enregistrer cette page : http://maine.craigslist.org/fuo/ les liens sont enregistrés de manière à ce qu'ils renvoient vers le contenu. comme ceci : href="http://maine.craigslist.org/fuo/4323535885.html"
quand j'essaie d'utiliser wget, les liens sont
$ wget --no-parent maine.craigslist.org/fuo
enregistrés comme : href="askubuntu.com/fuo/4305913395.html"
J'ai essayé les options :
--spider
--page-requisites
--user-agent="Mozilla/5.0 (X11; Ubuntu; Linux i686; rv:27.0) Gecko/20100101 Firefox/27.0"
mais les liens sortent tous sans l'URL attachée.
J'ai le reste du script qui fonctionne, pour extraire ma position, et pour créer une nouvelle liste de liens pour les meubles dans ma région. Mais je ne peux pas comprendre comment obtenir le même résultat que lorsque j'enregistre la page via firefox.
Je pensais que l'utilisation de wget serait la plus simple. Peut-être que ce n'est pas correct. Si je peux obtenir le même effet en utilisant un autre logiciel, tant que je peux écrire un script pour le faire fonctionner, je serai content.