Bonjour, je souhaite récupérer des infos sur une page web pour les exploiter.
sous windows/firefox je fais enregistrer sous la page web et j'ai les infos.
je veux le faire automatiquement via script sous linux/debian mais via wget ou curl je n'ai pas la même page ou du moins toutes les infos que celle enregistrées sous windows/firefox.
j'ai essayé wget -r -k -E http.... et curl -O http...
la page web en question est https://www.microsoft.com/en/mobile/support/software-update/wp8-software-update/availability-in-europe/
la ligne qui m?intéresse est : Below table shows the latest software update available for your phone. </p><p>Not avail.......
c'est peut être à cause du https ?
quelle est la bonne syntaxe ?
Merci
$ wget -O - -q --user-agent="Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.8.1.6) Gecko/20070725 Firefox/2.0.0.6" https://www.microsoft.com/en/mobile/support/software-update/wp8-software-update/availability-in-europe/ | grep "Below table shows"
merci , marche super bien, manque plus qu'à chercher les commandes pour supprimer des caractères entre deux mots
Salut Jack,
Le découpage des caractères tu peux le faire après coup dans ton script avec les expressions rationnelles, ne t'embête avec curl pour le faire.
Exact VDD
En gros, tu enregistre le résultat du DL dans un fichier texte et tu fais des filtres à l'aide de awk et/ou sed pour générer un fichier qui te convient.