Logiciels libres et enseignement

Favoriser l’usage de logiciels libres et de formats ouverts

- Auteur : David Sedeño Fernandez->mailto:... et Pablo Martínez Schroder

  • Licence : GPL
  • Langue : Anglais et Espagnol
  • Environnement requis : Linux : GTK, wget
  • Site web : http://gwget.sourceforge.net/
  • Version testée : GNU Wget 1.5.3, Gwget 0.5.2 (une version existe pour Gnome 2)

Usages pédagogiques et utilisation

L’aspiration de sites web est une fonctionnalité très appréciée dans les écoles disposant d’une connexion internet lente et onéreuse, qui requiert parfois une intervention humaine pour ouvrir une connexion. Il est ainsi très confortable de pouvoir consulter quand on le souhaite un ensemble de contenus sans générer de coût téléphonique, et sans permettre aux élèves de consulter autre chose que ce sur quoi ils sont censés travailler.

Nous attirons toutefois l’attention sur les importantes réserves légales existant en matière de protection de droits d’auteurs (voir note en bas de page).

Un tel utilitaire d’aspiration existe dans le monde Unix, il est extrèmement puissant et s’appelle wget. Sa documentation est consultable avec la commande « info wget » (et non man wget), mais elle est également disponible sous forme de pages web sur le site de la Free Software Foundation.

Hélas, cet utilitaire ne fonctionne qu’en ligne de commande. Il existe heureusement un frontal graphique permettant d’en exploiter la plupart des fonctionnalités.

La manipulation de cette interface est très aisée. Il peut être intéressant de l’appeler depuis un terminal pour obtenir à l’écran la sortie de la progression de l’aspiration, ceci se fait simplement en tapant « gwget ».

Le champ « project name » ne doit pas nécessairement etre renseigné, il permet de travailler à plusieurs reprises sur la meme aspiration. La case URL doit contenir l’adresse de ce qui est à aspirer (n’oubliez pas le / final si votre URL pointe vers une répertoire et non un fichier, cela améliore le nombre de requêtes HTTP). Le champ « read from file » permet de lire l’ensemble de ce qui est à aspirer dans un fichier.

L’onglet « Général » permet de préciser un répertoire pour la sauvegarde, indiquer si la sortie de la commande doit être sauvegardée dans un fichier (qui montrera l’ensemble du processus d’aspiration), ainsi que le nombre d’essais à tenter pour une requête qui n’aboutit pas.

l’onglet « Recursivity » est très important, puisqu’il permet d’aspirer de manière récursive, c’est à dire suivre les liens hypertexte depuis une page et non aspirer une seule page. Une case permet de régler le nombre de liens à suivre depuis une page unique (réglage de profondeur d’aspiration). On peut spécifier de n’accepter que tel ou tel domaine différent du domaine originel, et convertir automatiquement les liens non relatifs en liens relatifs, ce qui permet d’être certain de ne pas provoquer de connexion intempestive en cours de consultation hors ligne.

L’onglet FTP permet d’accepter ou non l’aspiration en FTP et non simplement en HTTP, et permet de spécifier un nom d’utilisateur (user : ftp et password : une adresse e mail pour le ftp anonyme).

Le dernier onglet, Advanced, permet en particulier d’accepter certain types de fichiers et d’en refuser d’autres.

Lorsque tous les champs souhaités sont renseignés, bien souvent de nombreuses cases resteront vierges, cliquer sur GO démarre l’aspiration.

Le résultat se trouve dans le répertoire indiqué, dans un sous répertoire qui porte le nom de domaine de l’URL cible. Si une partie seulement de ce domaine a été aspirée, toute l’arborescence a été reproduite.

Des problemes peuvent se poser à l’ouverture des fichiers dans Netscape si les concepteurs du site ont utilisés des caractères non standards dans leurs noms de fichiers ou de répertoires, typiquement en introduisant des espaces comme dans « page non conforme.html ». Renommer le répertoire ou le fichier permet de résoudre le probleme, invoquer netscape en ligne de commande suivi du nom de fichier à ouvrir permet aussi de naviguer ensuite en suivant tous les liens.

Deux astuces pour conclure

  • Si l’école dispose d’un serveur web, et si Apache est installé (par défaut avec maintes distributions de linux), il suffit de créer un répertoire public_html dans son répertoire personnel et d’y copier le résultat de l’aspiration pour que celle ci soit disponible sur tout le réseau local, depuis n’importe quel poste, à l’URL http://ip_du_serveur/ nom_d_utilisateur. Veillez à ce que votre répertoire personnel et le répertoire /home aient les permissions 711 au minimum.
  • Enfin, si vous utilisez wget en ligne de commande, il est possible de l’utiliser conjointement à nohup, ce qui permet à wget de travailler en tache de fond même lorsque la session est close. Ainsi, la commande

     nohup wget -r http://www.linux-france.org/

permet de fermer sa session et d’aller déjeuner, l’aspiration du site linux-france continuera meme si une nouvelle session est ouverte par quelqu’un d’autre sur le meme ordinateur. Ceci n’est pas possible avec l’interface graphique.

Recherche avancée