Issu du monde éducatif, Framasoft est un réseau de sites web collaboratifs à géométrie variable dont le dénominateur commun est le logiciel libre.
Ce n’est pas la première fois que la Gendarmerie Nationale mérite un coup de chapeau des libristes, souvenez-vous de la migration massive vers Ubuntu.
Source :
Crédit : Simon Gee Giraudot (Creative Commons By-Sa)
Qu’il s’agisse de son code ou de son utilisation, la faiblesse de la documentation d’un logiciel libre est souvent montrée du doigt.
Voici, selon Andy Lester, 13 défauts ou lacunes communément rencontrés, qui sont autant d’écueils que l’on peut corriger avec un minimum d’efforts aujourd’hui pour un précieux temps gagné demain.
13 Things People Hate about Your Open Source Docs
Andy Lester - 10 janvier 2013 - SmartBear Blog
(Traduction : Lamessen, calou, Shanx, sinma, Asta + anonymes)
La plupart des développeurs open source aiment penser à la qualité du logiciel qu’ils développent, mais la qualité de la documentation est souvent laissée de côté. Il est rare de voir vanter la documentation d’un projet, et pourtant elle a un impact direct sur sa réussite. Sans une bonne documentation, les utilisateurs n’utiliseront pas votre projet, ou ils n’y prendront pas de plaisir. Les utilisateurs comblés sont ceux qui diffusent des infos à propos de votre projet – ce qu’ils ne font qu’après avoir compris comment il fonctionne. Et ils apprennent cela à partir de la documentation du projet.
Malgré tout, de trop nombreux projets ont une documentation décevante. Et cela peut être décevant de plusieurs manières.
Les exemples que je donne ci-dessous sont purement arbitraires, je ne veux pas cibler un projet en particulier. Ce sont seulement ceux que j’ai utilisés récemment, cela ne veut pas dire qu’ils représentent les pires atrocités. Chaque projet a commis au moins quelques-uns de ces péchés. Que vous soyez utilisateur ou développeur, à vous d’évaluer à quel point votre logiciel préféré est ou non coupable, et comment vous pouvez aider à y remédier le cas échéant.
Le README/LISEZ-MOI est la première impression que les utilisateurs potentiels ont de votre projet. Si le projet est sur GitHub, le README/LISEZ-MOI est automatiquement affiché sur la page d’accueil du projet. Si vous l’avez mal rédigé, ils peuvent ne jamais revenir.
Vous voulez capter l’attention du lecteur et l’encourager à continuer la découverte de votre projet ? Le README/LISEZ-MOI devrait alors au moins expliquer :
Tout cela doit pouvoir être compris par quelqu’un qui n’a jamais entendu parler de votre projet, et peut-être même jamais imaginé un projet pouvant s’en rapprocher. Si le projet possède un module calculant la distance de Levenshtein, ne partez pas du principe que n’importe qui lisant votre README/LISEZ-MOI sait ce que c’est. Expliquez que la distance de Levenshtein est utilisée pour comparer deux chaînes de caractères, et ajoutez quelques renvois vers des explications plus poussées pour celui qui aimerait approfondir le sujet.
Ne décrivez pas votre projet par rapport à un autre projet, comme « NumberDoodle est comme BongoCalc, mais meilleur ! » Ça n’est d’aucune aide pour quelqu’un qui n’a jamais entendu parlé de BongoCalc.
Bien que je n’ai pas lu d’études à ce sujet, je serais prêt à parier que 90% des recherches de documentation sont faites avec Google et un navigateur sur Internet. La documentation de votre projet doit être en ligne, et disponible. Partant de là, il serait embarrassant que la documentation de mon propre projet, ack, ne soit pas disponible à l’endroit où la majorité des gens vont la chercher. Mon hypothèse est basée sur ma propre expérience, à savoir que si je veux connaître le fonctionnement d’un outil en ligne de commande, je vais vérifier sa page man.
Comment je m’en suis aperçu ? Les utilisateurs m’écrivaient pour me poser des questions dont les réponses se trouvaient dans la FAQ. Ce qui m’a ennuyé : ils ne lisaient pas ma FAQ. Il se trouve qu’ils avaient cherché sur le site internet, mais je n’avais pas mis la FAQ à cet endroit. C’est une erreur facile à faire. Je suis proche du projet et je n’ai jamais eu besoin d’utiliser moi-même la FAQ, je n’avais donc pas remarqué qu’elle n’était pas présente en ligne. Beaucoup de problèmes sont dus à ce piège : les auteurs ne se mettent pas à la place des utilisateurs.
Le revers de ce problème est d’avoir la documentation disponible uniquement en ligne. Certains projets ne distribuent pas la documentation avec les livrables du projet, ou incluent une version médiocre de la documentation.
Le moteur de recherche Solr, par exemple, a un excellent wiki qui sert à la documentation du projet. Malheureusement, la documentation liée au téléchargement comporte 2200 pages de Javadoc d’API auto-générées. Au final, la seule documentation pour l’utilisateur est une unique page de tutoriel.
Le langage PHP n’est distribué avec aucune documentation. Si vous voulez la documentation, vous devez aller sur une page séparée pour les obtenir. Pire, seule la documentation du cœur est disponible au téléchargement, sans les annotations utiles des utilisateurs (voir « Ne pas accepter les remarques des utilisateurs » plus bas), et ce n’est pas le même format facile à parcourir que celui qui est disponible en ligne.
Les projets open source ne peuvent pas supposer que les utilisateurs ont accès à Internet quand ils ont besoin de la documentation. Le mode avion existe toujours. De toute façon, vous ne souhaitez pas que l’utilisateur dépende uniquement du fait que votre site web est disponible ou non. Au moins à deux reprises durant les derniers mois, le wiki de Solr était indisponible au beau milieu de ma journée de travail alors que je recherchais des informations sur un problème de configuration épineux.
Un projet qui fait les choses bien est Perl et son dépôt de module CPAN. La documentation pour chaque module est disponible soit à search.cpan.org ou metacpan.org dans un format hypertexte facile à lire. Pour la consultation hors-ligne, la documentation de chaque module est intégrée dans le code lui-même, et quand le module est installé sur le système d’un utilisateur, la documentation locale est créée sous forme de pages man. Les utilisateurs peuvent aussi utiliser « perldoc Module::Name » pour obtenir la documentation depuis le shell. En ligne ou hors-ligne : c’est votre choix.
Ce problème est généralement une erreur des paquageurs, pas des auteurs du projet. Par exemple, sur Ubuntu Linux, la documentation du langage Perl est séparée, ce sont des paquets optionnels pour le langage lui-même. L’utilisateur doit savoir qu’il doit explicitement installer la documentation de la même façon que le langage principal ou il n’y aura pas accès quand il en aura besoin. Ce compromis de quelques mégabites d’espace disque au détriment de la documentation à portée de main de l’utilisateur dessert tout le monde.
Il n’y a pas de meilleur moyen d’obtenir l’attention potentielle d’un utilisateur, ou d’illustrer un usage correct, qu’avec des captures d’écran judicieuses. Une image vaut mieux qu’un long discours, c’est encore plus important sur Internet parce que vous ne pouvez obtenir d’un lecteur de lire plus de quelques centaines de mots en tout.
Les captures d’écran accompagnant le texte sont inestimables pour guider l’utilisateur voulant faire les choses au mieux. Une capture d’écran lui permet de comparer visuellement ses résultats à ceux de la documentation et va le rassurer d’avoir exécutée la tâche correctement ou l’aidera à trouver facilement ce qui ne va pas.
Il est de plus en plus commun de trouver des vidéos sur le site internet d’un projet pour en donner un aperçu, et c’est génial. Tout autant que le fait d’avoir une vidéo pour chaque étape d’un processus complexe. Le projet Plone, par exemple, a un site entier dédié aux tutoriels vidéos. Cependant, les vidéos ne peuvent pas remplacer les captures d’écran. Un utilisateur veut voir rapidement l’allure des captures d’écran sans s’arrêter devant une vidéo. Les vidéos n’apparaissent également pas dans une recherche Google Image, à l’inverse des captures d’écran.
Pour les projets basés sur du code, l’analogue des captures d’écran sont de bons et solides exemples du code en action. Ces exemples ne devraient pas être abstraits, mais directement issus du monde réel. Ne créez pas d’exemples bateaux plein de « nom de la démo ici » et lorem ipsum. Prenez le temps de créer des exemples signifiants avec une histoire d’utilisateur qui représente la façon dont votre logiciel résout un problème.
Il y a de bonnes raisons de vous embêter avec des problèmes de maths en classe. Ils permettent d’appliquer ce que vous avez appris.
Disons que j’ai écrit un module d’un robot Web, et que j’explique la méthode follow_link. Je pourrais montrer la définition de la méthode ainsi :
$mech->follow_link( text_regex => $regex_object, n => $link_index );
Mais admirez à quel point cela devient évident en ajoutant de la réalité dans l’exemple.
# Suit le 2e lien où la chaîne de caractères « download » apparait
$mech->follow_link( text_regex => qr/download/, n => 2 );
Les noms des variables $regex_object
et $link_index
sont maintenant compréhensibles par le lecteur.
Bien entendu, vos exemples ne doivent pas être aussi brefs. Comme Rich Bowen du projet Apache le souligne, « Un exemple correct, fonctionnel, testé et commenté l’emporte sur une page de prose, à chaque fois. »
Montrez autant que possible. L’espace n’est pas cher. Créez une section dédiée aux exemples dans la documentation, ou même un livre de cuisine. Demandez aux utilisateurs d’envoyer du code qui fonctionne, et publiez leurs meilleurs exemples.
Vous avez les hyperliens. Utilisez-les.
Ne pensez pas, parce que quelque chose est expliquée dans une certaine partie de la documentation, que le lecteur a déjà lu cette partie, ou bien qu’il sait où elle se trouve. Ne vous contentez pas de signaler que cette partie du code manipule des objets frobbitz. Expliquez brièvement lors du premier usage de ce terme ce qu’est un objet frobbitz, ou donnez le lien vers la section du manuel l’expliquant. Encore mieux, faites les deux !
Il arrive trop souvent que l’écriture de la documentation soit rédigée à partir du point de vue de son auteur, alors que es nouveaux utilisateurs ont besoin de documentation d’introduction pour les aider.
L’introduction devrait être une page séparée de la documentation, idéalement avec des exemples qui permettent à l’utilisateur de réussir quelques manipulations avec le logiciel. Pensez à l’excitation que vous ressentez quand vous commencez à jouer avec un nouveau logiciel et qu’il vous permet de faire quelque chose de cool. Faites que ça arrive aux nouveaux utilisateurs également.
Par exemple, un package graphique pourrait présenter une série de captures d’écran qui montrent comment ajouter des données dans un fichier, coment faire intervenir le grapheur, et ensuite montrer les graphes obtenus. Une bibliothèque de codes pourrait montrer quelques exemples d’appels à la bibliothèque, et montrer le résultat obtenu. Pensez simplicité. Offrez une victoire facile. Le texte devrait introduire les termes aux endroits appropriés, avec des liens vers une documentation plus détaillée sur le long terme.
Un document de démarrage séparé donne à l’utilisateur une compréhension rapide du logiciel. Il garde aussi les explications d’introduction en dehors de la partie principale de votre documentation.
Les développeurs doivent écouter les utilisateurs de la documention. La chose évidente est d’écouter les suggestions et requêtes des personne qui utilisent activement votre logiciel. Quand un utilisateur prend le temps d’écrire un mail ou de poster quelque chose comme « ça aurait pu m’aider à mieux installer le programme s’il y avait eu une explication ou des liens au sujet des pilotes de la base de données », prenez ce message au sérieux. Pour chaque utilisateur vous envoyant un mail pour un problème, vous devez vous attendre à ce que dix utilisateurs silencieux aient le même problème.
Il est important d’écouter les problèmes des utilisateurs et d’en chercher les causes. S’ils ont souvent des problèmes pour effectuer des mises à jour groupées de bases de données, la première chose à faire est d’ajouter une question à la FAQ (vous avez bien une FAQ, n’est-ce pas ?) qui traite de ces questions-là. Cependant, la question peut aussi indiquer que la section traitant des mises à jour de base de données n’est pas assez claire. Ou peut-être qu’il n’y a pas de référence à cette section depuis la vue d’ensemble introductive du document, avec pour conséquence que vos utilisateurs ne pensent jamais à lire le reste du manuel.
En plus d’aider plus de gens à découvrir à quel point votre projet est utile, ça diminuera aussi la frustration de la communauté déjà existante. Si votre liste de diffusion, forum ou canal IRC est remplie de personnes qui posent toutes les mêmes questions idiotes (ou pas si idiotes) au point que tout le monde devient lassé d’y répondre, sachez reconnaître que ce sont des questions récurrents pour la FAQ, et mettre les réponses à un endroit facile à trouver aidera tout le monde à se concentrer sur des choses plus amusantes.
Gardez aussi un œil sur les questions des forums externes. Consultez les sites comme StackOverflow régulièrement, et placez une Google Alert sur votre nom de projet pour être maintenu au courant des discussions concernant votre projet sur Internet.
Si votre projet a une base d’utilisateur assez grande, il peut être judicieux d’incorporer les commentaires des utilisateurs directement dans la documentation. Le meilleur exemple que j’ai pu voir est celui donné par PHP. Chaque page de la documentation permet aux utilisateurs authentifiés d’ajouter des commentaires sur la page, aidant ainsi à clarifier certains points ou ajoutant des exemples qui ne sont pas dans la documentation principale. L’équipe PHP laisse aussi le choix au lecteur de lire la doc avec ou sans les commentaires des autres utilisateurs.
Aussi pratique cela soit-il, cela nécessite de la maintenance. Les commentaires doivent être éliminés de temps en temps pour éviter la prolifération. Par exemple, la page de la documentation PHP sur comment lancer PHP depuis la ligne de commande inclut 43 commentaires d’utilisateurs qui remontent à 2001. Les commentaires écrasent la documentation principale. Les commentaires devraient être archivés ou supprimés, tout en incluant les points les plus importants dans la documentation principale.
Un wiki est également une bonne approche. Cependant, si votre wiki ne permet pas à l’utilisateur de télécharger toutes les pages en une seule grosse archive (cs. point n°3 ci-dessus), alors vos utilisateurs sont à la merci de votre connexion internet et du serveur hébergeant le projet.
Au minimum, chaque projet de logiciel nécessite une liste de fonctionnalités et une page de captures d’écran pour permettre au potentiel utilisateur intéressé de savoir pourquoi il devrait l’essayer. Aidez l’utilisateur, comparant les différents paquets à utiliser, à voir pourquoi cela vaut la peine de prendre le temps de le télécharger et de l’installer.
Les images sont un bon moyen de faire cela. Votre projet devrait avoir une page « Captures d’écran » qui montre des exemples de l’outil en action (cf. point n°5 ci-dessus). Si votre projet se résume uniquement à du code, comme une librairie, alors il devrait y avoir une page d’exemples montrant ce code utilisant le projet.
Trop souvent, les auteurs de logiciels utilisent des systèmes de documentation automatisés pour faire leur travail. Ce système automatisé rend les choses plus facile à maintenir, mais il ne supprime pas la nécessité d’un travail d’écriture humain.
Le pire des cas concerne le changelog, qui n’est rien de plus qu’un dump des messages de commit du système de gestion de version, mais sans un résumé qui l’explique. Un changelog devrait lister les nouvelles fonctionnalités, les problèmes résolus et les incompatibilités potentielles. Sa cible est l’utilisateur final. Un log de commit est pratique et simple à générer pour les personnes travaillant sur le projet, mais ce n’est pas ce dont l’utilisateur a besoin.
Jetez un œil à cette page de la documentation de Solarium, une interface PHP pour le moteur de recherche Solr. Tout d’abord, l’avertisemment prend la moitié supérieure de l’écran, ne donnant aucune information au lecteur. Ensuite, il n’y a vraiment rien de véritablement descriptif sur la page que la liste des noms de fonctions. Il n’y a aucune explication sur les différentes méthodes, ni de liens indiquant où trouver l’explication. Les pages générées automatiquement sont jolies, et elles pourraient ressembler à de la documentation, mais elles n’en sont pas.
L’attitude du type RTFM (Read The Freaking Manual) est mauvaise pour votre projet et votre documentation.
C’est le summum de l’arrogance que de croire que tous les problèmes qui ont trait au fait que quelqu’un ne sache pas utiliser votre logiciel sont de la faute de l’utilisateur.
Même s’il est probablement vrai que les utilisateurs peuvent trouver leurs réponses dans votre documentation mais ne le font pas, il est stupide de penser que c’est la faute de l’utilisateur. Peut-être votre documentation est-elle mal écrite, ou difficile à lire, ou présente mal à l’écran. Peut-être avez-vous besoin d’améliorer la section « Mise en route » (lien #8 ci-dessus) qui explique ce que le logiciel a pour but de faire. Peut-être que certaines parties d’information nécessitent d’être répétées à de multiples endroits de la documentation.
N’oubliez pas que les nouveaux utilisateurs de votre logiciel peuvent arriver sur votre projet sans rien n’en savoir. Votre documentation doit faire de son mieux pour s’assurer que cette ignorance soit facilement résolue.
Je suis sûr que vous avez déjà eu affaire à quelques-uns de ces problèmes listés ci-dessous, et peut-être que pour d’autres vous n’y avez pas pensé. Faites-nous connaître les problèmes que vous avez rencontrés dans les commentaires ci-dessous, sachant qu’il ne s’agit pas de pointer du doigt certains projets en particulier.
Surtout, j’espère que si vous reconnaissez un problème dans la documentation de vos projets, vous prendrez la peine d’améliorer la situation. Heureusement, améliorer la documentation est une manière idéale de faire participer les nouveaux arrivants dans votre projet. On me demande souvent : « Comment puis-je commencer dans l’open source », et je recommande des améliorations dans la documentation comme une bonne manière de commencer.
Faites-en sorte que ce soit aussi facile que possible, pour les novices comme les plus anciens, de savoir où il est nécessaire de travailler la documentation. Créez une liste des tâches, par exemple dans votre système de suivi des bogues, qui explique ce qui a besoin d’être amélioré. Soyez précis dans ce que sont vos besoins. Ne vous contentez pas de dire que vous avez besoin d’exemples, sans plus de précision. Créez des tâches spécifiques, comme « ajoutez un code d’exemple sur le fonctionnement de la tâche X », « ajouter une capture d’écran du générateur de rapports » ou « ajouter des informations de dépendances au fichier README/LISEZ-MOI ». Les contributeurs souhaitent aider mais trop souvent ils ne savent pas par où commencer.
La documentation n’est pas la partie la plus glamour d’un projet open source, et pour la plupart d’entre nous ce n’est pas amusant. Mais sans une bonne documentation, les utilisateurs ne sont pas servis comme ils pourraient l’être, et votre projet en souffrira sur le long terme.
Crédit photo : Rosalux Stiftung (Creative Commons By)
Le 1er juillet prochain (J-4, donc !), Google Reader fermera ses portes.
Lancé en 2005, ce service permettait aux utilisateurs d’organiser et de lire des flux d’actualités (appelés « flux RSS ») issus de multiples sites en un seul endroit.
Plusieurs dizaines (centaines ?) de milliers d’utilisateurs se retrouvent donc « victimes » de cette fermeture annoncée il y a trois mois. Cela nous amène à nous poser deux questions :
De nombreuses applications libres permettant de lire des flux RSS ont vu leur développement s’accélérer ces derniers mois. Certaines nous ont semblé être d’excellentes alternatives à Google Reader. Mais comment les faire connaitre au grand public ? Comment inciter les utilisateurs a tester et valider une solution libre, plutôt que de foncer tête baissée dans la gueule grande ouverte d’un autre service privé ? Feedly, Digg, Yahoo!, et même … AOL (!) sont sur les rangs pour exploiter vos données sous forme de publicité classique ou de revente à des tiers. Pour au final fermer le service dans quelques mois ?
A sa modeste échelle, Framasoft annonce donc la mise en place de Framanews, un service de lecture de flux RSS basé sur le logiciel libre Tiny Tiny RSS. Il ne s’agit pas ici d’en faire un « concurrent » de Google Reader, qui ne résoudrait pas la question de la centralisation des données, mais bien de proposer à tout un chacun de pouvoir évaluer une alternative libre et gratuite, sans publicité, sans exploitation de vos données personnelles et que vous pouvez vous-même installer (pour une académie, un centre de recherche, etc).
Notez bien que le projet est en beta, que les inscriptions s’ouvrent peu à peu (afin de nous permettre de dimensionner l’infrastructure technique), et que nous prévoyons d’améliorer la documentation sur l’installation[2].
Pour vous faire patienter, nous vous proposons ici une interview de Luc, le sympathique et dynamique bénévole[3] qui est en charge de la mise en place de ce service.
Bonjour Luc, peux-tu te présenter ?
Bonjour. Mmh, c’est toujours dur de se présenter, mais je vais tenter quand même. Je suis un geek libriste de pas loin de 30 ans, grand fan des manchots, du Dr Who, de livres (romans, bds), du nombre 42 et des vannes pourries. On me connaît parfois sous le pseudo Sky sur le grand Ternet mais c’est plutôt rare (en dehors de LinuxFr ou de framalang, je ne sors pas beaucoup de mon lecteur de flux RSS)
Mon parcours fut assez mouvementé : 2 facs, 3 DUT, 1 Licence, clerc d’huissier, assistant de sénateur et maintenant administrateur systèmes et réseaux dans l’équipe Lothaire de l’Université de Lorraine… C’est moi qui ai appris à Jean-Claude Van Damme à faire le grand écart :)
Mon premier contact (sans le savoir) avec les logiciels libres date de l’époque où Free envoyait un cd contenant divers logiciels dont un truc qui s’appelait “Suite Mozilla” si je me souviens bien. Quand est sortie la première version de Firefox, j’y ai tout de suite adhéré, mais je n’étais pas encore prêt. C’est en 2005 qu’un ami d’enfance m’a dit « Essaye Linux, c’est vachement bien ! », ce qui m’a poussé à acheter un magazine contenant un cd d’installation d’OpenSuse. Là-dessus mon ami m’a dit « Pff, mais prends donc une Debian, ça déchire[4] ! ». Et là c’était fini, j’étais pris au piège et je n’ai plus quitté Debian, ni tout ce qui a rapport au libre. 3 ans plus tard, j’entrais en DUT d’info. Encore 5 ans de plus et j’organisais les Journées Perl 2013 (qui ont eu lieu à Nancy les 14 et 15 juin dernier).
Je fais actuellement partie de Lorraine Data Network, FAI associatif issu de l’essaimage de FDN qui milite pour un Internet Libre Décentralisé et Neutre en encourageant les gens à héberger eux-même leurs services, ou tout du moins à le faire chez des personnes de confiance… un peu comme quand Framasoft propose Framadate, Framapad, Framacalc et tous les autres Framaservices, non ? ;)
Tu t’es proposé pour mettre en place et animer le projet Framanews. Mais qu’est-ce donc que Framanews ?
Framanews est un lecteur de flux RSS en ligne. Un flux RSS est un fichier contenant les articles du site du flux dans un format normalisé qui permet d’afficher ces articles dans un lecteur, sans tout l’« emballage » du site. Cela permet de suivre l’actualité du site en question, sans y aller, ou parfois d’avoir juste un résumé des articles, ce qui permet de choisir si ça vaut le coup d’aller faire un tour sur le site. Si un certain nombre de médias du Web parlent de la fin du flux RSS car dépassé par Twitter, Google+ et consorts, je trouve qu’au contraire, c’est un excellent moyen de choisir ses sources d’informations plutôt que se laisser enfermer dans un bulle constituée de « on sait mieux que toi ce qu’il te faut ». Je ne suis certainement pas le seul à penser ainsi, vu le tollé qu’a soulevé l’annonce de la fermeture de Google Reader et le nombre de lecteurs de flux libres qu’on a vu (re)surgir ça et là : Kriss Feed, Miniflux, Leed, etc. Et surtout Tiny Tiny RSS (ttrss pour les intimes) qui a vu son développement repartir de plus belle et qui sert de base à Framanews.
J’ai légèrement forké Tiny Tiny Rss pour le franciser au maximum (mais il y a encore des bouts de texte qui m’ont échappé), certains textes comme les emails ne passant pas par le module d’internationalisation.
Mais Framanews, c’est aussi un projet « éducatif », pour (re)faire découvrir les flux RSS et présenter une alternative aux sites propriévateurs (merge de propriétaire et privateur, pour dérouter les trolls) comme (bientôt feu) Google Reader, Feedly et consorts. Le pourquoi du flux RSS, les spécificités de ttrss (interface mobile, partage de flux…), un mode d’emploi, tout ça est expliqué sur la page d’accueil du projet (surtout dans la FAQ).
Pourquoi avoir choisi ce projet-là, dans tous les framacartons[5] possibles ?
Parce que j’aime les flux RSS et que je suis un peu opportuniste : je me suis dit que la fermeture de GReader était une bonne occasion de prêcher la bonne parole du Libre. Aussi parce que je connais plutôt pas mal ttrss pour l’avoir installé pendant longtemps sur mon serveur. Je me sers de Framanews maintenant, pour voir les problèmes tout de suite et être encore plus motivé à les résoudre : vos problèmes sont aussi mes problèmes, soyez sûrs que je m’en occupe ;)
Ah ! Non ! C’est un peu court jeune homme !
On pouvait dire… oh ! Dieu ! … bien des choses en somme…
En variant le ton, —par exemple, tenez :
Agressif : « moi, monsieur, si j’avais un tel etherpad,
Il faudrait sur le champ que je le mette à jour[6] ! »
Amical : « mais il n’y a pas de css framasoft :
laissez-moi donc vous faire un boilerplate ! »
Et puis, il faut bien commencer quelque part :D
Techniquement, la mise en place a été plutôt difficile, peux-tu nous en dire plus sur les coulisses de ce projet ?
Oulà ! Alors, en ce moment, le ttrss tourne sur un des serveurs de Framasoft qui héberge d’autres services, avec la base de données sur un autre serveur, qui sert aussi à faire tourner le script de mise à jour des flux. Je n’avais au départ que le serveur Framasoft pour jouer. J’ai utilisé une base MySQL puisqu’elle était déjà installée dessus, mais avec l’ouverture progressive de la bêta, j’ai vu que ça n’allait plus du tout. Le serveur souffrait de surcharge, et pourtant c’est une bête de course. J’ai donc tuné la base MySQL, mais les problèmes sont revenus quelques jours après. J’ai ensuite tenté quelques essais infructueux de conversion des données MySQL au format PostgreSQL pour une migration en douceur, mais j’ai dû me résoudre à demander à nos courageux testeurs de migrer eux-mêmes leurs comptes, à coup d’export des flux et des préférences. Après quelques jours de répit, de divers essais de réglage des paramètres du script de mise à jours, le serveur était de nouveau en surcharge. C’est Nassim Kacha - un ami lui aussi sysadmin qui s’occupe de pas mal de base de données au boulot - qui m’a montré que la surcharge était due à des accès disques trop lents. Framasoft m’a donc fourni un nouveau jouet : un vps (Serveur Privé Virtuel) avec un disque en SSD. Tout allait bien jusqu’à ce que certains utilisateurs abusent un peu du nombre de flux : plus de 5% du total de flux pour UN utilisateur (représentant 0,5% du nombre d’utilisateurs)…
Dallas, à côté de la saga Framanews, c’est Martine à la plage !
Donc, pour l’instant, le service reste en “beta” ? Quelles sont les limitations ?
Malheureusement, oui. Suite au dernier épisode (trop de flux pour certains utilisateurs), nous avons décidé de limiter le nombre de flux par personnes (je suis en train d’écrire un système de quota de flux pour ttrss). Le système de cache de ttrss a été un peu modifié pour garder le cache plus longtemps (ce qui réduit la vitesse de mise à jour) et on ouvre les inscriptions au compte-goutte, pour nous permettre d’augmenter les capacités de la plateforme au fur et à mesure. Je n’ai pas envie que tout s’écroule de nouveau ! Une fois que j’aurais dimensionné correctement les besoins (un serveur = xxx utilisateurs), je vais tenter de transformer notre petite base de données en un cluster PostgreSQL, on repart pour des tests et on pourra enfin ouvrir les vannes en grand ! (ou pas)
Ceci dit, tant qu’on est en beta, je ne m’interdis pas de loucher vers d’autres applications de lecture de flux RSS en ligne qui pourraient mieux tenir la charge.
Si tout se passe bien au niveau technique, la prochaine limitation risque d’être le nombre de serveurs que Framasoft pourra louer. Rappelons-le, Framasoft est une association qui ne vit que par les dons de ses sympathisants. C’est pourquoi je vous invite à faire un petit tour sur http://soutenir.framasoft.org (je l’avais dit que j’étais opportuniste ! Hop, pub :D).
Au bout du compte, pourquoi utiliser Framanews plutôt que Feedly, Netvibes ou autre ?
C’te bonne blague ! Parce que c’est libre, tiens !
Mais aussi parce que Framasoft — et donc par définition Framanews aussi — cherche à libérer les internautes, en leur faisant découvrir des services qu’ils peuvent installer eux-mêmes, dans leur placard, sur leur serveur dédié, chez un hébergeur mutualisé associatif, sur un raspberry collé au dos de leur chat… De plus, nous respectons votre vie privée : la seule information dont on se sert, c’est votre adresse mail pour vous tenir au courant des évolutions du services et autres maintenances, et juste pour ça. Je pourrais aussi parler de la qualité de ttrss, de sa fonctionnalité qui permet de partager les articles que l’on aime sur un flux public[7], du superbe plugin que j’ai développé de mes blanches mains pour faciliter la navigation dans les flux (ok, c’est juste un fork d’un autre plugin)…
Je pense que la meilleure raison d’adopter Framanews, c’est de l’essayer et de comparer :)
Comment vois-tu l’avenir de ce projet ?
Moi et les autres membres de Framasoft sur une plage de sable blanc avec suffisamment d’argent pour racheter Google. Ah c’est pas payant ? Zut alors !
Je verrais bien un espace de partage des flux publics[8] des framanewseurs, un compteur des instances de ttrss que les gens auront montées parce qu’on leur en a donné envie…
Un petit mot pour la fin ?
Internet n’est pas compliqué, Internet est ce que vous en faites.
Rappel des principaux liens :
Crédit photo : Danny Sullivan (Creative Commons By)
[1] ou tout autre intermédiaire, Framasoft compris.
[2] Les utilisateurs sous Windows souhaitant tester le logiciel en standalone (sur leur poste de travail plutôt qu’en ligne) peuvent même télécharger notre WebApp TT-RSS, mise à jour pour l’occasion.
[3] S’il avait su dans quoi il mettait les doigts, il aurait peut-être pas venu, d’ailleurs…
[4] Et c’est bien vrai !
[5] Les Framacartons ?! http://lite.framapad.org/p/framatools
[6] Oui, la mise à jour sur le champ a pris du retard à cause de Framanews, je sais, je sais.
[7] Twitter, c’est tellement 2012 !
[8] un flux public Framanews a une URL unique et tarabiscotée. Il faut que la personne vous la communique, sinon vous ne la trouverez jamais ! Par bonheur, les raccourcisseurs d’URLs existent, ce qui donne par exemple pour mon flux public : http://fiat-tux.fr/sh/LucPublRSS
Avec plus d’impatience encore qu’un(e) adolescent(e) guettant le prochain Harry Potter ou Twilight, nous attendions fébrilement la sortie du second roman de Pouhiou, suite de #Smartarded, que nous avions adoré lire et partager.
C’est désormais chose faite !
Il s’appelle #MonOrchide, poursuit donc le cycle des NoéNautes, et il y a toujours autant de sexe, drogues, rock’n’roll et chatons.
Rendez-vous sur le site Framabook pour en savoir plus (et accéder au livre). En attendant, place à Pouhiou et ses plantes vertes :
Il a été rédigé dans les mêmes conditions que le premier et se retrouve donc plongé lui aussi directement dans le domaine public vivant.
Voici ce qu’il nous dit dans le dossier de presse originai et percutant (avec de vraies-fausses critiques du livre de Télérama, Christine Boutin, Richard Stallman, Pascal Nègre et Eric Zemmour dedans !)
« Je ne suis pas libriste. Ce sont mes histoires qui, par nature, sont libres.
Devoir écrire quotidiennement m’a mené à faire face au processus créatif. L’inspiration m’est apparue comme une digestion remixant indifféremment tout ce que je pouvais expérimenter. Écrire implique de jouer avec l’imaginaire des lecteurices, avec leur façon de compiler, d’interpréter les mots dans leurs têtes. Même mon temps de création était libéré – d’une manière ou d’une autre – par une forme de solidarité.
Dès lors, mettre un péage entre l’histoire et celleux qui la font vivre m’est apparu absurde. De quoi le droit d’auteur est-il censé me protéger ? De l’attention donnée ?
Je vis dans une ère où le numérique permet un foisonnement de créations tel que nul ne peut tout suivre… Se couper du lectorat en restreignant l’accès à ce que j’écris, utiliser la loi comme une défiance (voire une arme), c’est une stratégie stupide, passéiste, digne d’un candide au pays des Bisounours !
Par contre, assumer le fait que ces histoires appartiennent à qui s’en empare (ne serait-ce qu’en les lisant), compter sur une forme de respect et faire vœu de non violence légale est une attitude bien plus réaliste qui peut même s’avérer payante… »
-> Lire le livre (en ligne et/ou après achat)…
International Principles on the Application of Human Rights to Communications Surveillance
(Traduction : Slystone, tradfab, hugo, Pascal22, Hubert Guillaud, sinma, big f, Guillaume, Barbidule, Calou, Asta, wil_sly, chdorb, maugmaug, rou, RyDroid, + anonymes)
Version finale du 7 juin 2013
Alors que se développent les technologies qui leur permettent de surveiller les communications, les États ne parviennent pas à garantir que les lois et réglementations relatives à la surveillance des communications respectent les droits humains et protègent efficacement la vie privée et la liberté d’expression (Ndt : le choix de traduire human rights par « droits humains » - plutôt que « droits de l’homme » - repose sur le choix délibéré de ne pas perpétuer une exception française sujette à caution.). Ce document tente d’expliquer comment le droit international des droits humains doit s’appliquer à l’environnement numérique actuel, à un moment où les technologies et les méthodes de surveillance des communications se généralisent et se raffinent. Ces principes peuvent servir de guide aux organisations citoyennes, aux entreprises et aux États qui cherchent à évaluer si des lois et des pratiques de surveillance, actuelles ou en discussion, sont en conformité avec les droits humains.
Ces principes sont le fruit d’une consultation globale d’organisations citoyennes, d’entreprises et d’experts internationaux sur les aspects juridiques, politiques et technologiques de la surveillance des communications.
Le respect de la vie privée est un droit humain fondamental, indispensable au bon fonctionnement des sociétés démocratiques. Il est essentiel à la dignité humaine et renforce d’autres droits, comme la liberté d’expression et d’information, ou la liberté d’association. Il est consacré par le droit international des droits humains[1]. Les activités qui restreignent le droit au respect de la vie privée, et notamment la surveillance des communications, ne sont légitimes que si elles sont à la fois prévues par la loi, nécessaires pour atteindre un but légitime et proportionnelles au but recherché[2].
Avant la généralisation d’Internet, la surveillance des communications par l’État était limitée par l’existence de principes juridiques bien établis et par des obstacles logistiques inhérents à l’interception des communications. Au cours des dernières décennies, ces barrières logistiques à la surveillance se sont affaiblies, en même temps que l’application des principes juridiques aux nouvelles technologies a perdu en clarté. L’explosion des communications électroniques, ainsi que des informations à propos de ces communications (les « métadonnées » de ces communications), la chute des coûts de stockage et d’exploration de grands jeux de données, ou encore la mise à disposition de données personnelles détenues par des prestataires de service privés, ont rendu possible une surveillance par l’État à une échelle sans précédent[3].
Dans le même temps, l’évolution conceptuelle des droits humains n’a pas suivi l’évolution des moyens modernes de surveillance des communications dont dispose l’État, de sa capacité à croiser et organiser les informations obtenue par différentes techniques de surveillances, ou de la sensibilité croissante des informations auxquelles il accède.
La fréquence à laquelle les États cherchent à accéder au contenu des communications ou à leurs métadonnées – c’est-à-dire aux informations portant sur les communications d’une personne ou sur les détails de son utilisation d’appareils électroniques – augmente considérablement, sans aucun contrôle approprié[4]. Une fois collectées et analysées, les métadonnées issues des communications permettent de dresser le profil de la vie privée d’un individu, tel que son état de santé, ses opinions politiques et religieuses, ses relations sociales et ses centres d’intérêts, révélant autant de détails, si ce n’est plus, que le seul contenu des communications[5]. Malgré ce risque élevé d’intrusion dans la vie privée des personnes, les instruments législatifs et réglementaires accordent souvent aux métadonnées une protection moindre, et ne restreignent pas suffisamment la façon dont les agences gouvernementales peuvent les manipuler, en particulier la façon dont elles sont collectées, partagées, et conservées.
Pour que les États respectent réellement leurs obligations en matière de droit international des droits humains dans le domaine de la surveillance des communications, ils doivent se conformer aux principes exposés ci-dessous. Ces principes portent non seulement sur l’obligation pesant sur l’État de respecter les droits de chaque individu , mais également sur l’obligation pour l’État de protéger ces droits contre d’éventuels abus par des acteurs non-étatiques, et en particulier des entreprises privées[6]. Le secteur privé possède une responsabilité équivalente en terme de respect et de protection des droits humains, car il joue un rôle déterminant dans la conception, le développement et la diffusion des technologies, dans la fourniture de services de communication, et – le cas échéant – dans la coopération avec les activités de surveillance des États. Néanmoins, le champ d’application des présents principes est limité aux obligations des États.
Dans l’environnement moderne, le terme « surveillance des communications » désigne la surveillance, l’interception, la collecte, le stockage, la modification ou la consultation d’informations qui contiennent les communications passées, présentes ou futures d’une personne, ainsi que de toutes les informations qui sont relatives à ces communications. Les « communications » désignent toute activité, interaction et échange transmis de façon électronique, tels que le contenu des communications, l’identité des parties communiquant, les données de localisation (comme les adresses IP), les horaires et la durée des communications, ainsi que les identifiants des appareils utilisés pour ces communications.
Le caractère intrusif de la surveillance des communications est traditionnellement évalué sur la base de catégories artificielles et formelles. Les cadres légaux existants distinguent entre le « contenu » et le « hors-contenu », les « informations sur l’abonné » ou les « métadonnées », les données stockées et celles en transit, les données restant à domicile et celles transmises à un prestataire de service tiers[7]. Néanmoins, ces distinctions ne sont plus appropriées pour mesurer le niveau d’intrusion causé par la surveillance des communications dans la vie privée des individus. Il est admis de longue date que le contenu des communications nécessite une protection légale importante en raison de sa capacité à révéler des informations sensibles, mais il est maintenant clair que d’autres informations issues des communications d’un individu – les métadonnées et diverses informations autres que le contenu – peuvent révéler encore davantage sur l’individu que la communication elle-même, et doivent donc bénéficier d’une protection équivalente.
Aujourd’hui, ces informations, qu’elles soient analysées séparément ou ensemble, peuvent permettent de déterminer l’identité, le comportement, les relations, l’état de santé, l’origine ethnique, l’orientation sexuelle, la nationalité ou les opinions d’une personne ; ou encore d’établir une carte complète des déplacements et des interactions d’une personne dans le temps[8]., ou de toutes les personnes présentes à un endroit donné, par exemple une manifestation ou un rassemblement politique. En conséquence, toutes les informations qui contiennent les communications d’une personne, ainsi que toutes les informations qui sont relatives à ces communications et qui ne sont pas publiquement et facilement accessibles, doivent être considérées comme des « informations protégées », et doivent en conséquence se voir octroyer la plus haute protection au regard de la loi.
Pour évaluer le caractère intrusif de la surveillance des communications par l’État, il faut prendre en considération non seulement le risque que la surveillance ne révèle des informations protégées, mais aussi les raisons pour lesquelles l’État recherche ces informations. Si une surveillance des communications a pour conséquence de révéler des informations protégées susceptibles d’accroître les risques d’enquêtes, de discrimination ou de violation des droits fondamentaux pesant sur une personne, alors cette surveillance constitue non seulement une violation sérieuse du droit au respect de la vie privée, mais aussi une atteinte à la jouissance d’autres droits fondamentaux tels que la liberté d’expression, d’association et d’engagement politique. Car ces droits ne sont effectifs que si les personnes ont la possibilité de communiquer librement, sans l’effet d’intimidation que constitue la surveillance gouvernementale. Il faut donc rechercher, pour chaque cas particulier, tant la nature des informations collectées que l’usage auquel elles sont destinées.
Lors de l’adoption d’une nouvelle technique de surveillance des communications ou de l’extension du périmètre d’une technique existante, l’État doit vérifier préalablement si les informations susceptibles d’être obtenues rentrent dans le cadre des« informations protégées », et il doit se soumettre à un contrôle judiciaire ou à un mécanisme de supervision démocratique. Pour déterminer si les informations obtenues par la surveillance des communications atteignent le niveau des « informations protégées », il faut prendre en compte non seulement la nature de la surveillance, mais aussi son périmètre et sa durée.. Une surveillance généralisée ou systématique a la capacité de révéler des informations privées qui dépassent les informations collectées prises individuellement, cela peut donc conférer à la surveillance d’informations non-protégées un caractère envahissant, exigeant une protection renforcée[9].
Pour déterminer si l’État est ou non fondé à se livrer à une surveillance des communications touchant à des informations protégées, le respect de principes suivants doit être vérifié.
Légalité: toute restriction au droit au respect de la vie privée doit être prévue par la loi. L’État ne doit pas adopter ou mettre en oeuvre une mesure qui porte atteinte au droit au respect de la vie privée sans qu’elle ne soit prévue par une disposition législative publique, suffisamment claire et précise pour garantir que les personnes ont été préalablement informées de sa mise en oeuvre et peuvent en anticiper les conséquences. Etant donné le rythme des changements technologiques, les lois qui restreignent le droit au respect de la vie privée doivent faire l’objet d’un examen régulier sous la forme d’un débat parlementaire ou d’un processus de contrôle participatif.
Objectif légitime : la surveillance des communications par des autorités étatiques ne doit être autorisée par la loi que pour poursuivre un objectif légitime lié à la défense d’un intérêt juridique fondamental pour une société démocratique. Aucune mesure de surveillance ne doit donner lieu à une discrimination sur le fondement de l’origine, du sexe, de la langue, de la religion, des opinions politiques, de la nationalité, de l’appartenance à un groupe social, de la richesse, de la naissance ou de tout autre situation sociale.
Nécessité : les lois permettant la surveillance des communications par l’État doivent limiter la surveillance aux éléments strictement et manifestement nécessaires pour atteindre un objectif légitime. La surveillance des communications ne doit être utilisée que lorsque c’est l’unique moyen d’atteindre un but légitime donné, ou, lorsque d’autres moyens existent, lorsque c’est le moyen le moins susceptible de porter atteinte aux droits humains. La charge de la preuve de cette justification, que ce soit dans les procédures judiciaires ou législatives, appartient à l’État.
Adéquation : toute surveillance des communications prévue par la loi doit être en adéquation avec l’objectif légitime poursuivi.
Proportionnalité : la surveillance des communications doit être considérée comme un acte hautement intrusif qui interfère avec le droit au respect de la vie privée, ainsi qu’avec la liberté d’opinion et d’expression, et qui constitue de ce fait une menace à l’égard les fondements d’une société démocratique. Les décisions relatives à la surveillance des communications doivent être prises en comparant les bénéfices attendus aux atteintes causées aux droits des personnes et aux autres intérêts concurrents, et doivent prendre en compte le degré de sensibilité des informations et la gravité de l’atteinte à la vie privée.
Cela signifie en particulier que si un État, dans le cadre d’une enquête criminelle, veut avoir accès à des informations protégées par le biais d’une procédure de surveillance des communications, il doit établir auprès de l’autorité judiciaire compétente, indépendante et impartiale, que :
Si l’État cherche à avoir accès à des informations protégées via une surveillance des communications à des fins qui ne placeront pas une personne sous le risque de poursuites pénales, d’enquête, de discrimination ou de violation des droits de l’homme, l’État doit établir devant une autorité indépendante, impartiale et compétente que :
Autorité judiciaire compétente : les décisions relatives à la surveillance des communications doivent être prises par une autorité judiciaire compétente, impartiale et indépendante. L’autorité doit être (1) distincte des autorités qui effectuent la surveillance des communications, (2) au fait des enjeux relatifs aux technologies de la communication et aux droits humains, et compétente pour rendre des décisions judiciaires dans ces domaines, et (3) disposer de ressources suffisantes pour exercer les fonctions qui lui sont assignées.
Le droit à une procédure équitable : Une procédure équitable suppose que les États respectent et garantissent les droits humains des personnes en s’assurant que les procédures relatives aux atteintes aux droits humains sont prévues par la loi, sont systématiquement appliquées et sont accessibles à tous. En particulier, pour statuer sur l’étendue de ses droits humains, chacun a droit à un procès public dans un délai raisonnable par un tribunal établi par la loi, indépendant, compétent et impartial[10] sauf cas d’urgence lorsqu’il y a un risque imminent de danger pour une vie humaine. Dans de tels cas, une autorisation rétroactive doit être recherchée dans un délai raisonnable. Le simple risque de fuite ou de destruction de preuves ne doit jamais être considéré comme suffisant pour justifier une autorisation rétroactive.
Notification des utilisateurs : les personnes doivent être notifiées d’une décision autorisant la surveillance de leurs communications, avec un délai et des informations suffisantes pour leur permettre de faire appel de la décision, et elles doivent avoir accès aux documents présentés à l’appui de la demande d’autorisation. Les retards dans la notification ne se justifient que dans les cas suivants :
À l’expiration du délai, les fournisseurs de services de communication sont libres d’informer les personnes de la surveillance de leurs communications, que ce soit de leur propre initiative ou en réponse à une demande.
Transparence : les États doivent faire preuve de transparence quant à l’utilisation de leurs pouvoirs de surveillance des communications. Ils doivent publier, a minima, les informations globales sur le nombre de demandes approuvées et rejetées, une ventilation des demandes par fournisseurs de services, par enquêtes et objectifs. Les États devraient fournir aux individus une information suffisante pour leur permettre de comprendre pleinement la portée, la nature et l’application des lois autorisant la surveillance des communications. Les États doivent autoriser les fournisseurs de service à rendre publiques les procédures qu’ils appliquent dans les affaires de surveillance des communications par l’État, et leur permettre de respecter ces procédures ainsi que de publier des informations détaillées sur la surveillance des communications par l’État.
Contrôle public : les États doivent établir des mécanismes de contrôle indépendants pour garantir la transparence et la responsabilité de la surveillance des communications[11]. Les instances de contrôle doivent avoir les pouvoirs suivants : accéder à des informations sur les actions de l’État, y compris, le cas échéant, à des informations secrètes ou classées ; évaluer si l’État fait un usage légitime de ses prérogatives ; évaluer si l’État a rendu publiques de manière sincère les informations sur l’étendue et l’utilisation de ses pouvoirs de surveillance ; publier des rapports réguliers ainsi que toutes autres informations pertinentes relatives à la surveillance des communications. Ces mécanismes de contrôle indépendants doivent être mis en place en sus de tout contrôle interne au gouvernement.
Intégrité des communications et systèmes : Afin d’assurer l’intégrité, la sécurité et la confidentialité des systèmes de communication, et eut égard au fait que toute atteinte à la sécurité pour des motifs étatiques compromet presque toujours la sécurité en général, les États ne doivent pas contraindre les fournisseurs de services, ou les vendeurs de matériels et de logiciels, à inclure des capacités de surveillance dans leurs systèmes ou à recueillir et conserver certaines informations exclusivement dans le but de permettre une surveillance par l’État. La collecte et le stockage des données a priori ne doivent jamais être demandés aux fournisseurs de services. Les personnes ont le droit de s’exprimer anonymement, les États doivent donc s’abstenir d’imposer l’identification des utilisateurs comme condition préalable pour l’accès à un service[12].
Garanties dans le cadre de la coopération internationale : en réponse aux évolutions dans les flux d’information et les technologies de communication, les États peuvent avoir besoin de demander assistance à un fournisseur de services étranger. Les traités de coopération internationale en matière de police et de justice et les autres accords conclus entre les États doivent garantir que, lorsque plusieurs droits nationaux peuvent s’appliquer à la surveillance des communications, ce sont les dispositions établissant la plus grande protection à l’égard des individus qui prévalent. Lorsque les États demandent assistance dans l’application du droit, le principe de double-incrimination doit être appliqué (NdT : principe selon lequel, pour être recevable, la demande de collaboration doit porter sur une disposition pénale existant à l’identique dans les deux pays). Les États ne doivent pas utiliser les processus de coopération judiciaire ou les requêtes internationales portant sur des informations protégées dans le but de contourner les restrictions nationales sur la surveillance des communications. Les règles de coopération internationale et autres accords doivent être clairement documentés, publics, et conformes au droit à une procédure équitable.
Garanties contre tout accès illégitime : les États doivent adopter une législation réprimant la surveillance illicite des communications par des acteurs publics ou privés. La loi doit prévoir des sanctions civiles et pénales dissuasives, des mesures protectrices au profit des lanceurs d’alertes, ainsi que des voies de recours pour les personnes affectées. Cette législation doit prévoir que toute information obtenue en infraction avec ces principes est irrecevable en tant que preuve dans tout type de procédure, de même que toute preuve dérivée de telles informations. Les États doivent également adopter des lois prévoyant qu’une fois utilisées pour l’objectif prévu, les informations obtenues par la surveillance des communications doivent être détruites ou retournées à la personne.
Signataires
[1] Article 12 de la Déclaration universelle des droits de l’homme ; article 14 de la Convention des Nations Unies sur les travailleurs migrants ; article 16 de la Convention des Nations Unies sur la protection des droits de l’enfant ; pacte international relatif aux droits civils et politiques ; article 17 du pacte international relatif aux droits civils et politiques ; conventions régionales dont article 10 de la Charte africaine des droits et du bien-être de l’enfant, article 11 de la Convention américaine des droits de l’Homme, article 4 de la déclaration de principe de la liberté d’expression en Afrique, article 5 de la déclaration américaine des droits et devoirs de l’Homme, article 21 de la Charte arabe des droits de l’Homme et article 8 de la Convention européenne de la protection des droits de l’Homme et des libertés fondamentales ; principes de Johannesburg relatifs à la sécurité nationale, libre expression et l’accès à l’information, principes de Camden sur la liberté d’expression et l’égalité.
[2] Article 29 de la Déclaration universelle des droits de l’homme ; commentaire général numéro 27, adopté par le Comité des droits de l’Homme sous l’article 40, paragraphe 4, par The International Covenant On Civil And Political Rights, CCPR/C/21/Rev.1/Add.9, du 2 novembre ; voir aussi de Martin Scheinin, « Report of the Special Rapporteur on the promotion and protection of human rights and fundamental freedoms while countering terrorism, » 2009, A/HRC/17/34.
[3] Les métadonnées des communications peuvent contenir des informations à propos de notre identité (informations sur l’abonné, information sur l’appareil utilisé), de nos interactions (origines et destinations des communications, en particulier celles montrant les sites visités, les livres ou autres documents lus, les personnes contactées, les amis, la famille, les connaissances, les recherches effectuées et les ressources utilisées) et de notre localisation (lieux et dates, proximité avec d’autres personnes) ; en somme, des traces de presque tous les actes de la vie moderne, nos humeurs, nos centres d’intérêts, nos projets et nos pensées les plus intimes.
[4] Par exemple, uniquement pour le Royaume-Uni, il y a actuellement environ 500 000 requêtes sur les métadonnées des communications chaque année, sous un régime d’auto-autorisation pour les agences gouvernementales, qui sont en mesure d’autoriser leurs propres demandes d’accès aux informations détenues par les fournisseurs de services. Pendant ce temps, les données fournies par les rapports de transparence de Google montrent qu’aux États-Unis, les requêtes concernant des données d’utilisateurs sont passées de 8 888 en 2010 à 12 271 en 2011. En Corée, il y a eu environ 6 millions de requêtes par an concernant des informations d’abonnés et quelques 30 millions de requêtes portant sur d’autres formes de communications de métadonnées en 2011-2012, dont presque toutes ont été accordées et exécutées. Les données de 2012 sont accessibles ici.
[5] Voir par exemple une critique du travail de Sandy Pentland, « Reality Minning », dans la Technology Review du MIT, 2008, disponible ici, voir également Alberto Escudero-Pascual et Gus Hosein « Questionner l’accès légal aux données de trafic », Communications of the ACM, volume 47, Issue 3, mars 2004, pages 77-82.
[6] Rapport du rapporteur spécial des Nations Unies sur la liberté d’opinions et d’expression, Frank La Rue, 3 juin 2013, disponible ici.
[7] « Les gens divulguent les numéros qu’ils appellent ou textent à leurs opérateurs mobiles, les URLs qu’ils visitent et les adresses courriel avec lesquelles ils correspondent à leurs fournisseurs d’accès à Internet, et les livres, les courses et les médicaments qu’ils achètent à leurs boutiques en ligne… On ne peut présumer que toutes ces informations, volontairement divulguées à certaines personnes dans un but spécifique, sont, de ce seul fait, exclues de la protection du 4ème amendement de la Constitution. » United States v. Jones, 565 U.S, 132 S. Ct. 945, 957 (2012) (Sotomayor, J., concurring).
[8] « La surveillance à court terme des déplacements d’une personne sur la voie publique est compatible avec le respect de la vie privée », mais « l’utilisation de systèmes de surveillance GPS à plus long terme dans les enquêtes sur la plupart des infractions empiète sur le respect de la vie privée. » United States v. Jones, 565 U.S., 132 S. Ct. 945, 964 (2012) (Alito, J. concurring).
[9] « La surveillance prolongée révèle des informations qui ne sont pas révélées par la surveillance à court terme, comme ce que fait un individu à plusieurs reprises, ce qu’il ne fait pas, et ce qu’il fait à la suite. Ce type d’informations peut en révéler plus sur une personne que n’importe quel trajet pris isolément. Des visites répétées à l’église, à une salle de gym, à un bar ou à un bookmaker racontent une histoire que ne raconte pas une visite isolée, tout comme le fait de ne pas se rendre dans l’un de ces lieux durant un mois. La séquence des déplacements d’une personne peut révéler plus de choses encore ; une seule visite à un cabinet de gynécologie nous en dit peu sur une femme, mais ce rendez-vous suivi quelques semaines plus tard d’une visite à un magasin pour bébés raconte une histoire différente. Quelqu’un qui connaîtrait tous les trajets d’une personne pourrait en déduire si c’est un fervent pratiquant, un buveur invétéré, un habitué des clubs de sport, un mari infidèle, un patient ambulatoire qui suit un traitement médical, un proche de tel ou tel individu, ou de tel groupe politique – il pourrait en déduire non pas un de ces fait, mais tous. » U.S. v. Maynard, 615 F.3d 544 (U.S., D.C. Circ., C.A.) p. 562; U.S. v. Jones, 565 U.S (2012), Alito, J., participants. « De plus, une information publique peut entrer dans le cadre de la vie privée quand elle est systématiquement collectée et stockée dans des fichiers tenus par les autorités. Cela est d’autant plus vrai quand ces informations concernent le passé lointain d’une personne. De l’avis de la Cour, une telle information, lorsque systématiquement collectée et stockée dans un fichier tenu par des agents de l’État, relève du champ d’application de la vie privée au sens de l’article 8 (1) de la Convention. » (Rotaru v. Romania, (2000) ECHR 28341/95, paras. 43-44.
[10] Le terme « Due process » (procédure équitable) peut être utilisé de manière interchangeable avec « équité procédurale » et « justice naturelle », il est clairement défini dans la Convention européenne pour les droits de l’Homme article 6(1) et article 8 de la Convention américaine relative aux droits de l’Homme.
[11] Le commissaire britannique à l’interception des communications est un exemple d’un tel mécanisme de contrôle indépendant. L’ICO publie un rapport qui comprend des données agrégées, mais il ne fournit pas de données suffisantes pour examiner les types de demandes, l’étendue de chaque demande d’accès, l’objectif des demandes et l’examen qui leur est appliqué. Voir ici.
[12] Rapport du rapporteur spécial sur la promotion et la protection du droit à la liberté d’opinion et d’expression, Frank La Rue, 16 mai 2011, A/HRC/17/27, para 84.
Le titre se suffit à lui-même ici. On pourrait ajouter aux entreprises, les institutions et les particuliers, bref tout le monde.
Non content d’avoir été accusé par le passé de réserver dans Windows des portes dérobées à la NSA, non content d’être fortement suspecté de laisser les autorités américaines collecter nos données dans Skype, on apprend aujourd’hui que Microsoft différerait le publication de ses patchs de sécurité pour en informer d’abord les mêmes autorités américaines !
Tout DSI normalement constiué(e) devrait lire cet article et en tirer avec sa direction ses propres conclusions.
How Can Any Company Ever Trust Microsoft Again?
Glyn Moddy - juin 2013 - Open Enterprise (Computer World)
(Traduction : Slystone, Luo, lamessen, Antoine, sinma, Pouhiou, Sky, Fe-lor, aKa, Asta, audionuma + anonymes)
Quels que soient les détails des récentes révélations sur l’espionnage de masse de la part des États-Unis fournis par Edward Snowden dans le Guardian, il y a déjà un énorme bénéfice collatéral. D’un côté, le gouvernement des États-Unis se replie sur lui-même, niant certaines allégations en offrant sa propre version de l’histoire. Cela, et pour la première fois, nous donne des détails officiels sur des programmes dont nous n’étions (au mieux) informés que par fuites et rumeurs, voire pas du tout. De plus, la précipitation indécente et l’histoire sans cesse changeante des autorités américaines est une confirmation, si elle était encore nécessaire, que ce que Snowden a révélé est important — vous ne provoquez pas un tel tapage pour rien.
Mais peut-être encore plus crucial, d’autres journalistes, poussés par la honte et leur culpabilisation, ont finalement posé des questions qu’ils auraient dû poser des années voire des décennies plus tôt. Cela a abouti à une série d’articles extrêmement intéressants à propos de l’espionnage de la NSA, dont beaucoup contiennent des informations auxiliaires qui sont aussi intéressantes que l’histoire principale. Voici un bel exemple de ce qui est apparu durant le week-end sur le site de Bloomberg.
Entre autres choses, il s’agit de Microsoft, et d’évaluer dans quelle mesure ils ont aidé la NSA à espionner le monde. Bien sûr, cette crainte n’est pas nouvelle. Dès 1999, il était déjà dit que des portes dérobées avaient été codées dans Windows :
Une erreur d’inattention de programmeurs Microsoft a révélé qu’un code d’accès spécial préparé par l’agence nationale de sécurité étasunienne (NSA) avait été secrètement implémenté dans Windows. Le système d’accès de la NSA est implémenté sous toutes les versions de Windows actuellement utilisées, à l’exception des premières versions de Windows 95 (et ses prédécesseurs). La découverte suivait de près les révélations survenues un peu plus tôt cette année concernant un autre géant du logiciel étasunien, Lotus, qui avait implémenté une trappe « d’aide à l’information » pour la NSA dans son système Notes. Des fonctions de sécurité dans d’autres logiciels systèmes avaient été délibérément paralysées.
Plus récemment, il y eut des craintes au sujet de Skype, racheté par Microsoft en mai 2011. En 2012, il y a eu des discussions pendant lesquelles on s’est demandé si Microsoft avait changé l’architecture de Skype pour rendre l’espionnage plus facile (l’entreprise a même un brevet sur l’idée). Les récentes fuites semblent confirmer que ces craintes étaient bien fondées, comme le signale Slate :
Le scoop du Washington Post sur PRISM et ses possibilités présente plusieurs points frappants, mais pour moi un en particulier s’est démarqué du reste. The Post, citant une diapositive Powerpoint confidentielle de la NSA, a écrit que l’agence avait un guide d’utilisation spécifique « pour la collecte de données Skype dans le cadre du programme PRISM » qui met en évidence les possibilités d’écoutes sur Skype « lorsque l’un des correspondants utilise un banal téléphone et lorsque deux utilisateurs du service réalisent un appel audio, vidéo, font du chat ou échangent des fichiers. »
Mais même cela devient dérisoire comparé aux dernières informations obtenues par Bloomberg :
D’après deux personnes qui connaissent bien le processus, Microsoft, la plus grande compagnie de logiciels au monde, fournit aux services de renseignement des informations sur les bogues dans ses logiciels populaires avant la publication d’un correctif. Ces informations peuvent servir à protéger les ordinateurs du gouvernement ainsi qu’à accéder à ceux de terroristes ou d’armées ennemies.
La firme de Redmond basée à Washington, Microsoft, ainsi que d’autres firmes œuvrant dans le logiciel ou la sécurité, était au courant que ce genre d’alertes précoces permettaient aux États-Unis d’exploiter des failles dans les logiciels vendus aux gouvernements étrangers, selon deux fonctionnaires d’État. Microsoft ne demande pas et ne peut pas savoir comment le gouvernement utilise de tels tuyaux, ont dit les fonctionnaires, qui ne souhaitent pas que leur identité soit révélée au vu de la confidentialité du sujet.
Frank Shaw, un porte-parole de Microsoft, a fait savoir que ces divulgations se font en coopération avec d’autres agences, et sont conçues pour donner aux gouvernements « une longueur d’avance » sur l’évaluation des risques et des mitigations.
Réfléchissons-y donc un moment.
Des entreprises et des gouvernements achètent des logiciels à Microsoft, se reposant sur la compagnie pour créer des programmes qui sont sûrs et sans risque. Aucun logiciel n’est complètement exempt de bogues, et des failles sérieuses sont trouvées régulièrement dans le code de Microsoft (et dans l’open source, aussi, bien sûr). Donc le problème n’est pas de savoir si les logiciels ont des failles, tout bout de code non-trivial en a, mais de savoir comment les auteurs du code réagissent.
Ce que veulent les gouvernements et les compagnies, c’est que ces failles soient corrigées le plus vite possible, de manière à ce qu’elles ne puissent pas être exploitées par des criminels pour causer des dégâts sur leurs systèmes. Et pourtant, nous apprenons maintenant que l’une des premières choses que fait Microsoft, c’est d’envoyer des informations au sujet de ces failles à de multiples agences, en incluant sans doute la NSA et la CIA. En outre, nous savons aussi que « ce type d’alerte précoce a permis aux U.S.A. d’exploiter des failles dans les logiciels vendus aux gouvernements étrangers »
Et rappelez-vous que « gouvernements étrangers » signifie ceux des pays européens aussi bien que les autres (le fait que le gouvernement du Royaume-Uni ait espionné des pays « alliés » souligne que tout le monde le fait). Il serait également naïf de penser que les agences de renseignement américaines exploitent ces failles « jour 0 » seulement pour pénétrer dans les systèmes des gouvernements ; l’espionnage industriel représentait une partie de l’ancien programme de surveillance Echelon, et il n’y a aucune raison de penser que les U.S.A. vont se limiter aujourd’hui (s’il y a eu un changement, les choses ont empiré).
Il est donc fortement probable que les faiblesses des produits Microsoft soient régulièrement utilisées pour s’infiltrer et pratiquer toutes sortes d’espionnage dans les gouvernements et sociétés étrangères. Ainsi, chaque fois qu’une entreprise installe un nouveau correctif d’une faille majeure provenant de Microsoft, il faut garder à l’esprit que quelqu’un a peut avoir utilisé cette faiblesse à des fins malveillantes.
Les conséquences de cette situation sont très profondes. Les entreprises achètent des produits Microsoft pour plusieurs raisons, mais toutes supposent que la compagnie fait de son mieux pour les protéger. Les dernières révélations montrent que c’est une hypothèse fausse : Microsoft transmet consciencieusement et régulièrement des informations sur la manière de percer les sécurités de ses produits aux agences américaines. Ce qui arrive à ces informations plus tard est, évidemment, un secret. Pas à cause du « terrorisme », mais parce qu’il est presque certain que des attaques illégales sont menées contre d’autres pays (et leurs entreprises) en dehors des États-Unis.
Ce n’est rien d’autre qu’une trahison de la confiance que les utilisateurs placent en Microsoft, et je me demande comment un responsable informatique peut encore sérieusement recommander l’utilisation de produits Microsoft maintenant que nous sommes presque sûrs qu’ils sont un vecteur d’attaques par les agences d’espionnage américaines qui peuvent potentiellement causer d’énormes pertes aux entreprises concernées (comme ce qui est arrivé avec Echelon).
Mais il y a un autre angle intéressant. Même si peu de choses ont été écrites à ce sujet — même par moi, à ma grande honte — un nouvel accord législatif portant sur les attaques en ligne est en cours d’élaboration par l’Union Européenne. Voici un aspect de cet accord :
Ce texte demandera aux États membres de fixer leur peine maximale d’emprisonnement à au moins deux ans pour les crimes suivants : accéder à ou interférer illégalement avec des systèmes d’informations, interférer illégalement avec les données, intercepter illégalement des communications ou produire et vendre intentionnellement des outils utilisés pour commettre ces infractions.
« Accéder ou interférer illégalement avec des systèmes d’informations » semble être précisément ce que le gouvernement des États-Unis fait aux systèmes étrangers, dont probablement ceux de l’Union Européenne. Donc, cela indiquerait que le gouvernement américain va tomber sous le coup de ces nouvelles réglementations. Mais peut-être que Microsoft aussi, car c’est lui qui en premier lieu a rendu possible l’« accès illégal ».
Et il y a un autre aspect. Supposons que les espions américains utilisent des failles dans les logiciels de Microsoft pour entrer dans un réseau d’entreprise et y espionner des tiers. Je me demande si ces entreprises peuvent elles-mêmes se trouver accusées de toute sorte d’infractions dont elles ne savaient rien ; et finir au tribunal. Prouver son innocence ici risque d’être difficile, car en ce cas les réseaux d’entreprise seraient effectivement utilisés pour espionner.
Au final, ce risque est encore une autre bonne raison de ne jamais utiliser des logiciels de Microsoft, avec toutes les autres qui ont été écrites ici ces dernières années. Ce n’est pas uniquement que l’open source est généralement moins cher (particulièrement si vous prenez en considération le prix de l’enfermement livré avec les logiciels Microsoft), mieux écrit, plus rapide, plus sûr et plus sécurisé. Mais par-dessus tout, le logiciel libre respecte ses utilisateurs, les plaçant solidement aux commandes.
Cela vous ôte toute crainte que l’entreprise vous ayant fourni un programme donne en secret à des tiers la possibilité de retourner contre vous ce logiciel que vous avez payé assez cher. Après tout, la plupart des résolutions des bogues dans l’open source est effectuée par des codeurs qui ont un peu d’amour pour l’autorité verticale, de sorte que la probabilité qu’ils donnent régulièrement les failles à la NSA, comme le fait Microsoft, doit être extrêmement faible.
Crédit photo : Cambodia4kidsorg (Creative Commons By)
Nous avons reçu ce mail qui nous a particulièrement touché.
Cela mérite une bonne note, non ? ;)
Bonjour Framasoft,
Je m’appelle XXX et j’ai maintenant passé le BAC (en espérant l’avoir réussi pour décrocher l’INSA à Rouen). Il se trouve que l’un des sujets d’expression d’Anglais LV1[1] était :
“I once promised myself I would never work for money,” (Document B, 1.12). How easy is it to stick to such a decision?
Fervent croyant en le logiciel libre que je suis, j’ai écrit un texte sur la culture libre et le logiciel libre. Je me permets aujourd’hui de vous en faire part.
Vous êtes bien sûr libre d’en faire ce que vous voulez, comme me le « corriger », me le commenter, le publier (message subliminal).
Cependant, je dois vous prévenir que comme le nom de votre association se trouve dans mon texte, le correcteur de doit pas être capable de m’identifier, ce qui implique que soit l’hypothétique publication ne doit pas se trouver avant la date des résultats du BAC (5 juillet) ou que mon nom ne soit figuré nul part, du moins jusqu’aux résultats (si vous avez besoin d’un pseudonyme, utilisez « minijackson »)
Voici donc le contenu du dit texte, quelque peu altéré suite à une courte réflexion postérieure :
In our commercial society, where everybody is looking for a well-paid job, not too much painful, and maybe if possible that we like, is there a place for “not for money” works ?
I would like to explain this issue through an underestimated and under-explained topic : the free culture.
The free culture was at first named “free software” for it was applied to softwares only. But this situation has evolved and now is extent to books, pictures and musics.
But what is it ? It is the idea of giving freely informations or culture. But this “free” doesn’t mean “free” like in “free shipping”, but “free” like in “freedom” or “free speech”.
It gives the person the ability to share, remix and share the remix of a piece of culture. It is very rare to see an artist giving the ability to share and remix his piece of work. And so was created the community of free culture.
Concerning the free softwares, developers works hard to give a good software knowing that they do not work for money. How do they do? There is mainly three cases : Either the developer has a work and spend his free time developing, or the person works for a non-profit organization that provides free software(s) like Mozilla or The Linux Foundation.
But it is very rare to see someone living with donations only. It is also very hard for free software developers because of organizations like Microsoft or Apple who makes everything to make the user believe that they are the only ones who can make such products.
But it isn’t true. Every free software developers works hard to give free and best softwares with one goal : make an open world.
Windows and Mac are beaten by Linux, Microsoft Office is beaten by LibreOffice and Internet Explorer is beaten by Firefox.
Some associations are also trying to spread the word, getgnulinux or Framasoft.
Finally I would say that it is always hard to stick to that promise but we are trying. And because we are a huge community we will succeed.
En espérant que cela vous plaise et que je n’aie pas écrit de bêtises, toute critique constructive est acceptée avec plaisir.
Merci et bonne continuation,
minijackson
Crédit photo : Official U.S. Navy Imagery (Creative Commons By)
[1] Le sujet dans son intégralité sur Sribd.
Terms And Conditions May Apply, est le titre d’un documentaire qui semble tout aussi intéressant que salutaire, a fortiori après l’affaire PRSIM.
Lorsque l’on crée gratuitement un compte sur Google, YouTube, Facebook, Twitter, Amazon (dont la typographie compose le titre de l’image ci-dessous), on accepte également de souscrire à un contrat d’utilisation qui, s’il était lu et compris jusqu’au bout, devrait normalement nous faire rebrousser chemin.
Mais comme « personne ne lit ces contrats » et que « tout le monde se trouve sur ces réseaux sociaux », alors on participe nous aussi à nourrir ces monstres qui sucent en toute légalité nos données.
En attendant sa sortie le mois prochain, nous en avons traduit l’accueil sur le site officiel. Et peut-être même, qui sait, que nous participerons à son sous-titrage.
Terms And Conditions May Apply
(Traduction : Lamessen, sinma, calou, Asta)
En cliquant sur le bouton de la page précédente, vous avez accepté de regarder la bande-annonce suivante :
Terms and Conditions May Apply Preview from Hyrax Films Private on Vimeo.
De plus, vous acceptez de voir le film à l’une de ces séances.
Vous avez également accepté les termes et conditions suivants :
1) Tout ce que vous faites ici nous appartient
2) Nous ne sommes responsables de rien
3) Comment nous partageons vos informations
4) Pour votre sécurité
5) Délicieuses collations
6) En échange de ces services
7) Résiliation
Si vous estimez ces conditions d’utilisation non raisonnables, ou pour savoir quels autres usages vous avez accepté en utilisant un téléphone portable, un site Web ou une application, cliquez ici maintenant.
Nous avons décidé d’apporter notre traduction française à une simple page Web (à voir dans sa version originale épurée).
Parce qu’il est vrai qu’on a parfois tendance à se perdre dans la forme et oublier les fondamentaux…
Justin Jackson - Juin 2013 - Site personnel
(Traduction : Lamessen, Asta, Pascal + anonymes)
Il n’y a pas grand-chose ici.
Juste des mots.
Et vous êtes en train de les lire.
Nous devenons obsédés par les dessins fantaisistes, les mises en forme adaptatives et les scripts qui font des choses magiques.
Mais l’outil le plus puissant sur le Web reste les mots.
J’ai écrit ces mots, et vous êtes en train de les lire : c’est magique.
Je suis dans une petite ville de Colombie-Britannique : vous êtes sans doute ailleurs. J’ai écrit ceci le matin du 20 juin 2013 : vous lisez probablement ceci à un autre moment. J’ai écrit ceci sur mon ordinateur portable : vous pourriez être en train de le lire sur votre téléphone, votre tablette ou votre PC.
Vous et moi pouvons nous connecter parce que j’ai écrit ceci et que vous êtes en train de le lire. C’est ça, le Web. Malgré nos emplacements différents, monnaies et fuseaux horaires, nous pouvons nous connecter ici, sur une simple page HTML.
J’ai écrit ceci dans un éditeur de texte. C’est 4 kb. Je n’avais pas besoin d’un CMS (système de gestion de contenu), d’un graphiste ou d’un développeur. Il n’y a pas vraiment de code sur cette page, simplement des balises pour les paragraphes, la hiérarchie et la mise en forme.
Je me rappelle avoir enseigné le code HTML à ma fille, elle avait 8 ans. La première chose qu’elle a écrit était une histoire à propos d’un écureuil. Elle n’écrivait pas de l’HTML ; elle partageait quelque chose avec le monde. Elle ne pouvait pas croire qu’elle pouvait écrire une histoire sur son ordinateur personnel et le publier pour que le monde le voit. Elle n’en avait rien à faire de l’HTML, elle souhaitait partager ses histoires.
Vous êtes toujours en train de lire.
Pensez à toutes les choses que vous pourriez communiquer avec une simple page comme celle-ci. Si vous êtes dans les affaires, vous pourriez vendre quelque chose. Si vous êtes un enseignant, vous pourriez enseigner quelque chose. Si vous êtes un artiste, vous pourriez montrer quelque chose que vous avez créé. Et si vos mots sont valables, ils seront lus.
Si vous êtes un web designer ou un client qui travaille avec un designer, j’aimerais vous défier de réfléchir à vos mots en premier. Au lieu de commencer avec style guide ou une maquette Photoshop, commencez avec des mots sur une page.
Qu’avez-vous à dire ? Si vous ne le savez pas, vous n’avez aucun intérêt à ajouter toutes les autres fioritures. Commencez simplement avec une seule page, avec un seul objectif. Écrivez et publiez-le, puis réitérez l’expérience. À chaque fois que vous ajouterez quelque chose, demandez-vous : Est-ce que ceci m’aide à mieux communiquer ? Est-ce que ce style additionnel, cette image ou ce lien me permet de mieux me faire comprendre par mon audience ? Si la réponse est « non », ne l’ajoutez pas.
En son cœur, le design web devrait concerner des mots. Les mots ne viennent pas après le design. Les mots sont le commencement, le noyau, la focalisation.
Commencez par des mots.
Amicalement,
Justin Jackson
Nous avons participé à la traduction d’un article co-signé par un certain nombre de partis pirates européens qui intime l’Europe à ne pas rester passive face à ce qu’il vient de se produire du côté de la NSA…
(Traduction : Lgodard, Yoann, kenoris, zer0chain, AmarOk, Asta + anonymes)
Nous sommes consternés de découvrir une surveillance sans précédent des utilisateurs d’Internet de par le monde via PRISM et les programmes du même ordre. Des capacités de surveillance globale de telles sortes — tout particulièrement lorsqu’elles sont mises en œuvre sans accord des citoyens — sont une atteinte sérieuse aux Droits de l’Homme, à la liberté d’expression ainsi qu’à la vie privée, tous trois éléments fondateurs de nos démocraties.
Nous applaudissons Edward Snowden pour ses actions de dénonciation. Quand un gouvernement est réellement par le peuple et pour le peuple, on ne peut considérer comme un crime de diffuser des informations sur le but et l’étendue des actions que le gouvernement engage au nom de ces citoyens, dans le but revendiqué de les protéger. Un gouvernement représentatif dans une démocratie repose sur le consentement de son peuple. Cependant, un tel consentement ne peut exister lorsque les citoyens ne sont pas complètement informés.
Nous notons avec inquiétude l’absence totale de considération que le gouvernement américain montre pour les droits des citoyens européens et, plus généralement, à toute personne qui utilise les services de communication et infrastructures américains. Nous notons également l’effet négatif sur ses alliés, la souveraineté des pays concernés et la compétitivité de leurs entreprises.
L’Europe se doit de répondre à ces révélations avec la détermination nécessaire. À la lumière de ces informations, il devient nécessaire pour l’Union Européenne de ne pas rester complice de ces abus de pouvoir aux lourdes répercussions, et de s’élever au rang de pionner dans les domaines des droits numériques, de la protection de la vie privée, de la transparence gouvernementale et de la protection des lanceurs d’alertes.
Nous demandons :
Le gouvernement des USA a démontré - dans le cas de Bradley Manning et d’autres - que son traitement des lanceurs d’alertes est une cause de préoccupation grave. L’étiquetage public d’Edward Snowden qui apparaît comme un “traître” pour les différents responsables et les médias a créé un climat dans lequel il ne peut avoir droit à procès équitable. Il pourrait être le sujet de persécutions pour sa politique de gouvernement transparent, et sera certainement en danger de recevoir des peines ou des traitements inhumains ou dégradants, y compris la menace de la peine de mort.
Nous demandons à tous les gouvernements d’Europe de traiter avec bienveillance les demandes d’asile politique ou le statut de protection subsidiaires de M. Edward Snowden et d’autres lanceurs d’alertes, en faisant avancer rapidement d’éventuelles demandes de ce type.
Il est inacceptable que des programmes secrets de surveillance contournent toute procédure démocratique et empêchent l’engagement critique et rationnel nécessaire à une démocratie pour déterminer si une action est justifiée ou non.
Nous appelons le Parlement Européen à constituer un comité d’investigation, en accord avec l’article 185 de ses règles de procédure. Les faits à établir et publier sont :
Nous adressons cet appel à tous les parlements nationaux - afin de déterminer si les constitutions nationales, les lois de protection des données et les lois d’espionnage ont été violées.
La proposition de loi General Data Protection Regulation en cours d’examen doit être renforcé afin d’assurer une protection plus large et plus profonde des données privées et professionnelles. Aux efforts de lobbying opposés il faut résister.
En particulier, les données des citoyens européens ne doivent pas être sciemment remises aux services d’espionnage des États-Unis d’Amérique. L’article 42 issu de la première fuite de proposition de loi, qui portait sur les mesures de protection des lois extra territoriales de pays tiers comme le Patriot Act ou encore le Foreign Intelligence Surveillance Act des USA en posant des barrières aux autorités étrangères lors de l’accès aux données européennes, doit être réintroduit. Les méta données ainsi que les pseudonymes doivent également être protégés.
D’après les principes de la “Sphère de sécurité” relatifs à la protection de la vie privée, les entreprises américaines doivent informer leurs clients lorsqu’elles permettent à des tiers d’accéder à leurs données. Il semble que les entreprises associées au programme PRISM ont violé ces dispositions. En conséquence, l’UE doit révoquer son accord à ces principes (décision n°2000/520/EC de la Commission), de telle sorte que les entreprises concernées soient soumises à la justice européenne si elles ne cessent pas ces pratiques immédiatement. La “Sphère de sécurité” doit soit être renégociée en intégrant des mesures de protection plus efficaces et plus de moyens de recours, soit être remplacée par un nouvel accord international sur la protection des données, par exemple basé sur la proposition de loi “General Data Protection Regulation”.
Pour assurer qu’Internet reste une force d’autonomisation et de démocratisation plutôt que continuer d’être utilisé comme un outil limitant et réduisant la démocratie et la liberté individuelle, l’Union Européenne devrait être le fer de lance d’un traité international sur la Liberté sur Internet. Un tel traité devrait protéger fortement la confidentialité des communications, la liberté d’expression et l’accès à l’information (en particulier ce qui touche à l’Internet) ainsi que la neutralité du net.
Afin de constituer une nouvelle ligne de défense de la vie privée, les utilisateurs doivent pouvoir choisir des logiciels et services qui respectent vraiment leur vie privée. De tels logiciels devraient garantir l’anonymat de leurs utilisateurs, offrir un système fort de chiffrement de bout-en-bout, des architectures pair-à-pair, la possibilté d’héberger soi-même ses données, un code source visible de tous, etc.
Nous nous réjouissons de voir que « protéger la vie privée et la liberté des internautes » fait partie des propositions soumises en ce moment au programme Horizon 2020. Nous demandons à l’Union Européenne, d’une part d’allouer une part bien plus significative des fonds de recherche à la diversification de l’offre logicielle qu’aux projets ayant le but contraire, par exemple le développement des outils de surveillance et d’exploration des données, et d’autre part de rejeter fermement des propositions dont le but explicite est la surveillance généralisée ne se basant sur aucune suspicion fondée.
Nous proposons des moyens législatifs visant à renforcer la défense contre les organismes similaires à travers toute l’Europe.
Les écoutes directes des agences gouvernementales des communications au cœur du réseau Internet — comme celles ayant été reportées comme installées par la NSA dans le cadre du programme BLARNEY — doivent être explicitement déclarées hors-la-loi. De telles écoutes autorisent le stockage et l’analyse de données de toutes les communications ayant lieu sur Internet, outrepassant toutes les procédures et contrôles existants, mettant ainsi en péril la confidentialité de toutes données et la vie privée de chacun. Porter atteinte à l’intégrité du réseau d’une manière aussi révoltante empêche tout un chacun de lui faire confiance, et nous prive de tous les points positifs que l’on peut y trouver.
Nous renouvelons donc notre appel pour la révocation de la directive sur la conservation des données. Les juridictions constitutionnelles tchèque, serbe et roumaine ont explicitement conclu que la collecte à grande échelle et sans suspicions de données personnelles est une violation fondamentale des droits de l’homme. Par la collecte généralisée de grandes quantités de données sans l’accord d’un tribunal, les programmes de conservation de données permettent au pouvoir exécutif d’outrepasser ses attributions au travers de plate-formes telles que PRISM, menaçant du même coup la séparation des pouvoirs exécutif et judiciaire, qui est le fondement de nos démocraties.
Un livre sur la théorie des types homotopique vient d’être publié par des mathématiciens. A priori ça ne concerne que les spécialistes du sujet…
Et pourtant ça concerne tout le monde, tant sa conception originale et les leçons qui en sont tirées ci-dessous ont valeur d’exemplarité.
Du Libre à tous les étages (LaTeX, GitHub, Creative Commons By-Sa…) mais surtout dans son état d’esprit de partage et de collaboration. Un projet et un article passionnants, à faire lire dans la sphère académique et bien au delà.
Remarque : Pour commencer, on pourra voir cette courte vidéo « making-of » du livre.
Andrej Bauer - 20 juin 2013 - Blog personnel
(Traduction : Lgodard, Ilphrin, tcit, Guillaume, igor_d, Yaf, ronanov, fif + anonymes)
Le livre HoTT est terminé !
Depuis le printemps, et même avant, j’ai participé à un super effort collaboratif pour écrire un livre à propos de la Théorie des Types Homotopiques (NdT : HoTT en anglais pour Homotopy Type Theory). Il est enfin terminé et accessible au public. Vous pouvez obtenir le livre librement et gratuitement. Mike Shulman a écrit à propos du contenu de ce livre, donc je ne vais pas répéter cela ici. À la place, je voudrais commenter les aspects socio-technologiques de la création du livre, et en particulier de ce que nous avous appris de la communauté open source sur la recherche collaborative.
Nous sommes un groupe de deux douzaines de mathématiciens ayant écrit un livre de 600 pages en moins de 6 mois. C’est assez impressionnant, d’autant que les mathématiciens n’ont pas l’habitude de travailler ensemble au sein de grands groupes. Dans un petit groupe ils peuvent s’en sortir en utilisant des technologies obsolètes, comme envoyer aux autres un fichier source LaTeX par email, mais avec deux douzaines de personnes, même Dropbox ou n’importe quel autre système de synchronisation de fichier aurait échoué lamentablement. Par chance, beaucoup d’entre nous sont des chercheurs en Informatique déguisés en mathématiciens, donc nous savions comment attaquer les problèmes de logistique. Nous avons utilisé git et github.com.
Au début, il a fallu convaincre les gens, et se faire à l’outil. Malgré tout, cela n’a pas été trop difficile. À la fin, le dépôt sur le serveur n’était pas seulement une archive pour nos fichiers, mais également un point central pour notre planification et nos discussions. Durant plusieurs mois j’ai consulté GitHub plus souvent que mes emails ou Facebook. Github était mon Facebook (sans les petits chats mignons). Si vous ne connaissez rien aux outils comme git mais que vous écrivez des articles scientifiques (ou que vous créez n’importe quel type de contenu numérique) vous devriez vraiment, vraiment vous renseigner sur des systèmes de gestion de versions. Même en tant que seul auteur d’un article, vous allez gagner à apprendre comment en utiliser un, sans même parler des belles vidéos que vous pouvez produire sur la manière dont vous avez écrit votre papier.
Mais de manière plus importante, c’est l’esprit collaboratif qui imprégnait notre groupe à l’Institute for Advanced Study (Princeton) qui était incroyable. Nous ne nous sommes pas éparpillés. Nous avons discuté, partagé des idées, expliqué certains éléments les uns aux autres, et avons totalement oublié qui avait fait quoi (à tel point que nous avons dû faire des efforts pour reconstruire un historique de peur que ce ne soit oublié pour toujours). Le résultat final a été une augmentation considérable de notre productivité.
Il y a une leçon à en tirer (mis à part le fait que l’Institute for Advanced Study est évidemment le meilleur institut de recherche au monde), à savoir que les mathématiciens ont à gagner à devenir un peu moins possessifs vis-à-vis de leurs idées et leurs résultats. Je sais, je sais, une carrière académique dépend de la juste répartition des mérites de chacun et ainsi de suite, mais ce sont juste les idiosyncrasies de notre époque. Si nous pouvons faire en sorte que les mathématiciens partagent des idées à moitié développées, ne s’inquiètent pas de savoir qui a apporté quelle contribution à un article, ou même qui en sont les auteurs, alors nous atteindrons un nouveau niveau de productivité encore jamais imaginé. Le progrès est le fait de ceux qui osent enfreindre les règles.
Les milieux de recherche vraiment ouverts ne peuvent être gênés par le copyright, les éditeurs qui s’accaparent le profit, les brevets, les secrets commerciaux, et les programmes de financement qui sont basés sur des outils de mesures de réussite défectueux. Malheureusement nous sommes tous coincés dans un système qui souffre de ces maux. Mais nous avons fait un premier pas dans la bonne direction en rendant le code source du livre disponible librement sous une licence permissive Creative Commons (la CC-By-Sa). N’importe qui peut prendre le livre et le modifier, nous envoyer des améliorations et des corrections, le traduire, ou même le vendre sans même nous donner le moindre sou. (Si cette dernière phrase vous a quelque peu crispé c’est que vous avez été conditionné par le système.)
Nous avons décidé de ne pas faire publier le livre par un éditeur académique pour le moment car nous voulions qu’il soit accessible à tous, rapidement et sans frais. Le livre peut être téléchargé gratuitement, ou bien acheté à peu de frais avec une couverture rigide ou souple sur lulu.com. (Quand avez vous pour la dernière fois où vous avez payé moins de 30$ pour une monographie de 600 pages à couverture rigide ?). Une fois de plus, j’entends déjà certaines personnes dire : “oh mais un vrai éditeur universitaire est synonyme de qualité”. Cette façon de penser rappelle les arguments opposant Wikipédia et Britannica, et nous savons tous comment cette histoire s’est terminée. Oui, la bonne qualité de la recherche doit être assurée. Mais une fois que nous acceptons le fait que n’importe qui peut publier n’importe quoi sur Internet permettant au monde entier de le consulter et en faire un livre bon marché à l’air professionnel, nous réalisons rapidement que la censure n’est plus efficace. À la place, nous avons besoin d’un système décentralisé d’approbation qui ne pourrait pas être manipulé par des groupes d’intérêts spéciaux. Les choses sont en train de bouger dans cette direction, avec la création récente du Selected Papers Networks (Réseaux d’écrits sélectionnés) et d’autres projets similaires. J’espère qu’ils auront un bel avenir.
Cependant, il y a quelque chose d’autre que nous pouvons faire. C’est plus radical, mais aussi plus utile. Plutôt que de laisser les gens se contenter d’évaluer les articles, pourquoi ne pas leur donner une chance de participer et aussi d’améliorer ces articles ? Mettez tous vos articles sur GitHub et laissez les autres en discuter, poser des questions, les utiliser comme bases pour leur travail (fork), les améliorer, et vous envoyer des corrections. Est-ce que cela paraît fou? Bien sur que oui, l’open source paraissait également fou lorsque Richard Stallman a lancé son manifeste. Soyons honnêtes, qui va vous voler votre code source LaTeX ? Il y a bien d’autres choses de valeur susceptibles d’être volées. Si vous êtes un professeur titulaire vous pouvez vous permettre d’ouvrir le chemin. Faites vous enseigner git par vos thésards et mettez vos trucs dans un endroit public. N’ayez pas peur, ils vous ont titularisé pour que vous fassiez des choses comme ça.
Donc nous invitons tout le monde à améliorer le livre en participant sur GitHub. Vous pouvez laisser des commentaires, signaler des erreurs, et même mieux, faire des corrections par vous même ! Nous n’allons pas nous inquiéter de savoir qui vous êtes et combien vous contribuez et qui devrait recevoir les honneurs. La seule chose qui importe est de savoir si vos contributions sont bonnes.
Ma dernière observation est à propos de la formalisation des mathématiques. Les mathématiciens aiment imaginer que leurs publications peuvent en principe être formalisées dans la Théorie des Ensembles. Ceci leur donne un sentiment de sécurité, qui n’est pas différente de celui ressenti par un croyant entrant dans une cathédrale d’âge canonique. C’est une forme de foi professée par les logiciens. La Théorie des Types Homotopique est un fondement alternatif à la Théorie des Ensembles. Nous revendiquons nous aussi que les mathématiques ordinaires peuvent en principe être formalisées en Théorie des Types Homotopique. Mais devinez quoi, vous n’avez pas à nous croire sur parole ! Nous avons formalisé les parties les plus complexes du livre HoTT et vérifié les preuves avec des assistants de preuve électroniques. Pas une fois mais deux. Et nous avons formalisé en premier lieu, puis nous avons écrit le livre car c’était plus simple de formaliser. Nous sommes gagnants sur tous les plans (s’il y a une compétition).
J’espère que le livre vous plaît, il contient une impressionnante quantité de mathématiques inédites.
21/06/2013 18:20 (Dernière modification : 21/06/2013 19:51)
Dans le cadre du projet de loi relatif à la consommation, L’ADULLACT, l’AFUL et Framasoft apportent leur soutien, sans réserve, à l’amendement 711 déposé par le groupe GRD et défendu par Jacqueline Fraysse. Cet amendement va dans la bonne voie pour mettre un terme au scandale des racketiciels, c’est-à-dire à la vente forcée de logiciels non demandés lors de l’achat de matériel informatique.
Les associations du logiciel libre appellent donc tous les députés, de toute tendance politique, à soutenir vivement cet amendement !
À l’automne 2011, le gouvernement de François Fillon avait proposé un projet de loi de protection du consommateur. Plusieurs députés avaient proposé des amendements censés apporter une meilleure protection du consommateur face aux pratiques commerciales déloyales de vente forcée des logiciels inclus dans le matériel informatique. Comme l’AFUL l’avait souligné à l’époque, le remède était pire que le mal puisqu’après une lecture juridique attentive, ces textes confinaient à un résultat totalement opposé au but recherché.
Lors des débats, les députés avaient bien identifié les faiblesses juridiques des uns et la dangerosité des autres et avaient finalement laissé la législation en l’état afin de réfléchir à de meilleures rédactions pour la seconde lecture. Seconde lecture qui n’a jamais eu lieu suite au retrait du texte par le gouvernement.
Aujourd’hui, un nouveau projet de loi de consommation est présenté à la nouvelle législature. Forts de l’enseignement tiré des débats de 2011 et des arguments issus des divers bancs, le groupe Gauche démocrate et républicaine sous l’impulsion de Jacqueline Fraysse, députée de la 4e circonscription des Hauts-de-Seine, propose un amendement ayant pour objectif de mettre fin aux pratiques commerciales déloyales de l’informatique grand public, dans le respect de la législation européenne.
L’amendement propose d’ajouter des obligations d’informations à la charge des professionnels dans un nouvel article L. 113-6 du Code de la consommation.
Après l’article L. 113-5 du Code de la consommation, insérer l’article suivant :
« Le matériel informatique proposé à la vente avec des logiciels intégrés constitue une vente par lots.
Tout professionnel vendeur de matériel informatique fournissant des logiciels intégrés doit, avant tout paiement du prix par le consommateur, l‘informer par voie d’affichage des caractéristiques essentielles et du prix public toutes taxes comprises du lot ainsi que du prix de chacun des logiciels composant individuellement le lot. L’indication de ces prix doit figurer sur la facture remise au consommateur.
La violation de ces dispositions entre dans le champ d’application de l’article L. 122-3 du Code de la consommation. »
Tout d’abord, l’alinéa 1 aborde la question de la vente par lots en précisant désormais expressément que le matériel informatique vendu avec des logiciels préchargés constitue une vente par lots.
En effet, si la jurisprudence applique depuis longtemps ce principe (notamment depuis un arrêt de 2005 de la Cour de cassation), il est régulièrement contesté devant les tribunaux, forçant les consommateurs qui estent en justice à expliquer encore et toujours pourquoi matériel et logiciels constituent deux produits parfaitement distincts (l’un est un bien meuble, l’autre une prestation de services). En précisant désormais clairement qu’il s’agit d’une vente par lots, la réglementation spécifique à l’information due par les professionnels sur les lots, issue de l’article 7 de l’arrêté du 3 décembre 1987, s’appliquera.
L’alinéa 2 détaille les obligations d’information nécessaires : informer le consommateur par voie d’affichage des caractéristiques essentielles des produits proposés dans le lot.
Les caractéristiques essentielles sont l’ensemble des éléments permettant au consommateur d’effectuer un choix éclairé : par exemple, préciser que le matériel et les logiciels peuvent être vendus séparément, que les logiciels ne sont que des options non obligatoires ou encore que les logiciels fournis sont payants. S’agissant du prix des produits, il devra fait l’objet d’une information précise, non seulement pour le prix des produits composant le lot, mais également le prix de chacun des éléments du lot. La facture qui sera remise au consommateur comprendra donc le prix détaillé de tous les produits. Les procès initiés par les consommateurs ont mis en évidence que le prix des logiciels fournis préchargés, jusque là vendu de force, pouvaient représenter plus de 30 % du prix de la machine seule.
Le 3e alinéa aborde la question des sanctions. La directive 2005/29/CE du 11 mai 2005 rappelle, au paragraphe 29 de son annexe 1, que la vente forcée est une pratique commerciale déloyale « en toutes circonstances » c’est-à-dire qu’il suffit théoriquement à un juge de constater que le professionnel a exigé un paiement sans commande expresse et préalable du consommateur pour que la pratique soit déclarée déloyale. Cette disposition a été intégrée dans le Code de la consommation par les lois des 3 janvier et 4 août 2008. Les textes ont d’ailleurs été remaniés avec la loi Warsman de 2011 qui a proposé une lecture plus claire de l’article L. 122-3 du Code de la consommation. Cet article prévoit des sanctions civiles de nullité du contrat avec une obligation de remboursement, ainsi que des sanctions pénales. Le texte est donc parfaitement adapté à la situation et permet aux consommateurs d’agir autant par la voie civile que par la voie pénale et d’espérer avoir ainsi du poids face aux entreprises concernées, le plus souvent multinationales.
C’est ce texte qui doit être favorisé et que les députés sont encouragés à adopter massivement. Il faut tout de même rappeler qu’à l’occasion du précédent projet de loi consommation de 2011, des députés s’étaient plaints des pressions qu’ils subissaient pour ne pas voter ces textes favorables aux consommateurs et le député de la 5e circonscription d’Isère, François BROTTES, avait clairement dénoncé cette situation inadmissible. Sous la présente législature, c’est aujourd’hui que se mesurera le courage politique et l’engagement des députés pour l’intérêt général.
L’intérêt du consommateur et l’ouverture du marché à tous les acteurs, notamment français, étant la priorité des élus de la nation, nous sommes confiants dans le fait que l’ensemble des députés verront le point d’équilibre atteint par cet amendement et qu’ils le soutiendront unanimement.
Cyprien Gay, membre du groupe de travail « non aux racketiciels » de l’AFUL indique « Voilà 15 ans que nous interpellons les politiques de toutes tendances sur cette question. Depuis le début des années 2000 ce sujet est évoqué à l’Assemblée. Cependant, la pression des éditeurs qui bénéficient de cette vente forcée a réussi jusqu’ici à conserver un statu quo qui leur est favorable, avec la complicité inexplicable des divers gouvernements. »
Christophe Masutti, président de Framasoft, déclare « Il est est plus que nécessaire de clarifier les pratiques de vente liée qui maintiennent une tension évidente entre d’un côté le droit du consommateur à l’information et de l’autre côté le recours providentiel aux directives européennes qui empêche les États membres d’interdire les “offres conjointes” assimilées à une pratique commerciale comme une autre, bien que la “vente forcée” soit, elle, condamnable. Ceci constitue un frein artificiellement entretenu au déploiement du formidable potentiel compétitif du logiciel libre. »
Dimitri Robert, administrateur de l’AFUL souligne « Les logiciels vendus de force avec les matériels informatiques sont édités hors d’Europe par des entreprises réputées pour leur évasion fiscale et l’évitement à l’impôt sur leurs activités en France. Il n’y a donc aucun intérêt pour la France ou pour l’Europe d’entretenir leur rente sur le dos du consommateur Français. »
Également interrogé, l’avocat de l’AFUL, Maître Frédéric CUIF, estime que « Il s’agit d’un texte de consensus qui devrait à la fois permettre une meilleure information des consommateurs mais aussi leur offrir la possibilité de dénoncer moins difficilement ces pratiques commerciales déloyales devant les tribunaux. Bien sûr, il faudra toujours passer par un juge pour faire cesser la pratique commerciale déloyale de vente forcée, mais c’est un premier pas évident en faveur des consommateurs en attendant une véritable prise de conscience nationale sur la question. »
Laurent Séguin, président de l’AFUL conclut : « Il est temps de faire cesser cette situation de concurrence faussée où l’on impose, depuis trop longtemps, un choix uniforme aux consommateurs. Des acteurs européens et français portent d’ores et déjà des solutions concurrentes crédibles et innovantes, notamment sous licence libre, aux logiciels vendus de force avec du matériel informatique. Malheureusement, ces racketiciels les empêchent d’accéder au marché sur un pied d’égalité. Aujourd’hui, avec ces textes justes et équilibrés, les parlementaires ont l’opportunité de faire triompher enfin l’intérêt général en faisant en sorte qu’en France, les effets de ce hold-up planétaire soient amoindris. »
Née fin 2002, l’Association des Développeurs et Utilisateurs de Logiciels Libres pour les Administrations et les Collectivités Territoriales s’est donnée pour tâche de constituer, développer et promouvoir un patrimoine commun de logiciels libres métiers, afin que l’argent public ne paie qu’une fois. L’Adullact dispose d’une équipe permanente, pour encourager et aider les membres à mutualiser leurs développements sur la forge adullact.net, qui compte aussi les projets de la forge admisource. Structure unique en son genre, l’Adullact était accréditée pour le Sommet Mondial de Tunis.
Association Francophone des Utilisateurs de Logiciels Libres, l’AFUL a pour principal objectif de promouvoir les logiciels libres ainsi que l’utilisation des standards ouverts. Ses membres, utilisateurs, professionnels du logiciel libre, entreprises ainsi que d’autres associations, sont issus d’une dizaine de pays ou de régions francophones (France, Belgique, Suisse, Afrique francophone, Québec).
Interlocuteur de nombreux médias, l’AFUL est présente sur nombre de salons, conférences et rencontres. Elle agit notamment activement contre la vente liée (site Non aux Racketiciels, comparatif bons-vendeurs-ordinateurs.info et bons-constructeurs-ordinateurs.info), pour l’interopérabilité (membre de l’AFNOR, participation aux référentiels d’interopérabilité et d’accessibilité de la DGME, site formats-ouverts.org, etc.), intervient sur les problématiques du droit d’auteur ainsi que pour la promotion de l’utilisation de logiciels et ressources pédagogiques libres pour l’éducation entendue au sens large.
Issu du monde éducatif, Framasoft est un réseau d’éducation populaire consacré principalement au logiciel libre et s’organise en trois axes sur un mode collaboratif : promotion, diffusion et développement de logiciels libres, enrichissement de la culture libre et offre de services libres en ligne. Pour plus d’informations, vous pouvez vous rendre sur le site Web à l’adresse suivante : http://www.framasoft.org/ et nous contacter par notre formulaire de contact http://contact.framasoft.org/.
21/06/2013 18:20 (Dernière modification : 21/06/2013 19:51)
Dans le cadre du projet de loi relatif à la consommation, L’ADULLACT, l’AFUL et Framasoft apportent leur soutien, sans réserve, à l’amendement 711 déposé par le groupe GDR et défendu par Jacqueline Fraysse. Cet amendement va dans la bonne voie pour mettre un terme au scandale des racketiciels, c’est-à-dire à la vente forcée de logiciels non demandés lors de l’achat de matériel informatique.
Les associations du logiciel libre appellent donc tous les députés, de toute tendance politique, à soutenir vivement cet amendement !
À l’automne 2011, le gouvernement de François Fillon avait proposé un projet de loi de protection du consommateur. Plusieurs députés avaient proposé des amendements censés apporter une meilleure protection du consommateur face aux pratiques commerciales déloyales de vente forcée des logiciels inclus dans le matériel informatique. Comme l’AFUL l’avait souligné à l’époque, le remède était pire que le mal puisque après une lecture juridique attentive, ces textes aboutissaient à un résultat totalement opposé au but recherché.
Lors des débats, les députés avaient bien identifié les faiblesses juridiques des uns et la dangerosité des autres et avaient finalement laissé la législation en l’état afin de réfléchir à de meilleures rédactions pour la seconde lecture. Seconde lecture qui n’a jamais eu lieu suite au retrait du texte par le gouvernement.
Aujourd’hui, un nouveau projet de loi de consommation est présenté à la nouvelle législature. Forts de l’enseignement tiré des débats de 2011 et des arguments issus des divers bancs, le groupe Gauche démocrate et républicaine sous l’impulsion de Jacqueline Fraysse, députée de la 4e circonscription des Hauts-de-Seine, propose un amendement ayant pour objectif de mettre fin aux pratiques commerciales déloyales de l’informatique grand public, dans le respect de la législation européenne.
L’amendement propose d’ajouter des obligations d’informations à la charge des professionnels dans un nouvel article L. 113-6 du Code de la consommation.
Après l’article L. 113-5 du Code de la consommation, insérer l’article suivant :
« Le matériel informatique proposé à la vente avec des logiciels intégrés constitue une vente par lots.
Tout professionnel vendeur de matériel informatique fournissant des logiciels intégrés doit, avant tout paiement du prix par le consommateur, l‘informer par voie d’affichage des caractéristiques essentielles et du prix public toutes taxes comprises du lot ainsi que du prix de chacun des logiciels composant individuellement le lot. L’indication de ces prix doit figurer sur la facture remise au consommateur.
La violation de ces dispositions entre dans le champ d’application de l’article L. 122-3 du Code de la consommation. »
Tout d’abord, l’alinéa 1 aborde la question de la vente par lots en précisant désormais expressément que le matériel informatique vendu avec des logiciels préchargés constitue une vente par lots.
En effet, si la jurisprudence applique depuis longtemps ce principe (notamment depuis un arrêt de 2005 de la Cour de cassation), il est régulièrement contesté devant les tribunaux, forçant les consommateurs qui estent en justice à expliquer encore et toujours pourquoi matériel et logiciels constituent deux produits parfaitement distincts (l’un est un bien meuble, l’autre une prestation de services). En précisant désormais clairement qu’il s’agit d’une vente par lots, la réglementation spécifique à l’information due par les professionnels sur les lots, issue de l’article 7 de l’arrêté du 3 décembre 1987, s’appliquera.
L’alinéa 2 détaille les obligations d’information nécessaires : informer le consommateur par voie d’affichage des caractéristiques essentielles des produits proposés dans le lot.
Les caractéristiques essentielles sont l’ensemble des éléments permettant au consommateur d’effectuer un choix éclairé : par exemple, préciser que le matériel et les logiciels peuvent être vendus séparément, que les logiciels ne sont que des options non obligatoires ou encore que les logiciels fournis sont payants. S’agissant du prix des produits, il devra fait l’objet d’une information précise, non seulement pour le prix des produits composant le lot, mais également le prix de chacun des éléments du lot. La facture qui sera remise au consommateur comprendra donc le prix détaillé de tous les produits. Les procès initiés par les consommateurs ont mis en évidence que le prix des logiciels fournis préchargés, jusque là vendu de force, pouvaient représenter plus de 30 % du prix de la machine seule.
Le 3e alinéa aborde la question des sanctions. La directive 2005/29/CE du 11 mai 2005 rappelle, au paragraphe 29 de son annexe 1, que la vente forcée est une pratique commerciale déloyale « en toutes circonstances » c’est-à-dire qu’il suffit théoriquement à un juge de constater que le professionnel a exigé un paiement sans commande expresse et préalable du consommateur pour que la pratique soit déclarée déloyale. Cette disposition a été intégrée dans le Code de la consommation par les lois des 3 janvier et 4 août 2008. Les textes ont d’ailleurs été remaniés avec la loi Warsman de 2011 qui a proposé une lecture plus claire de l’article L. 122-3 du Code de la consommation. Cet article prévoit des sanctions civiles de nullité du contrat avec une obligation de remboursement, ainsi que des sanctions pénales. Le texte est donc parfaitement adapté à la situation et permet aux consommateurs d’agir autant par la voie civile que par la voie pénale et d’espérer avoir ainsi du poids face aux entreprises concernées, le plus souvent multinationales.
C’est ce texte qui doit être favorisé et que les députés sont encouragés à adopter massivement. Il faut tout de même rappeler qu’à l’occasion du précédent projet de loi consommation de 2011, des députés s’étaient plaints des pressions qu’ils subissaient pour ne pas voter ces textes favorables aux consommateurs et le député de la 5e circonscription d’Isère, François BROTTES, avait clairement dénoncé cette situation inadmissible. Sous la présente législature, c’est aujourd’hui que se mesurera le courage politique et l’engagement des députés pour l’intérêt général.
L’intérêt du consommateur et l’ouverture du marché à tous les acteurs, notamment français, étant la priorité des élus de la nation, nous sommes confiants dans le fait que l’ensemble des députés verront le point d’équilibre atteint par cet amendement et qu’ils le soutiendront unanimement.
Cyprien Gay, membre du groupe de travail « non aux racketiciels » de l’AFUL indique « Voilà 15 ans que nous interpellons les politiques de toutes tendances sur cette question. Depuis le début des années 2000 ce sujet est évoqué à l’Assemblée. Cependant, la pression des éditeurs qui bénéficient de cette vente forcée a réussi jusqu’ici à conserver un statu quo qui leur est favorable, avec la complicité inexplicable des divers gouvernements. »
Christophe Masutti, président de Framasoft, déclare « Il est est plus que nécessaire de clarifier les pratiques de vente liée qui maintiennent une tension évidente entre d’un côté le droit du consommateur à l’information et de l’autre côté le recours providentiel aux directives européennes qui empêche les États membres d’interdire les “offres conjointes” assimilées à une pratique commerciale comme une autre, bien que la “vente forcée” soit, elle, condamnable. Ceci constitue un frein artificiellement entretenu au déploiement du formidable potentiel compétitif du logiciel libre. »
Dimitri Robert, administrateur de l’AFUL souligne « Les logiciels vendus de force avec les matériels informatiques sont édités hors d’Europe par des entreprises réputées pour leur évasion fiscale et l’évitement à l’impôt sur leurs activités en France. Il n’y a donc aucun intérêt pour la France ou pour l’Europe d’entretenir leur rente sur le dos du consommateur Français. »
Également interrogé, l’avocat de l’AFUL, Maître Frédéric CUIF, estime que « Il s’agit d’un texte de consensus qui devrait à la fois permettre une meilleure information des consommateurs mais aussi leur offrir la possibilité de dénoncer moins difficilement ces pratiques commerciales déloyales devant les tribunaux. Bien sûr, il faudra toujours passer par un juge pour faire cesser la pratique commerciale déloyale de vente forcée, mais c’est un premier pas évident en faveur des consommateurs en attendant une véritable prise de conscience nationale sur la question. »
Laurent Séguin, président de l’AFUL conclut : « Il est temps de faire cesser cette situation de concurrence faussée où l’on impose, depuis trop longtemps, un choix uniforme aux consommateurs. Des acteurs européens et français portent d’ores et déjà des solutions concurrentes crédibles et innovantes, notamment sous licence libre, aux logiciels vendus de force avec du matériel informatique. Malheureusement, ces racketiciels les empêchent d’accéder au marché sur un pied d’égalité. Aujourd’hui, avec ces textes justes et équilibrés, les parlementaires ont l’opportunité de faire triompher enfin l’intérêt général en faisant en sorte qu’en France, les effets de ce hold-up planétaire soient amoindris. »
Née fin 2002, l’Association des Développeurs et Utilisateurs de Logiciels Libres pour les Administrations et les Collectivités Territoriales s’est donnée pour tâche de constituer, développer et promouvoir un patrimoine commun de logiciels libres métiers, afin que l’argent public ne paie qu’une fois. L’Adullact dispose d’une équipe permanente, pour encourager et aider les membres à mutualiser leurs développements sur la forge adullact.net, qui compte aussi les projets de la forge admisource. Structure unique en son genre, l’Adullact était accréditée pour le Sommet Mondial de Tunis.
Association Francophone des Utilisateurs de Logiciels Libres, l’AFUL a pour principal objectif de promouvoir les logiciels libres ainsi que l’utilisation des standards ouverts. Ses membres, utilisateurs, professionnels du logiciel libre, entreprises ainsi que d’autres associations, sont issus d’une dizaine de pays ou de régions francophones (France, Belgique, Suisse, Afrique francophone, Québec).
Interlocuteur de nombreux médias, l’AFUL est présente sur nombre de salons, conférences et rencontres. Elle agit notamment activement contre la vente liée (site Non aux Racketiciels, comparatif bons-vendeurs-ordinateurs.info et bons-constructeurs-ordinateurs.info), pour l’interopérabilité (membre de l’AFNOR, participation aux référentiels d’interopérabilité et d’accessibilité de la DGME, site formats-ouverts.org, etc.), intervient sur les problématiques du droit d’auteur ainsi que pour la promotion de l’utilisation de logiciels et ressources pédagogiques libres pour l’éducation entendue au sens large.
Issu du monde éducatif, Framasoft est un réseau d’éducation populaire consacré principalement au logiciel libre et s’organise en trois axes sur un mode collaboratif : promotion, diffusion et développement de logiciels libres, enrichissement de la culture libre et offre de services libres en ligne. Pour plus d’informations, vous pouvez vous rendre sur le site Web à l’adresse suivante : http://www.framasoft.org/ et nous contacter par notre formulaire de contact http://contact.framasoft.org/.
Vous connaissiez la suite bureautique libre Joeffice ?
Nous, non ! Et quand nous avons appris qu’elle avait été conçue en 30 jours par un développeur (qui plus est français), nous avons évidemment eu envie d’en savoir plus…
Bonjour Anthony, peux-tu te présenter succinctement ? Quel a été ton parcours de développeur ?
Bonjour, je m’appelle Anthony Goubard, j’ai 40 ans et j’habite à Amsterdam. J’ai commencé Java durant ma dernière année d’ingénieur avec la version 1.0 alpha puis j’ai fait du détachement sur la région parisienne. Il y a 14 ans je suis allé travailler pour une start-up aux Pays-Bas puis pour Wanadoo Pays-Bas et il y a 5 ans je me suis mis à mon compte.
Alors Joeffice c’est quoi exactement ? Comment et pourquoi est né le projet ?
Joeffice est une suite bureautique open source écrite en Java. L’idée m’est venue il y a environ 2 ans lorsque je me suis aperçu que c’était galère d’avoir 10 documents d’ouverts avec Microsoft Office ou Libre Office alors que ce n’est pas un problème d’avoir 30 documents ouverts dans Eclipse ou NetBeans.
Dans quel sens évoques-tu une version « online » et « offline » ?
Les logiciels Java peuvent être installés sur un ordinateur comme un logiciel classique ou bien être lancé en ligne dans le navigateur avec l’aide du plug-in Java. C’est ce qu’on appelle le mode Applet. Il suffit donc d’aller à l’URL et le logiciel s’installe et se lance dans le navigateur automatiquement. J’ai donc décidé d’offrir les deux possibilités. La version « online » est soumise à un abonnement.
Pourquoi le choix Java ?
Java offre beaucoup d’avantages. Il est portable sur plusieurs OS, il est relativement facile à lire, beaucoup d’étudiants apprennent Java et il est très utilisé dans le monde de l’entreprise. Beaucoup de projets open source utilisent Java. Joeffice offre aux étudiants et développeurs Java la possibilité de travailler sur un projet assez visuel et utile.
Pourquoi le choix de la licence libre ?
L’union fait la force.Tous les développeurs Java que je connais se servent de temps en temps d’une suite bureautique. Avoir un projet bien mené par un grand groupe de contributeurs permettra à long terme de créer un bien meilleur logiciel qu’avec une petite équipe. En plus, beaucoup d’entreprises et de pays en voix de développement sont attirés par l’open source et mon but est de toucher le plus de personnes possible.. Le premier groupe d’utilisateurs pour Joeffice est donc l’entreprise. Dans ce cas la licence Apache 2.0 donne beaucoup de liberté, plus que GPL et LGPL. Cette licence est par exemple utilisée pour le framework Spring.
Comment se positionne Joeffice, aujourd’hui et demain, par rapport à des « monstres » comme Google Docs, Microsoft Office ou LibreOffice ?
Joeffice est moins complet que ces autres offices mais il a aussi des atouts que d’autres n’ont pas. Il est donc open source sous licence Apache. Il est développé entièrement en Java. Il peut s’installer « offline » ou « online ». Il est facilement portable. Il n’a pas une fenêtre par document mais un système d’onglet et d’amarrage ou les documents peuvent être l’un à côté de l’autres ou détachés en groupe. Les mises à jour et plug-ins, même si pour l’instant non utilisés, peuvent se faire en ligne. Toutes les librairies Java peuvent être facilement utilisées pour créer des actions spéciales, afin par exemple de remplir un document.
La légende dit que tu l’aurais codé tout seul en moins d’un mois ? La légende dit vrai ?
Je l’ai codé en 30 jours. Mais ce sont 30 jours non consécutives. Pour chaque journée j’ai fait une vidéo que j’ai postée sur YouTube. Il a fallu que je sois efficace sur le code et pragmatique sur certains choix.
En France, on vient d’introduire cette année l’informatique comme discipline à part entière au lycée (pour le moment en option de Terminale S). Bonne ou mauvaise idée ?
Bien sûr, je trouve ça une bonne idée. Même en n’étant pas informaticien, les gens ont de plus en plus besoin de savoir développer. Par exemple un plug-in, une macro ou un site Web.
Joeffice se présente en version alpha. Que lui manque-t-il exactement pour une première version ?
Je me sers de la librairie open source Apache POI pour lire les documents malheureusement il manque encore certaines parties. Chaque partie du logiciel doit être améliorée pour avoir quelque chose de plus utilisable pour l’utilisateur final. Cette version alpha est plus destinée aux développeurs et aux entreprises qui ont des besoins spécifiques. Le but pour la version 1.0 est de s’approcher de ce que peut faire Google Docs.
Et comment vois-tu le futur du projet ? Un appel à lancer ?
Tous les développeurs qui veulent participer à ce projet ou à une des librairies dont Joeffice se sert sont les bienvenus. Le code se trouve sur BitBucket.
Ces derniers mois de nombreux signes ministériels encouragent l’utilisation et la réalisation de logiciels et de ressources éducatives libres.
La circulaire Ayrault a montré la voix en septembre 2012. Le 10 juin dernier , Vincent Peillon a notamment annoncé la réalisation de ressources vidéos disponible en « OpenData » (Attendons de voir quelle sera exactement cette licence). On peut évidemment regretter que la priorité aux logiciels libres et aux formats ouverts ait été retoquée dans projet de loi d’orientation et de programmation pour la refondation de l’école de la République. Le contexte reste toutefois globalement positif.
Décréter l’utilisation de ressources libres c’est bien, mais, une décision ministérielle ne s’applique pas comme cela, d’un claquement de doigts. Il faut l’accompagner par des actions de formation des enseignants. Des académies entières, comme celle de Versailles et certains formateurs TICE, n’ont d’ailleurs pas attendu les récentes décisions politiques pour faire la promotion du libre dans leurs formations.
Framasoft a choisi de participer modestement à cet élan.
Ce matin, en Seine et Marne, une formation autour de l’utilisation des TICE était proposée aux tous nouveaux professeurs des écoles stagiaires, ceux qui viennent juste d’avoir leur concours et qui auront la responsabilité d’une classe dès l’année prochaine. Nous leur avons rapidement expliqué l’intérêt de ressources libres et un FramaDVD École ainsi qu’une plaquette présentant les principaux acteurs du libre pour l’école primaire leur ont été offert.
Merci à M. Josselyn Bellicaud, Conseiller pédagogique TICE auprès de l’IENA et M. Jean-Charles POCHET, Inspecteur de l’Éducation Nationale TICE qui nous ont permis de réaliser ce temps d’information.
Ces derniers mois de nombreux signes ministériels encouragent l’utilisation et la réalisation de logiciels et de ressources éducatives libres.
La circulaire Ayrault a montré la voie en septembre 2012. Le 10 juin dernier , Vincent Peillon a notamment annoncé la réalisation de ressources vidéos disponibles en « OpenData » (Attendons de voir quelle sera exactement cette licence). On peut évidemment regretter que la priorité aux logiciels libres et aux formats ouverts ait été retoquée dans le projet de loi d’orientation et de programmation pour la refondation de l’école de la République. Le contexte reste toutefois globalement positif.
Décréter l’utilisation de ressources libres c’est bien, mais, une décision ministérielle ne s’applique pas comme cela, d’un claquement de doigts. Il faut l’accompagner par des actions de formation des enseignants. Des académies entières, comme celle de Versailles et certains formateurs TICE, n’ont d’ailleurs pas attendu les récentes décisions politiques pour faire la promotion du libre dans leurs formations.
Framasoft a choisi de participer modestement à cet élan.
Ce matin, en Seine et Marne, une formation autour de l’utilisation des TICE était proposée aux tous nouveaux professeurs des écoles stagiaires, ceux qui viennent juste d’avoir leur concours et qui auront la responsabilité d’une classe dès l’année prochaine. Nous leur avons rapidement expliqué l’intérêt de ressources libres et un FramaDVD École ainsi qu’une plaquette présentant les principaux acteurs du libre pour l’école primaire leur ont été offerts.
Merci à M. Josselyn Bellicaud, Conseiller pédagogique TICE auprès de l’IENA et M. Jean-Charles POCHET, Inspecteur de l’Éducation Nationale TICE qui nous ont permis de réaliser ce temps d’information.
Vous devriez vous sentir concerné par votre vie privée car…
The NSA’s Prism: why we should care
Cory Doctorow - 14 juin - The Guardian
(Traduction : KaTeznik, fany, b:v, genma, Mowee, Adcaelo, Metal-Mighty, letchesco, Asta, Gatitac, Yaf, tcit + anonymes)
Les politiciens nous disent que ceux qui n’ont rien à se reprocher n’ont rien à craindre des écoutes à leur insu. Pourtant, leurs décisions menacent la vie privée et bien au-delà..
Certains se demandent pourquoi faire tant d’histoires à propos des révélations sur PRISM et des autres formes de surveillance de masse de la NSA. Quand William Hague nous dit que les innocents n’ont rien à craindre de ces écoutes, on est en droit de se poser des questions : à partir de quand la surveillance peut-elle nuire ? que peut-il se produire lorsque l’on est épié ? Voici quelques raisons pour lesquelles vous devriez vous sentir concernés par votre vie privée, sa divulgation et la surveillance.
Nous ne sommes pas forcément sensibles aux problèmes de vie privée parce que les conséquences des révélations sur la vie privée sont éloignées dans le temps et l’espace des révélations elles-mêmes. C’est comme essayer de devenir bon au cricket en balançant la batte et en fermant les yeux avant de voir où part la balle, pour que l’on vous raconte, des mois plus tard, dans un autre lieu, où la balle a finalement atterri. Nous appréhendons mal ces problématiques : la plupart des révélations sur notre vie privée sont inoffensives, mais certaines d’entre elles provoquent des dégâts colossaux et quand cela se produit, c’est tellement éloigné dans le temps que nous ne pouvons en tirer aucune leçon véritable.
Vous devriez vous sentir concerné par votre vie privée car la vie privée n’est pas secrète. Je sais ce que vous faites aux toilettes, mais pour autant cela ne veut pas dire que vous ne vouliez pas fermer la porte quand vous êtes sur le trône.
Vous devriez vous sentir concerné par votre vie privée car si les données disent que vous faites quelque chose de mal, celui qui les analysera interprétera tout le reste à la lumière de cette information. Le documentaire Naked Citizens (NdT : Citoyens nus) montre ainsi plusieurs cas effrayants de policiers alertés par des ordinateurs que quelqu’un pouvait préparer des actes délictueux, et qui ont alors interprété tout ce qu’ils apprenaient par la suite comme des preuves de délit.
Par exemple, quand un programmeur du nom de David Mery est entré dans le métro avec une veste alors qu’il faisait chaud, un algorithme de vidéosurveillance l’a signalé à un opérateur humain comme suspect. Quand Mery a laissé passer un train sans embarquer, l’opérateur a décidé que son comportement était alarmant. Il a été arrêté, a fait l’objet d’une perquisition et on lui a demandé de justifier chaque bout de papier de son appartement. Un gribouillage de traits aléatoires a été interprété comme un plan de la station de métro. Même s’il n’a jamais été reconnu coupable, Mery est toujours sur la liste des terroristes potentiels huit ans après et ne peut obtenir de visa pour quitter son pays. Une fois qu’un ordinateur signale un suspect, tout le reste de sa vie devient louche et presque un faisceau d’indices.
Vous devriez vous sentir concerné par la chape de plomb de la surveillance de masse car dans sa recherche d’aiguilles dans les bottes de foin, la police bénéficie alors de plus grosses bottes et d’aiguilles qui restent proportionnellement moins nombreuses. La Commission d’enquête sur le 11 septembre a relevé que les services secrets des États-Unis avaient toutes les informations pour prédire les attaques, mais que celles-ci ont été perdues dans tout le bruit dû à la trop grande quantité de données collectées. Depuis, la collecte excessive est passée à la vitesse supérieure : les bottes de foin sont énormes, mais elles contiennent toujours le même nombre d’aiguilles. Je veux que mon ciel soit sûr et je souhaite, tout comme vous, que nos services secrets fassent bien leur travail, mais pas en aspirant toutes les données dans l’espoir qu’elles leur soient un jour utiles.
Vous devriez vous sentir concerné par la surveillance car vous connaissez des gens qui peuvent être exposés : des gays qui sont au placard, des malades en phase terminale, des personnes qui sont liées à une autre qui aurait notoirement commis un crime horrible. Il peut s’agir de vos amis, de vos voisins, peut-être même de vos enfants : ils méritent autant que vous une vie sans tracas et sans cadavre dans le placard.
Vous devriez vous sentir concerné par la surveillance parce qu’une fois que le système de surveillance est intégré au réseau et aux terminaux téléphoniques, des flics corrompus ou mal intentionnés peuvent l’utiliser contre vous. En Grèce, la porte dérobée utilisée par la police pour accéder aux communications de l’opérateur national a été détournée pour mettre sur écoute le Premier ministre durant la candidature aux Jeux Olympiques de 2005. Des services secrets chinois ont hacké le système d’interception légal de Google pour pirater Gmail et découvrir avec qui les dissidents communiquaient. Nos systèmes de communication sont plus sécurisés lorsqu’ils sont conçus pour empêcher les tierces parties d’y accéder – et l’ajout d’une seule porte dérobée à ces systèmes réduit à néant toutes les mesures de sécurité. Vous ne pouvez pas être à moitié enceinte, de même les ordinateurs dans votre poche, au bureau ou chez vous ne peuvent être à moitié sécurisés. Dès lors que ces appareils sont conçus pour la surveillance, n’importe qui peut soudoyer une autorité policière ou se faire passer pour telle et accéder aux données.
Revenons à M. Hague (Ministre des Affaires Étrangères britannique) : si les innocents n’ont rien à craindre de l’espionnage de leur vie privée, alors pourquoi son propre gouvernement exige-t-il la mise en place d’un système sans précédent de tribunaux secrets, où l’on pourrait entendre les preuves de l’implication des services secrets britanniques dans des enlèvements illégaux et des actes de torture ? Apparemment, la confidentialité est absolument essentielle pour les puissants mais sans intérêt pour le reste d’entre nous.
Crédit photo : Digitale Gesellschaft (Creative Commons By-Sa)
Quand on saute d’une version 5.5.30 à la 5.5.31, il ne se passe généralement pas grand chose mise à part quelques bugs fixés.
Sauf qu’ici on a décidé en catimini de changer la licence des pages man de MySQL et ce n’est pas très fair-play de la part de son propriétaire Oracle.
Heureusement qu’on a le fork MariaDB, d’où est d’ailleurs issue cette traduction.
MySQL man pages silently relicensed away from GPL
Colin Charles - 18 juin 2013 - MariaDB Blog
(Traduction : Lgodard, ehsavoie, Asta, rou, BastienLQ)
On nous a récemment rapporté que la licence des pages man de MySQL a été modifiée. Le changement a été fait en douce lors du passage de MySQL 5.5.30 à MySQL 5.5.31. Cela affecte toutes les pages du répertoire man/ du code source.
On peut voir que ces changements sont intervenus durant cette courte période (5.5.30->5.5.31). Les anciennes pages du manuel étaient publiées sous la licence suivante :
Cette documentation est un logiciel libre : vous pouvez la redistribuer et/ou la modifier uniquement sous les termes de la licence GNU GPLv2 telle que publiée par la Free Software Foundation.
Les nouvelles pages man (5.5.31 et ultérieures — toujours en vigueur pour 5.5.32) sont sous la licence suivante :
Ce logiciel et la documentation rattachée sont soumis à un accord de licence contenant des restrictions sur leur utilisation et leur divulgation et sont protégés par les lois sur la propriété intellectuelle. Sauf autorisation expresse dans cet accord de licence ou par la loi, vous ne pouvez pas utiliser, copier, reproduire, traduire, diffuser, modifier, changer de licence, transmettre, distribuer, exposer, publier ou montrer une quelconque partie, quelque soit sa forme ou les moyens utilisés. Il est interdit de faire de la rétroingénierie, désassembler ou décompiler ce logiciel, sauf si la loi le requiert pour l’interopérabilité…
Ce n’est clairement pas une marque d’affection pour MySQL de la part d’Oracle. La nouvelle licence est également devenue bien plus longue (en clair ce n’est pas sous licence GPL). Tandis que ce qui suit a été récupéré de l’outil resolveip, le copyright est le même pour toutes les pages man. Vous pouvez comparer la page man de la version 5.5.30 et celle de la version 5.5.31.
Quand l’association de l’impression 3D et de l’esprit Libre donnent des choses extraordinaires…
Open Source Prosthetic Hand Can Be 3D Printed For $150
John Pugh - 26 mai 2013 - psfk.com
(Traduction : Goofy, Calou, nicolas, MatElGran, GPif, Asta, Pascal, audionuma)
Robohand est une main mécanique à bas coût qui peut être fabriquée avec une imprimante MakerBot3D.
Pour les patients souffrant d’une blessure traumatique ayant entraîné la perte d’un membre, ou les enfants nés avec un handicap tel que le syndrome des brides amniotiques (dont la conséquence est souvent que l’enfant naît avec un ou plusieurs doigts manquants), une nouvelle prothèse a le potentiel de changer littéralement leur vie quotidienne. Cependant, les technologies actuelles de prothèse sont très compliquées et onéreuses, pouvant coûter jusqu’à 10 000 $ pour une prothèse de doigt basique. Imaginez qu’au lieu d’avoir recours à des produits complexes et coûteux, nous puissions simplement imprimer une prothèse complète confortablement à la maison !
Robohand est une main mécanique qui peut être imprimée en 3D avec une imprimante MakerBot. À l’origine de l’idée, Richard Van As, un menuisier sud-africain qui a perdu quatre doigts lors d’un accident en 2011. Suite a cet accident, il commença à travailler avec le designer de mains mécaniques Ivan Owen (Seattle) pour concevoir un modèle de prothèse peu coûteux et capable de fonctionner aussi convenablement qu’une main ou que de doigts réels. Se basant sur leur concept, MakerBot a fait don d’une imprimante 3D Replicator 2 Desktop[1] à leur équipe, accélérant ainsi la création de prototypes fonctionnels, tout en réduisant les coûts de production.
Au total, le coût des pièces de la Robohand fabriquées avec l’imprimante MakerBot3D s’élève seulement à 2,50$ de matériel et on obtient une prothèse fonctionnelle complète, incluant le matériel non imprimable, pour environ 150$. En plus d’une économie importante, Van As a réalisé à quel point cette méthode lui permet d’affiner rapidement sa conception en fonction des besoins spécifiques d’un individu. Suite à la diffusion de son histoire, il a reçu des courriels et des messages sur Facebook de parents d’enfants atteints du syndrome des brides amniotiques voulant explorer le potentiel d’une conception par impression 3D. Cette technologie est d’autant plus impactante pour les enfants que leur croissance est rapide, ils nécessitent de multiples prothèses au cours de leur croissance. À la suite de ces conversations sur le réseau social, au moins trois enfants ont été sélectionnés et ont reçu leurs nouvelles mains.
Le projet est entièrement open source, ce qui signifie que n’importe qui ayant accès à une imprimante 3D peut télécharger le fichier de conception gratuitement et créer sa propre main robotique. Alors que ce projet est toujours en cours de finalisation, les équipements d’impression 3D montrent un vaste potentiel pour notre santé. En facilitant l’accès à tous et en réduisant fortement le coût de production, ces équipements vont permettre à des patients qui s’en sortent difficilement, du fait d’un manque d’accès aux prothèses, de pouvoir vivre un vie normale.
[1] À propos de cette nouvelle imprimante, et sans vouloir troller, on pourra lire : Polémique : la nouvelle imprimante 3D de MakerBot a-t-elle trahi l’open hardware ?
Vibrante allocution en faveur du logiciel libre, la ministre Fleur Pellerin a prononcé un discours remarqué lors de l’inauguration des nouveaux locaux Mozilla le 13 juin dernier à Paris.
Ira-t-on plus loin que ses belles paroles ? Seront-elles véritablement suivies de faits et d’effets ?
Une vidéo tournée par Roberto Di Cosmo. et éditée par Stéfane Fermigier.
Sources :
Crédit : Simon Gee Giraudot (Creative Commons By-Sa)
Mozilla a lancé hier la pétition Stop Watching Us suite à la retentissante affaire de la collecte de données privées d’internautes par le renseignement américain.
Nous en avons traduit la lettre adressée au Congrès qui apparaît en accueil de l’initiative.
Il va sans dire que cela nous concerne tous et pas seulement les Américains (à fortori si vous avez déjà laissé des traces chez Google, Facebook, Twitter, Apple, Amazon, etc.)
Mozilla - 11 juin 2013
(Traduction : Mowee, Cyb, MFolschette + anonymes)
Les révélations sur l’appareil de surveillance de la National Security Agency, si avérées, représentent un abus stupéfiant de nos droits fondamentaux. Nous réclamons que le Congrés américain révèle l’étendue des programmes d’espionnage de la NSA.
Chers membres du Congrès,
Nous vous écrivons pour exprimer notre préoccupation à propos des rapports récemment publiés dans le Guardian et le Washington Post, et reconnus par l’administration Obama, qui révèlent l’espionnage secret par la NSA d’enregistrements téléphoniques et de l’activité sur Internet du peuple des États-Unis.
Le Washington Post et le Guardian ont récemment publié des rapports basés sur les informations fournies par un agent du renseignement, montrant comment la NSA et le FBI peuvent aisément accéder aux données collectées par neuf des principales sociétés américaines de l’Internet et partager ces données avec les gouvernements étrangers. Le rapport mentionne l’extraction par le gouvernement américain de données audio, vidéo, de photos, de courriels, de documents et d’historiques de connexion permettant aux analystes de suivre les mouvements et contacts des personnes au cours du temps. Il en résulte que le contenu des communications des personnes aussi bien résidant aux États-Unis qu’étrangères peuvent être parcourus sans aucune suspicion de crime ou d’association avec une organisation terroriste.
Ces rapports, également publiés par le Guardian et avérés par l’administration, révèlent que la NSA tire abusivement profit d’une section controversée du Patriot Act pour collecter les enregistrements d’appels de millions d’utilisateurs de Verizon. Les données collectées par la NSA incluent chaque appel, l’heure à laquelle il a été effectué, sa durée, et d’autres « informations d’identification » pour ces millions d’utilisateurs de Verizon, et ce pour l’ensemble des appels internes aux États-Unis, que les utilisateurs soient ou non suspectés de crime. Le Wall Street Journal rapporte que certains des principaux fournisseurs d’accès à Internet comme AT&T ou Sprint, sont sujets à de tels agissements secrets.
Ce type de collecte généralisée de données par le gouvernement est en contradiction avec le fondement des valeurs américaines de liberté et de vie privée. Cette surveillance massive viole le Premier et le Quatrième Amendement de la Constitution des États-Unis, laquelle protège le droit de parole des citoyens et leur anonymat et prémunit contre les perquisitions et saisies afin de protéger leur droit à la vie privée.
Nous appelons le Congrès à prendre des mesures immédiates pour mettre fin à cette surveillance et fournir publiquement toutes les données collectées par le programme de la NSA et du FBI. Nous appelons donc le Congrès à immédiatement et publiquement :
Je vous remercie de l’attention que vous porterez à ce sujet.
Cordialement,
Crédit photo : Digital Cat (Creative Commons By)
Ce n’est pas Framasoft qui vous dira le contraire, on peut contribuer au logiciel libre et faire ainsi partie de sa communauté sans être nécessairement un développeur de logiciel libre.
Rédiger de la documentation, signaler un bug, traduire, donner, etc. il y a plein de manières de participer, à commencer par les utiliser et le faire savoir.
How non-programmers can contribute to open source projects
Duncan McKean - 4 juin 2013 - Blog personnel
(Traduction : « Anonymes », nos excuses car un bug Framapad empêche de citer tous les traducteurs/ices que nous remercions au passage)
Beaucoup de gens intéressés par l’idée d’apporter leur aide à des projets open source mais n’ayant absolument aucune compétence en programmation m’ont demandé ce qu’ils pouvaient faire. Eh bien, voici quelques moyens pour ces non-programmeurs de contribuer à de tels projets.
Il est important de noter qu’il est bon de contribuer aux projets des logiciels que vous utilisez. Ainsi, vous pourrez vous-même bénéficier de vos contributions.
Le meilleur moyen de contribuer à des projets open source est d’utiliser les produits eux-mêmes. Écrivez votre livre avec Libre Office Writer. Dessinez vos images avec Krita. Créez des choses à imprimer en 3D avec FreeCAD ou Blender. Réservez vos tickets de concert en ligne via Firefox. Faites vos comptes avec Grisbi. Jouez à Flightgear, Battle for Wesnoth, Vega Strike, UFO : Alien Invasion.
Maintenant que vous utilisez le logiciel, vous pouvez éventuellement rencontrer des bugs quand vous essayez de faire quelque chose. Ou alors, le logiciel peut avoir un comportement autre que celui qui était attendu.
Entrez en contact avec les développeurs et prévenez-les. Les développeurs travaillent sur les retours de leurs utilisateurs, ceci les aide à perfectionner le produit. De plus, les sources étant libres, les bugs sont en général rapidement corrigés.
Chaque projet aura un lien pour signaler un bug. Allez-y, identifiez-vous et décrivez ce bug dans les détails. N’oubliez pas d’indiquer quelle version du logiciel vous utilisez ainsi que les caractéristiques de votre ordinateur.
Contribuer à écrire la documentation d’un projet pour le rendre plus clair et plus simple à comprendre.
La plupart du temps, les développeurs sont trop occupés à coder et la documentation a besoin d’un peu d’attention. Vous pouvez la mettre en forme afin qu’elle soit plus claire, ajouter des images ou des tutoriels. Si certaines parties du projet ne sont pas claires, il suffit de demander sur les listes de diffusion. Ainsi, lorsque vous recevrez une réponse, vous pourrez l’ajouter à la documentation. Dès que les personnes qui maintiennent le projet saisiront ce que vous faites, leurs réponses seront encore plus efficaces et utiles.
Il y a beaucoup de personnes dans le monde qui utilisent ce projet et certaines d’entre elles pourraient ne pas parler la langue dans laquelle celui-ci a été distribué. Si vous parlez couramment un langage peu connu, contactez les développeurs/l’équipe de documentation et offrez vos services. Vous pourriez participer à la traduction de l’interface, de la documentation ou encore du site web.
Regardez les projets individuels et voyez ce dont ils ont besoin. Vous pouvez apporter quelque chose ? Vous êtes designer sonore et pourriez créer quelques sons pour un jeu vidéo open source ? Concepteur d’interface ? Vous pourriez aider en remaniant l’interface utilisateur pour la rendre plus ergonomique. Il est également possible de lancer des entreprises viables utilisant ou formant aux logiciels open source.
Vous pouvez aussi contribuer à la culture du libre en publiant ce que vous créez sous certaines licences Creative Commons. Vos créations peuvent ainsi aider à promouvoir le logiciel pour lequel elles ont été créées. Ceci inclut :
Utilisez la licence CC BY-SA pour que chaque réutilisation de votre travail soit elle aussi placée sous licence libre, CC BY si la façon dont il est réutilisé vous importe peu. Vous trouverez plus d’informations à ce sujet sur le site des Creative Commons.
Aider à la prise de conscience des projets open-source est très important. N’agressez pas tout le monde, faites juste savoir quels projets vous utilisez. Créé avec MyPaint sous LinuxMint. Écrit en Sigil sous Ubuntu. Je suis fier d’utiliser WordPress. Toutes ces mentions sont utiles.
Enfin, leur donner de l’argent. Avec de l’argent, le projet peut embaucher des développeurs supplémentaires qui pourront corriger des bugs plus rapidement, créer de nouveau outils, les améliorer pour vous. Certains projets proposent des dons occasionnels, alors que d’autres vous permettent de payer de petites sommes mensuellement. C’est une meilleure idée car cela aide les développeurs à mieux gérer leurs revenus quand ils savent quelle somme d’argent ils reçoivent de façon sûre.
L’une des principales critiques faites aux logiciels open source est le manque de professionnalisme. Peu importe la manière dont vous contribuez à un projet open source, mettez un point d’honneur à le faire de façon professionnelle. L’élévation du niveau de qualité d’un projet commence avec ses utilisateurs. Assurez-vous que vous agissez de manière professionnelle lorsque vous discutez de projets avec d’autres et créez des contributions de qualité quand vous utilisez des logiciels open source.
Maintenant que vous savez tout ça, lancez-vous et allez aider à rendre les projets open source géniaux.
Crédit photo : Gozamos (Creative Commons By-Sa)
Éric Bruillard est professeur au STEF – ENS Cachan.
L’article ci-dessous reprend une présentation faite le 15 décembre 2012 lors des Rencontres Wikimédia, à l’université Paris Descartes.
Remarque : Vous pouvez également accéder directement à la version ODT et PDF du document.
Éric Bruillard - décembre 2012
Il y a cinq ans, en mars 2007, j’avais écrit un article intitulé « Wikipédia : la rejeter ou la domestiquer ». J’avançais l’idée, qui a souvent été mal comprise, que Wikipédia ne pouvait pas « avoir une présence reconnue dans l’enseignement en France, ses principes mêmes (neutralité) n’étant pas compatibles avec les valeurs de l’école laïque et républicaine française, valeurs qui conduisent à privilégier certains points de vue et à en interdire d’autres ». J’ajoutais que Wikipédia pouvait cependant avoir une place, d’une part comme projet encyclopédique avec des participations actives à ce projet, comme faire écrire des articles à des élèves, et, d’autre part, comme une encyclopédie à laquelle beaucoup auraient recours, dans une posture de consommateur.
Ces deux directions ont été effectivement suivies, et des utilisations constructives sont repérables dans l’enseignement secondaire ou supérieur, quoique la « consommation » est certainement beaucoup plus développée que la participation. Mais Wikipédia aurait-elle maintenant une présence reconnue dans l’éducation ?
Dans un premier temps, nous allons tenter de situer les discours généraux sur Wikipédia, notamment dans l’éducation nationale. Ensuite, nous verrons en quoi Wikipédia est maintenant une véritable institution, statut qui n’est pas sans poser de nouvelles questions. Enfin nous traiterons la question de l’évaluation des articles de cette encyclopédie : une évaluation interne s’est installée alors que l’évaluation externe ne semble pas beaucoup progresser : serait-ce révélateur de relations encore difficiles avec un projet collectif que l’on a toujours du mal à appréhender ?
Le premier constat que l’on peut faire, sans avoir spécialement besoin de l’étayer, est celui de la croissance impressionnante du projet Wikipédia : une présence très importante (notamment via Google), des utilisations qui se multiplient, notamment dans l’éducation, de nouveaux projets associés…
Pourtant, face à ce formidable déploiement, on s’aperçoit, notamment à travers le discours d’étudiants ou d’enseignants, d’une méconnaissance persistante du fonctionnement de Wikipédia, d’idées reçues tenaces, d’utilisations contestées, d’interrogations sur la fiabilité…
Wikipedia nous aide d’ailleurs à cerner ce que qu’est une idée reçue : « une opinion, située entre le stéréotype, le cliché et le lieu commun », précisant qu’elle a « la particularité de s’admettre aisément » parce qu’elle est « très répandue, que celui qui la transmet la considère très souvent comme évidemment démontrée ; elle est agréable à admettre, parce qu’elle répond (le plus souvent simplement) à une question redondante, ou gênante, ou complexe : elle aide à ne plus réfléchir et s’impose insidieusement ». Justement, un peu de réflexion s’impose.
Comme il est possible à n’importe qui de créer ou modifier le contenu d’un article, que ce n’est pas réservé à des spécialistes, il ne semble pas possible qu’il y ait des articles de qualité et on ne peut en aucun cas s’en remettre à Wikipédia. Ce discours de sagesse populaire continue à être très souvent énoncé. Prenons juste un seul exemple : “Wikipedia is a free, web-based, collaborative, multilingual encyclopedia project. Anybody is able to change, add or remove articles on Wikipedia. This of course is prone to many problems as some authors may be: biased, vandalise the article or write incorrect information.”
Les études comparatives qui ont été menées attestent du contraire et l’expérience quotidienne de nombre d’entre nous montre qu’on lui fait malgré tout confiance. Peu d’études nouvelles sont disponibles. La seule étude récente est intitulée Assessing the accuracy and quality of Wikipedia entries compared to popular online encyclopaedias A preliminary comparative study across disciplines in English, Spanish and Arabic. Mais les auteurs remercient la Wikimedia Foundation pour son soutien financier. D’autres institutions ne sont sans doute intéressées à financer une évaluation des articles de Wikipedia, préférant laisser planer le doute et les idées reçues.
Si la neutralité de l’éducation nationale française l’invite à ne pas citer de marque ou de nom de produit dans ses programmes officiels, sauf exception, elle est conduite à veiller sur ce qui est proposé. Une recherche sur le site officiel Eduscol atteste de la présence de Wikipédia.
On trouve des revues de presse ; un dossier déjà ancien sur les usages pédagogiques ; des recommandations, des définitions issues de Wikipédia, le fait que Wikipedia offre une nouvelle fonctionnalité (l’exportation de pages au format epub, ce qui permet de constituer une sélection d’articles à consulter hors ligne sur une liseuse ou sur smartphone).
On trouve également référence à Wikipedia dans des sujets de bac, des ressources pour la résolution de problèmes, des dossiers pédagogiques… mais avec le plus souvent des modes de citation approximatifs (cf page 2 de ce document). Dans les ressources pour la classe terminale générale et technologique, Physique-chimie, Série S (Eduscol), on trouve 10 références à Wikipédia.
Ce bref tour d’horizon nous en apprend plus sur le système éducatif que sur Wikipédia. Cette dernière apparaît pratique et très utile, mais demeure un motif récurrent de complaintes, attestant des difficultés (ou de l’incapacité ?) du système éducatif à traiter les évolutions en cours sur les savoirs, leur diffusion, leur mise en question… Une utilisation parfois « honteuse », que l’on peut rapprocher des usages des calculatrices en collège il y a quelques années[1] : une sur utilisation, une maîtrise très diversifiée et un manque de formation des élèves. Au début du collège, utiliser la calculatrice est considéré comme une tricherie, il ne faudrait s’en servir que pour contrôler les résultats des opérations que l’on fait à la main. Mais dès la 4e, la tricherie est quelque sorte légalisée, notamment avec les fonctions trigonométriques, et ceux qui ont acquis une bonne maîtrise des calculatrices, sont alors avantagés. Le système éducatif prend peu en charge, voire pas du tout, la formation des élèves à cette maîtrise.
Wikipédia dans le site Eduscol – 10 décembre 2012
Les objets informatiques spécifiques du système éducatif ne sont pas bien traités par Wikipédia. Ainsi, l’article ENT est encore une ébauche de piètre qualité. On retrouve une même ébauche, non signalée comme telle, sur l’expression « manuel numérique », page modifiée pour la dernière fois le 28 juin 2010[2]. C’est une version quasi « ministérielle » qui est proposée, la page « discussion » n’est pas ouverte et aucun article dans une autre langue n’est associé. Ce n’est toutefois par mieux en anglais où l’article “digital textbook” est une présentation du programme de ministère de l’éducation de Corée du Sud ! Les exemples sont coréens, avec des liens vers Toshiba et Fujitsu. Il s’agit d’un article sur le projet coréen, et pas sur l’initiative californienne par exemple.
Enfin, pour clore ce rapide tour d’horizon, un site de l’académie de Montpellier propose de « créer un manuel numérique à l’aide de Wikipédia ». Il est écrit : « Wikipédia est une excellente ressource pour construire un livre numérique dans le but d’explorer un sujet ou d’entamer une recherche documentaire. Pour inciter les étudiants à utiliser Wikipédia comme outil de départ plutôt que comme finalité d’une recherche, un enseignant peut facilement fournir à ses étudiants une collection d’articles de références sous la forme d’un livre numérique. Retrouvez les différentes étapes de création d’un livre numérique dans un mode opératoire mis à disposition sur le site “Prof Web”. »
Si on clique sur l’adresse indiquée, on retrouve le même paragraphe à la virgule près, puis un petit mode d’emploi. Tous les éléments sont présents : citation et même copié-collé. Un exemple mais avec la parapluie de la bonne pratique (il faut utiliser simplement comme point de départ). On se sert de Wikipedia mais d’une manière non risquée !!! On ne cherche pas à comprendre, mais à trouver une pratique que l’on considère légitime et que les autres ne pourront pas contester.
Cette méfiance persistante sur un projet maintenant très établi ne cache-t-elle pas des caractéristiques encore mal connues ou mal comprises. Et Wikipedia, s’il est encore regardé de travers par les institutions, ne serait-il pas aussi une institution ?
En effet, pour la recherche, une simple interrogation sur Wikipedia dans Google Scholar produit de très nombreux résultats ; depuis 2011 : 45 700 résultats ; depuis 2012 : 23 100 résultats (à titre de comparaison, on obtient pour les mêmes dates concernant Britannica : 13100 / 7320). Dans les travaux auxquels on accède, il y a des études sur le fonctionnement même de Wikipédia : contenus, conflits, participation, etc. ; des outils pour Wikipédia.
Issus de son fonctionnement même, l’encyclopédie fournit des corpus très utiles pour les linguistes, notamment les paraphrases et modifications locales dans l’historique des révisions des articles, conduisant à améliorer les performances d’applications de TAL : traduction automatique, question-réponse, génération…
Encore plus intéressant, dans un processus d’institutionnalisation de Wikipédia, le projet Semanticpedia associe le ministère de la culture, l’INRIA et Wikimedia France. Cette collaboration vise à « réaliser des programmes de recherche et développement appliqués à des corpus ou des projets collaboratifs culturels, utilisant des données extraites des projets Wikimédia ». Il s’agit notamment de fournir des données culturelles accessibles à tous, dans une version Web sémantique structurée ; en gros devenir la référence pour la culture avec des modes d’interrogation très avancés dans des formes de déclaration sémantique.
Wikipédia est même vu comme un nouvel outil d’évaluation : une évaluation de la réputation ponctuelle, la fréquentation de Wikipédia étant considéré comme outil de mesure ; mais aussi, l’influence qu’une personne a sur un pays ou même sur une civilisation, qui pourrait être mesurée en fonction des liens menant à sa page Wikipédia.
Ainsi, Wikipédia est devenu outil de référence, même s’il s’en défend. C’est déjà un attracteur très puissant pour les recherches et, selon Kien Quach Tat[3] (2011), au Vietnam, Wikipédia est ce qui permet aux lycéens de valider une information trouvée sur un autre site.
Quelle implication du fait que Wikipédia est une institution ? Peut-on être en dehors de Wikipédia ? Comme elle devient la référence, peut-on continuer à l’ignorer, si une information nous concernant est fausse, peut-on encore traiter cela par le mépris ou l’absence de réaction n’est pas une sorte d’acquiescement ? En tous cas, si Wikipedia gère très efficacement les vandalismes, on sait qu’elle est mal armée pour lutter contre des organisations qui cherchent à imposer leur point de vue. Un projet d’émancipation ne s’est-il pas transformé en un instrument de domination ? On n’en est pas (encore) là ! Demeure une question clé : comment évaluer un article de Wikipédia ?
En 2007, Wikipédia précisait qu’elle n’avait pas les moyens de juger de la crédibilité d’une information et que la fondation cherchait des solutions à cette absence de validation du contenu des articles, notamment « par l’ajout de systèmes de notation, d’identification des versions non vandalisées et par des collaborations avec des chercheurs et des enseignants » (Bruillard, 2007). Des avancées importantes ont été réalisées. Wikipédia évalue elle-même les articles qu’elle produit. Ainsi, l’article Projet :Évaluation est consacré à « déterminer l’état des articles de Wikipédia selon deux critères : leur importance et leur avancement ».
Quand on lance la requête « évaluation article Wikipédia », via Google, environ 16 900 000 de résultats (0,42 secondes) sont fournis. Mais la grande majorité de ces résultats correspondent à des articles de Wikipedia. La requête « évaluer un article de Wikipédia » -wikipedia.org ne donne aucun résultat. Enlever les guillemets dans la requête conduit à 8 040 000 résultats (0,19 secondes). Que trouve-t-on ?
D’abord des conseils, il s’agit d’évaluer le nombre et la qualité des sources, de consulter l’historique (combien de personnes y ont contribué, et quand), de consulter l’évaluation de l’article et surtout de le comparer à d’autres sources !
Le tutoriel Cerise propose d’autres conseils :
Les guides de la BU de l’université de Rennes 2 dans une page sur « évaluer l’information » consacre un petit encart à Wikipédia en conseillant de regarder les avertissements sur les pages, la date de création (onglet “historique”) et les débats (onglet “discussion”). Cela renvoie à un article du Monde.fr et étrangemenent, aux évaluations internes de Wikipédia.
Sur la Teluq, Marc Couture, dans son cours sur l’évaluation de la crédibilité des documents en ligne, traite du cas particulier de « la crédibilité de Wikipédia ». Il constate que les critères généraux ne s’appliquent qu’imparfaitement aux articles de Wikipédia. Ainsi, ceux reliés à l’insertion dans la littérature spécialisée : « Ce critère prendra donc une valeur toute relative compte tenu à la fois du rôle que joue une encyclopédie dans la littérature scientifique ou savante, et de la difficulté à évaluer le nombre de références à un article de Wikipédia. » Les critères sur l’auteur ne sont pas applicables, les autres (la validation du contenu, forme et la structure du document) sont soit sans garantie soit réfèrent aux classements et processus internes de Wiipédia.
Cherchant dans les sources en anglais, on trouve de nouveau beaucoup de redondances, avec une référence citée, reprise, tronquée dans la Wikipedia anglaise. Un article intitulé Wikipedia:Researching with Wikipedia n’a pas d’équivalent en français avec la recommandation rituelle : “Wikipedia should be a starting place for research, not an end destination and independent confirmation of any fact presented is advised”.
Cet article fournit un lien avec une page sur l’évaluation des articles de Wikipédia, page que l’on retrouve ici (source Phoebe Ayers, en octobre 2006). En fait, ce texte donne tous les éléments pour évaluer un article, les autres sources n’en sont souvent qu’une reprise tronquée. Au bout du compte, c’est une source datée de 2006 (et qui est peut-être antérieure) qui donne les meilleures informations et fait le point le plus complet sur les modes d’évaluation des articles.
Mais est-ce que les procédures d’évaluation préconisées sont opérationnelles ? Autrement dit, peut-on appliquer ces processus dans des utilisations courantes, c’est-à-dire hors situations particulières (notamment scolaires) et de nécessités de vérification. On peut raisonnablement penser que non, si je m’en réfère à mes propres utilisations et ce que peuvent dire les étudiants. Qui confronte systématiquement ce qui est écrit dans un article de Wikipédia à d’autres sources ?
Ce que l’on peut regretter, c’est l’absence de cartographie thématique, alors que l’on imagine qu’il y a des zones de fiabilités différentes, des repérages a priori pourraient guider le lecteurs (les articles dans le domaine X sont plutôt fiables, alors que dans le domaine Y c’est problématique), des marques reconnaissables. Alors que l’on comprend qu’il faut consulter l’historique et les discussions, il y a peu d’outils de visualisation nous donnant une image interprétable ; en conséquence, historique et discussions restent très difficiles à analyser rapidement. En effet, il s’agit de prendre en compte la dynamique collective et temporelle et de pouvoir juger une ressource de par l’histoire de sa construction et des discussions qui l’ont accompagnée. Mais comment le faire rapidement et de manière fiable sans instrumentation. History Flows[4] proposait des visualisations intéressantes. Mais il ne semble pas que ce travail ait été repris et il demeure mal connu.
L’évaluation dépend bien évidemment dépend de la finalité, du public visé, etc. et on pourrait refuser une sorte d’évaluation intrinsèque des articles de Wikipédia. Mais le jugement sur cette qualité a des incidences fortes, notamment sur les représentations sociales de ce projet encyclopédique. Chacun a ses propres croyances sur Wikipédia, mais il n’y a pas de « sagesse collective » ou de connaissance collective nous en donnant une image moins naïve. Comment juger de la qualité ? On voit que la question est délicate : qualité proportionnelle ou inversement proportionnelle au nombre de contributeurs ; processus linéaire d’accroissement avec quelques accidents ou des formes de plateau, voire des régressions ? La qualité des collaborations aurait un effet sur la qualité des articles.
Selon une étude récente, les changements apportés pour assurer la qualité des articles, avec de nouveaux contributeurs nombreux, aurait un effet négatif sur le recrutement de ces nouveaux contributeurs découragés par les mécanismes mis en place. Ainsi, incontestablement, un processus de professionnalisation a été organisé, processus qui a un effet dissuasif. D’un autre côté, on s’aperçoit que les « consommateurs », rôle que nous prenons tous à un moment ou à un autre pour Wikipédia, ont du mal à sortir d’une vision très naïve et se satisfont d’une sorte de « bonne pratique » paravent : on n’utiliserait que pour commencer une recherche, on ne s’arrêterait jamais sur un article de Wikipédia. Comportement que très peu de personnes adoptent, sauf dans des contextes très particuliers. Alors que l’on propose des modèles à discuter de perméabilité entre concepteurs et consommateurs, on s’aperçoit que pour Wikipédia, il y a d’un côté des concepteurs très instrumentés et d’un autre côté des consommateurs très peu outillés. Entre les deux, on peut s’interroger sur les connaissances, les instruments pour les « médiateurs » (enseignants, documentalistes, etc.). Ne devraient-ils pas en savoir collectivement beaucoup plus que les « simples » utilisateurs ?
Wikipedia est un excellent analyseur des évolutions éducatives : un discours rituel sur la nécessité de développer des utilisations du « numérique », une présence effective mais comme une espèce de sous culture, acceptable parce qu’elle rend des services, pratique mais décriée. Wikipedia est une mine pour les chercheurs, c’est aussi un projet en avance dans le domaine de la culture et dans celui du Web sémantique. Mais comment maîtriser cette technologie collective ? On ne perçoit pas encore bien toutes les potentialités et limites de l’écriture collective. Une tension apparaît : si on apprend par l’écriture, des contraintes de forme trop fortes découragent, l’exigence de qualité risque de conduire à un élitisme par trop restrictif. Il faudrait professionnaliser les intermédiaires, afin de palier le manque d’instrumentation, notamment permettant de visualiser des processus de construction pour juger une production. La question de l’expertise des éducateurs se pose avec une certaine urgence. Pourquoi n’arrive pas à se développer un regard plus professionnel sur les productions de ce travail collectif ?
Crédit photo : Kalexanderson (Creative Commons By)
[1] Voir par exemple, Bruillard Éric (1994). Quelques obstacles à l’usage des calculettes à l’école : une analyse, Grand N, n°53, p. 67-78.
[2] Page consultée le 6 mars 2013
[3] Kien Quach Tat (2011).. Recherche d’information sur le web et moteurs de recherche : le cas des lycéens. Thèse soutenue le 16 décembre 2011 à l’ENS de Cachan
[4] Viégas Fernanda B., Wattenberg Martin, Dave Kushal (2004). Studying Cooperation and Conflict between Authors with history flow Visualizations. In CHI 2004, April 24–29, 2004, Vienna, Austria. ACM.
Le 27 avril dernier François Elie[1] donnait une conférence remarquable et remarquée lors de la troisième édition de Fêtons Linux à Genève.
Nous l’avons jugée suffisamment importante pour en faire un article dédié (vidéo + transcript) et vous inviter à trouver vous aussi la demi-heure au calme pour l’écouter.
Les députés ont récemment abandonné la priorité du libre dans l’éducation. En écoutant François Elie, vous comprendrez pourquoi cette triste décision est tout sauf anodine.
Quelques extraits pour se motiver ;)
« Je vais vous décevoir tout de suite parce que vous vous attendez à ce que je dise qu’il est très très important d’utiliser le logiciel libre dans les écoles. Bon ça y est je l’ai dit. On peut passer à autre chose. »
« Si l’école doit être quelque chose, elle doit essayer de n’être ni l’école de l’initiation, ni l’école de l’apprentissage. Elle doit être au contraire l’école où on apprend à maîtriser les choses pour ne pas dominer les Hommes. »
« Il faut cesser d’opposer l’enseignement de la programmation d’une part et l’enseignement des usages, c’est important mais ça c’est l’école des maîtres et des esclaves. Ce qu’il faut enseigner, vite et à tous, c’est la science, pas la technologie ou l’usage. C’est en amont de la programmation, l’algorithmique. C’est en amont, de telle instanciation, du codage, du chiffrement, la théorie, quelque chose qui comme les maths n’ont besoin que d’une craie et d’un tableau noir. »
« Puisqu’on n’enseigne pas la physique dans une voiture, pourquoi devrait-on nécessairement apprendre l’informatique sur un ordinateur ? »
« L’école est le lieu, l’enjeu d’un affrontement colossal entre ceux qui voudraient ceux qui voudraient qu’elle reste l’école de la liberté et ceux qui voudraient en faire autre chose, une école qui serait cliente captive d’un marché, des industries numériques pour l’éducation. »
« On peut difficilement enseigner la liberté avec des outils qui cherchent à dominer. Ça va être compliqué d’utiliser des outils qui sont faits pour ne pas être partagés pour apprendre à des élèves à partager. Ça va être compliqué d’enseigner à des élèves comment il faut protéger ses données en utilisant des réseaux sociaux qui sont faits pour justement les capturer. Bref apprendre l’ouverture avec ce qui est fait pour fermer, c’est compliqué. »
« Je disais à une syndicaliste, vous aurez du mal à faire la révolution avec Word. Elle n’a pas compris ! J’avais été invité à une université d’été d’Attac, et là je leur avais dit : jJe ne vais plus au MacDo mais vous êtes encore sous Windows. »
« L’école est l’endroit où on dit le plus de mal de Wikipédia, il faut le savoir. Par contre on dit beaucoup de bien de Diderot, de l’Encyclopédie, du siècle des Lumières. Embêtant quand même, parce que moi je suis persuadé que Diderot adorerait Wikipédia. Mais il n’adorerait pas Wikipédia pour lire mais pour écrire dedans. Il ne s’agit pas d’apprendre aux enfants à se méfier de ce qu’on lit dans Wikipédia, il faut leur apprendre à écrire dans Wikipédia. Mais ça il faut du temps. »
« L’école a tout à apprendre de la culture des hackers. Il faut apprendre à travailler comme des hackers. Nietzsche a une formule magnifique il dit « Plutôt périr que travailler sans joie ». On peut vouloir travailler comme un maître ou travailler comme un esclave. On peut aussi faire de sa vie quelque chose de plus joyeux, aimer son travail. On peut apprendre à aimer son travail à l’école. On peut apprendre à exister par la valeur de ce qu’on fait, par la valeur de ce qu’on montre, par l’image qu’on a, et pour ça, et bien le logiciel libre pourrait nous aider pour refonder l’école, pour apprendre à collaborer, pour apprendre à partager, pour apprendre à bricoler, produire ses propres outils, se former, se former sans cesse, être en veille permanente. Toutes ces qualités qui sont celles des hackers ce sont celles qu’on attend d’un élève. »
« Alors je reviens à Marx. Au 19ème siècle, il avait posé une bonne question : « À qui appartiennent les moyens de production ? » Et bien les moyens de production des contenus et des outils de l’école doivent appartenir à l’école. Donc la question du logiciel libre n’est pas une petite question, c’est la question même de l’école. Et la question n’est pas à l’utilisation. C’est de se mettre à l’école de ce mode de production, pour produire les savoirs, les contenus, pour rendre possible une éducation, une instruction des élèves qui leur permette d’accéder à la liberté, non par la technologie ou par les usages, mais par la science. »
Nous devons cette transcription à Marie-Odile de l’April[2]. Nous nous sommes permis d’y ajouter quelques liens.
Bonjour à tous. On va commencer, on ne va pas attendre que les portes se ferment. Je vais me présenter rapidement. Je suis un petit peu impressionné parce que cette conférence et la suivante sont présentées comme des événements. Si je suis mauvais tant pis, enfin vous verrez. Je me présente rapidement, François Élie, j’ai un peu plus d’un demi-siècle, actuellement j’enseigne la philosophie. Je suis tombé dans l’informatique tout petit et puis il y a dix ans je suis rentré en politique un peu par hasard et j’ai fondé une association en France qui s’appelle l’Adullact avec quelques-uns pour non pas simplement utiliser les logiciels libres sur fonds publics, mais pour les développer et les développer sur un segment métier, sur ces logiciels qui sont adhérants et qui empêchent de basculer vers le libre. Mais ça j’en parlerai dans la conférence suivante.
L’objet ici ça va être de réfléchir sur le libre et l’éducation. Alors je vais vous décevoir tout de suite parce que vous vous attendez à ce que je dise qu’il est très très important d’utiliser le logiciel libre dans les écoles. Bon ça y est je l’ai dit. On peut passer à autre chose. Bien sûr que c’est important. On pourrait faire des listes de gens très courageux qui ont installé des salles en libre accès, des salles en libre. Mais j’ai envie de dire que ce n’est pas le plus important. Il y a beaucoup plus important. Il y a l’école elle-même.
Je voudrais vous parler du rapport entre le logiciel libre et l’école et vous verrez que les enjeux sont un petit peu plus importants que ça.
Pour ça il faut revenir à ce que c’est qu’une école. Alors je vous l’ai dit j’enseigne la philosophie pour manger et je vais essayer de revenir un peu en arrière, au moment où on a inventé les écoles. Ce n’est pas Charlemagne ou Jules Ferry qui ont inventé les écoles, ce sont les philosophes il y a 25 siècles.
Et puis je vais vous parler un peu de Platon pour vous mettre à température en vous parlant de l’allégorie de la Caverne. Pour ceux qui voudraient retrouver le texte, c’est dans le livre 7 de La République. Des hommes sont dans une caverne à regarder un écran, comme vous regardez un écran, regardent les images qui sont projetées. Ils sont là depuis leur enfance les jambes et le cou enchaînés de sorte qu’ils ne peuvent voir que devant eux. La lumière vient d’un feu allumé sur une hauteur loin derrière eux et entre le feu et les prisonniers passe une route élevée. Le long de cette route passe un petit mur et les long de ce petit mur des hommes font des marionnettes. Et ces hommes voient les ombres de ces objets qui passent. Alors Socrate s’adresse à son interlocuteur et lui dit mais qu’est-ce qui se passe si on les déchaîne, si on essaye de les faire sortir de la caverne. Et bien évidemment ils vont résister. Je ne sais pas si vous avez déjà vu en septembre des enfants se précipiter à l’école en disant chouette je vais apprendre à lire. En général, ils préféreraient rester avec leurs Pokémon, leurs Playmobil, leur Lego, bref leurs ombres. Et donc il y a une force de résistance. On ne veut pas le savoir. Le savoir n’est pas quelque chose de naturel. On résiste au savoir ! Alors ils faut les emmener à petits pas , pas les emmener trop vite sinon on leur brûle les yeux. Si vous emmenez un élève de Terminale qui aime beaucoup les maths, si vous l’emmenez au Collège de France tout de suite, il va détester les maths. Donc il faut l’emmener à petits pas. Et puis par habitude il va progressivement s’habituer aux objets de la région supérieure. Et un jour il redescendra parce que quand il verra le soleil en dehors de la caverne il redescendra parce qu’il comprendra que le savoir n’a de valeur que s’il est partagé. Il essaiera de sortir les gens de la caverne.
Alors qui sont les gens qui sont derrière le petit mur. Ce sont ceux qui sont montés et qui ne sont pas redescendus. On les appelle les sophistes. C’est ceux qui jouent avec le savoir, c’est ceux qui ont la tentation du pouvoir. Toute la question des écoles c’est de savoir si on enseigne comme les sophistes, si on fait des marionnettes ou si on cherche à libérer par le savoir.
Les premières écoles existent, elles existent avant, il y a très très longtemps. Il existe 2 types d’école. Dans les temples, il y a des écoles où on fait de l’initiation, des secrets, des arcanes, des choses qu’on ne répète pas. Et puis il y a d’autres écoles. Ce sont les écoles pour les esclaves. Pour donner de la valeur à un esclave il faut lui donner un métier. Il faut lui apprendre des choses utiles. Et on va s’arranger pour qu’à l’école il ait un bagage, quelque chose à vendre.
Vous reconnaissez un peu des écoles qui sont encore aujourd’hui. Il y a encore le tentation de vouloir enseigner des secrets à quelques-uns et puis un bagage pour tous les autres.
Alors il y a une école qui m’intéresse, c’est l’école de Pythagore. Ils font des mathématiques et il y a 2 écoles. Il y a l’école pour les mathématiciens, ils apprennent à faire des maths dans le secret et puis il y a l’école des acousmaticiens, ceux qui écoutent et on leur apprend à utiliser les mathématiques, mais pas à faire des mathématiques. Et un jour les philosophes vont libérer les mathématiques pour livrer le grand secret et le grand secret c’est qu’il n’y a pas de secret, c’est que tout le monde peut faire des mathématiques.
Vous voyez le rapport avec l’informatique ? Alors si l’école doit être quelque chose, elle doit essayer de n’être ni l’école de l’initiation, ni l’école de l’apprentissage. Elle doit être au contraire l’école où on apprend à maîtriser les choses pour ne pas dominer les Hommes.
Je voulais partir de ça pour essayer de comprendre quelles sont les écoles qui vous accueillir de l’informatique demain ou peut être aujourd’hui. L’éternel problème de l’école, Platon le disait déjà, Bourdieu appelle ça la reproduction, c’est éviter que les âmes d’or s’imaginent que leurs enfants sont des âmes d’or et permettre aux enfants des âmes de bronze, qui seraient des âmes d’or, de pouvoir percer et servir par leur mérite, par leur valeur. Alors il y a toujours le problème depuis l’origine, il y a des paramètres qui permettent de réussir : le fric, le piston, la triche, il paraît que ça existe encore dans les écoles.
Je voulais revenir maintenant venir sur un principe que propose Alain, philosophe du début du 20ème siècle, pour dire que « l’enseignement doit être résolument retardataire », je vous lis la formule « non pas rétrograde, tout au contraire, rétrograde ça voudrait dire partir du présent pour aller en sens inverse vers le passé. Non ! Retardataire c’est partir du passé et s’acheminer à petits pas vers le présent pour savoir d’où on vient. C’est pour marcher dans le sens direct qu’il prend du recul. Prendre du recul pour aller loin et pour ensuite marcher. Pour apprendre l’histoire des sciences, pour apprendre l’histoire de la langue, pour apprendre d’où on vient et comment on a fait. Bien sûr on va le faire non pas en 25 siècles mais en quelques années. Car si l’on ne se place point dans le moment dépassé, comment le dépasser ? Ce serait une folle entreprise, même pour un homme dans toute la force de prendre les connaissances en leur état dernier. Il n’aurait point d’élan ni aucune espérance raisonnable. Au contraire celui qui accourt des anciens âges est comme lancé sur le mouvement juste. il sait vaincre : cette expérience fait les esprits rigoureux. »
Vous avez compris encore le rapport avec l’informatique. Si on apprend l’informatique telle qu’elle se fait aujourd’hui, si on apprend les usages de l’informatique d’aujourd’hui, on n’a rien compris. Il faut apprendre d’où ça vient, pourquoi ça a évolué comme ça, sinon et bien on sera piégé.
Alors à la fin de l’allégorie de la Caverne, Platon nous dit il y a une leçon à tirer de ça. Celui qui se souvient qu’on a les yeux brûlés par l’obscurité ou par la lumière, il se souvient qu’on peut être dérangé par soit l’entrée vers l’enseignement soit l’entrée vers le savoir lui-même. Et notre première manière de nous situer par rapport à quelqu’un qui a envie de nous apprendre quelque chose ou qui au contraire a quelque chose à apprendre de nous, c’est de rire de lui. C’est de chercher à ne pas enseigner. Alors ça tombe bien il y a des tas de choses qu’ils savent déjà ! Forcément ! Donc il n’y a rien à leur enseigner ! Et puis ça tombe bien ! Il n’ont pas envie d’apprendre, alors on les livre à la séduction. Et c’est vrai Socrate le disait déjà. Un médecin a perdu d’avance devant un tribunal d’enfants contre les confiseurs, contre les gens de la séduction qui vont leur donner des objets designés, packagés, de la marque, quelque chose qui a une valeur extérieure et qui les séduira.
Alors on nous rebat les oreilles avec la génération Y. Ces enfants qui auraient eu des cours d’informatique intra-utérins et qui sauraient tout déjà et qui n’auraient rien à apprendre et qui en savent plus que nous. J’ai commencé avec un ZX81 et je plains sincèrement ceux qui commencent avec un smartphone. Ils jouent avec, ils ont un clickodrome et avec des gigas de mémoire vive, ils en font moins que nous avec 1 kilo, j’avais même acheté 1 kilo supplémentaire pour faire plus de choses. La vrai génération Y c’est la nôtre, c’est la mienne, ce n’est pas celle d’aujourd’hui. Ce sont les gens qui ont vu naître l’informatique qui arrivait et qui quittait les gros ordinateurs, juste avant le verrouillage du PC, au moment où on échangeait du code, on apprenait, on apprenait de l’assembleur, on jouait avec.
Comment apprennent-ils ? Ils apprennent par imitation. Alors c’est très bien l’imitation, c’est très utile et à la différence du singe qui lui est beaucoup plus intelligent. Je vous raconte une petite histoire. Il y a une expérience qui a été faite récemment par une américaine, expérience magnifique. Elle va présenter à des jeunes singes une boîte et elle fait toutes sortes d’opérations, elle tire un tiroir, elle tourne la chevillette, elle fait des opérations bizarres et puis à la fin il y a un tiroir avec des bonbons. Elle présente ça à des singes. Ils refont, ils reproduisent tout, ils tirent le tiroir, ils prennent les bonbons. Elle met des jeunes enfants, ils font exactement la même chose. Et puis ensuite elle enlève le cache et on voit que la boîte est transparente et on voit que la plupart des opérations ne servent à rien. Il suffit d’appuyer sur un bouton et le tiroir sort. Le singe appuie sur le bouton tout de suite, il prend les bonbons et s’en va et l’enfant reproduit. Il imite. Aristote avait raison : l’homme est un animal imitateur. Et pourquoi il imite ? Parce qu’on ne sait jamais, il n’a peut être pas compris, il y a peut être quelque chose, il y a du sens quelque part. Il ne compte pas sur lui. Et donc si l’imitation est importante, il faut distinguer entre le modèle et l’exemple. Il y a des enfants qui ne peuvent dessiner que s’ils ont un modèle, c’est-à-dire ils ne savent pas dessiner. Et puis il y a ceux qui ont appris par l’exemple, qui ont compris le mouvement, qui ont compris comment on utilisait l’outil et qui vont se l’approprier. Et d’ailleurs on enseigne par l’exemple, on n’enseigne pas parce ce qu’on dit, on enseigne parce qu’on montre.
Alors est-ce que l’informatique est dans une situation spéciale face à la question de l’enseignement. Je vais partir d’une formule de Bernard Lang, très très éclairant, je dois beaucoup à mon ami Bernard Lang sur cette question, il n’est pas enseignant mais il a tout compris. « Comme beaucoup de disciplines scientifiques, l’informatique est à la fois une science, une technologie de l’utilisation de cette science et un ensemble d’outils qu’elle permet de réaliser. Trois pas deux ! Trois. La confusion entre ces trois aspects est une première source d’incompréhension et de désaccord. Cette confusion en particulier entre la science et la technologie.
Alors on nous dit qu’il n’y pas besoin d’apprendre comment fonctionne une voiture pour apprendre à conduire. Et je voudrais revenir sur cette analogie avec l’automobile pour essayer de répondre à la question : est-ce que c’est si inutile que ça de soulever le capot ? Et c’est vrai qu’on n’apprend pas la mécanique auto dans les écoles. Mais on apprend la physique. On apprend la science. On n’apprend pas la technologie. Et donc si on fait cette comparaison, on s’aperçoit qu’on n’a pas besoin de soulever le capot, mais on apprend aux enfants, à tous les enfants, pas simplement ceux qui seront garagistes, pas les esclaves garagistes, mais à tous ceux qui utiliseront des objets, on leur apprend un peu de mathématique, un peu de physique pour qu’ils puissent ne pas être piégés qu’ils puissant savoir que ce n’est pas le ventilateur qui a éteint les bougies, qu’ils puissent avoir une petite idée de ce qui se passe dans la machine, que ce n’est pas magique.
Alors il y a 3 fractures numériques. Il y a une fracture numérique qui est très grave qui est celle de la naïveté de ceux qui croient que c’est magique, ceux qui ne comprennent rien, ceux qui jouent avec leur smartphone. Et puis en face il y a ceux qui comprennent, qui ne savent peut-être pas comment on fait mais qui savent comment ça marche. Qui savent quels sont les enjeux qui sont derrière.
Après il y a une autre fracture qui est la fracture entre ceux qui savent utiliser mais qui ne font qu’utiliser et puis ceux qui maîtrisent, ceux qui fabriquent les logiciels, ceux qui fabriquent les applications. Ça c’est une autre fracture.
Et puis il y a une fracture sur l’accès : est-ce qu’on a juste la possibilité d’utiliser ou pas. Je me souviens au SMSI à Genève puis à Tunis on nous avait expliqué que le problème de l’accès c’est d’abord l’électricité dans le monde ; qu’avant d’avoir des ordinateurs et du réseau, il faut d’abord avoir de l’électricité. Alors ça calme tout le monde. Mais il n’y a pas besoin d’électricité pour, au tableau noir, expliquer ce que c’est que l’informatique.
Donc il y a trois savoirs, 3 savoirs différents : il y a une compréhension des processus qui touchent à l’information, comment on produit l’information, comment on la code, comment on la transporte, comment on la traite, comment on l’exploite, qui peut avoir intérêt à l’exploiter. Cette science de l’information on la confond souvent avec un savoir-faire dans le domaine de la programmation effective, alors qu’on peut très bien apprendre en pseudo code de l’algorithmique théorique avec une craie et un tableau noir. On peut expliquer ce que c’est qu’un compilateur, sans avoir de machine, sans avoir à programmer à instancier dans un langage précis ce qu’on a compris comme algorithme. Et de ce point de vue là, c’est des maths. On devrait se poser la question : mais pourquoi continue t-on à enseigner des maths à des gens qui ne vont pas les utiliser ? Ben évidemment c’est parce qu’on n’est pas dans une école de l’initiation où les mathématiciens font ça entre eux et on n’est pas non plus dans une école de l’apprentissage où l’école a pour but de donner un métier, un bagage utilisable. L’école ne sert évidemment pas à ça. D’ailleurs heureusement parce que sinon on n’enseignerait pas la philosophie qui ne sert à rien à part fabriquer des profs de philosophie ! Enfin il y a une troisième savoir, qui est le savoir-faire dans le domaine des usages, j’aimerais bien écrire zzusages avec 2 z, où on est devant un savoir faire qui change sans arrêt, où on est simplement dans l’adaptation du consommateur à l’offre.
On retrouve nos 3 écoles : l’école de la liberté, la science pour tous et là elle n’a pas besoin d’ordinateurs ; l’école des maîtres, la technologie pour quelques-uns et puis l’école des esclaves, les usages pour le plus grand nombre. Avec 3 finalités différentes. Dans le premier cas on est formé à comprendre les fins, les buts. On ne sait pas coder mais on peut décider ce qui mérite d’être codé, ce qui doit être codé, ce qu’il faudrait coder, ce qu’il faut utiliser, ce qu’il ne faut pas utiliser ; on peut décider.
Les autres savoirs ont des finalités différentes. Elles sont non pas au niveau des fins, elles sont au niveau des moyens. On va former des codeurs. Alors il y a des tas de gens qui vous disent il faut former des informaticiens pour exister dans la compétition internationale. Sans doute, mais ce n’est pas le plus urgent. Et puis former des consommateurs qui savent s’adapter à ce qu’il y a, à ce qu’on leur vend. Et là il y a du monde ! Il y a du monde pour conseiller les ministres, pour conseiller les gouvernements, pour conseiller les partis : vous comprenez bien, s’ils veulent faire des achats lucides, s’ils veulent choisir les bons produits, il faut les aider, il faut les initier tout de suite. Et d’ailleurs on vous organise des programmes quasiment gratuits, on vous fournit les machines. La première dose est gratuite !
Alors le problème c’est qu’on ne peut plus se contenter d’un tableau noir. On est passé autour de 2004 du siècle de l’automobile au siècle de l’information. 2004 les investissements dans l’informatique et les nouvelles technologies ont dépassé les investissements dans l’automobile. On a quitté le siècle de l’automobile pour entrer dans le siècle de l’information. Au passage 2004 c’est aussi la date où le nombre de téléphones portables embarqués sur des machines a dépassé le nombre de téléphones portables embarqués sur les êtres humains. C’est bon à savoir, vos imprimantes, vos machines à café sont pleines de mobiles, il y en a plus dans les machines que sur vous. Ça aussi il faut y réfléchir. Alors on a 3 manières de faire entrer l’informatique à l’école. Je vous le disais on n’a pas besoin de tableau numérique pour enseigner l’informatique elle-même pour enseigner la science. De la même façon on n’a pas besoin de machine à calculer pour enseigner les mathématiques. Évidemment ! On n’a pas besoin d’une machine à calculer pour savoir faire une division. Au contraire, surtout pas ! On peut aussi enseigner l’informatique comme technologie, apprendre à programmer, à gérer les réseaux et on peut aussi se contenter d’utiliser, apprendre l’utilisation dans les fameuses TICE. Seulement on n’a plus le choix ! On n’a plus le choix parce qu’arrive la vague de ce qu’on appelle le numérique, c’est-à-dire que tous les savoirs sont maintenant numérisés et que le tableau noir et bien il va falloir résister pour n’utiliser que le tableau et on va devoir utiliser le numérique, alors ça pose problème.
Déjà je m’arrête un instant, on a dépassé un fait de base. Il faut cesser d’opposer l’enseignement de la programmation d’une part et l’enseignement des usages, c’est important mais ça c’est l’école des maîtres et des esclaves. Ce qu’il faut enseigner, vite et à tous, c’est la science, pas la technologie ou l’usage. C’est en amont de la programmation, l’algorithmique. C’est, en amont de telle instanciation, du codage, du chiffrement, la théorie, quelque chose qui comme les maths n’ont besoin que d’une craie et d’un tableau noir.
Seulement le numérique arrive et on ne peut plus se contenter d’un tableau noir. Il paraît que le numérique est partout, que tous les supports de transmission de l’information et tous les supports d’information sont maintenant numérisés. Et donc ça pose un problème très particulier. Ça pose un problème particulier parce qu’il y a une interaction très forte entre les trois. Comme si on devait enseigner la physique dans une voiture, si je reprends l’analogie. On peut enseigner la physique avec un tableau noir, mais là dans le cas de l’informatique, il faut enseigner la physique dans une voiture. Autrement dit l’école est le lieu, l’enjeu d’un affrontement colossal entre ceux qui voudraient ceux qui voudraient qu’elle reste l’école de la liberté et ceux qui voudraient en faire autre chose, une école qui serait cliente captive d’un marché, des industries numériques pour l’éducation. Parce que la technologie elle englobe les usages et il faudrait qu’on enseigne la science dans cette espèce de gangue, dans cette espèce de caverne où on vous projette des ombres avec des matériels particuliers, avec des formats particuliers. Comment faire ? Comment essayer de rester honnête et faire correctement les choses. La caverne est revenue !
Alors je vais citer une deuxème fois Marx, il n’y a plus que les libéraux pour citer Marx aujourd’hui : « Les armes de la critique passent par la critique des armes. » C’est hors contexte, car c’était dans la Critique de la philosophie du droit de Hengel, ça n’a rien à voir mais la phrase est pratique.
On peut difficilement enseigner la liberté avec des outils qui cherchent à dominer. Ça va être compliqué d’utiliser des outils qui sont faits pour ne pas être partagés pour apprendre à des élèves à partager. Ça va être compliqué d’enseigner à des élèves comment il faut protéger ses données en utilisant des réseaux sociaux qui sont faits pour justement les capturer. Bref apprendre l’ouverture avec ce qui est fait pour fermer, c’est compliqué. Donc on est dans une impasse, dans une contradiction. Alors je vais prendre la formule de Bernard Lang. Il encourageait à réfléchir sur les risques potentiels de ces nouveaux modes de médiation dans l’appréhension de la connaissance. Le numérique devient la médiation pour apprendre la science qui est amont du numérique. On doit enseigner la physique dans la voiture. Et vous le savez quand le sage montre la lune, l’ignorant regarde le doigt. Il n’entend pas ce qu’on lui dit. Les enfants ne regardent pas ce qu’il y a sous l’ordinateur, ils regardent l’ordinateur. Ils ne regardent pas ce qu’ils ont à lire, ils regardent la manipulation, ils ne savent pas ce qu’il y a à regarder.
Alors je vais prendre quelques exemples taquins. Premier exemple taquin : on fait une exposition sur les OGM, on mange bio à la cantine, pardon, au restaurant scolaire, mais par contre on fait l’affiche de l’exposition sur Mac ou sous Windows. Cherchez l’erreur. Il y a un petit souci. Je disais à une syndicaliste, vous aurez du mal à faire la révolution avec Word. Elle n’a pas compris ! J’avais été invité à une université d’été d’Attac, c’était assez bizarre un libéral invité à Attac et là je leur avais dit « Je ne vais plus au MacDo mais vous êtes encore sous Windows ».
Deuxième exemple taquin, toujours à l’école. L’école est l’endroit où on dit le plus de mal de Wikipédia, il faut le savoir. Par contre on dit beaucoup de bien de Diderot, de l’Encyclopédie, du siècle des Lumières. Embêtant quand même, parce que moi je suis persuadé que Diderot adorerait Wikipédia. Mais il n’adorerait pas Wikipédia pour lire mais pour écrire dedans. Il ne s’agit pas d’apprendre aux enfants à se méfier de ce qu’on lit dans Wikipédia, il faut leur apprendre à écrire dans Wikipédia. Mais ça il faut du temps.
Troisième exemple taquin : le tableau numérique interactif ; ça c’est la catastrophe, l’absurdité totale. Avec une craie et un tableau noir, je suis à égalité avec un élève. Il va au tableau, il prend la craie ; la craie c’est du calcaire, c’est comme dans son jardin. L’ardoise, il y en a sur son toit. Il n’y a pas d’interface technologique qui le sépare du savoir. Avec le tableau numérique interactif, Pythagore est de retour ! Vous ne pourrez faire des mathématiques simples, poser une division, que si vous disposez d’une interface extrêmement compliquée, si vous avez du 220, si vous avez du réseau, sinon la division va être compliquée. J’ai le souvenir de professeurs de physique qui pour étudier la chute des corps prenaient une capture avec une caméra numérique de l’objet qui tombait, moulinait ça, détection de mouvement et ensuite tout ça apparaissait dans un tableur avec quelques lignes. Je leur avais expliqué qu’avec une feuille de papier de chocolat, une prise RS232, on arrivait à faire beaucoup plus précis, 400 000 fois par seconde, mais non ce n’était pas bien, il fallait du dispositif !
Alors il y a des alternatives. Il y a une alternative qui essaye d’exploiter les outils numériques mais de manière intelligente. Par exemple prenez un smartphone et vous le connectez à votre PC de classe, il projette ça avec un vidéo-projecteur et puis vous transportez le tableau numérique interactif, vous le posez sur la table de l’élève, il peut écrire, c’est le même que son smartphone, c’est l’ardoise et la craie. Il n’y a de TNI chez lui mais il a aussi peut être un smartphone et puis là tout le monde peut écrire dessus. Voilà.
On peut arriver à subvertir ces médiations pour trouver plus intelligent. Alors je vais revenir au logiciel libre. L’école a tout à apprendre de la culture des hackers. Il faut apprendre à travailler comme des hackers. Nietzsche a une formule magnifique il dit « Plutôt périr que travailler sans joie ». On peut vouloir travailler comme un maître ou travailler comme un esclave. On peut aussi faire de sa vie quelque chose de plus joyeux, aimer son travail. On peut apprendre à aimer son travail à l’école. On peut apprendre à exister par la valeur de ce qu’on fait, par la valeur de ce qu’on montre, par l’image qu’on a, et pour ça, et bien le logiciel libre pourrait nous aider pour refonder l’école, pour apprendre à collaborer, pour apprendre à partager, pour apprendre à bricoler, produire ses propres outils, se former, se former sans cesse, être en veille permanente.
Toutes ces qualités qui sont celles des hackers ce sont celles qu’on attend d’un élève. Et donc il y a bien des rapports entre l’école les outils, les contenus. Mais pas simplement sur l’utilisation du logiciel libre. Puisque le numérique est partout, il n’y a vraiment plus que 2 écoles possibles : soit l’école programmée, c’est pour ça que j’avais sous-titré cette conférence « Programmer ou être programmé », c’est la devise des hackers. Soit l’école programmée. Le numérique sera partout dans le système éducatif, il sera désormais impossible de réguler quoi que ce soit, l’école sera un client captif. Les outils, les contenus seront produits par une sorte d’industrie numérique qui sera complètement extérieure à l’école et qui va lui dicter sa loi, qui va la transformer en autre chose.
Soit l’école de la liberté. Mais pour ça il faudra utiliser une technologie et des usages qui permettent d’enseigner la science de l’informatique. Autrement dit, la question n’est pas d’utiliser le logiciel libre, ce n’est pas la question. On ne peut utiliser que ce qui existe, ce n’est déjà pas beaucoup. Il s’agit de développer les logiciels libres dont a besoin l’école. Il s’agit de produire des contenus, partagés, qui pourraient être produits par des enseignants, ils sont quand même mieux placés que d’autres pour les produire, mais de manière collaborative pour libérer l’école de cette menace de l’industrie numérique éducative. Au passage, l’argent public pourrait être mieux utilisé qu’en achetant des produits qui en général sont faits par les mêmes enseignants mais avec une autre casquette.
Alors je reviens à Marx. Au 19ème siècle, il avait posé une bonne question : « À qui appartiennent les moyens de production ? » Et bien les moyens de production des contenus et des outils de l’école doivent appartenir à l’école. Donc la question du logiciel libre n’est pas une petite question, c’est la question même de l’école. Et la question n’est pas à l’utilisation. C’est de se mettre à l’école de ce mode de production, pour produire les savoirs, les contenus, pour rendre possible une éducation, une instruction des élèves qui leur permette d’accéder à la liberté, non par la technologie ou par les usages, mais par la science.
Je vous remercie.
[1] François Elie sur le Framabog.
[2] URL d’origine de la transcription avec les questions réponses en bonus.
On nous a fait parvenir cette lettre d’un responsable d’Hadopi qui ne perd pas de temps et souhaite s’inviter dans l’Éducation nationale en animant des ateliers de « sensibilisation » en direction des professeurs et des élèves. Pour ce faire (et c’est malin), on contacte les personnes en charge de la vie lycéenne dans les rectorats.
Nous nous sommes dits que cela pouvait vous intéresser…
N’hésitez pas à manifester votre approbation ou réprobation dans les commentaires ;)
Madame la déléguée,
Hier, mercredi 5 juin, l’Assemblée nationale a adopté définitivement le projet de loi d’orientation et de programmation pour la refondation de l’école de la République.
Ce texte est porteur d’un formidable élan pour le numérique à l’école.
Il modifie notamment la rédaction de l’article L. 312-9 du code de l’éducation qui prévoit désormais que la formation à l’utilisation des outils et des ressources numériques « comporte une sensibilisation aux droits et aux devoirs liés à l’usage de l’internet et des réseaux, dont la protection de la vie privée et le respect de la propriété intellectuelle ».
Il précise également que la prise en compte du numérique sera inscrite dans les plans académiques et nationaux de formation des enseignants et des corps d’inspection et d’encadrement.
Dans ce contexte, l’Hadopi souhaite contribuer à l’information et à la sensibilisation de la communauté éducative et des élèves au droit d’auteur et à la création artistique.
Aussi, nous vous proposons d’animer au sein de votre académie un atelier de sensibilisation à l’attention des enseignants, référents TICE, documentalistes et personnel d’encadrement. Ces ateliers sont composés de différents modules pédagogiques qui visent à apporter à la communauté éducative un éclairage clair et précis sur des enjeux relatifs au droit d’auteur, à la création artistique et aux usages responsables sur Internet mais aussi à répondre à des questions concrètes auxquelles les enseignants sont confrontés dans le cadre de leurs enseignements. Si ce projet vous paraît utile, nous vous proposerons de choisir parmi les 10 modules que nous proposons ceux qui paraissent le plus adaptés aux besoins dans votre académie.
Par ailleurs, nous vous proposons également d’animer un atelier d’information destiné aux élèves de collège / lycée, avec la possibilité éventuelle d’inviter un artiste à présenter son métier et la chaîne de création artistique.
Je me tiens à votre entière disposition pour vous apporter tout renseignement complémentaire et vous prie, Madame la déléguée, d’agréer l’expression de mes salutations distinguées.
XXX
Hadopi
4 rue du Texel
75014 Paris
Crédit photo : Jayneandd (Creative Commons By)
À l’heure où les USA sont empêtrés dans une sombre histoire d’espionnage généralisé à grande échelle, il nous a paru intéressant de déterrer et traduire un article de Richard Stallman rédigé en 2001 juste après le 11 septembre.
Force est de reconnaître qu’une fois de plus il avait pressenti les conséquences néfastes que nous subissons aujourd’hui.
Thousands dead, millions deprived of civil liberties?
Richard Stallman - 2001 - Site personnel
(Traduction : Lamessen, Slystone, Sky, Amine Brikci-N, Asta)
Dans de nombreux cas, les dommages les plus sévères que cause une lésion nerveuse sont secondaires ; ils se produisent dans les heures qui suivent le traumatisme initial, car la réaction du corps à ces dommages tue davantage de cellules nerveuses. Les chercheurs commencent à découvrir des façons de prévenir ces lésions secondaires et réduire les dommages ultimes.
Si nous ne faisons pas attention, les attaques meurtrières sur New York et Washington vont conduire à des effets secondaires bien pire encore, si le congrès étasunien adopte des « mesures préventives » qui écartent la liberté que l’Amérique représente.
Je ne parle pas de fouilles dans les aéroports ici. Les fouilles de personnes ou de bagages, tant qu’ils ne cherchent pas autre chose que des armes et ne gardent pas de traces de ces fouilles, est juste un désagrément : elles ne mettent pas en danger vos libertés civiles. C’est la surveillance massive de tous les aspects de nos vies qui m’inquiète : de nos appels téléphoniques, nos courriels et nos déplacements physiques.
Ces mesures sont susceptibles d’être recommandées indépendamment du fait qu’elles seraient efficaces pour leur objectif déclaré. Un dirigeant d’une entreprise développant un logiciel de reconnaissance faciale est dit avoir annoncé à des journalistes que le déploiement massif de caméras embarquant un système de reconnaissance faciale aurait empêché les attaques. Le New York Times du 15 septembre cite un congressiste prônant cette « solution ». Étant donné que la reconnaissance humaine du visage effectuée par les agents d’accueil n’a pas permis de stopper les pirates, il n’y a pas de raison de penser que les caméras à reconnaissance faciale informatisée aurait été d’une quelconque aide. Mais cela n’arrête pas les agences qui ont toujours voulu mettre en place plus de surveillance de pousser ce plan aujourd’hui, ainsi que beaucoup d’autres plans similaires. Il faudra l’opposition du public pour les stopper.
Encore plus inquiétant, une proposition visant à exiger des portes dérobées gouvernementales dans les logiciels de chiffrement a déjà fait son apparition.
Pendant ce temps, le Congrès s’est empressé de voter une résolution donnant à Bush les pleins pouvoirs d’utilisation de la force militaire en représailles des attaques. Les représailles peuvent être justifiées, si les auteurs des attaques peuvent être identifiés et ciblés avec soin, mais le Congrès a le devoir d’examiner les mesures spécifiques lorsqu’elles sont proposées. Donner carte blanche au président dans un moment de colère est exactement l’erreur qui a conduit les États-Unis dans la guerre du Vietnam.
S’il vous plait, laissez vos représentants élus et votre président non élu savoir que vous ne voulez pas que vos libertés civiles deviennent les prochaines victimes du terrorisme. N’attendez pas, Les lois sont déjà en cours d’écriture.
Crédit photo : Sigg3net (Creative Commons By)
Il y a peu, nous publiions le billet Framapad de plus en plus utilisé dans l’éducation qui fut l’occasion d’entrer en contact avec un certain nombre d’enseignants utilisant notre libre service.
Un professeur de SVT (Sciences de la Vie et de la Terre) de l’académie de Créteil nous livre ici son témoignage.
Depuis la rentrée dernière (septembre 2012), j’utilise Framapad avec mes élèves de 6e au quotidien. Sans installation et facile à prendre en main, cet outil collaboratif est adapté aux jeunes collégiens et intéressant pour l’enseignant quelle que soit sa discipline.
En Sciences de la Vie et de la Terre, nous l’utilisons principalement pour construire la synthèse collaborative de nos activités scientifiques, avant, pendant et après la classe. Après 8 mois d’utilisation, plusieurs bénéfices se dégagent pour les élèves et l’enseignant.
Le premier est celui de la motivation. Mes élèves 6e sont unanimes : c’est un outil simple, agréable et motivant.
On remarque ensuite que le Framapad est un outil puissant pour les élèves en difficulté : les plus rapides peuvent communiquer et aider leurs camarades depuis leur poste de travail (via le « chat » intégré) tandis que plus l’utilisation simultanée du vidéoprojecteur interactif permet à l’enseignant de contrôler à distance le travail des élèves. Après la classe, le professeur peut contrôler, aider et corriger le travail réalisé. Chacun travaille donc à son rythme et progresse.
Enfin, en un clic, il est facile de créer un « pad ». Je recommande cependant de s’inscrire pour bénéficier d’une adresse web simplifiée plus pratique pour les 6e , de l’archivage du (ou des) document(s) et de la protection du travail par mot de passe.
Avec le développement du numérique à l’école et la réception en octobre 2012 d’ordinateurs portables[1] distribués à tous les élèves de 6 e de mon département, Framapad s’inscrit dans une démarche pédagogique innovante que je trouve bénéfique pour les élèves. »
Frédéric Véron
Professeur de SVT
[1] Ordinateurs portables distribués par le Conseil Général du Val de Marne aux élèves de 6e du département.
Signalons au passage que le tome 5 de GKND How I met your sysadmin est en cours de publication ;)
Sources :
Crédit : Simon Gee Giraudot (Creative Commons By-Sa)
Un peu d’économie sur le Framablog aujourd’hui, avec le pirate Rick Falkvinge qui voit dans la monnaie Bitcoin une alternative à la fictive toute puissance du dollar.
How Bitcoin can bring down the United States of America
Rick Falkvinge - 4 juin 2013 - Site personnel
(Traduction : Slystone, nhrx, letchesco, Asta, Gatitac, rou + anonymes)
Le Bitcoin représente une menace importante pour la domination monétaire des États-Unis, la seule chose qui conforte encore leur statut de superpuissance mondiale. Suite aux défauts de paiement des États-Unis sur leurs emprunts internationaux le 15 août 1971, la balance commerciale américaine avait été maintenue grâce aux menaces militaires et en incitant les gens à acheter des dollars pour financer la permanente consommation des États-Unis. Alors que d’autres devises n’ont pas réussi à dépasser le dollar américain, et donc ce mécanisme qui maintient la dominance économique de la nation, le Bitcoin pourrait bien y parvenir.
Pour comprendre ce scénario, il faut saisir à quel point les États-Unis sont en faillite. Pour certaines raisons, la plupart des feux de l’actualité sont actuellement braqués sur l’échec de l’Euro ; ceci probablement à cause du fait que le dollar américain ait échoué depuis longtemps, et qu’il soit maintenu « sous respiration artificielle » en faisant éclater plus difficilement une bulle spéculative par jour. Une version ELI5 est disponible ici (NdT : ELI5 : « explain it like I’m five », expliquez-le-moi comme si j’avais 5 ans), mais en un mot, les États-Unis sont en défaut de remboursement de leurs emprunts internationaux suite à la guerre du Viêtnam, et depuis ont dû emprunter de plus en plus pour financer leur consommation extravagante. Depuis bien longtemps ils empruntent toujours plus, pour simplement rembourser les intérets des emprunts antérieurs. L’an dernier, le déficit du budget des États-Unis a atteint le niveau astronomique de 50 % — pour chaque dollar de recette, deux ont été dépensés. Étrangement, peu de monde en parle — j’imagine que si c’était le cas, la capacité des États-Unis à rembourser leurs emprunts serait remise en question, ce qui provoquerait l’écroulement du château de cartes comme si une tonne de briques était déversée dessus, alors personne n’a intêret à faire des vagues. Après tout, tout le monde est assis sur des réserves de dollars qui deviendraient sans valeur du jour au lendemain si ceci devait arriver.
Les États-Unis ont relancé leurs planches à billets le 15 août 1971 et ne les ont pas arrêtées depuis. Rien que pour l’année 2011, 16 mille milliards (un 16 suivi de douze zéros) de dollars ont été imprimés pour maintenir l’économie américaine. Pour se faire une idée, c’est un peu plus que le produit intérieur brut des États-Unis. Pour chaque dollar produit à partir de la valeur (ajoutée), un dollar supplémentaire a été imprimé à partir de rien, dans l’espoir que quelqu’un voudrait bien l’acheter. Et les gens l’achètent ! C’est un fait, il y a ici un mécanisme clé qui force les gens à continuer à acheter des dollars américains.
Les États-Unis sont maintenus en vie en tant que nation par le fait que si quelqu’un souhaite acheter des produits à une autre nation comme la Chine, il doit d’abord acheter des dollars américains puis les échanger contre la marchandise qu’il désire en Chine. Cela conduit tous les pays à acheter des tas de dollars américains pour remplir leurs réserves monétaires.
Le fait que les gens soient obligés de continuer d’acheter des dollars américains pour obtenir ce qu’ils veulent de n’importe qui d’autre dans le monde est le mécanisme qui maintient l’ensemble de l’économie américaine et, plus important encore, alimente son armée qui applique à son tour ce mécanisme (voir en Irak, Libye, Iran, etc.). C’est un cycle de domination économique imposé par la force.
(À noter que l’on peut se demander dans quelle mesure la classe moyenne américaine profite encore de ce système. Il y a dix ans, cette boucle auto-alimentée faisait que le niveau de vie moyen aux États-Unis était sensiblement supérieur à celui du reste du monde occidental. De nos jours, les États-Unis arrivent souvent derniers des indicateurs de niveau de vie.)
Puisque les articles sur « la fin du monde » sont d’habitude rejetés comme relevant d’illuminés conspirationnistes, je voulais commencer cet article en présentant des faits économiques reconnus. Les États-Unis sont en faillite et la seule béquille pour les maintenir debout est leur armée, ainsi que le fait que tout le monde a de lourds investissements dans le pays, si bien que personne ne veut les voir faire faillite. Donc les emprunts et les dépenses excessives continuent une journée de plus… jusqu’à ce que cela ne soit plus possible.
Que se passerait-il si les États-Unis étaient un jour incapables de poursuivre leurs dépenses démesurées ? On assisterait à un crash gigantesque de l’économie mondiale, mais plus important, les États-Unis s’effondreraient à la mode soviétique, mais plus gravement encore, en raison de différences structurelles. (Pour comprendre ces différences, réfléchissez au fait que les transports publics ont continué de fonctionner pendant l’effondrement soviétique et que la plupart des familles étaient déjà bien préparées pour faire face à la pénurie de nourriture. Aux États-Unis vous verriez à la place des gens isolés dans des banlieues sans carburant, sans nourriture ni médicaments, avec seulement plein d’armes et de munitions. Consultez l’étude d’Orlov sur l’écart entre les effondrements et le retard d’effondrement pour plus d’informations sur cette différence structurelle).
Arrivent les Bitcoins, qui peuvent briser le cercle vicieux des emprunts et des dépenses excessives.
Comme nous l’avons vu, la raison pour laquelle les gens sont obligés d’acheter du dollar américain, c’est qu’il est la base du système d’échange de valeur. Si vous voulez un gadget fabriqué en Chine ou en Inde, vous devez d’abord acheter des dollars américains, pour ensuite échanger ces dollars contre le gadget. Mais nous l’avons observé, le Bitcoin dépasse de loin le dollar sous tous ses aspects en tant que gage de valeur pour le commerce international. Utiliser des Bitcoins c’est moins cher, plus facile et bien plus rapide que les actuels transferts de valeur internationaux.
Pratiquement toutes les personnes impliquées dans le commerce international à qui j’ai parlé passeraient à un système semblable à Bitcoin si elles en avaient la possibilité, évacuant des années de frustrations héritées du système bancaire actuel (qui utilise le dollar américain). Si cela arrivait, les États-Unis ne seraient plus en mesure de trouver des acheteurs pour leurs dollars fraîchement imprimés qui maintiennent leur économie (et financent leur armée).
Si ce cycle de monopole et dépendance commerciale du dollar prend fin, les États-Unis d’Amérique s’écrouleront. Lourdement. Cela semble inévitable désormais, et le Bitcoin est peut-être le système qui rompra ce cycle.
Crédit photo : Zcopley (Creative Commons By-Sa)
Deux membres influents de Google (et donc d’Internet), Eric Schmidt et Jared Cohen, ont récemment publié le livre The New Digital Age (La Nouvelle ère numérique).
Nous vous en proposons ci-dessous la critique cinglante de Julian Assange qui n’hésite pas à affirmer que « l’avancée des technologies de l’information incarnée par Google porte en elle la mort de la vie privée de la plupart des gens et conduit le monde à l’autoritarisme ».
Lorsque Google s’associe ainsi avec la gouvernement américain, son fameux slogan a du plomb dans l’aile et la menace plane…The Banality of ‘Don’t Be Evil’
Julian Assange - 1er juin 2013 - New York Times
(Traduction : , , , , , , , , , , + anonymes)
« La Nouvelle ère numérique » présente un programme étonnamment clair et provocateur de l’impérialisme technocratique, signé de deux de ses principaux apprentis-sorciers, Eric Schmidt et Jared Cohen, qui élaborent les nouveaux éléments de langage destinés à asseoir la puissance états-unienne sur le monde pour le 21e siècle. Ce langage reflète l’union sans cesse plus étroite entre le Département d’État et la Silicon Valley, incarnée par M. Schmidt, le président exécutif de Google, et par M. Cohen, un ancien conseiller de Condoleezza Rice et de Hillary Clinton, qui est maintenant directeur de Googles Ideas. Les auteurs se sont rencontrés dans le Bagdad occupé de 2009, où ils ont décidé d’écrire ce livre. En flânant parmi les ruines, ils furent excités à l’idée que les technologies de consommation de masse étaient en train de transformer une société laminée par l’occupation militaire des États-Unis. Ils ont décidé que l’industrie des technologies pourrait être un puissant agent de la politique étrangère américaine.
Le livre fait l’apologie du rôle des technologies dans la refonte du monde des nations et des citoyens en un monde semblable à celui des superpuissances dominantes, de gré ou de force. La prose est laconique, l’argumentaire sans détour, la philosophie d’une banalité affligeante. Mais ce n’est pas un livre destiné à être lu. C’est une déclaration majeure destinée à nouer des alliances.
« La Nouvelle ère numérique » est, au-delà de toute autre considération, une tentative par Google de se positionner comme incarnant une vision géopolitique de l’Amérique — la seule et unique entreprise capable de répondre à la question « Où doit aller l’Amérique ? ». Il n’est pas surprenant qu’une sélection imposante des plus farouches bellicistes ait été amenée à donner sa bénédiction à la puissance séduisante du « soft power » occidental. Il faut, dans les remerciements, donner une place de choix à Henry Kissinger, qui, avec Tony Blair et l’ancien directeur de la CIA Michael Hayden, a fait à l’avance les éloges du livre.
Dans celui-ci, les auteurs enfilent avec aisance la cape du chevalier blanc. Un saupoudrage libéral de précieux auxiliaires de couleur politiquement corrects est mis en avant : des pêcheuses congolaises, des graphistes au Botswana, des activistes anti-corruption à San Salvador et des éleveurs de bétail masaïs analphabètes du Serengeti sont tous convoqués pour démontrer docilement les propriétés progressistes des téléphones Google connectés à la chaîne d’approvisionnement informationnelle de l’empire occidental.
Les auteurs présentent une vision savamment simplifiée du monde de demain : les gadgets des décennies à venir ressembleraient beaucoup à ceux dont nous disposons aujourd’hui : simplement, ils seraient plus cool. Le « progrès » est soutenu par l’extension inexorable de la technologie de consommation américaine à la surface du globe. Déjà, chaque jour, un million d’appareils mobiles supplémentaires gérés par Google sont activés. Google, et donc le gouvernement des États-Unis d’Amérique, s’interposera entre les communications de chaque être humain ne résidant pas en Chine (méchante Chine). À mesure que les produits deviennent plus séduisants, de jeunes professionnels urbains dorment, travaillent et font leurs courses avec plus de simplicité et de confort ; la démocratie est insidieusement subvertie par les technologies de surveillance, et le contrôle est revendu de manière enthousiaste sous le terme de « participation » ; ainsi l’actuel ordre mondial qui s’appuie sur la domination, l’intimidation et l’oppression systématiques perdure discrètement, inchangé ou à peine perturbé.
Les auteurs sont amers devant le triomphe égyptien de 2011. Ils jettent sur la jeunesse égyptienne un regard dédaigneux et clament que « le mélange entre activisme et arrogance chez les jeunes est universel ». Des populations numériquement inspirées signifient que les révolutions seront « plus faciles à lancer » mais « plus difficiles à achever ». À cause de l’absence de leaders forts, cela aboutira, ainsi l’explique M. Kissinger aux auteurs, à des gouvernements de coalition qui laisseront la place à l’autocratie. selon les auteurs « il n’y aura plus de printemps » (mais la Chine serait dos au mur).
Les auteurs fantasment sur l’avenir de groupes révolutionnaires « bien équipés ». Une nouvelle « race de consultants » va « utiliser les données pour construire et peaufiner une personnalité politique. »
« Ses » discours et ses écrits seront nourris (ce futur est-il si différent du présent ?) « par des suites logicielles élaborées d’extraction d’informations et d’analyse de tendances » alors « qu’utiliser les fonctions de son cerveau », et autres « diagnostics sophistiqués » seront utilisés pour « évaluer les points faibles de son répertoire politique ».
Le livre reflète les tabous et obsessions institutionnels du Département d’État (NdT : l’équivalent du Ministère des Affaires étrangères). Il évite la critique sérieuse d’Israël et de l’Arabie Saoudite. Il fait comme si, de manière extraordinaire, le mouvement de reconquête de souveraineté en Amérique Latine, qui a libéré tant de pays des ploutocraties et dictatures soutenues par les États-Unis ces 30 dernières années, n’avait jamais existé. En mentionnant plutôt les « dirigeants vieillissants » de la région, le livre ne distingue pas l’Amérique Latine au-delà de Cuba. Et bien sûr, le livre s’inquiète de manière théâtrale des croque-mitaines favoris de Washington : la Corée du Nord et l’Iran.
Google, qui a commencé comme une expression de la culture indépendante de jeunes diplômés californiens — une culture du respect, humaine et ludique — en rencontrant le grand méchant monde, s’est embarqué avec les éléments de pouvoir traditionnels de Washington, du Département d’État à la NSA.
Bien que ne représentant qu’une fraction infinitésimale des morts violentes à l’échelle mondiale, le terrorisme est un des sujets favoris des cercles politiques des États-Unis. C’est un fétichisme qui doit aussi être satisfait, et donc « Le Futur du Terrorisme » a droit à un chapitre entier. Le futur du terrorisme, apprenons-nous, est le cyberterrorisme. S’ensuit une série de scénarios complaisants et alarmistes, incluant un scénario haletant de film catastrophe dans lequel des cyber-terroristes prennent le contrôle des systèmes de contrôle aérien américains et envoient des avions percuter des bâtiments, coupant les réseaux électriques et lançant les armes nucléaires. Les auteurs mettent ensuite les activistes qui participent aux manifs virtuelles dans le même panier.
J’ai une opinion très différente à ce sujet. L’avancée des technologies de l’information incarnée par Google porte en elle la mort de la vie privée de la plupart des gens et conduit le monde à l’autoritarisme. C’est la thèse principale de mon livre, « Cypherpunks » (traduit en français sous le titre ”Menace sur nos libertés”. Mais, tandis que MM. Schmidt et Cohen nous disent que la mort de la vie privée aidera les gouvernements des « autocraties répressives » à « cibler leurs citoyens », ils affirment aussi que les gouvernements des démocraties « ouvertes » le verront comme une bénédiction permettant de « mieux répondre aux problèmes des citoyens et des consommateurs ». En réalité, l’érosion de la vie privée en Occident et la centralisation du pouvoir qui lui est associée rendent les abus inévitables, rapprochant les « bonnes » sociétés des « mauvaises ».
La section du livre relative aux « autocraties répressives » décrit nombre de mesures de surveillance répressives qu’elle condamne : les lois dédiées à l’insertion de « portes dérobées » dans des logiciels afin de rendre possibles l’espionnage de citoyens, la surveillance de réseaux sociaux et la collecte d’informations relatives à des populations entières. Toutes ces pratiques sont d’ores et déjà largement répandues aux États-Unis. En fait, certaines de ces mesures, comme celle qui requiert que chaque profil de réseau social soit lié à un nom réel, ont été défendues en premier lieu par Google lui-même.
Tout est sous nos yeux, mais les auteurs ne peuvent le voir. Ils empruntent à William Dobson l’idée selon laquelle les médias, dans une autocratie, « permettent l’existence d’une presse d’opposition aussi longtemps que les opposants au régime comprennent quelles sont les limites implicites à ne pas franchir ». Mais ces tendances commencent à émerger aux États-Unis. Personne ne doute des effets terrifiants des enquêtes menées sur The Associated Press et James Rosen de Fox News. Reste que le rôle de Google dans la comparution de Rosen a été peu analysé. J’ai personnellement fait l’expérience de ces dérives.
Le ministère de la Justice a reconnu en mars dernier qu’il en était à sa 3ème année d’enquête criminelle sur Wikileaks. Le témoignage du tribunal fait remarquer que ses cibles incluent « les fondateurs, propriétaires ou gestionnaires de WikiLeaks ». Une source présumée, Bradley Manning, fait face à un procès de 12 semaines à partir de demain, avec 24 témoins de l’accusation qui témoigneront à huis clos.
Ce livre est une œuvre de très mauvais augure dans laquelle aucun auteur ne dispose du langage pour appréhender, encore moins pour exprimer, le gigantesque mal centralisateur qu’ils sont en train de construire. « Ce que Lockheed Martin était au 20e siècle, les sociétés technologiques et de cybersécurité le seront au 21e siècle », nous disent-ils. Sans même comprendre comment, ils ont mis à jour et, sans accroc, mis en œuvre la prophétie de George Orwell. Si vous voulez une vision du futur, imaginez des lunettes Google, soutenues par Washington, attachées — à jamais — sur des visages humains disponibles. Les fanatiques du culte de la technologie de consommation de masse y trouveront peu de matière à inspiration, pas qu’ils en aient besoin visiblement, mais c’est une lecture essentielle pour quiconque se retrouve pris dans la lutte pour le futur, ayant en tête un impératif simple : connaissez vos ennemis.
Crédit photo : Steve Rhodes (Creative Commons By-Nc-Nd)
Goûts musicaux, culinaires, vestimentaires, etc. vous saurez tout (ou presque) sur Richard Stallman !
En récente conférence à l’Ubuntu Party de Paris, je cherchais un article simple et léger à faire faire à Internet pour illustrer la traduction collaborative sur Framapad. Je me suis souvenu de ce lifestyle de Richard Stallman qui intéressera peut-être ceux que le personnage interpelle ou fascine au delà de son action directe en faveur du logiciel libre.
Le passage sur le port (ou pas) de la cravate est particulièrement savoureux ;)
Richard Stallman - dernière version 2013 - Site personnel
(Traduction : goofy, P3ter, yanc0, Garburst, Cyb, kaelsitoo, yostral, Asta, VIfArgent, yostral, tcit, Chuckman, Jim, Framartin)
Je n’ai pas de préférence particulière pour ceci ou pour cela.
Je n’ai pas de nourriture favorite, de livre favori, de chanson favorite, de blague favorite, de fleur favorite ou de papillon favori. Mes goûts ne fonctionnent pas de cette manière.
En général, dans les domaines des arts ou des sensations, les choses peuvent être bonnes de trente-six manières et elles ne peuvent être comparées ni classées. Je ne peux juger si je préfère le chocolat ou les nouilles, car je les aime différemment. Ainsi, je ne peux pas déterminer quel est mon aliment préféré.
Jusqu’en 1998 environ, mon bureau au MIT était aussi mon lieu de résidence. C’était même mon adresse officielle pour voter. Aujourd’hui ma résidence est à Cambridge, pas loin du MIT. Cependant, j’y suis rarement étant donné que je voyage beaucoup.
Je trouve les cravates inconfortables, donc je n’en porte pas. Si les cravates étaient simplement une option vestimentaire, je refuserais simplement de les utiliser mais il n’y aurait aucune raison de faire tout un tapage à ce sujet. Cependant, il y a une pression sociale absurde sur les hommes pour qu’ils portent des cravates. Ils le font dans le but d’aspirer à devenir le patron.
Lorsque je travaillais au MIT, j’étais choqué que les diplômés du MIT, des gens qui auraient pu imposer eux-mêmes leurs conditions pour avoir un emploi, se sentaient obligés de porter des cravates à des entretiens d’embauche, même pour des entreprises qui (ils le savaient) avaient le bon sens de ne pas leur demander de porter des cravates au travail.
Je pense que la cravate signifie: « Je serai un employé tellement servile que je suis prêt à faire des trucs complètements stupides juste parce que vous me dites de les faire. » Se rendre à un entretien d’embauche sans cravate est une façon de dire que vous ne voulez pas travailler pour quelqu’un qui cherche des employés serviles.
Les gens qui portent des cravates dans ces circonstances sont des victimes-complices : chaque personne qui craque sous la pression et porte une cravate augmente la pression sur les autres. C’est un concept central pour comprendre d’autres formes de propagations de cochonneries, comme les logiciels propriétaires ou Facebook. En fait, c’est grâce aux cravates que j’ai d’abord compris ce phénomène.
Je ne condamne pas les victimes-complices, puisque ce sont d’abord des victimes avant d’être des complices. Mais je crois que je ne dois pas être l’un d’eux. J’espère que mon refus de porter une cravate rendra la chose plus aisée à refuser pour d’autres.
La première fois que j’ai visité la Croatie, il y avait dans ce pays une grande campagne de publicité basée sur l’origine de la cravate (« Cravate » et « Croatie » sont de la même famille). Vous pouvez imaginer mon dégoût pour cette pub — et donc j’ai appelé ce pays « Cravatland » pendant un moment.
La tenue correcte exigée par la Free Software Foundation nécessite une casquette à hélice, tout le reste est optionnel. Quand bien même nous n’appliquons pas cette règle.
Je refuse d’avoir des cartes de fidélité personnelles car elles sont une forme de surveillance. Je préfère payer un peu plus pour ma vie privée et résister à un système abusif. Allez voir sur nocards.org pour plus d’informations à ce sujet.
Cependant, ça ne me dérange pas d’utiliser la carte ou le numéro de quelqu’un d’autre de temps en temps pour faire des économies. Ça ne me surveille pas moi.
J’utilise les cartes Grand Voyageur des compagnies aériennes puisque de toute façon elles demandent à connaître mon identité. Cependant, je n’achèterai rien d’autre avec cette carte pour obtenir des miles, parce que je préfère payer comptant et rester anonyme.
Je refuse d’avoir un téléphone portable car ce sont des dispositifs de localisation et de surveillance. Ils permettent au système du téléphone d’enregistrer les déplacements de l’utilisateur, et beaucoup (peut-être tous) peuvent être convertis à distance en dispositifs d’écoute.
En outre, la plupart d’entre eux sont des ordinateurs avec des logiciels non libres installés. Même s’ils ne permettent pas à l’utilisateur de remplacer le logiciel, quelqu’un d’autre peut le remplacer à distance. Dès lors que le logiciel peut être modifié, nous ne pouvons pas le considérer comme équivalent à un circuit. Une machine qui autorise l’installation de logiciels est un ordinateur, et les ordinateurs devraient tourner avec des logiciels libres.
Quand j’ai besoin d’appeler quelqu’un, je demande à une personne à proximité de me laisser passer un appel.
La plupart du temps je ne m’occupe pas des vacances, sauf Grav-mass (NdT : L’anniversaire de Newton, le 25 décembre, i.e. Noël). Elles n’ont pas d’effet direct sur moi, étant donné que je travaille lorsque je le décide (c’est-à-dire la plupart du temps) et fais autre chose lorsque je le désire.
Si j’avais une famille, et que les vacances étaient une occasion particulière pour pratiquer une activité de loisir lorsque les autres n’ont pas à aller au travail ou à l’école, cela serait une raison rationnelle de s’y intéresser. Toutefois, j’ai décidé de ne pas avoir de famille, et je n’ai pas besoin d’attendre des vacances pour voir mes amis.
La plupart des fêtes sont devenues des événements commerciaux : les relations publiques des grandes compagnies ont inculqué aux gens qu’acheter des trucs pour leurs amis et leur famille était « la chose à faire » ces jours-là, qu’il s’agissait de la plus sincère expression d’amour. Je n’aime pas me sentir obligé d’offrir un cadeau pour un événement sans valeur, et je ne veux pas recevoir de cadeaux dans ces circonstances non plus ; ainsi, je m’abstiens.
J’aime les trains, et je préfère prendre le train pour plusieurs heures que prendre l’avion.
Toutefois, je refuse catégoriquement de prendre les trains Amtrak car ils vérifient les identités des passagers (parfois, pas toujours). Rejoignez-moi dans le boycott d’Amtrak jusqu’à ce qu’ils arrêtent d’exiger l’identification.
Dans un premier temps, j’utilise un manuel pour apprendre à lire la langue et des enregistrements audio pour m’initier à la prononciation des mots. Une fois le manuel terminé, je commence à lire des romans pour enfants (pour les 7-10 ans) avec un dictionnaire. Je passe ensuite aux livres pour adolescents quand je connais assez de mots pour que la lecture soit assez rapide.
Lorsque mon vocabulaire est suffisamment développé, je commence aussi à utiliser la langue dans les emails que j’échange avec des natifs.
Je n’essaie pas vraiment de parler une langue tant que que je ne connais pas suffisament de mots pour dire les choses complexes que j’ai, d’ordinaire, envie de dire. Les phrases simples sont à peu près aussi rares dans mes discours que dans cet article. En plus, je dois connaître la façon de demander comment dire telle ou telle chose, ce que signifie tel ou tel mot, comment différencier le sens de certains mots, et comment comprendre les réponses. J’ai commencé à parler français lors de ma première visite en France. Je décidai, lors de mon arrivée à l’aéroport que je ne parlerai que français pendant les six semaines de mon séjour. Ce fut frustrant pour mes collègues dont l’anglais était bien meilleur que mon français. Mais cela m’a permis d’apprendre.
J’ai décidé d’apprendre l’espagnol quand j’ai vu une page dans cette langue et me suis rendu compte que je pouvais en lire une grand partie (étant donné mon niveau de français et d’anglais). J’ai suivi l’approche décrite ci-dessus et j’ai commencé à parler espagnol lors d’une visite à Mexico quelques années plus tard.
Quant à l’indonésien, je n’ai pas assez de vocabulaire pour parler tout le temps cette langue quand je suis en Indonésie, mais j’essaie de le faire autant que je peux.
J’ai horreur de m’ennuyer, et comme j’aime accomplir beaucoup de choses, je n’aime pas perdre mon temps. Ainsi, j’ai toujours avec moi un ordinateur et un livre. Lorsque je dois attendre quelques minutes et que je peux m’asseoir, je travaille. Lorsque je dois rester debout, ou n’ai pas assez de temps pour accomplir quelque chose de significatif sur l’ordinateur, je lis.
Lorsque j’attends mes bagages à l’aéroport, je fais toujours une de ces deux choses. Et je vois les gens autour de moi, inquiets et passifs. Quel gâchis.
Crédit photo : Preliminares (Creative Commons By-Sa)