Issu du monde éducatif, Framasoft est un réseau de sites web collaboratifs à géométrie variable dont le dénominateur commun est le logiciel libre.
Nous vous proposons ci-dessous la traduction d’un récent article de Richard Stallman sur l’usage des licences Creative Commons dans l’éducation.
Et c’est bien le pluriel de ces licences Creative Commons qui pose problème. Le choix majoritaire de la fameuse clause non commerciale NC serait contre-productive voire toxique dans le champ considéré ici.
« J’exhorte Creative Commons à prendre position et à déclarer que les œuvres censées être utilisés en pratique, y compris la documentation pédagogique et les œuvres de référence soient, comme les logiciels, diffusés uniquement sous des licences libres… Les licences CC BY-NC et CC BY-NC-SA, telles qu’elles existent aujourd’hui, doivent être évitées. »
L’occasion également pour Stallman de rappeler que cohabitent au sein des Creative Commons des licences libres et d’autres non libres, et que ces dernières sont tout à fait acceptables voire légitimes lorsqu’il s’agit d’œuvres artistiques ou d’opinion (ce qui n’est donc pas le cas pour l’éducation).
Un article à confronter avec celui de Calimaq sur Owni : Le non commercial, avenir de la culture libre.
On-line education is using a flawed Creative Commons license
Richard Stallman - version du 14 janvier 2013 - Site personnel
(Traduction du 28 janvier 2013 : albahtaar, Vrinse, goofy, MdM, aKa, KoS, FirePowi, Thérèse, Penguin, revue et corrigée par Richard Stallman)
Des universités de premier plan utilisent une licence non-libre pour leurs ressources d’enseignement numérique. C’est déjà une mauvaise chose en soi, mais pire encore, la licence utilisée a un sérieux problème intrinsèque.
Lorsqu’une œuvre doit servir à effectuer une tâche pratique, il faut que les utilisateurs aient le contrôle de cette tâche, donc ils ont besoin de contrôler l’œuvre elle-même. Cela s’applique aussi bien à l’enseignement qu’au logiciel. Pour que les utilisateurs puissent avoir ce contrôle, ils ont besoin de certaines libertés (lisez gnu.org), et l’on dit que l’œuvre est libre. Pour les œuvres qui pourraient être utiles dans un cadre commercial, les libertés requises incluent l’utilisation commerciale, la redistribution et la modification.
Creative Commons publie six licences principales. Deux sont des licences libres : la licence « Partage dans les mêmes conditions » CC BY-SA est une licence libre avec gauche d’auteur (en anglais, « copyleft ») forçant l’utilisation de la même licence pour les œuvres dérivés, et la licence « Attribution » (CC BY) qui est une licence libre sans gauche d’auteur. Les quatre autres ne sont pas libres, soit parce qu’elles ne permettent pas de modification (ND) soit parce qu’elles ne permettent pas d’utilisation commerciale (NC).
Selon moi, les licences non libres qui permettent le partage sont légitimes pour des œuvres artistiques ou de divertissement. Elle le sont également pour des œuvres qui expriment un point de vue (comme cet article lui-même). Ces œuvres ne sont pas dédiés à une utilisation pratique, donc l’argument concernant le contrôle par l’utilisateur ne s’y applique pas. Ainsi, je ne vois pas d’objection à ce qu’elles soient publiées sous licence CC BY-NC-ND, qui ne permet que la redistribution non commerciale de copies identiques à l’original.
L’utilisation de cette licence pour une œuvre ne signifie pas qu’il soit totalement impossible de la publier commercialement ou avec des modifications. La licence n’en donne pas la permission, mais vous pouvez toujours demander la permission au détenteur du droit d’auteur, peut-être avec un contrepartie, et il se peut qu’il vous l’accorde. Ce n’est pas obligé, mais c’est possible.
Cependant, deux des licences non libres CC mènent à la création d’œuvres qui, en pratique, ne peuvent pas être publiés à des fins commerciales, car il n’existe aucun moyen d’en demander l’autorisation. Ce sont les licences CC BY-NC et CC BY-NC-SA, les deux licences CC qui autorisent les modifications mais pas l’utilisation de manière commerciale.
Le problème survient parce que, avec Internet, les gens peuvent facilement (et légalement) empiler les modifications non-commerciales les unes sur les autres. Sur des décennies, il en résultera des œuvres avec des centaines, voire des milliers de contributeurs.
Qu’arrive-t-il si vous voulez utiliser commercialement l’une de ces œuvres ? Comment pouvez-vous en obtenir l’autorisation ? Il vous faut demander aux principaux titulaires de droits. Peut-être que certains d’entre eux ont apporté leur contribution des années auparavant et sont impossibles à retrouver. D’autres peuvent avoir contribué des décennies plus tôt, ou même sont décédés, mais leurs droits d’auteur n’ont pas disparu avec eux. Il vous faut alors retrouver leurs descendants pour demander cette autorisation, à supposer qu’il soit possible de les identifier. En général, il sera impossible de se mettre en conformité avec les droits d’auteur sur les œuvres que ces licences incitent à créer.
C’est une variante du problème bien connu des « œuvres orphelines », mais en pire, et ce de manière exponentielle ; lorsque l’on combine les œuvres de très nombreux contributeurs, le résultat final peut se trouver orphelin un nombre incalculable de fois avant même d’être né.
Pour éliminer ce problème, il faudrait un mécanisme impliquant de demander l’autorisation à quelqu’un (faute de quoi la condition NC devient sans objet) mais pas de demander l’autorisation à tous les contributeurs. Il est aisé d’imaginer de tels mécanismes ; ce qui est difficile, c’est de convaincre la communauté qu’un de ces mécanismes est juste et d’obtenir un consensus pour l’accepter.
Je souhaite que cela puisse se faire, mais les licences CC BY-NC et CC BY-NC-SA, telles qu’elles existent aujourd’hui, doivent être évitées.
Malheureusement, l’une d’entre elle est très utilisée. La CC BY-NC-SA, qui autorise la publication non commerciale de versions modifiées sous la même licence, est devenue à la mode dans le milieu de la formation en ligne. Les Open Courseware (didacticiels « ouverts ») du Massachusetts Institute of Technology (MIT) l’ont lancée, et de nombreux autres établissements d’enseignement ont suivi le MIT dans cette mauvaise direction. Alors que, pour les logiciels, « open source » signifie « probablement libre mais je n’ose pas communiquer à ce sujet donc tu dois vérifier toi-même », dans la plupart des projets d’enseignement en ligne « open » veut dire « non libre, sans aucun doute ».
Quand bien même le problème posé par les CC BY-NC-SA et BY-NC serait résolu, elles continueront de ne pas être la bonne façon de publier des œuvres pédagogiques censées servir à des tâches pratiques. Les utilisateurs de ces œuvres, enseignants et étudiants, doivent avoir le contrôle de leur travail, et cela requiert de les rendre libres. J’exhorte Creative Commons à prendre position et à déclarer que les œuvres censées être utilisés en pratique, y compris la documentation pédagogique et les œuvres de référence soient, comme les logiciels, diffusés uniquement sous des licences libres.
Éducateurs, enseignants, et tous ceux qui souhaitent contribuer aux œuvres de formation en ligne : s’il vous plaît, veillez à ce que votre travail ne devienne pas non libre. Offrez votre aide et vos textes à des œuvres pédagogiques qui utilisent des licences libres, de préférence des licences de gauche d’auteur de façon à ce que toutes les versions de l’œuvre respectent la liberté des enseignants et des étudiants. Ensuite, invitez les projets éducatifs à utiliser et redistribuer ces œuvres sur ces bases de respect de la liberté, s’ils le souhaitent. Ensemble, nous pouvons faire de l’éducation un champ de liberté.
Copyright 2012 Richard Stallman
Publié sous licence Creative Commons Attribution - Pas de Modification 3.0 (CC BY-ND 3.0)
Crédit photo : Preliminares 2013 (Creative Commons By-Sa)
Fin 2011, François Hollande annonçait (sans cacher sa fierté pour son département) que la Corrèze avait décidé de mettre un iPad entre les mains de tous les élèves de Sixième dans le cadre du projet Ordicollège.
On peut voir ici en vidéo l’intégralité de son allocution. On y parle d’« égalité », de « meilleur outil pour réussir », on y parle aussi d’un « coût de 1,5 million d’euros ».
Cette opération ayant été reconduite cette année, l’association P.U.L.L.CO (Promotion de l’Utilisation des Logiciels Libres en COrrèze) a décidé de réagir en convoquant la presse et surtout en publiant une lettre ouverte au président du Conseil Général. Ce dernier y a répondu en apportant ses propres arguments.
Cet échange nous a semblé suffisamment intéressant et révélateur pour que nous décidions de le reproduire ci-dessous.
Association P.U.L.L.CO - 26 janvier 2013
Lettre ouverte adressée au Président du Conseil Général de la Corrèze Gérard Bonnet.
Monsieur le Président,
C’est avec une grande déception et une pointe de colère que nous apprenons que le Conseil Général a reconduit la distribution d’iPad aux collégiens corréziens dans le cadre de l’opération Ordicollège.
Lors de son lancement en 2008, l’opération Ordicollège avait fait le choix courageux et intelligent d’équiper les collégiens en matériel informatique fonctionnant grâce à des logiciels libres. Ce choix est depuis 3 ans remis en cause par l’arrivée des iPads, un produit sans clavier, dont les qualités pédagogiques restent à démontrer.
Les logiciels libres reposent sur les libertés que confère la licence d’un logiciel à ses utilisateurs. Ils sont alors libres de les utiliser, de les copier, de les étudier, de les adapter et de les redistribuer, en version originale ou modifiée. Les logiciels libres mettent le plus souvent en œuvre des standards ouverts qui garantissent l’accessibilité aux données et leur réutilisation à des fins d’interopérabilité entre systèmes et logiciels actuels et futurs.
Ce modèle revêt de nombreux intérêts. Tout d’abord il permet une libre circulation des logiciels et le partage du savoir. Chacun peut ainsi s’approprier la connaissance accumulée et l’enrichir de son propre savoir, faisant du logiciel libre un bien commun. Ce modèle rend de fait la distribution de logiciels gratuits possible, ce qui permet leur diffusion au plus grand nombre. Ainsi, avec le modèle du logiciel libre, nul ne peut être exclu de l’accès au savoir, ni de l’accès aux ressources numériques.
Par ailleurs, ce modèle favorise la relocalisation du développement du logiciel au plus près des utilisateurs finaux. Ainsi, l’investissement dans l’économie du logiciel libre permet des retombées économiques locales au lieu de les transférer vers les principaux éditeurs propriétaires, souvent installés aux États-Unis. ll existe des solutions libres à la plupart des usages informatiques. Si elles n’existent pas encore, il suffit d’en financer le développement pour que chacun en profite. Il est donc possible de remettre en cause les positions dominantes d’éditeurs propriétaires à l’origine de situation de dépendance technologique. Pour un investisseur institutionnel tel qu’une collectivité territoriale comme le Conseil Général, ces préoccupations nous semblent prioritaires.
C’est d’ailleurs en ce sens que va la récente réponse du Ministère des PME, de l’innovation et de l’Économie numérique, à une question écrite du député Jean-Jacques Candelier. Cette dernière rappelle les principaux avantages du logiciel libre. D’abord pour les individus, car « chacun peut s’approprier la connaissance » et « nul ne peut être exclu de l’accès au savoir » avec le logiciel libre ; mais aussi pour l’État, pour lequel le logiciel libre « constitue une opportunité qu’il convient de saisir », et pour les industries européennes enfin, notamment en raison de l’indépendance technologique qu’il permet. La position du ministère de Fleur Pellerin fait d’ailleurs suite à la circulaire de Jean-Marc Ayrault sur l’usage des logiciels libres dans les administrations allant dans le même sens.
En choisissant d’équiper les collégiens d’iPad, en plus d’enrichir une entreprise privée américaine avec nos impôts, le Conseil Général de la Corrèze se rend coupable d’enfermer l’ensemble des collégiens corréziens dans le carcan d’Apple. Les usages sont ainsi limités à ce que l’entreprise a décidé ou permis. L’utilisateur n’a pas la possibilité d’explorer l’outil pour le comprendre, ni de l’adapter à ses besoins. Il est contraint d’adapter ses besoins à l’outil. Par exemple le choix volontaire d’Apple d’interdire l’usage de certaines technologies comme Flash et Java sur ses tablettes rend impossible l’accès à certaines ressources éducatives mises à disposition sur les sites web de Sesamath (en Flash) et de Geogebra (en Java).
Par ailleurs, Apple utilise des Mesures Techniques de Protection (MTP ou DRM) pour restreindre les libertés des utilisateurs de diverses manières. Pour ne citer que deux exemples, il est impossible d’installer un logiciel ne provenant pas de l’AppStore officiel, qui n’est contrôlé que par l’intérêt commercial de la firme, et l’usage des films achetés sur iTunes est surveillé. De plus, le contournement de ces restrictions est interdit et considéré par Apple comme un acte criminel.
Plus grave : les données personnelles de tous les collégiens sont menacées. En effet, l’usage de l’iPad contraint ses utilisateurs à enregistrer des données personnelles dans des bases de données détenues par Apple aux États-Unis, c’est-à-dire en dehors du pouvoir de contrôle de la CNIL, censée protéger les données personnelles des citoyens français. De plus, l’usage de ces tablettes, de par leur manque de capacité de stockage, contraint les utilisateurs à enregistrer leurs données ailleurs, souvent dans le « Cloud », en utilisant des services comme Dropbox. Là encore, les données des utilisateurs échappent à leur contrôle au profit d’intérêts commerciaux étrangers et soumises à des lois qu’ils ne connaissent pas.
En outre, la société Apple exerce un filtrage arbitraire sur les logiciels (les « apps ») téléchargeables sur les dispositifs sans clavier qu’elle commercialise (tablettes, téléphones, baladeurs numériques…). La gestion des mises à jour des-dits logiciels est elle aussi particulièrement problématique : les anciennes versions des logiciels ne sont pas accessibles au téléchargement, ce qui a pour conséquence de provoquer une obsolescence artificiellement accélérée des dispositifs qui les accueillent. Ainsi, alors qu’un ordinateur sous GNU/Linux n’est limité dans le temps que par la durée de vie du matériel, un iPad deviendra obsolète lorsque les applications seront déclarées comme n’étant plus installables.
Enfin, ce contrôle monopolistique forcément intéressé est déjà un problème pour les consommateurs de technologies aisés, mais c’est un désastre pour les moins nantis. Le fossé se creuse entre ceux qui ont les moyens d’acheter des applications sur le magasin en ligne d’Apple et ceux qui ne les ont pas. Est-ce le rôle de l’école que d’exacerber les inégalités économiques et sociales des familles ? Est-ce le rôle du Conseil Général de financer ce choix discriminant ? Est-ce le rôle du Conseil Général d’apprendre aux élèves à être les consommateurs d’Apple ?
L’objectif est-il de mettre un appareil connecté dans les mains de chaque collégien, quel qu’en soit le prix et en dépit de leur liberté ? Ou devrions-nous plutôt fournir des outils qui encouragent les élèves et les enseignants au partage de la connaissance en mettant à leurs disposition un environnement dans lequel ils ont la possibilité de résoudre eux-mêmes leurs problèmes ? Pour nous, l’éducation c’est de la créativité, de l’ingéniosité et du partage ; toutes ces caractéristiques étant bien plus puissantes dans le monde du libre que dans celui, verrouillé et rigide, de la tablette numérique du géant américain.
En choisissant de distribuer des iPad aux collégiens, le Conseil Général de la Corrèze a fait le choix politique de suivre un effet de mode, en privilégiant le paraître au bon sens. Ce choix démagogique a un prix, celui de l’aliénation des élèves et des enseignants ainsi que l’évaporation de l’investissement public au seul profit des intérêts d’une entreprise commerciale étrangère.
Ce choix aurait pu être différent, il aurait pu être celui de la liberté, de l’égalité et de la fraternité en choisissant un autre modèle de société, celui, globalisé du nord au sud, du bien commun et du logiciel libre. Les moyens investis depuis de nombreuses années l’auraient été de façon bien plus pérenne en aidant à concevoir une tablette et des ressources numériques libres. De nombreux projets existent déjà et sauraient profiter de l’aide des collectivités territoriales et de la puissance publique pour le bénéfice de tous.
Nous restons à votre entière disposition pour vous apporter plus de précisions sur nos positions et vous faire part de nos propositions pour l’avenir de l’opération Ordicollège.
Librement.
L’association Pullco
OrdiCollège - 30 janvier 2013
Mettre en avant que la tablette est un produit sans clavier tout en argumentant sur la nécessité de faire le choix de tablettes françaises comme le fait l’association Pullco (« il existe des tablettes françaises compétitives », La Montagne, 29/01/13), (« Pourquoi utiliser des tablettes Apple alors que nous avons des tablettes françaises, Archos », L’Echo de la Corrèze, 28/10/13) interroge : la tablette Apple serait donc un produit de moindre qualité que la tablette Archos (également fabriquée en Chine), alors qu’aucune des deux n’a de clavier physique ?
Les collectivités locales sont soumises à une réglementation précise et contraignante dans le cadre des marchés publics. Pour Ordicollège, il s’agit d’un appel d’offres européen, qui a été remporté par une société française et non par Apple. Aucune offre de matériel « français » n’a été déposée, pas plus que d’offres sous environnement « libre ».
Le budget engagé par le Conseil général n’est pas uniquement destiné à l’acquisition du matériel, il revient pour une bonne part à la société française qui a remporté le marché. La chaîne de préparation, la logistique, la gestion administrative, représentent des emplois. La fabrication de la coque de protection a été confiée à une société française, les équipes techniques du constructeur le sont également.
L’association Pullco défend le logiciel libre selon quatre principes : la liberté d’exécuter le programme sans restrictions, la liberté d’étudier le fonctionnement du programme, la liberté de redistribuer des copies du programme, la liberté d’améliorer le programme et de publier ses améliorations. Cette approche, parfaitement recevable, ne répond pas pour autant aux objectifs fixés dans le cadre d’Ordicollège.
Le Conseil général de la Corrèze a fait le choix, depuis 2008, d’équiper les collégiens dans le but de favoriser les apprentissages et la réussite scolaire, notamment pour les élèves en difficulté, et de réduire la fracture numérique. Sans conditions de ressources, ni contraintes liées à la nécessité d’un abonnement internet au domicile. Objectif atteint, comme en atteste le rapport réalisé par la mission d’évaluation de l’Inspection générale de l’Education nationale. Rapport qui souligne également le choix judicieux de la tablette.
Pédagogiquement, cette opération s’inscrit dans la mise œuvre au Collège des compétences définies par le référentiel Education nationale B2i (brevet informatique et internet, mis à jour en décembre 2011).
Le B2i porte sur les pratiques, « les évolutions d’Internet et le développement des usages pédagogiques du numérique afin de mieux préparer les élèves à un usage responsable de ces technologies » ; les objectifs sont les suivants : acquérir, stocker et traiter des informations pour produire des résultats, être un utilisateur averti des règles et des usages de l’informatique et de l’internet, composer un document numérique, chercher et sélectionner l’information demandée, communiquer, échanger.
L’informatique n’est pas une matière enseignée au collège. Ce sont ses usages qui sont au programme et le logiciel (ou application) ne représente qu’une infime part dans ce contexte. Il convient au passage de ne pas faire d’amalgame entre logiciels et ressources pédagogiques, ces dernières pouvant fonctionner avec un logiciel ou de façon autonome.
A partir de ce constat, il est facile de comprendre que les objectifs défendus par l’association Pullco sont éloignés du contexte d’Ordicollège.
L’exclusion de l’accès au savoir n’est pas un argument recevable, chaque collégien étant destinataire du même matériel, des mêmes logiciels. Pas plus que l’idée d’un « enfermement dans le carcan » d’un constructeur. Les fonctionnalités d’un navigateur internet, d’un traitement de texte ou d’un tableur sont identiques, quel que soit l’environnement système.
Au collège, ce sont les bases nécessaires à l’utilisation et à la compréhension de ces outils qui sont enseignées, sachant que plus tard, l’utilisateur sera libre de faire le choix de son environnement personnel, mais qu’il devra aussi s’adapter à l’environnement mis en œuvre dans son cadre professionnel.
L’association Pullco met en avant l’impossibilité d’utiliser les ressources en Flash, en oubliant qu’il ne s’agit pas d’une technologie libre et que celle-ci est aujourd’hui en voie de remplacement par le HTML5. Elle avance également des arguments erronés concernant les données personnelles des élèves : les informations nécessaires sont gérées via des adresses génériques (ex. : tab2019@ordicollege), un alias nominatif étant uniquement ajouté sur le compte de messagerie.
Concernant le téléchargement de logiciels (apps) sur les tablettes, bon nombre sont gratuites et utilisées dans le cadre d’Ordicollège. Par contre, il n’a jamais été question de faire payer des apps aux parents, l’utilisation de cartes bancaires étant interdite dans le cadre de la mise à disposition des tablettes.
Face aux arguments développés par l’association Pullco, il y a la réalité du monde des technologies. Qu’un matériel soit davantage plébiscité qu’un autre ne relève pas uniquement de la communication mise en œuvre par son fabricant. Les utilisateurs savent également faire preuve de discernement.
L’association Pullco comprend parmi ses adhérents des spécialistes des programmes informatiques et c’est tout à son honneur. Mais l’immense majorité des usagers du numérique ne sont pas des passionnés des systèmes ou des entrailles des matériels et des logiciels, ce qui ne signifie pas pour autant que l’on puisse parler pour eux d’alinéation. Cela dit, il est dommage que Pullco n’ait jamais engagé la moindre démarche envers Ordicollège ou pris contact avec ses animateurs pour se renseigner à la source sur l’opération.
Les dirigeants de l’association auraient pu recueillir des informations vraies et précises, notamment sur le travail de recherche et de développement effectué dans le cadre d’Ordicollège. Ainsi, les responsables d’Unowhy, société française ayant remporté l’appel à projets du Ministère de l’Education, qui développent une tablette française (pour l’assemblage seulement) sur la base d’un environnement Linux, étaient en Corrèze le 28/01/2013 pour une réunion de travail sur Ordicollège. Pour eux, la Corrèze est le département le plus en avance dans les usages pédagogiques du numérique et même loin devant les opérations engagées ailleurs en France.
Crédit photos : Brad Flickinger et Devon Christopher Adams (Creative Commons By)
Chaque jeudi à 21h, rendez-vous sur le framapad de traduction, le travail collaboratif sera ensuite publié ici même.
Traduction Framalang :
Anne Gentle
Anne Gentle est une rédactrice technique acharnée et la coordinatrice de la documentation communautaire à Rackspace pour OpenStack, un projet open source d’informatique dans le nuage. Avant de rejoindre OpenStack, Anne travaillait en tant que consultante de publication communautaire, en donnant une direction stratégique aux rédacteurs professionnels qui veulent produire du contenu en ligne sur des wikis contenant des pages et des commentaires générés par les utilisateurs. Sa passion pour les méthodes communautaires de documentation l’ont amenée à écrire un livre sur les techniques de publication collaborative pour la documentation technique intitulé Conversation et communauté : la documentation dans le web social. Elle s’occupe aussi bénévolement de la maintenance de la documentation pour les manuels FLOSS qui proposent de la documentation open source pour les projets open source.
Voilà une prémisse bien étrange : vider mes tripes sur ce que j’aurais voulu savoir de l’open source et de la documentation. Plutôt que de vous dire ce que je veux que vous sachiez sur l’open source et la documentation, je dois vous dire ce que j’aurais aimé que mon moi antérieur sache. Cette demande suscite un sentiment de nostalgie ou de remords voire cette horrible énigme « à quoi pouvais-je bien penser ? ».
En ce qui me concerne, avec juste cinq ans de moins, mon moi antérieur était une trentenaire bien installée dans sa vie professionnelle. D’autres, au contraire, se souviennent qu’ils n’étaient qu’adolescents lors de leurs premières expériences open source. Jono Bacon dans son livre L’art de la Communauté, raconte comment il s’est tenu devant la porte d’un appartement, le cœur battant, alors qu’il était sur le point de rencontrer quelqu’un à qui il n’avait jamais parlé que sur le réseau, par le biais d’une communauté open source. J’ai moi aussi fait cette expérience de la première rencontre physique de gens que j’avais découverts en ligne, mais ma première incursion dans le monde de la documentation open source s’est produite lorsque j’ai répondu à une demande d’aide par courriel.
Le courriel provenait d’un ancien collègue qui me demandait de l’aide pour la documentation de l’ordinateur portable XO, le projet fondateur de l’organisation One Laptop Per Child (un portable pour chaque enfant). J’ai réfléchi à ce que je pensais être une proposition intéressante, j’en ai parlé à mes amis et à mon époux en me demandant si ce n’était pas une bonne occasion d’expérimenter de nouvelles techniques de documentation et d’essayer une chose que je n’avais jamais faite auparavant : une documentation basée sur un wiki. Depuis cette première expérience, j’ai rejoint OpenStack, un projet open source sur une solution d’informatique dans le nuage, et je travaille à plein temps sur la documentation et le support communautaires.
Je pense immédiatement aux nombreuses contradictions que j’ai rencontrées tout au long de la route. J’ai découvert que pour chaque observation il y avait des champs et contre-champs surprenants. Par exemple, la documentation est absolument indispensable pour l’aide aux utilisateurs, l’éducation, la possibilité de choisir ou bien la documentation promotionnelle qui amène à adopter un logiciel. Pourtant, une communauté open source pourra continuer d’avancer malgré le manque de documentation ou de la doc complètement défectueuse. Voici une autre autre collision apparente de valeurs : la documentation pourrait être une très bonne tâche pour démarrer, un point de départ pour les nouveaux volontaires, pourtant les nouveaux membres de la communauté savent si peu de choses qu’il ne leur est pas possible d’écrire ni même d’éditer de manière efficace. En outre les petits nouveaux ne sont pas bien familiers des différents publics auxquels doit servir la documentation.
Ces derniers temps on entend dire un peu partout : « les développeurs devraient écrire la doc de développement » parce qu’ils connaissent bien ce public et par conséquent cela lui serait aussi utile qu’à eux-mêmes. D’après mon expérience, un regard frais et neuf est toujours le bienvenu sur un projet et certaines personnes ont la capacité d’écrire et de partager avec d’autres ce regard frais et empathique. Mais vous n’allez sûrement pas vous mettre à créer une culture « réservée aux novices » autour de la doc parce qu’il est important que des membres essentiels de la communauté technique apportent leur contribution aux efforts de documentation, et qu’ils encouragent aussi les autres à y participer.
Une partie du vilain petit secret sur la documentation des projets open source est qu’il n’existe qu’une frontière pour le moins floue entre leur documentation officielle et leur documentation officieuse. Si seulement j’avais su que les efforts de documentation devraient être sans cesse renouvelés et que de nouveaux sites web pourraient apparaître là où il n’y en avait pas… Une documentation extensive n’est pas le moyen le plus efficace pour s’initier à des projets ou des logiciels mais un parcours sinueux dans les méandres de la documentation sur le Web peut s’avérer plus instructif pour ceux qui veulent lire entre les lignes et avoir ainsi une idée de ce qui se passe dans la communauté grâce à la documentation. Avoir beaucoup de forks(1) et des publics variés peut indiquer que le produit est complexe et qu’il est très suivi. Cela peut aussi signifier que la communauté n’a mis en place aucune pratique quant à la documentation de référence ou que les efforts désorganisés sont la norme.
À mes débuts, j’aurais aimé avoir la capacité de ressentir la « température conviviale » d’une communauté en ligne. Quand vous entrez dans un restaurant rempli de tables nappées de blanc, de couples qui dînent et de conversations feutrées, l’information visuelle et auditive que vous recevez détermine l’ambiance et vous donne quelques indices sur ce que vous vous apprêtez à vivre lors de votre repas. Vous pouvez tout à fait transposer ce concept de température conviviale à une communauté en ligne.
Une communauté open source vous donne quelques indices dans ses listes de discussion, par exemple. Une page de présentation de la liste qui commence par de nombreuses règles et conventions sur la manière de poster, indique une gouvernance très stricte. Une liste de discussion qui contient de nombreuses publications mettant l’accent sur le fait qu’il « n’y a pas de question bête » est plus accueillante pour de nouveaux rédacteurs de documentation.
J’aurais aussi aimé connaître un moyen de ne pas faire uniquement de l’audit de contenu, c’est-à-dire lister le contenu à disposition pour le projet open source, mais de faire aussi de l’audit de communauté, donc lister les membres influents de la communauté open source, qu’il s’agisse ou non de contributeurs.
Pour terminer, une observation à propos de l’open source et de la documentation que j’ai pu vérifier avec plaisir, c’est l’idée que la rédaction de la documentation peut s’effectuer via des « sprints » — grâce à des de brusques dépenses d’énergie avec un public ciblé et un but précis, pour aboutir à un ensemble documentaire de référence.
J’ai été si contente d’entendre lors d’une conférence à SXSW Interactive que les sprints sont tout à fait acceptables pour la collaboration en ligne, qu’il faut s’attendre à des fluctuations du niveau d’énergie de chacun et que c’est OK. La documentation des logiciels est souvent faite à l’arrache dans les moments d’accalmie d’un cycle de release(2) et ça ne pose aucun problème dans la documentation open source qui est basée sur la communauté. Vous pouvez adopter une approche stratégique et coordonnée et continuer tout de même de proposer des évènements de grande intensité autour de la documentation. Ce sont des moments exaltants dans l’open source et mon ancien moi les a pleinement ressentis. C’est une bonne chose que vous continuiez à passer de votre moi antérieur à votre moi actuel avec un paquet de conseils en poche.
(1) Un fork est un nouveau logiciel créé à partir du code source d’un logiciel existant
(2) La release est la publication d’un logiciel
Chaque jeudi à 21h, rendez-vous sur le framapad de traduction, le travail collaboratif sera ensuite publié ici même.
Traduction Framalang :
, , , , , , , , , , , ,Rich Bowen
Rich Bowen a travaillé dans le domaine du logiciel libre et open source pendant près de quinze ans. La majeure partie de son travail a porté sur le serveur HTTP Apache ; il a également travaillé sur Perl, PHP et diverses applications web. Il est l’auteur de Apache Cookbook, The Definitive Guide to Apache et divers autres livres. Il fait également de fréquentes apparitions dans diverses conférences sur les technologies.
J’ai commencé à travailler sur le projet de documentation du serveur HTTP Apache en septembre 2000. Du moins, c’est à ce moment-là que j’ai réalisé mon premier commit dans les docs. Auparavant, j’avais présenté quelques corrections par courriel, et quelqu’un d’autre les avait appliquées.
Depuis cette période, j’ai réalisé un peu plus d’un millier de modifications de la documentation du serveur HTTP Apache, ainsi qu’une poignée de modifications du code lui-même. Ceux qui s’impliquent dans les logiciels libres et open source pour tout un tas de raisons différentes. Certains tentent de se faire un nom. La plupart essaient de « gratter là où ça les démange » comme ils disent, s’efforçant d’ajouter une fonctionnalité, ou de créer une nouvelle brique logicielle pour satisfaire un de leurs besoins.
Je me suis impliqué dans l’écriture de la documentation sur des logiciels parce que j’avais été enrôlé pour aider à l’écriture d’un livre et que la documentation existante était vraiment horrible. Donc, pour rendre le livre cohérent, j’ai dû discuter avec différentes personnes du projet afin qu’elles contribuent à donner du sens à la documentation. Lors de la rédaction de l’ouvrage, j’ai amélioré la documentation, avant tout pour me faciliter la tâche. À peu près à la même époque, Larry Wall, le créateur du langage de programmation Perl, promouvait l’idée selon laquelle les trois principales qualités d’un programmeur étaient la paresse, l’impatience et l’arrogance. Selon moi, Larry avançait des arguments fondés et avec un sens de l’humour certain. Néanmoins, une partie non négligeable de la communauté des programmeurs a pris ses paroles comme un permis de connerie.
La prochaine fois que quelqu’un posera la même question, nous pourrons lui répondre avec un lien vers la réponse. Et les questions que l’on pourrait poser après l’avoir lue devraient être la source d’améliorations et d’annotations à ce qui a déjà été écrit. C’est la vraie paresse. La paresse ne signifie pas simplement se dérober au travail. Cela veut aussi dire faire le travail si bien qu’il n’aura pas à être recommencé.
Nous écrivons de la documentation pour ne pas avoir à répondre aux mêmes questions tous les jours pour le restant de notre vie. Si la documentation est insuffisante, les gens auront des difficultés à utiliser le logiciel. Bien que cela puisse être la source d’une activité lucrative de consultant, il s’agit aussi du meilleur moyen de faire avorter un projet, car les gens abandonneront, frustrés, et se tourneront alors vers d’autres choses qu’ils n’auront pas à passer des heures pour comprendre.
Ainsi, la paresse est la première vertu d’un rédacteur de documentation. Quand un client pose une question, nous devrions répondre à cette question en profondeur. Et même, de la façon la plus complète possible. Nous devrions alors enregistrer cette réponse pour la postérité. Nous devrions l’enrichir avec des exemples et si possible des diagrammes et des illustrations. Nous devrions nous assurer que le texte est clair, grammaticalement correct et éloquent. Nous devrions alors l’ajouter à la documentation existante dans un endroit facile à trouver et largement référencé partout où quelqu’un pourrait le chercher.
La prochaine fois que quelqu’un posera la même question, nous pourrons lui répondre avec un lien vers la réponse. Et les questions que l’on pourrait poser après l’avoir lue devraient être la source d’améliorations et d’annotations à ce qui a déjà été écrit. C’est la vraie paresse. La paresse ne signifie pas simplement se dérober au travail. Cela veut aussi dire faire le travail si bien qu’il n’aura pas à être refait.
ll existe une tendance dans le monde de la documentation technique à être impatient et querelleur. Les sources de cette impatience sont nombreuses. Certaines personnes pensent que, comme elles ont dû travailler dur pour comprendre ces choses, vous le devez aussi. Beaucoup d’entre nous dans le monde du technique sommes des autodidactes et nous avons peu de patience pour ceux qui viennent après nous et veulent accéder rapidement au succès. J’aime appeler ça le comportement du « tire-toi de mon chemin ». Ce n’est pas vraiment constructif.
Si vous ne parvenez pas à être patient avec le client, alors vous ne devriez pas être impliqué dans le service clientèle. Si vous vous mettez en colère quand quelqu’un ne comprend pas, vous devriez peut-être laisser quelqu’un d’autre gérer la question.
Bien sûr, c’est très facile à dire, mais beaucoup plus difficile à faire. Si vous êtes un expert sur un sujet particulier, les gens vont inévitablement venir à vous avec leurs questions. Vous êtes obligé d’être patient, mais comment allez-vous y parvenir ? Cela vient avec l’humilité.
J’ai fait de l’assistance technique, en particulier par liste de diffusion, pendant à peu près deux ans, quand j’ai commencé à suivre des conférences techniques. Ces premières années ont été très amusantes. Des idiots venaient sur une liste de diffusion et posaient des questions stupides que des milliers d’autres perdants avaient posées avant eux. Et si seulement ils avaient regardé, ils auraient trouvé toutes les réponses déjà données auparavant. Mais il étaient trop paresseux et trop bêtes pour le faire.
Ensuite, j’ai assisté à une conférence, et j’ai constaté plusieurs choses. Tout d’abord, j’ai découvert que les personnes qui posaient ces questions étaient des êtres humains. Ils n’étaient pas simplement un bloc de texte écrit noir sur blanc, à espacement fixe. Il s’agissait d’individus. Ils avaient des enfants. Ils avaient des loisirs. Ils connaissaient beaucoup plus de choses que moi sur une grande variété de sujets. J’ai rencontré des gens brillants pour qui la technologie était un outil qui servait à accomplir des choses non techniques. Ils souhaitaient partager leurs recettes avec d’autres cuisiniers. Ils souhaitaient aider les enfants d’Afrique de l’Ouest à apprendre à lire. Ils étaient passionnés de vin et voulaient en apprendre davantage. Ils étaient, en bref, plus intelligents que moi, et mon orgueil était le seul obstacle sur la route de leur succès.
Quand je suis revenu de cette première conférence, j’ai regardé les utilisateurs de listes de diffusion sous un tout autre jour. Ce n’étaient plus des idiots posant des questions stupides, simplement des gens qui avaient besoin d’un peu de mon aide pour pouvoir accomplir une tâche. Pour la plupart, la technologie n’était pas une passion. La technologie était seulement un outil. Il était donc compréhensible qu’ils n’aient pas passé des heures à lire les archives de la liste de diffusion de l’année passée et choisissent plutôt de reposer des questions.
Bien entendu, si un jour les aider devient pénible, la chose la plus polie à faire est de prendre du recul et de laisser quelqu’un d’autre répondre à la question plutôt que de leur dire que ce sont des imbéciles. Mais il faut aussi se rappeler toutes les fois où j’ai eu à poser des questions stupides.
En fin de compte, tout cela se résume à la politesse et au respect. J’ai principalement abordé la question de l’assistance technique, mais la documentation n’est rien d’autre qu’une forme statique d’assistance technique. Elle répond aux questions que vous attendez des gens et elle offre des réponses dans une forme semi-permanente à titre de référence.
Lorsque vous écrivez cette documentation, vous devriez essayer de trouver le juste équilibre entre penser que votre lecteur est un idiot et penser qu’il devrait déjà tout savoir. D’un côté, vous lui demandez de s’assurer que l’ordinateur est branché, de l’autre, vous utilisez des mots comme « simplement » et « juste » pour faire comme si chaque tâche était triviale, laissant au lecteur l’impression qu’il n’est pas tout à fait à la hauteur.
Cela implique d’avoir beaucoup de respect et d’empathie pour votre lecteur, en essayant de vous rappeler ce que c’est que de débuter ou d’avoir un niveau intermédiaire dans l’apprentissage d’un nouveau logiciel. Cependant, les exemples de mauvaise documentation sont si répandus qu’il ne doit pas être difficile de s’en souvenir. Il y a des chances que vous en ayez fait l’expérience au cours de la dernière semaine.
J’aurais aimé être moins arrogant quand j’ai commencé à travailler sur la documentation open source. Quand je relis ce que j’ai pu écrire sur des listes de diffusion archivées publiquement, gravées à jamais dans le marbre d’Internet, j’ai honte d’avoir été aussi grossier.
La plus grande vertu humaine est la politesse. Toutes les autres vertus en découlent. Si vous ne pouvez pas être poli, tout ce que vous accomplirez importera peu.
Chaque jeudi à 21h, rendez-vous sur le framapad de traduction, le travail collaboratif sera ensuite publié ici même.
Traduction Framalang :
Atul Jha
Atul Jha utilise des logiciels libres depuis 2002. Il travaille en tant que spécialiste des applications au CSS Corp, à Chennai en Inde. Il aime parcourir les universités, rencontrer des étudiants et propager la bonne parole du logiciel libre.
En 2002, on naviguait sur Internet dans des cybercafés en raison du coût important des accès par lignes commutées. À l’époque, la messagerie instantanée de Yahoo était très populaire et j’avais pris l’habitude de discuter sur le canal #hackers. Il y avait quelques fous furieux là-dedans qui prétendaient qu’ils pouvaient pirater mon mot de passe. J’étais très impatient d’en savoir plus sur le piratage et de devenir l’un d’eux. Le lendemain, je suis retourné au cybercafé et j’ai tapé « comment devenir un hacker » sur le moteur de recherche Yahoo. La toute première URL dirigeait sur le livre d’Eric S. Raymond. J’étais fou de joie à l’idée d’entrer dans le cercle des initiés.
J’ai commencé à lire le livre et à ma grande surprise la définition de hacker était « quelqu’un qui aime résoudre les problèmes et dépasser les limites ». Il y est également écrit : « les hackers construisent des choses, les casseurs les brisent »(1). Hélas, je cherchais le côté obscur, celui des crackers, et ce livre m’a mené de l’autre côté de la force, celui des hackers. J’ai continué à lire le livre et à rencontrer divers termes nouveaux tels que GNU/Linux, liste de diffusion, groupe d’utilisateur Linux, IRC, Python et bien d’autres encore.
En poursuivant mes recherches, j’ai pu trouver un groupe d’utilisateurs de Linux à Delhi et j’ai eu l’opportunité de rencontrer de vrais hackers. J’avais l’impression d’être dans un autre monde quand ils parlaient de Perl, RMS, du noyau, des pilotes de périphériques, de compilation et d’autres choses qui me passaient bien au-dessus la tête.
J’étais dans un autre monde. J’ai préféré rentrer à la maison et trouver une distribution Linux quelque part. J’avais bien trop peur pour leur en demander une. J’étais loin de leur niveau, un débutant totalement idiot. J’ai réussi à en obtenir une en payant 1 000 Roupies indiennes [ NdT : environ 13,92 €] à un gars qui en faisait le commerce. J’en ai essayé beaucoup mais je n’arrivais pas à faire fonctionner le son. Cette fois-là, je décidais de consulter un canal IRC depuis le cybercafé. Je trouvai #linux-india et lançai : « g ok1 son ». Des injonctions fusèrent alors : « pas de langage SMS » et « RTFM ». Ça m’a fait encore plus peur et j’ai mis du temps à faire la relation entre « RTFM » et « read the fucking manual » [NdT : « lis le putain de manuel » dans la langue de Molière].
J’étais terrifié et j’ai préféré rester à l’écart de l’IRC pendant quelques semaines.
Un beau jour, j’ai reçu un courriel qui annonçait une réunion mensuelle de groupes d’utilisateurs Linux. J’avais besoin de réponses à mes nombreuses questions. C’est là que j’ai rencontré Karunakar. Il m’a demandé d’apporter mon ordinateur à son bureau, où il avait l’intégralité du dépôt de Debian. C’était nouveau pour moi, mais j’étais satisfait à l’idée de pouvoir enfin écouter de la musique sur Linux. Le lendemain, j’étais dans son bureau après avoir fait le trajet avec mon ordinateur dans un bus bondé, c’était génial. En quelques heures, Debian était opérationnel sur mon système. Il m’a aussi donné quelques livres pour débutants et une liste des commandes de base.
Le lendemain, j’étais à nouveau au cybercafé, et je lisais un autre essai d’Eric S. Raymond, intitulé Comment poser les questions de manière intelligente. Je continuais de fréquenter le canal #hackers sur Yahoo chat où je m’étais fait un très bon ami, Krish, qui m’a suggéré d’acheter le livre intitulé Commandes de références sous Linux. Après avoir passé quelque temps avec ces livres et en utilisant tldp.org (The Linux Documentation Project comme support, j’étais devenu un utilisateur débutant sous Linux. Je n’ai jamais regardé en arrière. J’ai aussi assisté à une conférence sur Linux où j’ai rencontré quelques hackers de Yahoo, écouter leurs conférences m’a beaucoup inspiré. Quelques années plus tard, j’ai eu la chance de rencontrer Richard Stallman qui est une sorte de dieu pour beaucoup de gens dans la communauté du logiciel libre.
Je dois reconnaître que la documentation d’Eric S. Raymond a changé ma vie et sûrement celle de beaucoup d’autres. Après toutes ces années passées dans la communauté du logiciel libre, je me suis rendu compte que la documentation est la clé pour amener des débutants à participer à cette extraordinaire communauté open source. Mon conseil à deux balles à tous les développeurs serait : s’il vous plaît, documentez votre travail, même le plus petit, car le monde est plein de débutants qui aimeraient le comprendre. Mon blog propose un large éventail de publications, qui vont des plus simples comme l’activation de la vérification orthographique dans OpenOffice à celles, plus complexes, traitant de l’installation de Django dans un environnement virtuel.
[1] NdT : Un hacker sait où et comment bidouiller un programme pour effectuer des tâches autres que celles prévues par ses concepteurs alors qu’un cracker est un pirate informatique spécialisé dans le cassage des protections dites de sécurité.
Source : Il ne faut plus dire ”hashtag” mais « mot-dièse » (Numerama)
Crédit : Simon Gee Giraudot (Creative Commons By-Sa)
Depuis 2011, date du fracassant rachat de Skype par Microsoft pour plusieurs milliards de dollars, la situation des données collectées par l’application est encore plus floue que par le passé. D’autant que quand on débourse une telle somme on attend un certain retour sur investissement !
C’est ce qui a poussé un collectif d’auteurs à écrire une lettre ouverte demandant rapidement des éclaircissements.
PS : Sauf bien sûr si on s’en passe et en passe par une solution libre ;)
Lettre collective - 24 janvier 2013
(Traduction : Skydevil, toto, RavageJo, Progi1984, lmnt, Metal-Mighty, ehsavoie, Alpha, arcady, Penguin, Zilkos + anonymous)
De la part des défenseurs des libertés personnelles et de la vie privée, de militants d’Internet, de journalistes et de diverses organisations
À l’attention :
du Président de la division Skype, Tony Bates
du Directeur en charge de la vie privée du groupe Microsoft, Brendon Lynch
de l’avocat général du groupe Microsoft, Brad Smith
Chers MM Bates, Lynch et Smith,
Skype est une plateforme de communication vocale, vidéo et textuelle qui compte plus de 600 millions d’utilisateurs à travers le monde, ce qui en fait de facto une des plus grandes entreprises de télécommunication au monde. Nombreux sont les utilisateurs qui comptent sur la sécurité des communications via Skype, que ce soit des activistes dans des pays gouvernés par des régimes totalitaires, des journalistes communiquant avec des sources confidentielles ou de simples utilisateurs qui souhaitent parler, en privé, à leurs associés, leur famille ou leurs amis.
Il est préjudiciable que ces utilisateurs, ainsi que ceux qui les conseillent en terme de sécurité informatique, se trouvent en permanence face à des déclarations obscures et ambiguës quant à la confidentialité des conversations Skype, en particulier en ce qui concerne la possibilité pour des gouvernements ou des personnes tierces d’accéder à leur données personnelles et leurs communications.
Nous comprenons que la transition engendrée par le rachat de Microsoft, et les modifications légales ainsi que celles de l’équipe dirigante en découlant, puissent avoir levé des questions auxquelles il est difficile de répondre officiellement, quant à l’accès légal, à la collecte des données des utilisateurs et au degré de sécurité des communications via Skype. Cependant nous pensons que depuis l’annonce officielle du rachat en Octobre 2011, et à la veille de l’intégration de Skype dans plusieurs de ses logiciels et services clefs, il est temps que Microsoft documente publiquement les pratiques de Skype en termes de sécurité et de respect de la vie privée.
Nous demandons à Skype de publier et de mettre à jour régulièrement un rapport de transparence comprenant les élements suivants :
D’autres entreprises telles que Google, Twitter et Sonic.net publient d’ores et déjà des rapports de transparence détaillant les requêtes d’accès aux données des utilisateurs émanant de tierces parties, et cela deux fois par an. Nous pensons que ces informations sont vitales pour nous permettre d’aider les utilisateurs de Skype les plus vulnérables, qui s’appuient sur votre logiciel pour assurer la confidentialité de leurs communications et, dans certains cas, protéger leurs vies.
Cordialement,
Les personnes soussignées.
Crédit photo : Mike Licht (Creative Commons By)
[1] Loi exigeant des points d’entrée pour les écoutes par les services de sécurité et de contre espionnage des communications, il n’y a pas un acte global regroupant toutes les lois concernants les écoutes et interceptions légales ni harmonisation européenne mais plusieurs lois françaises permettent l’écoute et l’interception légale des communications sur un réseau public.
Chaque jeudi à 21h, rendez-vous sur le framapad de traduction, le travail collaboratif sera ensuite publié ici même.
Traduction Framalang :
Jonathan “Duke” Leto
Jonathan Leto, dit « Le Duc » est un développeur de logiciel, un mathématicien dont les travaux sont publiés , un ninja de Git et un passionné de cyclisme qui vit à Portland, en Oregon. C’est l’un des développeurs principaux de la machine virtuelle Parrot et le fondateur de Leto Labs LLC.
Lorsque j’ai commencé à m’impliquer dans le logiciel libre et open source, je n’avais aucune idée de ce que pouvaient être les tests ni de leur importance. J’avais travaillé sur des projets personnels de programmation auparavant, mais la première fois que j’ai réellement travaillé sur un projet collaboratif (c’est-à-dire en faisant un peu de commit) c’était pour Yacas, acronyme de Yet Another Computer Algebra System, (NdT : encore un autre logiciel de calcul algébrique similaire à Mathematica).
À ce stade de mon parcours, les tests ne venaient qu’après coup. Mon méta-algorithme général était : bidouiller du code > voir si ça fonctionne> écrire (éventuellement) un test simple pour démontrer que ça fonctionne. Un test difficile à écrire n’était généralement jamais écrit.
C’est le premier pas sur la voie qui mène à la Lumière grâce aux tests. Vous savez que les tests sont probablement une bonne idée, mais vous n’en avez pas vu clairement les bénéfices, alors vous vous contentez de les écrire de temps en temps.
Si je pouvais ouvrir un trou de souris dans l’espace-temps et donner à mon moi plus jeune un conseil plein de sagesse sur les tests, ce serait :
« Certains tests sont plus importants, sur le long terme, que le code qu’ils testent ».
Il y a sans doute quelques personnes qui pensent en ce moment même que je mets mon casque de protection psychique (NdT : il s’agit d’un chapeau pour se protéger contre la manipulation à distance du cerveau) quand je m’assois pour écrire du code. Comment les tests pourraient-ils être plus importants que le code qu’ils testent ? Les tests sont la preuve que votre code marche réellement ; ils vous montrent le chemin vers l’écriture d’un code propre et vous apportent aussi la souplesse qui vous permettra de modifier le code tout en sachant que les fonctionnalités seront toujours là. En effet, plus votre code source grossit, plus vos tests sont importants, car ils vous permettent de changer une partie dudit code en sachant que le reste fonctionnera.
Une autre raison essentielle qui justifie l’écriture de tests est la possibilité de spécifier que quelque chose est un souhait explicite et non une conséquence imprévue ou un oubli. Si vous avez un cahier des charges, vous pouvez utiliser des tests pour vérifier qu’il est respecté, ce qui est très important, voire indispensable dans certaines industries. Un test, c’est comme quand on raconte une histoire : l’histoire de votre conception du code et de la façon dont il devrait fonctionner. Soit le code change et évolue, soit il mute en code infectieux (1).
Très souvent, vous écrirez des tests une première fois pour ensuite remettre totalement en cause votre réalisation voire la réécrire à partir de zéro. Les tests survivent souvent au code pour lesquels ils ont été conçus à l’origine. Par exemple, un jeu de tests peut être utilisé quel que soit le nombre de fois où votre code est transformé. Les tests sont en fait l’examen de passage qui vous permettra de jeter une ancienne réalisation et de dire « cette nouvelle version a une bien meilleure structure et passe notre jeu de tests ». J’ai vu cela se produire bien des fois dans les communautés Perl et Parrot, où vous pouvez souvent me voir traîner. Les tests vous permettent de changer les choses rapidement et de savoir si quelque chose est cassé. Ils sont comme des propulseurs pour les développeurs.
Les charpentiers ont un adage qui dit quelque chose comme ça :
« Mesurer deux fois, couper une fois »
Le code serait la coupe, le test serait la mesure.
La méthode de développement basée sur les tests fait économiser beaucoup de temps, parce qu’au lieu de vous prendre la tête à bricoler le code sans but défini, les tests précisent votre objectif.
Les tests sont aussi un très bon retour d’expérience. Chaque fois que vous faites une nouvelle passe de test, vous savez que votre code s’améliore et qu’il a une fonctionnalité de plus ou un bogue de moins.
Il est facile de se dire « je veux ajouter 50 fonctionnalités » et de passer toute la journée à bricoler le code tout en jonglant en permanence entre différents travaux. La plupart du temps, peu de choses aboutiront. La méthode de développement basée sur les tests aide à se concentrer sur la réussite d’un seul test à la fois.
Si votre code échoue devant ne serait-ce qu’un seul test, vous avez pour mission de le faire réussir. Votre cerveau se concentre alors sur quelque chose de très spécifique, et dans la plupart des cas cela produit de meilleurs résultats que passer constamment d’une tâche à une autre.
La plupart des informations relatives au développement basé sur les tests sont très spécifiques à un langage ou à une situation, mais ce n’est pas une obligation. Voilà comment aborder l’ajout d’une nouvelle fonctionnalité ou la correction d’un bogue dans n’importe quel langage :
Cette méthode fonctionne pour n’importe quel type de test et n’importe quel langage. Si vous ne deviez retenir qu’une seule chose de ce texte, souvenez-vous des étapes ci-dessus.
Voici maintenant quelques directives plus générales de conduite de tests qui vous serviront bien et fonctionneront dans n’importe quelle situation :
Pensez à cela quand vous écrivez des tests. Vous voulez qu’ils soient résistants, c’est à dire que les tests, dans la plupart des cas, ne devraient avoir à changer que quand les fonctionnalités changent. Si vous devez modifier vos tests régulièrement, sans que les fonctionnalités aient changé, c’est que vous faites une erreur quelque part.
Bien des personnes sont perdues quand on leur parle de tests d’intégration, tests unitaires, tests d’acceptation et autres tests à toutes les sauces. Il ne faut pas trop se soucier de ces termes. Plus vous écrirez de tests, mieux vous en distinguerez les nuances et les différences entre les tests deviendront plus apparentes. Tout le monde n’a pas la même définition de ce que sont les tests, mais c’est utile d’avoir des termes pour décrire les types de tests.
Les tests unitaires et les tests d’intégration couvrent un large spectre. Les tests unitaires testent de petits segments de code et les tests d’intégration vérifient comment ces segments se combinent. Il revient à l’auteur du test de décider ce que comprend une unité, mais c’est le plus souvent au niveau d’une fonction ou d’une méthode, même si certains langages appellent ces choses différemment.
Pour rendre cela un peu plus concret, nous établirons une analogie sommaire en utilisant des fonctions. Imaginez que f(x) et g(x) soient deux fonctions qui représentent deux unités de code. Pour l’aspect concret, supposons qu’elles représentent deux fonctions spécifiques du code de base de votre projet libre et open source.
Un test d’intégration affirme quelque chose comme la composition de la fonction, par exemple f(g(a)) = b. Un test d’intégration consiste à tester la façon dont plusieurs choses s’intègrent ou travaillent ensemble, plutôt que la façon dont chaque partie fonctionne individuellement. Si l’algèbre n’est pas votre truc, une autre façon de comprendre est de considérer que les tests unitaires ne testent qu’une partie de la machine à la fois, tandis que les tests d’intégration s’assurent que la plupart des parties fonctionnent à l’unisson. Un bel exemple de test d’intégration est le test de conduite d’une voiture. Vous ne vérifiez pas la pression atmosphérique, ni ne mesurez le voltage des bougies d’allumage. Vous vous assurez que le véhicule fonctionne globalement.
La plupart du temps, il est préférable d’avoir les deux. Je commence souvent avec les tests unitaires puis j’ajoute les tests d’intégration au besoin puisqu’on a besoin d’éliminer d’abord les bogues les plus basiques, puis de trouver les bogues plus subtils issus d’un emboitement imparfait des morceaux, à l’opposé de pièces qui ne fonctionnent pas individuellement. Beaucoup de gens écrivent d’abord des tests d’intégration puis se plongent dans les tests unitaires. Le plus important n’est pas de savoir lequel vous écrirez en premier, mais d’écrire les deux types de tests.
La méthode de développement basée sur les tests est un chemin, pas un aboutissement. Sachez apprécier le voyage et assurez-vous de faire une pause et de respirer les fleurs si vous êtes égarés.
(1) Équivalent approché du terme bitrot qui en argot de codeur désigne ce fait quasi-universel :si un bout de code ne change pas mais que tout repose sur lui, il « pourrit ». Il y a alors habituellement très peu de chances pour qu’il fonctionne tant qu’aucune modification ne sera apportée pour l’adapter à de nouveaux logiciels ou nouveaux matériels.
Comic strip réalisé avec le Face-O-Matic de Nina Paley et Margot Burns
Copyheart ? 2011 by Margo Burns and Nina Paley. Copying is an act of love. Please copy!
Le 16 janvier dernier, Neelie Kroes, commissaire européenne chargée de la société numérique, publiait dans Libération une tribune intitulée Internet et applications de filtrage : une histoire de choix et de recettes.
Une tribune jugée assez révélatrice et dangeureuse pour que notre ami François Pellegrini décide d’y répondre point par point ci-dessous.
Et de conclure ainsi : « Mme Kroes est entrée en guerre ouverte contre la neutralité des réseaux et contre Internet. En tant que Commissaire chargée de la stratégie numérique, elle a perdu toute légitimité, et son remplacement s’avère nécessaire. »
François Pellegrini - 23 janvier 2013 - Blog personnel
Le filtrage autoritaire par Free de l’accès aux publicités, dans le bras de fer qui l’oppose à Google sur la rémunération des infrastructures de réseau, a eu de nombreux mérites. Un premier a été de faire prendre conscience au grand public que filtrer la publicité était possible, bien au delà du petit nombre d’utilisateurs ayant activé le greffon AdBlock sur leur navigateur Firefox. Un deuxième a été de faire sortir du bois un certain nombre d’intérêts privés, pour lesquels la mise en œuvre de ce filtrage, au moyen d’une mise à jour autoritaire de la FreeBox v6, a représenté une véritable déclaration de guerre.
Le relais de ces intérêts par la voix de Neelie Kroes, commissaire européenne chargée de la stratégie numérique, n’a guère surpris, tant la majorité de la Commission européenne est connue pour sa soumission aux intérêts privés. Néanmoins, sa tribune dans le journal Libération est un document méritant toute notre attention, parce qu’il reflète la stratégie construite par ces intérêts pour mettre la main sur Internet. En voici un décryptage, paragraphe par paragraphe.
La semaine dernière, une polémique a surgi lorsque Free a bloqué la publicité sur les services internet transitant par sa Freebox. Les fournisseurs de contenu internet qui dépendent de la publicité pour proposer du contenu gratuit aux consommateurs étaient furieux. Cette polémique illustre la complexité de l’économie de l’internet. Le fragile équilibre entre choix et facilité d’usage, entre transparence et contrôle effectif, entre commerce et intérêt public.
Ce premier paragraphe a le mérite de poser le cadre dès sa dernière phrase, avec une candeur presque touchante. Car effectivement, ce dont il sera question ici, c’est bien de la lutte de certains intérêts commerciaux contre l’intérêt public.
Mon principe de base consiste à dire que les consommateurs devraient être libres de faire de vrais choix quant à leur abonnement à l’internet et à leur activité en ligne. Les contrats standard et les paramètres par défaut des services internet peuvent être pratiques et efficaces, mais ils sont soumis à des limites d’intérêt public, que ce soit dans la législation générale sur la protection des consommateurs ou dans des règles spécifiques. Par exemple, les consommateurs ont le droit, lorsqu’ils naviguent sur un site web, de choisir s’ils souhaitent utiliser des «cookies», qui pistent leur utilisation de l’internet. Ils devraient également comprendre les coûts et les avantages de leur choix.
Ce deuxième paragraphe introduit les arguments qui seront avancés pour justifier le filtrage d’Internet, et en particulier la notion de «choix», qui lui servira de paravent.
Du fait de la complexité et de l’évolution rapide de l’économie en ligne, de nouvelles questions surgissent constamment en ce qui concerne l’intérêt public. Par exemple, depuis 2009, la législation de l’Union européenne favorise la possibilité pour les consommateurs d’accéder à l’éventail complet des applications, du contenu et des services légaux en ligne. Selon moi, l’intérêt public ne s’oppose cependant pas à ce que les consommateurs s’abonnent à des offres internet limitées, plus différenciées, éventuellement pour un prix moins élevé.
Comme nous le verrons plus bas, une offre différenciée d’accès limité à Internet, ce n’est pas une offre d’accès à Internet. Avoir un accès limité, différencié, à la liberté, ce n’est pas être libre.
La liberté n’est pas une affaire de choix. L’État se doit de protéger les hommes d’eux-mêmes, en ne leur permettant pas de s’engager dans la servitude, fut-elle volontaire. Légaliser un système permettant à certains, en majorité les moins aisés, de renoncer aux droits essentiels que constituent à la liberté d’expression et à la liberté d’accès à l’information, en échange d’une réduction sur leur abonnement, ne fait pas honneur à la rédactrice de cette tribune.
Existe-t-il un intérêt public à ce que les parents disposent d’outils efficaces pour contrôler le matériel auquel leurs jeunes enfants peuvent accéder en ligne? La plupart des gens répondraient oui, et l’Union partage ce point de vue. De même, la plupart des gens aimeraient pouvoir choisir de recevoir ou non de la publicité parallèlement au contenu et aux services en ligne, mais tant les consommateurs que les entreprises en ligne semblent ne pas vouloir laisser ce choix entre les mains d’obscurs paramètres par défaut.
Où l’on retrouve ici l’un des camouflages typiques des agresseurs d’Internet : l’utilisation de la protection des ‘tizenfants pour justifier la mise en place de filtrages dans des buts bien moins louables. Cette ficelle sera utilisée à plusieurs reprises au cours de la tribune de Mme Kroes.
S’agissant de questions de cette nature, transparence et contrôle effectif par le consommateur feront presque toujours partie de la solution.
Avec celui du «choix», l’argument de la «transparence» est le deuxième paravent des agresseurs d’Internet. L’emploi de ce terme indique sans ambigüité le camp choisi par Mme Kroes. Il avait déjà été utilisé par les opérateurs de télécommunication en 2009, du temps où Mme Kroes était Commissaire à la concurrence, lors des débats sur le «Paquet Télécom». Il s’agissait d’un ensemble de cinq directives européennes portant sur la régulation et l’accès aux réseaux (et donc pas seulement Internet) et devant être renégociées. Ce processus avait été l’occasion, pour ces opérateurs ainsi que pour les grands industriels du divertissement, de tenter d’introduire des amendements autorisant l’écoute des communications et le filtrage, au nom de la lutte contre les «contenus illicites».
Alors que les représentants des usagers demandaient que soit garantie la neutralité des réseaux, les opérateurs souhaitaient ne s’engager que sur des garanties de « transparence » : ils auraient le droit de porter atteinte à la neutralité des réseaux, pourvu qu’ils en informent leurs abonnés. Ils arguaient qu’ainsi les internautes choisiraient les opérateurs sans filtrage, contraignant par la loi de l’offre et de la demande les opérateurs à ne pas filtrer.
La ficelle était un peu grosse. Les usagers n’ont en général qu’un choix limité entre quelques opérateurs en situation d’entente, comme on l’a bien vu dans le secteur de la téléphonie mobile en France, dont les prix étaient maintenus anormalement hauts. Ceux qui proposent de garantir la «transparence» au lieu de la neutralité sont ceux qui ne veulent pas de la neutralité. Ils souhaitent juste pouvoir la violer impunément.
Cela ne signifie pas encore plus de pages dans votre contrat qui en compte déjà une centaine! La Commission encourage depuis un certain temps le secteur de la publicité à faire en sorte que les utilisateurs se voient proposer un choix clair concernant les cookies, sur la base d’informations concises et digestes. Elle collabore aussi avec une grande variété d’acteurs en ligne pour élaborer une norme «Do Not Track» («Ne pas pister»), afin que les consommateurs qui font ce choix puissent être certains qu’il sera respecté.
Dormez, braves gens, la gentille Commission veille sur vous. Vu comment ma boîte courriel est submergée en dépit de la loi imposant aux publicitaires de n’envoyer des courriels qu’à ceux ayant accepté de les recevoir («opt-in»), je n’ai qu’une confiance limitée dans le respect des chartes Bisounours™, sans sanctions juridiques, auxquelles semble croire si fort Mme Kroes.
En ce qui concerne la neutralité de l’internet, les consommateurs doivent avoir un choix effectif quant au type d’abonnement internet qu’ils souscrivent. Cela veut dire une vraie clarté, dans un langage non technique. Doivent figurer les vitesses effectives dans des conditions normales et toute restriction imposée au trafic, ainsi qu’une option réaliste permettant de passer à un service «complet», dépourvu de telles restrictions. Un tel choix devrait également stimuler l’innovation et les investissements des fournisseurs internet. Je prépare actuellement une initiative de la Commission visant à garantir ce choix en Europe.
C’est dans ce paragraphe que la commissaire se dévoile. Pour le comprendre, un petit rappel est nécessaire.
Les réseaux tels qu’Internet sont construits en trois couches : infrastructure, opérateurs et services. Les infrastructures, ce sont les moyens matériels de transmettre l’information : fibres optiques, relais hertziens, satellites, etc. Les opérateurs ont vocation à utiliser ces infrastructures pour offrir un service de connexion à leurs abonnés. Les services s’appuient sur les couches précédentes pour offrir des prestations, payantes ou gratuites (ou d’apparence gratuite car, premièrement, rien n’est gratuit à part l’air qu’on respire – et encore !– et deuxièmement, comme le dit l’adage, «si le service est gratuit c’est que c’est vous la marchandise»). Pour prendre une analogie automobile, on pourrait dire que l’infrastructure, ce sont les routes, que les opérateurs sont les différents vendeurs de voitures qui vous permettent d’emprunter le réseau routier et que les services sont les différents magasins que vous pourrez trouver à certaines adresses.
La première manœuvre de Mme Kroes consiste à mettre sur le même plan la question des vitesses et celle du filtrage des contenus, qui sont de natures complètement différentes.
Internet est un réseau qui a vocation à permettre l’échange d’informations entre tous ceux qui s’y connectent, à l’image du réseau routier qui permet à tous ceux qui y sont connectés de voyager d’un lieu à un autre. La liberté de circulation est un principe fondamental, de rang constitutionnel. Pour autant, chacun peut, selon ses désirs et ses moyens, s’acheter un véhicule plus ou moins rapide, ou de plus ou moins grande contenance. Il en est de même sur Internet : une personne qui souhaite un débit plus important peut avoir à le payer plus cher, car le trafic plus important qu’elle génèrera nécessite qu’elle contribue d’une façon plus importante aux infrastructures qui permettront son acheminement. Ceci est affaire de choix, en fonction de l’usage qu’elle compte faire de son accès. En revanche, toute restriction au trafic est injustifiable, justement parce qu’elle viole ce principe constitutionnel de libre circulation.
Rappelons ce qu’est la neutralité des réseaux. De façon simple, on pourrait dire qu’il s’agit de garantir le fonctionnement normal du réseau dans ses trois couches (infrastructures, opérateurs et services), en garantissant l’acheminement des flux d’informations qui y transitent sans discrimination sur leur provenance, leur destination, le service utilisé ou le contenu transmis.
La deuxième manœuvre de Mme Kroes consiste à suggérer que, pour avoir le droit d’utiliser certains services, les internautes aient à payer plus cher leur abonnement auprès de leur opérateur.
Ceci est incompréhensible, sauf à supposer une collusion entre opérateurs de réseau, seuls en capacité d’intervenir sur la gestion du trafic, et gestionnaires de services. Un exemple flagrant d’une telle collusion concerne les abonnements (prétendument) «à Internet» vendus par les opérateurs de téléphone mobile, qui interdisent majoritairement d’utiliser les services de «voix sur IP» (dits «VoIP», tels que Skype™). Ce filtrage abusif des protocoles VoIP est effectué par les opérateurs parce que de tels services portent atteinte à leurs propres services de communications vocales payantes. Il ne s’agit rien de moins que d’une vente liée et d’une atteinte à la liberté du commerce.
Au lieu de combattre de tels comportements, Mme Kroes, ancienne Commissaire à la concurrence, justifie et appelle de ses vœux des ententes verticales entre opérateurs de réseaux et gestionnaires de services. Connaissant la position traditionnelle de la Commission qui, sur les secteurs du ferroviaire comme de l’électricité, a toujours promu la séparation organisationnelle et stratégique entre gestionnaires d’infrastructures, opérateurs et fournisseurs de services (les rails, les trains, et les vendeurs de sandwiches), la volte-face est saisissante !
La troisième manœuvre de Mme Kroes consiste à justifier la nécessité du filtrage par l’investissement des fournisseurs Internet.
C’est le montant de l’abonnement au fournisseur d’accès qui permet la rémunération de celui-ci et, à travers lui, le développement et la maintenance des infrastructures, tout comme une fraction du prix d’un billet de train sert à financer les infrastructures ferroviaires. Les différents services peuvent être gratuits ou payants, selon le modèle économique qu’ils choisissent et mettent en œuvre vis-à-vis de leurs usagers, mais cela n’a aucunement à impacter les couches inférieures.
Des applications disponibles en ligne permettent déjà aux consommateurs de bloquer totalement ou partiellement les publicités, si bien que la distribution d’un logiciel de ce type par un fournisseur internet tel que Free n’est pas une révolution en soi. Elle nous amène néanmoins à envisager deux éléments.
Pas une révolution mais, comme on l’a dit, une menace par son ampleur. Sans cela, pourquoi le rappeler à longueur de tribune ?
D’une part, les consommateurs ne devraient pas oublier que tout choix comporte des conséquences. En optant pour le blocage des publicités ou en demandant la confidentialité («do not track»), on peut être privé de l’accès à du contenu gratuit. L’internet ne fonctionne pas par ses propres moyens. Le réseau, le contenu et l’accès à l’internet doivent tous être financés par quelqu’un. De nombreux petits opérateurs web existent grâce à des modèles publicitaires novateurs. Les consommateurs ont plusieurs façons de payer pour accéder à du contenu, notamment en voyant des publicités avant et pendant cet accès. Les entreprises devraient admettre que des consommateurs différents ont des préférences différentes, et concevoir leurs services en conséquence.
Ici encore, Mme Kroes entretient la confusion entre opérateurs et gestionnaires de services. Si l’accès au contenu (pseudo-)gratuit d’un site de service peut être limité à ceux qui n’acceptent pas d’être tracés au moyen de cookies, l’accès au réseau lui-même n’a aucune raison d’être limité en aucune manière.
D’autre part, nous avons vu l’importance commerciale et pratique des paramètres par défaut, mais notre réaction à un paramètre par défaut donné peut dépendre à la fois des valeurs défendues et de la manière dont il se matérialise. Par exemple, vu la valeur élevée attachée à la confidentialité, nous sommes moins choqués par des paramètres par défaut restrictifs que par des paramètres totalement ouverts, en particulier en ce qui concerne les utilisateurs plus vulnérables. C’est dans cet ordre d’idées que nous collaborons avec le secteur pour améliorer la façon dont les paramètres de confidentialité par défaut peuvent protéger nos enfants. D’un autre côté, la valeur élevée que nous attachons à l’internet ouvert signifie que nous favorisons l’installation de contrôles parentaux sur tous les appareils, mais pas leur activation par défaut. En pratique, cela pourrait en effet conduire de manière involontaire à limiter l’accès à l’internet pour de nombreux utilisateurs adultes. Mieux vaut donner un vrai choix aux parents, grâce à des outils clairement visibles et conviviaux dont l’existence est bien mise en évidence.
La lecture de ce paragraphe a fait naître en moi une hilarité certaine. Mme Kroes y soutient que, si le filtrage parental est une bonne chose, il ne faut pas l’activer par défaut afin de ne pas limiter l’accès à Internet aux adultes, et surtout bien expliquer aux gens comment s’en servir. Pour résumer : il ne faudrait pas que Monsieur et/ou Madame n’arrivent pas à se connecter à YouPorn™, surtout s’ils sont trop bêtes pour savoir désactiver le filtrage ; cela nuirait au petit commerce spécialisé.
Notons cependant comment, une fois de plus, le terme de «choix» est amené de façon bénéfique, vis-à-vis de la protection des ‘tizenfants par le filtrage.
Ici encore, Mme Kroes entretient délibérément la confusion entre le filtrage parental, qui peut ête réalisé sur le poste de l’usager et peut être désactivé par ce dernier, et le filtrage, par l’opérateur, des services qui feraient concurrence aux services avec lesquels cet opérateur serait lié par des accords commerciaux.
Nous voyons la difficile interaction entre ces deux intérêts – vie privée et ouverture – lorsqu’il s’agit d’examiner si le «Do Not Track» devrait être activé par défaut dans les navigateurs web. Microsoft a choisi de le faire dans son produit Internet Explorer. Cette décision a fait l’objet de critiques de la part des concurrents et des publicitaires. Néanmoins, compte tenu des intérêts publics concurrents – ainsi que de la concurrence entre les navigateurs et de l’existence d’un outil convivial permettant le libre choix de l’utilisateur à la fois pendant et après l’installation –, je ne partage pas les critiques montrant du doigt une décision commerciale destinée à séduire les internautes qui attachent une grande importance au respect de la vie privée. La décision de Free de bloquer par défaut les publicités a suscité de plus vives inquiétudes en matière d’intérêt public parce qu’elle combinait dans le même temps une portée plus large (touchant toutes les publicités sans exception) et la perception d’une difficile réversibilité pour les utilisateurs.
Une confirmation supplémentaire que la portée de l’action de Free a bien été l’élément déclencheur de cette riposte, du fait de son ampleur.
Nous voyons, dans ces exemples, que des décisions prises par une entreprise à titre individuel touchent à des intérêts publics sensibles. Des acteurs privés peuvent également contribuer collectivement à l’intérêt public. L’internet est une communauté mondiale, régie par une approche associant un grand nombre d’acteurs que l’Union a défendue avec fermeté lors d’une grande conférence des Nations unies à Dubaï le mois dernier. Des initiatives d’autorégulation peuvent compléter la législation. De telles initiatives sont en cours concernant la publicité et le pistage comportementaux ainsi que la protection des enfants en ligne. Toutefois, ces efforts collectifs doivent produire des résultats clairs, susceptibles d’être mis en œuvre et soumis à un suivi et à une évaluation. Et s’ils ne répondent pas à des objectifs d’intérêt public, l’autorité publique doit toujours se réserver le droit d’intervenir.
Mme Kroes, en bonne libérale, signale ici qu’elle ne souhaite nullement intervenir pour garantir la neutralité des réseaux de communication accessibles au public, et donc d’Internet. Bien au contraire, comme elle l’a précisé dans un paragraphe précédent, elle souhaite que la Commission, au titre du «choix» des usagers, autorise explicitement la collusion entre opérateurs de réseaux et fournisseurs de services, afin de légaliser le filtrage effectué par les premiers à l’avantage de certains des seconds.
Rappelons pour conclure un ensemble de principes simples et de bon sens dans un État de droit respectueux tant des libertés fondamentales de ses citoyens que de la concurrence libre et non faussée parmi ses entreprises.
La neutralité des réseaux, et donc d’Internet, est le pendant dans le monde numérique de la liberté de circulation (d’accès) dans le monde physique. Elle doit donc être protégée de façon explicite et non ambigüe. Toute atteinte par un intermédiaire technique à la liberté d’expression ou à la liberté d’accès à l’information, qui ne serait pas motivée par des considérations techniques ou par une décision de justice, doit constituer un délit pénal grave.
La séparation entre les activités portant sur les infrastructures, la fourniture d’accès et les services, doit être dictée par la loi afin d’être effective. Les opérateurs investissent actuellement, de façon redondante, dans le fibrage des zones urbaines denses, supposées rentables, en délaissant les zones rurales. En imposant l’existence d’une infrastructure unique accessible à tous les opérateurs, comme c’est déjà le cas dans les secteurs ferroviaire et de l’énergie, le législateur permettrait qui plus est la mise œuvre d’une péréquation bénéfique génératrice d’économies conséquentes, tant pour l’usager que pour les collectivités isolées.
Mme Kroes est entrée en guerre ouverte contre la neutralité des réseaux et contre Internet. En tant que Commissaire «chargée de la stratégie numérique», elle a perdu toute légitimité, et son remplacement s’avère nécessaire.
Crédit photo : Thomas Belknap (Creative Commons By-Sa)
Nous sommes en 2013 et nous n’avons toujours pas réussi à éradiquer ce triste symptôme qui frappe depuis des années l’Éducation nationale française, à savoir la marchandisation Microsoft de nos écoles et son malheureux corollaire : le déni volontaire du logiciel libre et de sa culture.
Dernier exemple en date, cette initiative qui de prime abord semble tout aussi innocente que louable : le « Tour de France du Numérique pour l’Éducation ».
Elle est ainsi présentée sur le site du projet :
Le Café Pédagogique et le réseau SCEREN (CNDP-CRDP) sont heureux de vous inviter à l’étape du Tour de France du Numérique pour l’Éducation qui se tiendra dans votre région.
Ce rendez-vous sera l’occasion de rencontres et d’échanges sur des pratiques pédagogiques innovantes autour du numérique. Venez rencontrer des enseignants innovants.
Découvrez leurs projets et leurs usages des nouvelles technologies numériques en classe de l’école au lycée.
Venez tester les nouveautés dans les domaines des équipements, solutions et contenus numériques pour l’enseignement.
Nous vous attendons nombreux !
Si vous êtes un lecteur régulier de longue date du Framablog, vous savez qu’il faut se méfier de la marque déposée « enseignants innovants » du Café Pédagogique et de son principal bailleur de fonds Microsoft (cf tous ces billets passés mais aussi ce remarquable article de feu OWNI Microsoft programme l’école). Et pourtant nous aurions tant aimé qu’il n’en aille pas de même cette fois-ci…
Déjà observons le look du site :
Quelles jolies couleurs, quelle jolie typographie et surtout quelle jolie tablette, n’est-ce pas ! Dans la mesure où nous avons tous été matraqués (sans le souhaiter) de publicités Windows 8 depuis la rentrée, il n’y a plus qu’à faire le rapprochement. Et, en effet, on apprend tout en bas que Microsoft est partenaire de l’opération.
Le principe, si j’ai bien compris, c’est donc de parcourir la France avec un programme identique qui se déroule au cours d’un après-midi. Des ateliers sont proposés. Extraits :
Atelier 1 : Les tablettes pour l’Education : Lors de cette session nous vous présenteront les nouvelles tablettes sous Windows 8 : le meilleur de la tablette et du PC pour l’équipement des enseignants et des élèves.
Atelier 4 : Les outils de gestion de la classe pour les enseignants : Avec Multipoint Server les enseignants disposent d’un outil de gestion de classe, à fin de monitorer à tout instant le travail des élèves.
Et un peu plus loin :
Opportunité d’échanger avec les enseignants de l’académie retenus pour la présentation de leurs projets innovants, de découvrir de nouvelles ressources éducatives numériques développées ou identifiées par le réseau Scérén (CNDP-CRDP), d’assister aux démonstrations de dernières innovations technologiques : tablettes Windows 8, plateformes de communication et collaboration (visio conférence, chat, réseaux sociaux…), des expériences immersives grâce à nouveaux terminaux comme la table PixelSense, des outils de gestion de la classe…
Windows 8 est donc le dernier système d’exploitation de Microsoft (qui joue gros sur ce coup-là, ceci expliquant certainement cela). Multipoint Server est évidemment une solution « simple et économique » de Microsoft « qui permet à davantage d’étudiants et d’enseignants d’accéder aux nouvelles technologies, tout en améliorant l’apprentissage et en aidant les étudiants à relever les défis d’une économie globale ». Quant à PixelSense, je ne sais pas trop ce que c’est (et je m’en fous) sauf que c’est encore et toujours du Microsoft.
Franchement, de qui se moque-t-on ? Je serais d’ailleurs assez curieux de savoir comme une telle manifestation est financée.
Il y a un formulaire, au format .DOC bien sûr, qui invite les enseignants à s’inscrire pour proposer leur projet pédagogique (à aucun moment il ne va leur être demandé de placer leurs travaux sous une licence Creative Commons bien sûr).
Ce qui m’attriste le plus dans cette histoire, ce sont tous ces enseignants que l’on va brosser dans le sens du poil (bravo, vous êtes « innovants ») sans se rendre compte qu’ils sont involontairement complices d’une manœuvre commerciale qui va à l’encontre même de leurs principes. Ils vont se contenter de penser être modernes sur une technologie neutre.
Des années que nous affirmons péremptoirement que ces principes éducatifs ont tout pour s’épanouir dans le logiciel libre (les ressources libres, les formats ouverts…) et non le logiciel propriétaire, dont Microsoft en est l’emblématique symbole. Mais il faut croire que nous continuons de prêcher dans le désert…
On ne peut pas trop leur en vouloir remarquez puisque le « couple habituel » Café Pédagogique / Microsoft a réussi à embarquer dans la galère le (fort peu lucide) SCEREN (CNDP-CRDP) qui apporte si ce n’est la bénédiction tout du moins la caution de l’institution.
Une fois de plus la marque et les produits Microsoft se seront placés l’air de rien et en toute discrétion dans un projet qui donne confiance et reconnaissance aux enseignants. Et c’est un peu à désespérer.
Fleur Pellerin peut bien déclarer sa flamme au logiciel libre, Jean-Marc Ayrault nous pondre une explicite circulaire en direction de l’administration ou, encore plus fort, entendre Gilles Braun, conseiller numérique de Vincent Peillon, souhaiter que « les enseignants produisent des ressources pédagogiques libres avec des logiciels libres », rien ne semble vraiment bouger du côté du Mammouth.
Que faire ? On pourrait dire (avec courtoisie) notre façon de penser au SCEREN. On pourrait s’en aller tracter sur le passage du Tour (première date : Paris, le 6 février), mais je doute de l’efficacité réelle de telles actions.
Le plus sûr est de continuer patiemment notre libre chemin en se remémorant l’actuel épilogue d’un autre Tour, bien plus célèbre cette fois. Il nous en aura en effet fallu du temps pour nous apercevoir que nous avions été trompés, mais aujourd’hui Lance Armstrong reconnaît la supercherie et se retrouve contraint à rendre des comptes…
Nina Paley est une artiste étasunienne auteure de bandes dessinées et dessins animés, dont le célèbre Sita Sings The Blues. Elle a pris en grippe, depuis bien longtemps, le système du copyright de son pays. J’ai découvert ses œuvres grâce à @Calimaq dont le blog SILex traite des problématiques du droit d’auteur. Et depuis longtemps le Framablog soutient ses choix militants et fait connaître ses œuvres.
Hier, @Calimaq m’envoie un lien vers l’article qui va suivre. Il sait que cela va me toucher : Nina parle ci-dessous de la licence CC0, annonçant l’élévation volontaire et par anticipation d’une œuvre dans le Domaine Public. J’aime tant la CC0 qu’elle pare chacune de mes œuvres <autopromo>dont mon premier roman #Smartarded, publié chez Framabook</autopromo>. Cette licence me permet de « couper le cordon » avec les histoires que j’écris. Leur enlever et la chaîne et le boulet qu’elles se traînaient pour rendre leur lectorat libre de se les approprier.
On le sait, les licences libres ne sont pas sans restrictions. Les trolls débats sur les entraves aux libertés qu’entraînent les clauses NC (condition de non commercialisation) et ND (condition de non modification) remplissent des forums entiers. Pourtant, peu de gens parlent de la contrainte que peut représenter la clause share alike, le fameux « SA » viral, imposant la licence choisie à toute nouvelle adaptation de l’œuvre.
Nina Paley nous livre ici son vécu, nous explique ce « vœu de non-violence légale » qui motive l’expérience qu’elle mène… et que je lui souhaite aussi heureuse que celle que je vis.
Pouhiou
Article original sur le blog de Nina Paley
Traduction Framalang :
par Nina Paley
Par la présente, je déclare passer la licence de Sita Sing the Blues de CC-BY-SA (partage à l’identique) à CC-0.
Il y a quelques années j’ai entamé une démarche pour faire vœu de non-violence : un engagement de ne jamais poursuivre en justice qui que ce soit pour du savoir (ou de la culture, des œuvres culturelles, de l’art, de la propriété intellectuelle — ou le nom quelconque que vous préférez). Le copyright est désespérément détraqué ; bien sûr, le droit craque de partout aux USA. Mais pourquoi devrais-je recourir à cette même loi aberrante pour essayer de corriger les abus qu’elle introduit ? Nous vivons dans un univers chaotique. Les choix que j’effectue, bien que fondés sur des principes solides, n’y changeront rien. Les gens continueront à censurer, supprimer et verrouiller le savoir. La licence Share-Alike (partage à l’identique selon les mêmes conditions), nécessaire légalement pour conserver l’aspect Libre du Savoir, a eu pour conséquence d’en détruire la liberté
« Ne pas utiliser le savoir c’est lui faire injure »
a écrit Jeff Jarvis, dans une réflexion sur la mort d’Aaron Swartz.
J’ai appris la mort d’Aaron le dimanche ; le lundi, le National Film Board of Canada(NdT : l’Office national du film du Canada) m’a demandé de remplir des formulaires pour « autoriser » le réalisateur (et ami personnel) Chris Landreth à faire référence à Sita Sings the Blues dans son court-métrage à venir, Subconscious Password, même si le Fair Use libérait le NFB de toute peur légitime des propriétés virales du Share-Alike. Je fais des compromis avec mes principes tous les jours, mais ce lundi-là je ne pouvais absolument pas. La bêtise des avocats du NFB était du même acabit que celle qu’Aaron combattait en libérant les documents du JSTOR. Je ne supportais pas l’idée de permettre d’avoir encore plus de mauvais avocats, de mauvaises décisions, de saloperie de copyright, en remplissant gratuitement des formulaires pour un système stupide et corrompu. Je ne pouvais tout simplement plus le faire.
Donc la NFB a dit à Chris d’enlever toute référence faite à SSTB dans son film.
Se lever pour défendre ses principes a des conséquences. Les gens vous critiquent, vous craignent et ont pitié de vous. Les condamnations publiques pleuvent. Vous perdez de l’argent. Parfois on vous poursuit en justice et, bien que cela ne me soit pas encore arrivé, cela pourrait venir vu ma pratique grandissante de la désobéissance civile.
Ma création artistique est illégale ! — Bouge pas, je vais réformer la loi !
Commentaire de Nina Paley : Les vrais artistes n’attendent pas que les juges et les lois les autorisent
Ce n’est pas moi mais bien mon travail, qui est la vraie victime de mes prises de positions. Quand j’ai refusé par principe les DRM (verrous limitant l’utilisation d’œuvres numériques afin de limiter les copies) de Netflix, le résultat fut que moins de gens ont vu SSTB. Quand de nombreuses chaînes de télévision me demandaient les droits de SSTB et que je leur répondais qu’ils les avaient déjà, le résultat fut qu’ils ne le diffusèrent pas. Quand des éditeurs ont voulu adapter SSTB en livre, la licence Share-Alike fut une cause de rupture des négociations, et il n’y eut pas de livre SSTB.
Ne pas utiliser le savoir, c’est lui faire injure.
Donc, chers NFB et Netflix, chers éditeurs et patrons de chaînes, chers vous qui formez cette putain de légion d’avocats : Sita Sings the Blues est désormais dans le Domaine Public. Désormais, vous n’avez plus aucune excuse pour entraver sa diffusion.
Est-ce que je continuerai de me battre ? Oui. MAIS PLUS PAR LA LOI. Je crois toujours aux raisons qui motivent la BY-SA mais la vérité c’est que jamais, au grand jamais, je ne poursuivrai quiconque en justice pour SSTB ou une autre œuvre culturelle. Je continuerai à condamner publiquement des abus tels que le verrouillage et la mauvaise attribution volontaire… Mais quelle utilité de menacer le monde d’une arme chargée si l’on ne s’en sert pas ? La licence CC-0 (NdT : versement volontaire et par anticipation dans le Domaine Public) est l’affirmation que jamais je ne serai procédurière contre qui que ce soit, peu importent les abus et la malfaisance.
Pour moi, la CC-0 est ce qu’il y a de plus proche d’un vœu de non-violence légale. La loi est un âne que je refuse de monter.
Je ne peux pas abolir le mal. La Loi ne peut abolir le mal, au contraire, elle le perpétue et l’amplifie. Les gens continueront à censurer, faire taire, menacer et maltraiter le savoir, et ce désastreux morcellement qu’est la propriété intellectuelle continuera d’encourager de telles choses. Mais je me refuse, pour combattre des monstres, à en devenir un ou à nourrir le monstre que je combats.
Ni la CC-BY-SA ni la CC-0 ne sont la solution à notre monde à la dérive avec son régime de copyright parfaitement détraqué.
Ce que je peux dire c’est que SSTB a été sous licence CC-BY-SA durant les 4 dernières années, donc je connais bien le sujet et je peux partager les résultats de cette expérience. En avançant sous la licence CC-0 j’apprendrai de nouvelles choses et j’aurai de nouveaux résultats à partager. Cela ressemble à une victoire même si de mauvais scénarios peuvent entrer en jeu. Honnêtement je n’ai pas été capable de déterminer quelle licence Libre est la « meilleure », et passer sous licence CC-0 peut contribuer à apporter une réponse.
Crédit photo : ouest-communications (CC BY-NC-ND 2.0)
Goofy et ses complices ont dédié cet article au domaine public en renonçant dans le monde entier à leurs droits selon les lois sur le droit d’auteur, droit voisin et connexes, dans la mesure permise par la loi. Ugh.
Un article fort intéressant de Benjamin Mako Hill (que nous traduisons souvent) qui apporte un éclairage nouveau à la différence importante entre « logiciel libre » et « open source ».
C’est bien la question de la liberté des utilisateurs qui est fondamentale ici. À mesure que la technologie avance et que de plus en plus de domaines expérimentent « le Libre », elle rejoint tout simplement la liberté des citoyens…
Remarque : C’est d’ailleurs pourquoi nous regrettons « l’abus d’open source » dans les premiers États Généraux de l’Open Source qui se déroulent actuellement à Paris (cf ce tweet ironique).
Freedom for Users, Not for Software
Benjamin Mako Hill - 23 octobre 2011 - Blog personnel
(Traduction : Munto, VifArgent, aKa, KarmaSama, Lycoris, aaron, PeupleLa, bruno + anonymous)
En 1985, Richard Stallman a fondé le mouvement du Logiciel Libre en publiant un manifeste qui proposait aux utilisateurs d’ordinateurs de le rejoindre pour défendre, développer et diffuser des logiciels qui garantissent aux utilisateurs certaines libertés. Stallman a publié la « Définition du Logiciel Libre » (Free Software Definition ou FSD) qui énumère les droits fondamentaux des utilisateurs concernant les logiciels.
Stallman, en tant qu’informaticien, comprenait que la manière dont les programmeurs concevaient les logiciels pouvait influer sur les possibilités des utilisateurs à interagir avec eux. Par exemple, des programmeurs pourraient concevoir des systèmes qui espionnent les utilisateurs, vont à leur encontre ou créent des dépendances. Dans la mesure où les ordinateurs occupent une place de plus en plus importante dans la communication des usagers, et dans leur vie toute entière, leur expérience est de plus en plus sous le contrôle de la technologie, et par conséquent de ceux qui la maîtrisent. Si le logiciel est libre, les utilisateurs peuvent désactiver les fonctionnalités cachées ou abusives et travailler ensemble à l’amélioration et au contrôle de leurs technologies. Pour Stallman, le logiciel libre est essentiel à une société libre.
Hélas, beaucoup de personnes qui entendent « logiciels libres » (NdT : free software en anglais) pensent que le mot libre (free) veut dire qu’il peut être distribué gratuitement - une confusion bien naturelle puisque les logiciels libres peuvent être, et sont le plus souvent, partagés sans permission expresse ni paiement. Dans des tentatives concertées pour démêler cette confusion, le slogan « free as in free speech not as in free beer » (free comme dans la liberté de parole et non comme une bière gratuite), et la référence à la distinction que l’on fait en français entre libre et gratuit, sont devenus des clichés dans la communauté du logiciel libre. Une biographie de Stallman est d’ailleurs intitulée « Free as in Freedom » (NdT : Libre comme dans Liberté, biographie traduite et publiée par Framasoft dans sa collection Framabook).
À la fin des années 90, un groupe de passionnés de logiciels libres a suggéré un nouveau terme : « open source ». À l’instar de Stallman, ce groupe était agacé par l’ambiguïté autour du mot « free ». Cependant, la principale préoccupation du groupe open source était l’utilité du logiciel libre pour les entreprises.
Plutôt que d’insister sur la « liberté », ce qui selon eux pouvait être rebutant pour des entreprises à but lucratif, les défenseurs de l’open source décrivaient les bénéfices techniques que l’« ouverture » du développement de logiciels libres pourrait apporter, grâce notamment à la collaboration de nombreux collaborateurs mis en réseau. Ces appels ont trouvé un écho au sein des entreprises high-tech à la fin du millénaire au moment où le système d’exploitation libre GNU/Linux gagnait en popularité et où le serveur web Apache dominait un marché bondé de concurrents propriétaires. Le concept « open source » prit un nouvel élan en 1998 quand Netscape rendit public le code source de son navigateur web Navigator.
Malgré les différences sur le discours et la philosophie, les logiciels libres et les logiciels open source font référence aux mêmes programmes, aux mêmes communautés, aux mêmes licences et aux mêmes pratiques. La définition de l’open source est presque une copie conforme des directives du logiciel libre publiées par la communauté Debian qui sont elles-mêmes une tentative de redéfinir la déclaration de Stallman sur la Définition du Logiciel Libre. Stallman a décrit cette distinction entre « logiciel libre » et « logiciel open source » comme étant le contraire d’un schisme. Dans un schisme, deux groupes religieux auront des cultes séparés, souvent à cause de désaccords mineurs sur des points de liturgie ou de doctrine. Dans le logiciel libre et l’open source, les deux groupes se sont articulés autour de philosophies, de politiques et de motivations qui sont fondamentalement différentes. Et pourtant les deux parties continuent de travailler en étroite collaboration au sein des mêmes organisations.
Les conversations autour du libre et du gratuit dans les communautés du logiciel libre et de l’open source ont occulté un second niveau d’ambiguïté dans le terme « logiciel libre », bien moins discuté : le terme a conduit à penser croire qu’il fallait interpréter les quatre libertés comme des déclarations sur les qualités que les programmes eux-mêmes devraient posséder. Stallman se fiche du logiciel libre en tant que tel, ce qui lui importe c’est la liberté des utilisateurs. Les slogans « free as in freedom » et « free speech not free beer » n’aident en rien à résoudre ce second type d’ambiguïté, et créent même de la confusion. « Free as in freedom » ne dit rien sur ce qui devrait être libre, tandis que « free speech not free beer », reproduit un problème similaire : les défenseurs de la liberté de parole ne défendent pas en réalité la liberté d’expression en tant que telle - ils s’intéressent à la possibilité des individus à parler librement. Quand l’essentiel du discours des promoteurs du logiciel libre insiste sur les caractéristiques du logiciel, certains en arrivent à considérer la liberté de l’utilisateur comme un problème de second ordre.
La liberté de l’utilisateur ne découle pas toujours de la liberté du logiciel. En effet, tandis que le logiciel libre a pris de l’importance dans l’économie et la politique, il a suscité l’intérêt de quelques uns qui souhaitaient en récolter les bénéfices en gardant limités l’action et l’indépendance des utilisateurs.
Google, Facebook, et autres titans de l’économie du Web ont bâti leur entreprise sur les logiciels libres. En les utilisant ils n’agissent pas seulement en passagers clandestins, dans de nombreux cas ces firmes partagent gratuitement, au minimum, une partie du code qui fait fonctionner leurs services et investissent des ressources conséquentes dans la création ou l’amélioration de ce code. Chaque utilisateur d’un réseau basé sur des logiciels libres peut posséder une copie du logiciel comme le permettent les quatre libertés de la FSD. Mais à moins que ces utilisateurs n’exécutent le service web eux-mêmes- ce qui peut s’avérer techniquement ou économiquement infaisable - ils restent sous la coupe des firmes qui, elles, font bel et bien fonctionner leurs copies. Le « Logiciel en tant que Service » (Software as a Service, ou SaaS) - ou logiciel fourni via « le cloud » - est à priori entièrement compatible avec le principe d’un logiciel libre. Toutefois, du fait que les utilisateurs du service ne peuvent (pas) changer le logiciel ou l’utiliser comme ils le souhaitent sans l’autorisation et la surveillance de leur fournisseur de service, les utilisateurs de SaaS sont au moins aussi dépendants et vulnérables qu’ils le seraient si le code était fermé.
Chrome OS de Google est une tentative de construire un système d’exploitation qui pousse les utilisateurs à être constamment en ligne et à utiliser des services comme Google Docs pour réaliser la plupart de leurs tâches informatiques. Quand Google a annoncé Chrome OS, nombreux étaient ceux qui ont applaudi dans la communauté du logiciel libre ; Chrome OS est en effet basé sur GNU/Linux, il s’agit presque entièrement de logiciel libre, et il avait l’appui de Google. Mais le but réel de Chrome OS est de changer l’endroit où les utilisateurs réalisent leurs tâches informatiques, en remplaçant les applications que l’utilisateur aurait fait tourner sur sa machine par des SaaS sur Internet. Chaque fois qu’on remplace un logiciel libre du bureau par un SaaS, on passe d’une situation où l’utilisateur avait le contrôle sur ses logiciels à une situation où il n’a pratiquement plus aucun contrôle.
Par exemple, l’utilisation que fait Google des logiciels libre dans les services SaaS lui permet de surveiller tous les usages et d’ajouter ou retirer des fonctionnalités selon son bon vouloir. Ainsi, en se concentrant sur la liberté des logiciels et non sur celle des utilisateurs, bien des partisans du logiciel libre n’ont pas su anticiper cette inquiétante dynamique.
TiVo – le pionnier des enregistreurs de vidéos numériques – présentait un défi différent. Son système se basait sur GNU/Linux et, conformément à la licence « copyleft » sous laquelle sont distribués la plupart des logiciels libres, la société TiVo autorisait l’accès complet à son code source. Mais TiVo utilisait le chiffrage pour verrouiller son système pour qu’il ne s’exécute que sur des versions approuvées de Linux. Les utilisateurs de TiVo pouvaient étudier et modifier le logiciel TiVo, mais ils ne pouvaient pas utiliser ce logiciel modifié sur leur TiVo. Le logiciel était libre, mais les utilisateurs ne l’étaient pas.
Les SaaS, Chrome OS et la Tivoisation sont des sujets qui continuent de remuer le milieu des logiciels libres et open source et mettent à jour des lignes de fracture. Il n’est guère surprenant que les partisans de l’open source ne voient aucun problème avec les SaaS, Chrome OS et la Tivoisation ; ils ne sont pas engagés dans la liberté des utilisateurs ou du logiciel. Toutefois chacun de ces exemples a été facteur de division, y compris parmi les personnes qui pensaient que le logiciel devrait être libre. La Fondation du Logiciel Libre (Free Software Foundation, FSF) a pris explicitement position contre chacun des sujets ci-dessus. Mais il a fallu du temps avant d’identifier chacune de ces menaces et ce fut laborieux de réussir à faire passer le message aux sympathisants. Aujourd’hui, il semble probable que Google et son modèle d’entreprise orienté service représentent une plus grande menace pour la liberté des futurs utilisateurs d’ordinateur que ne l’a été Microsoft. Mais comme Google se conforme scrupuleusement aux termes de la licence du logiciel libre et contribue aux projets de logiciels libres par une grande quantité de code et d’argent, les défenseurs du logiciel libre ont mis du temps à l’identifier comme une menace et à réagir.
Même la Free Software Foundation continue à se battre avec sa propre mission axée sur le logiciel. Stallman et la FSF ont travaillé ces dernières années pour déplacer du code non-libre qui s’exécute sur les périphériques internes des ordinateurs (par exemple, une carte wifi ou une carte graphique intégrée à l’intérieur d’un portable) depuis le disque dur principal de l’ordinateur vers les sous-processeurs eux-mêmes. L’idée derrière ces efforts est d’éliminer les logiciels le code non-libre(s) en (les) le basculant vers les composants matériels. Mais les utilisateurs des logiciels sont-ils plus libres si les technologies propriétaires, qu’ils ne peuvent changer, existent dans leur ordinateur sous une forme plutôt qu’une autre ?
L’idée centrale pour répondre à cette question - et à d’autres - consiste à se concentrer sur la différence entre libre et ouvert. Les promoteurs du logiciel libre doivent revenir à leur objectif premier : la liberté des personnes, et non celle des logiciels. L’apport fondamental de Stallman et du mouvement libre est de relier le problème de l’autonomie personnelle à d’autres considérations, quoique ce lien ne soit pas évident pour beaucoup. Les moyens de préserver la liberté de l’utilisateur s’adaptent aux changements dans la nature de la technologie. Et alors que certains adaptent les principes de logiciels libres à de nouveaux secteurs, ils vont se retrouver confronté à la même dérive et au même problème sémantique. Selon le soin que portera notre communauté à distinguer entre les différents mode d’ouverture et à mettre en avant les questions de contrôle, de politique et de pouvoir, la philosophie du libre pourra demeurer pertinente dans ces discussions élargies autour de ces nouveaux et différents biens communs - dans les logiciels et au delà.
Crédit photo : David Shankbone (Creative Commons By)
Version française par Aka, Nebu, Vincent, Alban, Benjamin, puis
Le texte ci-dessous a connu sa première publication sur le site de Benjamin Sonntag, où vous pourrez trouver la vidéo sous-titrée de la conférence à télécharger en divers formats ainsi qu’une présentation d’Eben Moglen et un excellent aperçu synthétique du contenu. Nous proposons une version mieux révisée (mais encore perfectible) de la traduction, à laquelle nous ajoutons les questions/réponses qui ont succédé à la conférence.
La vidéo étant assez longue (63 minutes) il nous a semblé utile de remettre en valeur les propos de Moglen par un texte lisible en une vingtaine de minutes. Vous pouvez le découvrir sur cette page ou bien télécharger le fichier disponible ici.
Conférence Eben Moglen à Re:Publica 2012 (format .ODT)
Conférence Eben Moglen à Re:Publica 2012 (format .PDF)
Bonjour.
C’est un plaisir d’être ici, et un honneur d’être à Re:publica.
Depuis maintenant mille ans, nos ancêtres se sont battus pour la défense de la liberté de pensée. Nous avons subi des pertes considérables, mais aussi remporté d’immenses victoires. Et nous sommes aujourd’hui à une époque charnière. Depuis l’adoption de l’imprimerie par les Européens au XVe siècle, nous étions essentiellement concernés par l’accès aux livres imprimés. Le droit de lire et le droit de publier étaient les principaux sujets de notre combat pour la liberté de pensée ces 500 dernières années. La principale inquiétude était celle de pouvoir lire en privé, penser, parler et agir sur la base d’une volonté libre et non censurée.
Le principal ennemi de la liberté de pensée, au début de notre combat, était l’Église Catholique universelle. Une institution basée sur le contrôle des pensées dans le monde européen, fondée sur une surveillance hebdomadaire de la conduite et des pensées de tout être humain ; basée sur la censure de tout matériel de lecture et finalement basée sur la faculté de prédire et punir toute pensée non-orthodoxe. Les outils disponibles pour le contrôle des pensées à l’aube de l’Europe moderne étaient pauvres, même selon nos standards du XXe siècle, mais ils marchaient. Ainsi, pendant des centaines d’années, la lutte était concentrée sur le premier objet industriel de masse, à l’importance croissante dans notre culture occidentale : « le livre ». Selon que l’on pouvait l’imprimer, le posséder, le vendre ou le lire, apprendre avec lui, sans l’autorisation ou le contrôle d’une autorité ayant le pouvoir de punir les pensées. À la fin du XVIIe siècle, la censure de l’écrit en Europe a commencé à craquer, tout d’abord en Hollande, puis au Royaume-Uni, et enfin, par vagues, à travers toute l’Europe. Et le livre devint un article de commerce subversif, et commença à grignoter le contrôle des pensées.
À la fin du XIXe siècle, cette lutte pour la liberté de lecture commença à attaquer la substance même du christianisme et le monde européen trembla sous les coups de la première grande révolution de l’esprit, qui parlait de « liberté, égalité, fraternité » mais qui signifiait en fait « liberté de penser autrement ». L’Ancien Régime commença à lutter contre la pensée et nous sommes alors passés dans une autre phase dans l’histoire de la liberté de pensée, qui présumait la possibilité de la pensée non-orthodoxe, et de l’action révolutionnaire. Ainsi, pendant 200 ans, nous avons lutté face aux conséquences de ces changements.
Cette génération décidera comment le réseau sera organisé
C’était hier et c’est aujourd’hui.
Aujourd’hui, nous entamons une nouvelle ère dans l’histoire de la race humaine. Nous construisons un système nerveux unique qui englobera tout esprit humain. Nous sommes à moins de deux générations aujourd’hui du moment où tout être humain sera connecté à un réseau unique, où toute pensée, plan, rêve ou action sera un influx nerveux de ce réseau. Et le destin de la liberté de pensée, ou plus largement le destin de toute liberté humaine, tout ce pour quoi nous avons combattu pendant plus de mille ans dépendra de l’anatomie des neurones de ce réseau. Nous sommes la dernière génération d’êtres humains qui aura été formée sans contact avec le Net.
À dater de ce jour, tout nouvel être humain, et dans deux générations tout cerveau de l’humanité aura été formé, depuis sa plus tendre enfance, en connexion directe avec le réseau. L’humanité deviendra un super-organisme, dans lequel chacun de nous sera un neurone de ce cerveau. Et nous le construisons aujourd’hui, maintenant, nous tous, en ce moment, cette génération, unique dans l’histoire de l’humanité. Cette génération décidera comment le réseau sera organisé.
Hélas, nous commençons mal. Voici le problème.
Nous avons grandi en étant des consommateurs de médias, c’est ce qu’ils nous ont appris, que nous étions des consommateurs de médias, mais maintenant les médias nous consomment.
Les choses que nous lisons nous regardent en train de les lire. Les choses que nous écoutons nous écoutent les écouter. Nous sommes pistés, nous sommes contrôlés : les médias que nous utilisons nous prédisent. Le processus de construction du réseau a gravé dans le marbre les principes de bases de transport de l’information. Il détermine s’il existe quelque chose comme une lecture anonyme. Et il a choisi de se construire contre la lecture anonyme.
…mais personne n’est intéressé par l’anonymat désormais, n’est-ce pas ?
Il y a 20 ans, j’ai commencé à travailler comme avocat pour un homme nommé Philippe Zimmermann, qui avait alors créé une sorte de cryptographie à clé publique destinée au grand public, nommée Pretty Good Privacy (PGP). L’effort effectué pour créer PGP était équivalent à essayer de conserver la possibilité du secret à la fin de XXe siècle. Phil essayait alors d’interdire au gouvernement de tout surveiller. Conséquence de cela, il fut au moins menacé d’un procès par le gouvernement des États-Unis pour avoir partagé des secrets militaires, car c’est ainsi qu’on surnommait la cryptographie à clé publique à l’époque. Nous avions dit « Vous ne devriez pas faire cela, il y aura des milliards de dollars en commerce électronique, si tout le monde peut utiliser une cryptographie forte » mais personne n’était intéressé. Mais ce qui était important au sujet de Pretty Good Privacy, au sujet de la lutte pour la liberté que la cryptographie à clé publique représentait pour la société civile, ce qui était crucial devint clair quand nous avons commencé à gagner.
En 1995, il y a eu un débat à la faculté de droit de Harvard. Nous étions 4 à discuter du futur de la cryptographie à clé publique et de son contrôle. J’étais du côté que je suppose être celui de la liberté, c’est là que j’essaie toujours d’être. Avec moi, à ce débat se trouvait un homme nommé Daniel Weitzner, qui travaille aujourd’hui à la Maison Blanche, et s’occupe de la régulation de l’Internet pour Obama. En face de nous se trouvait le procureur général des États-Unis et avocat dans le privé, nommé Stewart Baker, qui était avant conseiller en chef de l’Agence de la Sécurité Nationale (NSA), ceux qui nous écoutent, et qui dans le privé, aidait des entreprises à gérer ceux qui les écoutent. Il devint ensuite responsable de la politique générale du Département de la Sécurité Intérieure (DHS), des États-Unis, et il est à l’origine d’une bonne partie de ce qui nous est arrivé sur Internet après 2001.
Et donc, nous venions de passer deux heures agréables à débattre du droit à la cryptographie et, à la fin, il y avait une petite fête au club de la faculté de droit d’Harvard, et enfin, après la fin du repas, quand il ne resta plus grand chose sur la table, Stuart dit :
« Allons messieurs, maintenant que nous sommes entre nous, telles des femmes, libérons nos chevelures ». Il n’avait déjà plus beaucoup de cheveux à cette époque mais il les a libérés… « Nous n’emmènerons pas au tribunal votre client, M Zimmermann. La cryptographie à clé publique sera bientôt libre. Nous avons mené une longue bataille perdue d’avance contre elle, mais ce n’était qu’un gain de temps ». Puis il regarda autour de la pièce et dit : « mais personne n’est intéressé par l’anonymat désormais n’est-ce pas ? »
Un frisson me parcourut la colonne vertébrale, et je pensais alors « ok Stuart, désormais je sais que tu passeras les vingt prochaines années à essayer d’éliminer l’anonymat dans la société humaine, et je passerai ce temps à essayer de t’empêcher de le faire, nous verrons bien où cela nous mènera ».
Et cela commence très mal.
Nous n’avons pas intégré l’anonymat quand nous avons construit le net. C’était une erreur dont nous payons maintenant le prix. Notre réseau présume que vous pouvez être suivis par des mouchards en permanence. Et en utilisant le Web, nous avons fabriqué Facebook. Nous avons mis une seule personne au milieu de tous les échanges. Nos vies sociales et nos vies privées sont sur le Web, et nous partageons tout avec nos amis mais aussi avec notre « super-ami ». Celui qui nous trahit à ceux qui le construisent, ceux qui le paient, ceux qui l’aident, ou ceux qui lui donnent les centaines de milliards de dollars qu’il désire.
Nous sommes en train de créer un média qui nous consomme et qui aime ça.
Le but principal du commerce au XXIe siècle est de prévoir comment nous faire acheter des choses. Et la chose principale que les gens veulent que nous achetions, c’est de la dette. Et nous nous endettons, nous nous chargeons de plus de dettes, de plus de doutes, de plus de tout ce dont nous avons besoin sans que nous le sachions jusqu’à ce qu’ils nous disent que nous pensions à ces choses car ils possèdent la barre de recherche, et nous mettons nos rêves dedans.
Tout ce que nous voulons, tout ce que nous espérons, tout ce que nous aimerions savoir est dans la barre de recherche, et ils la possèdent. Nous sommes surveillés partout, tout le temps.
Il y a une barre de recherche et ils la possèdent, nous y collons nos rêves et ils les dévorent !
Au XXe siècle, il fallait construire la Loubianka, il fallait torturer des gens, il fallait les menacer, il faillait les oppresser pour qu’ils vous informent sur leurs amis. Je n’ai pas besoin de parler de ça à Berlin. Au XXIe siècle, pourquoi se donner tant de mal ? Il suffit de construire un réseau social et tous les gens vous fournissent des informations sur tous les autres gens. Pourquoi gâcher du temps et de l’argent avec des immeubles pleins d’employés qui vérifient qui est qui sur les photographies ? Proposez à tout le monde de taguer les amis et bing ! Le travail est fait ! Oups, est-ce que j’ai utilisé ce mot ? Bing ! Le travail est fait !
Il y a une barre de recherche et ils la possèdent, nous y collons nos rêves et ils les dévorent !
Et ils nous renvoient immédiatement qui nous sommes. « Si vous avez aimé ça, vous allez adorer ceci ! » Et c’est le cas.
Ils nous calculent. Ce sont des machines qui le font. Chaque fois que vous créez un lien, vous apprenez quelque chose à la machine. Chaque fois que vous faites un lien à propos de quelqu’un, vous apprenez quelque chose à la machine à propos de cette personne. Il faut que nous construisions ce réseau, il faut que nous construisions ce cerveau, c’est le plus grand but de l’humanité, nous sommes en train de le réaliser mais nous n’avons pas le droit de le faire mal.
Autrefois, les erreurs technologiques étaient des erreurs, nous les commettions, elles étaient les effets non intentionnels de nos comportements fautifs, mais les choses ont changé aujourd’hui.
Les choses qui ne tournent pas bien ne sont pas des erreurs, elles sont conçues comme ça. C’est leur but et leur but, c’est de décoder la société humaine.
Je disais à un responsable du gouvernement des États Unis il y a quelques semaines de cela : « Notre gouvernement s’est mal conduit. Nous avons créé des règles après le 11 septembre. Ces règles disaient : nous garderons les données concernant les gens et parmi ces gens certains seront innocents, ils ne seront suspects de rien ». Ces règles conçues en 2001 disaient :
« Nous conserverons ces données sur des gens qui ne sont suspects de rien pour une durée maximale de cent quatre-vingt jours, après quoi nous les détruirons ».
En mars, au milieu de la nuit, un mercredi, après que tout était éteint, alors qu’il pleuvait, le Ministère de la Justice et le directeur du Renseignement National des États-Unis ont dit :
Ce qui correspond à l’éternité.« Oh, nous changeons ces règles. Un petit changement. Nous disions avant que la durée de conservation des données concernant les personnes non suspectes était au maximum de cent quatre-vingt jours, nous passons à cinq ans. »
J’ai plaisanté avec l’avocat avec lequel j’étais à New-York, ils ont écrit « cinq ans » dans le communiqué de presse parce qu’ils n’arrivaient pas à avoir le 8 couché dans la police pour le communiqué de presse, sinon ils auraient simplement dit l’infini, qui est ce qu’ils pensaient.
Et donc, voici la discussion que j’ai eue avec un responsable gouvernemental que je connais depuis plusieurs années, qui travaille à la Maison Blanche :
— Vous voulez changer la société américaine.
— Eh bien, nous sommes arrivés à la conclusion que nous avons besoin d’un graphe social complet de la population des États-Unis.
— Vous avez besoin d’un graphe social complet de la population des États-Unis ?
— Oui
— Vous voulez dire que le gouvernement des États-Unis d’Amérique va, à partir de maintenant, tenir une liste des gens que chaque Américain connaît. Est-ce que vous ne pensez pas que cela nécessiterait une loi ?
Il a simplement ri parce qu’ils l’avaient fait dans un communiqué de presse au milieu de la nuit un mercredi pendant qu’il pleuvait.
La criminalisation de la lecture a bien avancé
Si nous n’agissons pas rapidement, nous allons vivre dans un monde où nos médias se nourriront de nous et nous balanceront au gouvernement. Cet endroit sera du jamais vu et si nous le laissons arriver, nous ne verrons plus jamais autre chose que cela. L’humanité aura été ligotée et les médias se nourriront de nous et nous balanceront au gouvernement. Et l’État possèdera nos esprits.
Le futur ex-président de la République française (NdT cette conférence a eu lieu pendant la campagne électorale de 2012 qui opposait MM. Hollande et Sarkozy) a fait campagne le mois dernier sur une proposition selon laquelle il devrait y avoir des peines criminelles contre la visite répétée de sites djihadistes. C’était une menace de criminaliser la lecture en France. Bon, il sera bientôt l’ancien président de la France, mais ça ne signifie pas que ce sera une idée périmée en France. Pas du tout.
La criminalisation de la lecture a bien avancé. Aux États-Unis d’Amérique dans ce que nous appelons les procès terroristes, nous voyons désormais souvent des recherches Google faites par des particuliers utilisées comme preuves de leur comportement criminel. La recherche de la connaissance est devenue une preuve dans les procès de terrorisme organisé. Nous rendons criminel l’acte de penser, lire et chercher. Nous le faisons dans des sociétés soi-disant libres, nous le faisons malgré le premier amendement, nous le faisons en dépit des leçons de notre histoire parce que nous oublions alors même que nous apprenons.
Nous n’avons pas beaucoup de temps. La génération qui a grandi hors du Net est la dernière qui peut le réparer sans violence.
Les gouvernements sont tombés amoureux du datamining
Tous les gouvernements de la planète sont tombés amoureux de l’idée qu’ils peuvent faire du datamining (captation et fouille des données) avec leur population. Je pensais auparavant que nous allions combattre le Parti Communiste Chinois durant la 3e décennie du XXIe siècle. Je n’avais pas prévu que nous aurions à combattre le gouvernement des États-Unis d’Amérique ET le gouvernement de la République Populaire de Chine et quand Mme Kroes sera ici vendredi, peut-être lui demanderez-vous s’il faudra la combattre elle aussi.
Les gouvernements sont tombés amoureux du datamining car ça fonctionne vraiment très bien. C’est efficace. C’est efficace pour les bonnes causes autant que pour les mauvaises causes. C’est efficace pour aider les gouvernements à comprendre comment fournir des services. C’est efficace pour aider les gouvernements à comprendre quels sont les problèmes futurs. C’est efficace pour aider les politiciens à comprendre comment les votants vont réfléchir. Mais ça rend aussi possible des types de contrôle social qui étaient auparavant très compliqués, très coûteux et très pénibles, avec des méthodes très simples et très efficaces.
Il n’est plus nécessaire de maintenir des réseaux imposants d’informateurs comme je l’ai déjà dit. La Stasi ne vaudrait plus rien si elle était de retour, car Zuckerberg fait le boulot à sa place.
Mais en dehors de la simple facilité à surveiller plus loin que la conservation des données, c’est la pérennité de la vie au-delà du temps de l’oubli : plus rien ne disparaît jamais. Ce qui n’est pas compris aujourd’hui le sera demain. Le trafic chiffré que vous utilisez aujourd’hui dans des conditions de sécurité relative est en attente jusqu’à ce qu’il y en ait suffisamment pour que la crypto-analyse marche, pour que les décodeurs réussissent à le décrypter. Il va falloir que nous revoyions toutes nos règles de sécurité en permanence, car aucun paquet chiffré ne sera plus jamais perdu.
Rien n’est déconnecté indéfiniment, seulement temporairement. Chaque bribe d’information peut être conservée et tout est éventuellement lié à quelque chose d’autre. C’est la logique des responsables gouvernementaux qui disent : « Il nous faut un graphe social robuste de la population des États-Unis d’Amérique. » Pourquoi en ont-ils besoin ? Parce que les points non connectés aujourd’hui seront connectables demain ou l’an prochain ou le suivant. Rien n’est jamais perdu, rien ne disparaît, rien n’est plus oublié.
Donc, la forme primaire de collecte qui devrait nous inquiéter le plus est que les médias nous espionnent pendant que nous les utilisons. Les livres qui nous regardent les lire, la musique qui nous écoute en train de l’écouter. Les moteurs de recherche qui surveillent ce que nous recherchons pour ceux qui nous recherchent et ne nous connaissent pas encore.
Les gens parlent beaucoup des données qui sortent de Facebook : Est-ce qu’elles sortent pour moi ? Est-ce qu’elles sortent pour lui ? Est-ce qu’elles sortent pour eux ? Ils veulent que vous pensiez que la menace est que les données se disséminent. Vous devriez savoir que la menace, c’est le code qui entre.
Sur les 50 dernières années ce qu’il s’est passé dans l’informatique d’entreprise, c’est l’addition de cette couche d’analyse de données au dessus des stockages de données. On la nomme dans l’informatique d’entreprise l’« informatique décisionnelle ». Ce qui signifie que vous avez construit ces vastes stockages de données dans votre entreprise depuis 10 ou 20 ans. Vous disposez uniquement d’informations au sujet de vos propres opérations, vos fournisseurs, vos concurrents, vos clients. Désormais, vous voulez que ces données fassent de la magie. En les combinant avec les sources de données ouvertes disponibles dans le monde, en les utilisant pour répondre à des questions que vous ne saviez pas que vous vous posiez. C’est ça, l’informatique décisionnelle.
L’informatique décisionnelle sur Facebook, c’est là que tous les services de renseignements du globe veulent être.
La menace réelle de Facebook, c’est l’informatique décisionnelle à l’intérieur des données de Facebook. Les stockages de données de Facebook contiennent les comportements, pas seulement la pensée, mais aussi le comportement de près d’un milliard de personnes. La couche d’informatique décisionnelle au-dessus de ça, laquelle est simplement tout le code qu’ils peuvent faire tourner en étant couverts par les règles d’utilisation qui disent « Ils peuvent faire tourner tout le code qu’ils veulent pour améliorer l’expérience ». L’informatique décisionnelle sur Facebook, c’est là que tous les services de renseignements du globe veulent être.
Imaginez que vous soyez une petite organisation de services secrets dans une quelconque pays sans importance. Mettons-nous à leur place et appelons-les je ne sais pas moi, disons, « Korghistan ». Vous êtes les services secrets, vous êtes dans le « business des gens », les services secrets sont le « business des gens »
Il y a plusieurs catégories de gens dont vous avez besoin. Vous avez besoin d’agents, de sources, vous avez des adversaires, vous avez des gens influençables, des gens que vous torturez et qui sont reliés aux adversaires : femmes, maris, pères, filles, vous voyez, ce genre de gens. Donc vous cherchez ces catégories de gens. Vous ignorez leurs noms, mais vous savez à quoi ils ressemblent, vous savez qui vous pourriez recruter en tant qu’agent, vous savez qui sont les sources potentielles, vous connaissez les caractéristiques sociales de vos adversaires, et dès que vous connaissez vos adversaires, vous pouvez trouver ceux qui sont influençables.
Donc ce que vous voulez entreprendre, c’est faire tourner du code dans Facebook. Ça va vous aider à trouver les personnes dont vous avez besoin, ça va vous montrer les personnes dont les comportements et cercles sociaux vous indiquent qu’ils sont ce dont vous avez besoin, qu’il s’agisse d’agents, de sources, quels sont leurs adversaires et qui vous pouvez torturer pour les atteindre.
Donc vous ne voulez pas sortir des données de Facebook. Le jour où ces données sortent de Facebook, elles sont mortes. Vous voulez mettre du code dans Facebook et le faire tourner là-bas et avoir les résultats, vous voulez coopérer.
Facebook veut être un média. Ils veulent posséder le Web, ils veulent que vous cliquiez sur les boutons « J’aime ». Les boutons « J’aime » sont effrayants même si vous n’appuyez pas dessus, ce sont des mouchards sur le Web parce qu’ils indiquent à Facebook toutes les autres pages Web que vous consultez contenant un bouton « J’aime ». Que vous cliquiez dessus ou non, ils ont un enregistrement qui indique : « Vous avez consulté une page, qui intégrait une bouton J’aime » et soit vous avez dit oui, soit vous avez dit non. Mais dans les deux cas, vous avez généré une donnée, vous avez informé la machine.
Or donc, ce média a envie de mieux vous connaître que vous ne vous connaissez vous-même. Or, nous ne devrions laisser personne faire ça. Nous avons combattu pendant mille ans pour l’espace intérieur, cette bulle privée dans laquelle nous lisons, pensons, réfléchissons et devenons non-orthodoxes à l’intérieur de nos propres esprits. C’est cet espace que tout le monde veut nous prendre. « Dites-nous quels sont vos rêves, dites-nous quelles sont vos pensées, dites-nous ce que vous espérez, dites-nous ce qui vous effraie ». Ce n’est pas une confession privée hebdomadaire. C’est une confession 24h/24.
Le robot mobile que vous transportez avec vous, c’est celui qui sait où vous vous trouvez en permanence et écoute chacune de vos conversations. C’est celui dont vous espérez qu’il ne rapporte pas tout à un centre de commande. Mais ce n’est qu’un espoir. Celui qui fait tourner tous ces logiciels que vous ne pouvez ni lire, ni étudier, ni voir, ni modifier, ni comprendre. Celui-là, celui-là même écoute vos confessions en permanence. Quand vous le tenez devant votre visage, désormais, il va connaître votre rythme cardiaque. C’est une appli Android, dès maintenant les changements minimes de la couleur de votre visage révèlent votre fréquence cardiaque. C’est un petit détecteur de mensonges que vous transportez avec vous. Bientôt je pourrai de mon siège dans une salle de classe observer la pression sanguine de mes étudiants monter et descendre. Dans bon nombre de salles de classes aux États-Unis d’Amériques, c’est une information de première importance Mais il ne s’agit pas de moi, bien sûr, il s’agit de tout le monde, n’est-ce pas ? Car il s’agit seulement de données et des gens qui y ont accès. L’intérieur de votre tête devient l’extérieur de votre visage, devient l’intérieur de votre smartphone, devient l’intérieur du réseau, devient le premier fichier du dossier au centre de commande.
Nous avons donc besoin de médias libres sinon nous perdons la liberté de pensée, c’est aussi simple que ça.
Que signifie un média libre ? Un média que vous pouvez lire, auquel vous pouvez penser, auquel vous pouvez faire des ajouts, auquel vous pouvez participer sans être suivi, sans être surveillé, sans qu’il y ait de rapports sur votre activité. C’est ça, un média libre. Et si nous n’en avons pas, nous perdrons la liberté de penser, et peut-être pour toujours.
Avoir un média libre signifie avoir un réseau qui se comporte conformément aux besoins des gens situés à la marge. Et pas conformément aux besoins des serveurs situés au cœur.
Construire un média libre nécessite un réseau de pairs, pas un réseau de maîtres et de serviteurs, pas un réseau de clients et de serveurs, pas un réseau où les opérateurs de réseaux contrôlent tous les paquets qu’ils font transiter. Ce n’est pas facile, mais c’est encore possible. Nous avons besoin de technologie libre. La dernière fois que j’ai donné une conférence politique à Berlin c’était en 2004, elle était intitulée “die Gedanken sind frei” (NdT : Les pensées sont libres — en allemand dans le texte). J’y disais que nous avons besoin de 3 choses :
Maintenant, nous en avons encore plus besoin. Huit années ont passé, nous avons commis des erreurs, et les problèmes sont plus conséquents. Nous n’avons pas avancé, nous avons régressé.
Nous avons besoin de logiciels libres, c’est à dire de logiciels que l’on peut copier, modifier et redistribuer. Nous en avons besoin parce que nous avons besoin que le logiciel qui fait fonctionner le réseau soit modifiable par les personnes qui utilisent ce réseau.
Les tablettes que vous utilisez, que M. Jobs a conçues, sont faites pour vous contrôler.
La mort de M. Jobs est un événement positif. Je suis désolé de vous l’annoncer de la sorte. C’était un grand artiste et un monstre sur le plan moral, et il nous a rapprochés de la fin de la liberté à chaque fois qu’il a sorti quelque chose, parce qu’il détestait partager. Ce n’était pas de sa faute, c’était un artiste. Il détestait partager parce qu’il croyait qu’il avait tout inventé, même si ce n’était pas le cas. À l’intérieur de toutes ces coques fines portant un logo Apple que je vois partout dans la salle, il y a des morceaux de logiciels libres modifiés pour lui donner le contrôle; rien d’illégal, rien de mal, il respecte la licence, il nous a baisés à chaque fois qu’il pouvait et il a pris tout ce que nous lui avons donné et il a fait des choses jolies qui contrôlent leurs utilisateurs.
Autrefois, il y avait un homme ici qui construisait des choses, à Berlin pour Albert Speer (NdT : un haut responsable du Troisième Reich) son nom était Philip Johnson (NdT : un architecte américain) et c’était un brillant artiste mais un monstre sur le plan moral. Et il disait qu’il était venu travailler pour construire des immeubles pour les nazis parce qu’ils avaient tous les meilleurs graphismes. Et il le pensait, parce qu’il était un artiste, tout comme M. Jobs était un artiste. Mais être artiste n’est pas une garantie de moralité.
Nous avons besoin de logiciels libres. Les tablettes que vous utilisez, que M. Jobs a conçues, sont faites pour vous contrôler. Vous ne pouvez pas modifier le logiciel, il est même difficile de faire de la simple programmation. Ce n’est pas vraiment un problème, ce ne sont que des tablettes, nous ne faisons que les utiliser. Nous ne faisons que consommer le prestige de ce qu’elles nous apportent mais elles nous consomment aussi.
Nous vivons comme dans la science-fiction que nous lisions lorsque nous étions enfants et qui supposait que nous serions parmi les robots. À ce jour, nous vivons communément avec des robots, mais ils n’ont pas de bras ou de jambes. Nous sommes leurs bras et leurs jambes, nous transportons les robots partout avec nous. Ils savent où nous allons, ils voient tout ce que nous voyons, tout ce que nous disons, ils l’écoutent et il n’y a pas de première loi de la robotique. Ils nous font du mal, tous les jours. Et il n’y a aucun réglage pour empêcher ça.
Nous avons donc besoin de logiciels libres. À moins que nous ne contrôlions le logiciel du réseau, le réseau finira par nous contrôler.
Nous avons besoin de matériels libres. Cela signifie que lorsque nous achetons un bidule électronique, il devrait être le nôtre et pas celui de quelqu’un d’autre. Nous devrions être libre de le modifier, de l’utiliser comme il nous plaît, pour garantir qu’il ne travaille pas pour quelqu’un d’autre que nous-même. Bien sûr, la plupart d’entre nous ne modifiera jamais rien, mais le fait que nous pouvons le modifier nous met en sécurité. Bien sûr, nous ne serons jamais la personne qu’ils veulent le plus surveiller.
L’homme qui ne sera pas président de la France pour sûr, mais qui pensait qu’il le serait, dit à présent qu’il a été piégé et que sa carrière politique est détruite non pas parce qu’il a violé une femme de chambre mais parce qu’il a été manipulé après qu’on ait espionné son smartphone. Peut-être qu’il dit la vérité, peut-être que non. Mais il n’a pas tort pour ce qui est du smartphone. Peut-être que c’est arrivé, peut-être que non, mais ça arrivera.
Nous transportons des choses dangereuses avec nous partout où nous allons. Elles ne travaillent pas pour nous, elles travaillent pour quelqu’un d’autre. Nous acceptons cela. Nous devons arrêter.
Nous avons besoin de bande passante libre. Cela signifie que nous avons besoin d’opérateurs réseaux qui sont des transports en commun dont le seul travail est de déplacer les paquets réseaux d’un point A à un point B. Ce sont presque des tubes, et ils ne sont pas autorisés à être impliqués. Il était de coutume, lorsque qu’un colis était transporté d’un point A à un point B, que si le gars chargé du transport l’ouvrait et regardait ce qu’il contenait, il commettait un crime.
Plus maintenant.
Aux États-Unis d’Amérique, la chambre des représentants a voté la semaine dernière que les opérateurs réseaux, aux États-Unis d’Amérique, devaient être intégralement à l’abri des poursuites judiciaires pour complicité d’espionnage illégal avec le gouvernement, pour autant qu’ils l’aient fait « de bonne foi ».
Et le capitalisme signifie que vous n’avez jamais à dire que vous êtes désolé, que vous êtes toujours de bonne foi. De bonne foi, tout ce que nous voulons faire c’est de l’argent M. le Juge, laissez-nous dehors. — Très bien, vous êtes libres.
Nous devons avoir de la bande passante libre. Nous possédons encore le spectre électromagnétique, il appartient encore à nous tous, il n’appartient à personne d’autre. Le gouvernement est un mandataire, pas un propriétaire. Nous devons avoir un spectre que nous contrôlons également pour tous. Personne n’est autorisé à écouter quelqu’un d’autre, pas d’inspection, pas de vérification, pas d’enregistrement, cela doit être la règle. Cela doit être la règle de la même façon que la censure doit disparaître. Si nous n’avons pas de règle pour une communication libre, alors nous réintroduisons de la censure. Qu’on le sache ou non.
Nous avons donc très peu de choix maintenant, notre espace a rétréci et nos possibilités de changement ont diminué.
Nous devons avoir des logiciels libres. Nous devons avoir des matériels libres. Nous devons avoir de la bande passante libre. Ce n’est qu’avec eux que nous pourrons faire des médias libres.
Nous ne devrions pas commercer avec des gens qui vendent de la musique sous surveillance.
Mais nous devons travailler sur les médias aussi, directement, pas par intermittence, pas sans y faire attention. Nous devons demander aux organisations des médias d’obéir à des règles éthiques élémentaires. Une première loi des médias robotiques : ne fais aucun mal. La première règle pour nous est : ne surveille pas le lecteur. Nous ne pouvons pas vivre dans un monde où chaque livre signale chaque lecteur. Si c’est le cas, nous vivons dans une bibliothèque gérée par le KGB. Enfin : amazon.com ou le KGB, ou les deux ! Vous ne pourrez jamais savoir !
Le livre, cet objet imprimé merveilleux, ce premier produit du capitalisme de masse, le livre est en train de mourir. C’est dommage, mais il est en train de mourir. Et le remplaçant est une boîte qui surveillera le lecteur ou non.
Vous vous souvenez qu’amazon.com a décidé qu’un livre de Georges Orwell ne pouvait pas être distribué aux État-Unis d’Amérique pour des raisons de copyright. Ils sont venus et l’ont effacé de chacune de toutes les liseuses d’Amazon où le consommateur avait acheté des copies de La ferme des animaux. « Oh, vous l’avez peut-être acheté mais cela ne signifie pas que vous être autorisé à le lire ». C’est de la censure. C’est de l’autodafé. C’est tout ce que nous avons vécu au XXe siècle. Nous avons brûlé des gens, des maisons et des œuvres d’art. Nous avons combattu. Nous avons tué des dizaines de millions de personnes pour mettre un terme à un monde dans lequel l’État brûlerait les livres, et ensuite nous l’avons regardé se faire encore et encore, et maintenant nous nous préparons à autoriser que cela soit fait sans aucun feu.
Partout, tout le temps.
Nous devons avoir une éthique des médias et nous avons le pouvoir de faire appliquer cette éthique parce que nous sommes encore les personnes qui payent le fret. Nous ne devrions pas commercer avec des gens qui vendent des livres sous surveillance. Nous ne devrions pas commercer avec des gens qui vendent de la musique sous surveillance. Nous ne devrions pas commercer avec les sociétés cinématographiques qui vendent des films sous surveillance. Nous allons devoir dire cela même si nous travaillons sur la technologie.
Parce qu’autrement, le capitalisme va agir aussi vite que possible pour rendre nos effort de liberté caducs. Et il y a des enfants qui grandissent qui ne sauront jamais ce que « liberté » signifie.
Nous devons donc la promouvoir, cela va nous coûter un peu, pas beaucoup, mais un peu quand même. Nous allons devoir oublier et faire quelques sacrifices dans nos vies pour faire appliquer cette éthique aux médias. Mais c’est notre rôle. De même que faire des technologies libres est notre rôle. Nous sommes la dernière génération capable de comprendre directement ce que sont ces changements car nous avons vécu des deux côtés de ces changements et nous savons. Nous avons donc une responsabilité. Vous comprenez cela.
C’est toujours une surprise pour moi, bien que ce soit complètement vrai, mais de toutes les villes du monde où j’ai voyagé, Berlin est la plus libre. Vous ne pouvez pas porter de chapeau dans l’aéroport de Hong-Kong, plus maintenant. Je l’ai découvert le mois dernier en essayant de porter mon chapeau dans l’aéroport de Hong-Kong. « Vous n’y êtes pas autorisé, ça perturbe le système de reconnaissance faciale ». Il va y avoir un nouvel aéroport ici, sera-t-il tellement surveillé que vous ne serez pas autorisé à porter un chapeau parce que cela perturbe le système de reconnaissance faciale ?
Nous avons une responsabilité, nous savons. C’est comme ça que Berlin est devenue la ville la plus libre où j’ai pu me rendre parce que nous savons que nous avons une responsabilité, parce que nous nous souvenons, parce que nous avons été des deux côtés du mur. Cela ne doit pas être perdu maintenant. Si nous oublions, plus aucun oubli ne sera jamais possible. Tout sera mémorisé. Tout ce que vous avez lu, durant toute votre vie, tout ce que vous avez écouté, tout ce que vous avez regardé, tout ce que vous avez cherché.
Sûrement nous pouvons transmettre à la prochaine génération un monde libre de tout ça. Sûrement nous le devons. Que se passera-t-il si nous ne le faisons pas ? Que diront-ils lorsqu’ils réaliseront que nous avons vécu à la fin d’un millénaire de lutte pour la liberté de penser ?
Au final, alors que nous avions presque tout, on a tout laissé tomber, par commodité, pour un réseau social, parce que M. Zuckerberg nous l’a demandé, parce que nous n’avons pas trouvé de meilleur moyen pour parler à nos amis. Parce qu’on a aimé ces belles petites choses si chaleureuses dans notre main.
Parce que nous n’avions pas vraiment prêté attention à l’avenir de la liberté de pensée ?
Parce que nous avions considéré que c’était le travail de quelqu’un d’autre. Parce que nous avions pensé que c’était acquis. Parce que nous pensions être libres. Parce que nous n’avions pas pensé qu’il restait des luttes à terminer. C’est pourquoi nous avons tout laissé tombé.
Est-ce que c’est ce que nous allons leur dire ? Est-ce vraiment ce que nous allons leur dire ?
La liberté de pensée exige des médias libres. Les médias libres exigent une technologie libre. Nous exigeons un traitement éthique lorsque nous lisons, lorsque nous écrivons, lorsque nous écoutons, et lorsque nous visionnons.
C’est la ligne de conduite de nos politiques. Nous devons conserver ces politiques jusqu’à notre mort. Parce que dans le cas contraire, quelque chose d’autre va mourir. Quelque chose de tellement précieux que beaucoup, beaucoup, beaucoup de nos pères et de nos mères ont donné leur vie pour cela. Quelque chose de tellement précieux que nous sommes d’accord pour dire que c’est la définition de ce qu’est un être humain. Il mourra si nous ne maintenons pas ces politiques pour le restant de nos jours. Et si nous les maintenons, alors toutes les choses pour lesquelles nous avons lutté se réaliseront parce que partout sur la planète, chaque personne pourra lire librement. Parce que tous les Einstein des rues auront le droit d’apprendre. Parce que tous les Stravinsky deviendront des compositeurs. Parce que tous les Socks deviendront des chercheurs en physique. Parce que l’humanité sera connectée et que chaque esprit sera autorisé à apprendre et aucun esprit ne sera écrasé pour avoir mal pensé.
Nous sommes à un moment décisif où nous pouvons choisir de soutenir cette grande révolution que nous avons bâtie bit après bit depuis un millénaire, ou de tout laisser tomber, par commodité, par simplicité de parler avec nos amis, pour la rapidité des recherches, ou d’autres choses vraiment importantes…
Je disais en 2004 ici même et je le redis maintenant : « Nous pouvons vaincre. Nous pouvons être la génération des personnes qui ont terminé le travail de construire la liberté de pensée ».
Je ne l’ai pas dit alors, mais je dois le faire maintenant que nous sommes aussi potentiellement la génération qui l’aura perdue.
Nous pouvons régresser dans une inquisition pire que toutes les inquisitions qui ont jamais existé. Elle n’usera peut-être pas tant de torture, elle ne sera peut-être pas aussi sanguinaire, mais elle sera bien plus efficace. Et nous ne devons absolument pas laisser cela arriver. Trop de gens se sont battus pour nous. Trop de gens sont morts pour nous. Trop de gens ont espéré et rêvé pour ce que nous pouvons encore réaliser.
Nous ne devons pas échouer.
Merci beaucoup.
Q : Merci. Vous avez dépeint un possible avenir vraiment horrible. Pouvez-vous nommer des organisations ou groupes aux États-Unis d’Amérique qui soutiennent des actions allant dans votre sens, dans votre vision positive de transformer la société ?
R : Pas seulement aux États-Unis d’Amérique mais partout dans le monde, nous avons des organisations qui se préoccupent des libertés numériques. L’« Electronic Frontier Foundation » aux États-Unis d’Amérique, « La Quadrature du Net » en France, « Bits of Freedom » aux Pays-Bas et j’en passe.
Les mouvements pour la liberté numérique sont extrêmement importants. Les pressions sur les gouvernements pour qu’ils obéissent à des règles issues du XVIIIe siècle concernant la protection de la dignité humaine et la prévention de la surveillance étatique sont cruciales. Malheureusement, le travail sur les libertés numériques contre les gouvernements n’est pas suffisant.
Le mouvement des logiciels libres, La FSF, « Free Software Foundation » aux États-Unis d’Amérique et la « Free Software Foundation Europe », dont le siège est en Allemagne, font un travail important pour maintenir ce système anarchique (sur le mode du “bazar”) producteur de logiciels, qui nous a apportés tant de technologies, et que nous-même ne pouvons contrôler. Et cela est crucial.
Le mouvement « Creative Commons » qui est très ancré non seulement aux États-Unis d’Amérique et en Allemagne mais aussi dans plus de 40 pays autour du monde est aussi extrêmement important parce que les licences « Creative Commons » donnent aux créateurs des alternatives au contrôle excessif qui existe avec le système du copyright, et qui profite à la surveillance des médias.
L’encyclopédie libre « Wikipedia » est une institution humaine extrêmement importante et nous devons continuer de soutenir la fondation « Wikimedia » autant que faire se peut. Sur les cent sites web les plus visités aux États-Unis d’Amérique dans une étude menée par le « Street Journal », sur les cent sites web les plus visités aux États-Unis d’Amérique, seulement un ne surveille pas ses utilisateurs. Je vous laisse deviner qui c’est ? C’est Wikipédia.
Nous avons un énorme travail qui se déroule maintenant à travers le monde dans l’enseignement supérieur. Maintenant que les universités commencent à réaliser que le coût de l’enseignement supérieur doit baisser et que les esprits vont grandir dans la toile. La « UOC », l’« Open University of Catalonia » est l’université exclusivement en ligne la plus extraordinaire aujourd’hui. Elle sera bientôt en concurrence avec d’autres universités extraordinaires. « MITX », le nouveau programme d’éducation web de la « Massachussets Institute of Technology » va fournir des cours de la plus haute qualité technique, et rendre ses supports de cours existants, accessibles librement (au sens de la culture libre) pour tous, depuis n’importe-où et en permanence. Stanford va adapter une structure de e-learning privateur qui sera le Google de l’éducation supérieure, si Stanford a de la chance.
Nous devons soutenir l’éducation libre sur Internet, et chaque ministère de l’éducation national européen devrait y travailler. Il y a beaucoup d’endroits où chercher des logiciels libres, du matériel libre, de la bande passante libre, et des médias libres.
Il n’y a pas de meilleur endroit pour chercher des médias libres sur Terre, maintenant, que dans cette salle. Tout le monde sait ce qu’il peut faire. Ils le font. Nous devons juste faire comprendre à tous les autres que si nous arrêtons ou si nous échouons, la liberté de pensé en sera le prix et nous le regretterons pour toujours.
Q : Merci beaucoup. Je voulais vous poser une petite question. Est-ce que Facebook, l’iPhone et les médias libres peuvent coexister à long terme ?
R : Probablement pas. Il ne faut pas trop s’inquiéter, iPhone n’est qu’un produit Facebook, il n’est que la version commerciale d’un service. J’ai récemment dit dans un journal à New-York que je pensais que Facebook continuerait d’exister pour une durée comprise entre 12 et 120 mois. Je pense que c’est exact.
Les réseaux sociaux fédérés seront disponibles dans l’avenir. Les réseaux sociaux fédérés sous une forme qui vous permette de quitter Facebook sans quitter vos amis seront disponibles dans l’avenir. De meilleurs moyens de communication sans une tierce partie qui vous espionne seront disponibles dans l’avenir.
La question c’est : « est-ce que les gens vont les utiliser ?»
La Freedom Box vise à produire une pile logicielle qui tiendrait dans une nouvelle génération de serveurs à bas coût et de faible consommation de la taille d’un chargeur de téléphone mobile, et si nous réussissons cette tâche, nous serons capables de connecter des milliards de serveurs web au réseau qui nous serviront à fournir des services concurrents, qui ne violeront pas la vie privée, et qui seront compatibles avec les services existants.
Mais votre téléphone mobile change fréquemment, donc l’iPhone s’en ira, pas de problème. Et les services web sont moins rares qu’ils n’en ont l’air maintenant. Facebook est une marque, ce n’est pas quelque chose dont il faut nous soucier en particulier, il faut juste que nous fassions cela aussi vite que possible
Coexistence ? Tout ce que j’ai à en dire c’est qu’ils ne vont pas coexister avec la liberté. Je ne vois pas pourquoi je devrais coexister avec eux.
(applaudissements)
Q : Bonjour, je m’appelle […] du Bangladesh. Merci pour cette présentation formidablement informative et lucide. J’ai participé à l’introduction des emails au Bangladesh au début des années 90. À cette époque les connexions coûtaient très cher. Nous dépensions 30 cents par kB donc un 1MB nous coûtait 300 dollars. Ça a changé depuis, mais c’est toujours très encadré par les instances régulatrices et pour nous sur le terrain, c’est très difficile, car les pouvoirs en place (les gardiens des clefs) ont intérêt à maintenir cet état de fait. Mais dans ce réseau des gardiens des clefs, il y a aussi un réseau entre mon pays et le vôtre. Et à l’heure actuelle, la source de données la plus large en volume est le recensement du Bengladesh, et la société qui le fournit est en lien direct avec la CIA. En tant qu’opérateurs, que pouvons-nous faire en attendant de pouvoir devenir des acteurs majeurs ?
R : C’est pourquoi j’ai commencé en parlant des comportements récents des États-Unis d’Amérique. Mon collègue au Centre des Lois de Libertés Logicielles en Inde a passé beaucoup de temps le mois dernier à essayer de faire passer une motion par la chambre haute du Parlement Indien pour annuler la régulation par les services informatiques de la censure du Net Indien et bien sûr la bonne nouvelle c’est que la base de données la plus large en volume dans le monde sera bientôt les scans rétiniens que le gouvernement Indien va exiger, si vous désirez avoir une bouteille de gaz propane ou des choses telles que… l’énergie pour votre maison. Et les difficultés que nous avons rencontrées en parlant aux responsables gouvernementaux indiens sont qu’ils disaient : « Si les Américains peuvent le faire pourquoi pas nous ? » Ce qui est malheureusement vrai.
Le gouvernement des États Unis d’Amérique a réduit cet hiver le niveau des libertés sur Internet de par le monde, dans le sens qu’ils font du datamining (des fouilles de données) sur vos sociétés de manière aussi systématique qu’en Chine. Ils sont d’accord sur le principe. Ils vont tirer les vers du nez à leur population via le datamining et ils vont encourager tous les autres États sur Terre à en
L’association COMMUNIA, l’Open Knowledge Foundation France, La Quadrature du Net, Framasoft, Regards Citoyens, Veni Vidi Libri, le Parti Pirate, Libre Accès et SavoirsCom1 publient ce jour un communiqué dénonçant la signature par la BNF, le Commissariat aux investissements d’avenir et le ministère de la Culture et de la communication d’accords qui privatisent l’accès numérique à une part importante de notre patrimoine culturel.
Paris, le 18 janvier 2013 — Le ministère de la Culture a annoncé hier la conclusion de deux accords, signés entre la Bibliothèque nationale de France et des firmes privées, pour la numérisation de corpus de documents appartenant pour tout (livres anciens) ou partie (78 et 33 tours) au domaine public. Les fonds concernés sont considérables : 70 000 livres anciens français datant de 1470 à 1700, ainsi que plus de 200 000 enregistrements sonores patrimoniaux. Ces accords, qui interviennent dans le cadre des Investissements d’avenir et mobilisent donc de l’argent public, vont avoir pour effet que ces documents ne seront pas diffusés en ligne, mais uniquement sur place à la BnF, sauf pour une proportion symbolique.
Ces partenariats prévoient une exclusivité de 10 ans accordée à ces firmes privées, pour commercialiser ces corpus sous forme de base de données, à l’issue de laquelle ils seront mis en ligne dans Gallica, la bibliothèque numérique de la BnF. Les principaux acheteurs des licences d’accès à ces contenus seront des organismes publics de recherche ou des bibliothèques universitaires, situation absurde dans laquelle les acteurs du service public se retrouveront contraints et forcés, faute d’alternative à acheter des contenus numérisés qui font partie du patrimoine culturel commun.
Les conditions d’accès à ces éléments de patrimoine du domaine public seront restreintes d’une façon inadmissible par rapport aux possibilités ouvertes par la numérisation. Seule la minorité de ceux qui pourront faire le déplacement à Paris et accéder à la BnF seront en mesure de consulter ces documents, ce qui annule le principal avantage de la révolution numérique, à savoir la transmission à distance. Partout enFrance et dans le monde, ce sont les chercheurs, les étudiants, les enseignants, les élèves, les amateurs de culture, les citoyens qui se trouveront privés de l’accès libre et gratuit à ce patrimoine.
La valeur du domaine public réside dans la diffusion de la connaissance qu’il permet et dans la capacité à créer de nouvelles œuvres à partir de notre héritage culturel. Sa privatisation constitue une atteinte même à la notion de domaine public qui porte atteinte aux droits de chacun. Ces pratiques ont été condamnées sans ambiguïté par le Manifeste du domaine public, rédigé et publié par le réseau européen COMMUNIA financé par la Commission européenne :
Toute tentative infondée ou trompeuse de s’approprier des œuvres du domaine public doit être punie légalement. De façon à préserver l’intégrité du domaine public et protéger ses usagers de prétentions infondées ou trompeuses, les tentatives d’appropriation exclusive des œuvres du domaine public doivent être déclarées illégales.
Les institutions patrimoniales doivent assumer un rôle spécifique dans l’identification efficace et la préservation des œuvres du domaine public. (…) Dans le cadre de ce rôle, elles doivent garantir que les œuvres du domaine public sont accessibles à toute la société en les étiquetant, en les préservant et en les rendant librement accessibles.
À titre de comparaison, les partenariats validés par le ministère de la Culture aboutissent à un résultat encore plus restrictif pour l’accès à la connaissance que celui mis en œuvre par Google dans son programme Google Livres, dans lequel les ouvrages restent accessibles gratuitement en ligne sur le site des institutions partenaires. La mobilisation de l’emprunt national n’aura donc en aucun cas permis de trouver une alternative acceptable aux propositions du moteur de recherche.
Le ministère de la Culture affirme dans son communiqué que ces partenariats sont compatibles avec les recommandations du Comité des sages européens « A New Renaissance ». C’est à l’évidence faux, le rapport du Comité des sages admettant que des exclusivités commerciales puissent être concédées à des firmes privées pour 7 ans au maximum, mais insistant sur la nécessité que les documents du domaine public restent accessibles gratuitement en ligne, y compris dans un cadre transfrontalier. Plus encore, les accords sont en flagrante contradiction avec la Charte Europeana du Domaine Public (pdf) alors même que l’un de ses signataires occupe aujourd’hui la présidence de la fondation Europeana.
Par ailleurs, le rapport du Comité des sages énonce comme première recommandation que les partenariats public-privé de numérisation soient rendus publics afin de garantir la transparence, ce qui n’est pas été fait ici. L’opacité a régné de bout en bout sur la conclusion de ces partenariats, au point qu’une question parlementaire posée au ministère de la Culture par le député Marcel Rogemont est restée sans réponse depuis le 23 octobre 2012, alors même qu’elle soulevait le problème de l’atteinte à l’intégrité du domaine public. Enfin, les partenariats publics-privés ont été récemment dénoncés par l’Inspection générale des finances dans un rapport commandé par le ministre de l’Économie, Pierre Moscovici, et par celui du Budget, Jérôme Cahuzac. Ces partenariats sont jugés trop onéreux, trop risqués, trop complexes et trop profitables aux seuls intérêts privés.
Nous, associations et collectifs signataires de cette déclaration, attachés à la valeur du domaine public et à sa préservation comme bien commun, exprimons notre plus profond désaccord à propos de la conclusion de ces partenariats et en demandons le retrait sans délai. Nous appelons toutes les structures et personnes partageant ces valeurs à nous rejoindre dans cette opposition et à manifester leur désapprobation auprès des autorités responsables : BnF, Commissariat général à l’investissement et ministère de la Culture. Nous demandons également la publication immédiate du texte intégral des accords.
Crédit photo : Massimo Barbieri (Creative Commons By-Sa)
Chaque jeudi à 21h, rendez-vous sur le framapad de traduction, le travail collaboratif sera ensuite publié ici même.
Traduction Framalang :
, , , , , , , , , ,Andre Klapper
Dans la vraie vie, Andre Klapper est maître ès débogage. Pendant sa pause déjeuner ou sa sieste, il travaille à divers trucs sur GNOME (bugsquad, équipe de release, traduction, documentation, etc.), ou Maemo, étudie ou mange de la crème glacée.
Au tout début, je n’avais qu’une seule et unique question : comment imprimer seulement une partie du courriel que j’ai reçu dans Evolution, le client de messagerie Gnome ? J’ai donc demandé sur la liste de diffusion.
Ça faisait exactement un an que j’étais passé sous Linux, frustré de ne pouvoir faire fonctionner mon modem après avoir réinstallé un OS propriétaire plutôt populaire à l’époque.
La réponse à ma question fut : « impossible ». Des petits génies auraient parcouru le code, l’auraient compilé, l’auraient bidouillé pour qu’il se comporte comme voulu, puis auraient soumis un correctif joint au rapport de bogue. Bon. Comme vous l’aurez deviné, je n’étais pas un petit génie. Mes talents de programmeur sont plutôt limités, donc sur le moment je suis resté coincé sur une solution de contournement plutôt lourde pour mon impression. La réponse que j’avais reçue sur la liste de diffusion signalait également que cette fonctionnalité était prévue, et qu’on avait complété pour moi un rapport de bogue — sans préciser où, mais je m’en fichais, j’étais content d’apprendre qu’il était prévu de corriger mon problème prochainement.
Il se peut que je sois resté abonné à la liste de diffusion par simple paresse. Certains mentionnaient le rapporteur de bogues de temps en temps, souvent comme une réponse directe aux demandes de fonctionnalités, alors j’y ai finalement jeté un coup d’œil. Mais les rapporteurs de bogue, en particuliers Bugzilla, sont d’étranges outils avec beaucoup d’options complexes. Un domaine que vous préférez normalement éviter à moins que vous ne soyez masochiste. Ils contiennent maints tickets décrivant des bogues ou des demandes de fonctionnalités émanant d’utilisateurs et de développeurs. Il semblait également que ces rapports aient été en partie utilisés pour planifier les priorités (appeler cela « gestion de projet » aurait été un euphémisme ; moins d’un quart des problèmes qui étaient planifiés pour être résolus ou implémentés dans une version spécifique étaient réellement corrigés au bout du compte).
Au-delà d’une vision intéressante sur les problèmes du logiciel et sur la popularité de certaines demandes, ce que j’ai découvert, c’est beaucoup de choses incohérentes et pas mal de bruit, comme des doublons ou des rapports de bogues manquant d’éléments pour pouvoir être traités correctement. J’ai eu envie de nettoyer un peu en « triant » les rapports de bogues disponibles. Je ne sais pas bien ce que cela vous dit sur mon état d’esprit — ajouter ici des mots-clés bidon pour une caractérisation aléatoire, comme organisé, persévérant et intelligent. C’est assez ironique quand on pense à mon père qui se plaignait toujours du bordel dans ma chambre. Donc à cette époque lointaine de modems commutés, j’avais pour habitude de rassembler mes questions et de les faire remonter sur IRC une fois par jour afin de mitrailler de questions le responsable des bogues d’Evolution, qui était toujours accueillant, patient et soucieux de partager son expérience. Si jamais à l’époque il y avait un guide de triage qui couvrait les savoirs de base pour la gestion des bogues et qui exposait les bonnes pratiques et les pièges les plus courants, je n’en avais pas entendu parler.
Le nombre de signalements baissa de 20% en quelques mois, bien que ce ne fût bien évidemment pas grâce à une unique personne qui faisait le tri des tickets. Il y avait manifestement du travail en attente, comme diminuer le nombre des tickets attribués aux développeurs pour qu’ils puissent mieux se concentrer, parler avec eux, définir les priorités, et répondre aux commentaires non-traités de certains utilisateurs. L’open source accueille toujours bien les contributions une fois que vous avez trouvé votre créneau.
Bien plus tard, j’ai pris conscience qu’il y avait de la documentation à consulter. Luis Villa, qui fut probablement le premier des experts en bogues, a écrit un essai titré « Pourquoi tout le monde à besoin d’un expert en bogue » et la majorité des équipes anti-bogues sur les projets open source ont publié au même moment des guides sur le triage qui ont aidé les débutants à s’impliquer dans la communauté. De nombreux développeurs ont débuté leur fantastique carrière dans l’open source en triant les bogues et ont ainsi acquis une première expérience de gestion de projet logiciel.
Il y a aussi de nos jours des outils qui peuvent vous épargner beaucoup de temps quand arrive l’abrutissant travail de triage. Du côté serveur, l’extension « stock answers » de GNOME fournit les commentaires courants et fréquemment usités afin de les ajouter aux tickets en un clic pendant que, du côté client, vous pouvez faire tourner votre propre script GreaseMonkey ou l’extension Jetpack de Matej Cepl, appelée « bugzilla-triage-scripts » [2].
Si vous êtes un musicien moyen ou médiocre mais que vous aimez tout de même la musique par-dessus tout, vous pouvez toujours y travailler en tant que journaliste. Le développement de logiciels possède également ce genre de niches qui peuvent vous donner satisfaction, au-delà de l’idée première d’écrire du code. Cela vous prendra un peu de temps pour les trouver, mais ça vaut la peine d’y consacrer vos efforts, votre expérience et vos contacts. Avec un peu de chance et de talent, cela peut même vous permettre de gagner votre vie dans le domaine qui vous intéresse personnellement… et vous éviter de finir pisse-code.
[1] http://tieguy.org/talks-files/LCA-2005-paper-html/index.html
[2] https://fedorahosted.org/bugzilla-triage-scripts
Crédit photo : Doug DuCap Food and Travel (CC BY-NC-SA 2.0)
Chaque jeudi à 21h, rendez-vous sur le framapad de traduction, le travail collaboratif sera ensuite publié ici même.
Traduction Framalang :
Ara Pulido
Ara Pulido est ingénieure d’essais pour Canonical, d’abord comme membre de l’équipe assurance qualité d’Ubuntu (QA team), et maintenant dans le cadre de l’équipe de certification du matériel. Même si elle a commencé sa carrière en tant que développeuse, elle a vite découvert que ce qu’elle aimait vraiment, c’était tester les logiciels. Elle est très intéressée par les nouvelles techniques d’analyse et tente d’utiliser son savoir-faire pour améliorer Ubuntu.
Je me suis impliquée dans le logiciel libre dès le début de mes études à l’Université de Grenade. Là-bas, avec des amis, nous avons fondé un groupe local d’utilisateurs de Linux et organisé plusieurs actions pour promouvoir le logiciel libre. Mais, depuis que j’ai quitté l’université, et jusqu’à ce que je commence à travailler chez Canonical, ma carrière professionnelle s’est déroulée dans l’industrie du logiciel propriétaire, d’abord comme développeuse puis comme testeuse.
Lorsque l’on travaille au sein d’un projet de logiciel propriétaire, les ressources pour tester sont très limitées. Une petite équipe reprend le travail initié par les développeurs avec les tests unitaires, utilisant leur expérience pour trouver autant de bogues que possible afin de mettre à disposition de l’utilisateur final un produit aussi abouti que possible. Dans le monde du logiciel libre, en revanche, tout est différent.
Lors de mon embauche chez Canonical, hormis la réalisation de mon rêve d’avoir un travail rémunéré au sein d’un projet de logiciel libre, j’ai été émerveillée par les possibilités des activités de test dans le cadre d’un tel projet. Le développement du produit s’effectue manière ouverte, et les utilisateurs ont accès au logiciel dès son commencement, ils le testent et font des rapports de bogues dès que c’est nécessaire. C’est un nouveau monde rempli de beaucoup de possibilités pour une personne passionnée par les tests. Je voulais en profiter au maximum.
Comme beaucoup de personnes, je pensais que les tests « maison », c’est-à-dire l’utilisation par soi-même du logiciel que l’on envisage de mettre à disposition, était l’activité de test la plus importante qu’on puisse mener dans le logiciel libre. Mais si, selon la formule de Raymond dans La cathédrale et le bazar « avec suffisamment d’observateurs, tous les bogues sautent aux yeux », alors comment se fait-il qu’avec ses millions d’utilisateurs Ubuntu comporte encore des bogues sérieux à chaque nouvelle version ?
La première chose dont je me suis aperçue quand j’ai commencé à travailler chez Canonical c’est que les activités de test organisées étaient rares ou inexistantes. Les seules sessions de test qui étaient d’une certaine façon organisées se présentaient sous la forme de messages électroniques envoyés à une liste de diffusion, manière de battre le rappel pour tester un paquetage dans la version de développement d’Ubuntu. Je ne pense pas que cela puisse être considéré comme une vraie procédure de test, mais simplement comme une autre forme de «test maison ». Cette sorte de test génère beaucoup de doublons, car un bogue facile à débusquer sera documenté par des centaines de personnes. Malheureusement le bogue potentiellement critique, vraiment difficile à trouver, a de bonnes chances de passer inaperçu en raison du bruit créé par les autres bogues, et ce même si quelqu’un l’a documenté.
La situation s’améliore-t-elle ? Sommes-nous devenus plus efficaces pour les tests au sein des projets de développement libre ? Oui, j’en suis convaincue.
Pendant les derniers cycles de développement d’Ubuntu, nous avons commencé bon nombre de sessions de test. La gamme des objectifs pour ces sessions est large, elle comprend des domaines comme de nouvelles fonctionnalités de bureau, des tests de régression, des test de pilotes X.org ou des tests de matériel d’ordinateur portable. Les résultats sont toujours suivis et ils s’avèrent vraiment utiles pour les développeurs, car ils leur permettent de savoir si les nouveautés fonctionnent correctement, au lieu de supposer qu’elles fonctionnent correctement à cause de l’absence de bogues.
En ce qui concerne les outils d’assistance aux tests, beaucoup d’améliorations ont été apportées :
Cependant, malgré l’amélioration des tests dans les projets de logiciel libre il reste encore beaucoup à faire.
Les tests nécessitent une grande expertise, mais sont encore considérés au sein de la communauté du le logiciel libre comme une tâche ne demandant pas beaucoup d’efforts. L’une des raisons pourrait être que la manière dont on les réalise est vraiment dépassée et ne rend pas compte de la complexité croissante du monde du logiciel libre durant la dernière décennie. Comment est-il possible que, malgré la quantité d’innovations amenées par les communautés du logiciel libre, les tests soient encore réalisés comme dans les années 80 ? Il faut nous rendre à l’évidence, les scénarios de tests sont ennuyeux et vite obsolètes. Comment faire grandir une communauté de testeurs supposée trouver des bogues avérés si sa tâche principale est de mettre à jour les scénarios de test ?
Mais comment améliorer la procédure de test ? Bien sûr, nous ne pouvons pas nous débarrasser des scénarios de test, mais nous devons changer la façon dont nous les créons et les mettons à jour. Nos testeurs et nos utilisateurs sont intelligents, alors pourquoi créer des scripts pas-à-pas ? Ils pourraient aisément être remplacés par une procédure de test automatique. Définissons plutôt une liste de tâches que l’on réalise avec l’application, et certaines caractéristiques qu’elle devrait posséder. Par exemple, « l’ordre des raccourcis dans le lanceur doit pouvoir être modifié », ou « le démarrage de LibreOffice est rapide ». Les testeurs trouveront un moyen de le faire, et créeront des scénarios de test en parallèle des leurs.
Mais ce n’est pas suffisant, nous avons besoin de meilleurs outils pour aider les testeurs à savoirs ce qu’ils testent, où et comment. Pourquoi ne pas avoir des API (interfaces de programmation) qui permettent aux développeurs d’envoyer des messages aux testeurs à propos des nouvelles fonctionnalités ou des mises à jour qui doivent être testées ? Pourquoi pas une application qui nous indique quelle partie du système doit être testée ? en fonction des tests en cours ? Dans le cas d’Ubuntu, nous avons les informations dans le Launchpad (il nous faudrait aussi des données sur les tests, mais au moins nous avons des données sur les bogues). Si je veux démarrer une session de test d’un composant en particulier j’apprécierais vraiment de savoir quelles zones n’ont pas encore été testées ainsi qu’une liste des cinq bogues comptant le plus de doublons pour cette version en particulier afin d’éviter de les documenter une fois de plus. J’aimerais avoir toutes ces informations sans avoir à quitter le bureau que je suis en train de tester. C’est quelque chose que Firefox a initié avec Test Pilot, bien qu’actuellement l’équipe rassemble principalement les données sur l’activité du navigateur.
La communication entre l’amont et l’aval et vice-versa doit aussi être améliorée. Pendant le développement d’une distribution, un bon nombre des versions amont sont également en cours de développement, et ont déjà une liste des bogues connus. Si je suis un testeur de Firefox sous Ubuntu, j’aimerais avoir une liste des bogues connus aussitôt que le nouveau paquet est poussé dans le dépôt. Cela pourrait se faire à l’aide d’une syntaxe reconnue pour les notes de versions, syntaxe qui pourrait ensuite être facilement analysée. Les rapports de bogue seraient automatiquement remplis et reliés aux bogues amont. Encore une fois, le testeur devrait avoir facilement accès à ces informations, sans quitter son environnement de travail habituel.
Les tests, s’ils étaient réalisés de cette manière, permettraient au testeur de se concentrer sur les choses qui comptent vraiment et font de la procédure de test une activité qualifiée ; se concentrer sur les bogues cachés qui n’ont pas encore été découverts, sur les configurations et environnements spéciaux, sur la création de nouvelles manières de casser le logiciel. Et, in fine, s’amuser en testant.
Pour ce que j’en ai vu ces trois dernières années, les tests ont beaucoup progressé au sein d’Ubuntu et des autres projets de logiciels libres dans lesquels je suis plus ou moins impliquée, mais ce n’est pas suffisant. Si nous voulons vraiment améliorer la qualité du logiciel libre, nous devons commencer à investir dans les tests et innover dans la manière de les conduire, de la même façon que nous investissons dans le développement. Nous ne pouvons pas tester le logiciel du XXIe siècle avec les techniques du XXe siècle. Nous devons réagir. Qu’il soit open source ne suffit plus à prouver qu’un logiciel libre est de bonne qualité. Le logiciel libre sera bon parce qu’il est open source et de la meilleure qualité que nous puissions offrir.
1 http://wiki.ubuntu.com/Apport
3 http://testpilot.mozillalabs.com
4 http://reports.qa.ubuntu.com/reports/desktop-testing/natty
C’est un Geektionnerd très spécial que nous propose Gee cette semaine (cliquez sur l’image pour l’agrandir).
Vous pouvez également lire les traductions de quelques uns de ses articles que nous avons publié cette semaine, ainsi que ce Manifeste Hacker qui lui va si bien.
Crédit : Simon Gee Giraudot (Creative Commons By-Sa)
Le Framablog a pris l’habitude de suivre les travaux de Bernard Stiegler au sein d’Ars Industrialis. Il faut dire que ça n’est pas tous les jours qu’un philosophe affirme que « le logiciel libre peut redonner sens à nos vies » !
Nous vous proposons ci-dessous le réplication d’une vidéo de Simon Lincelles intitulée « Introduction à l’économie contributive » et co-écrit par Bernard Stiegler.
Malgré quelques inexactitudes, nous partageons l’hypothèse que le logiciel libre (et Wikipédia) représentent un espoir et un modèle pour l’avenir de notre économie.
Remarque : cette vidéo (lien direct Vimeo) est le troisième épisode d’une série initiée ici.
Au delà de l’émotion des circonstances, voici la traduction d’une note d’Aaron Swartz qui pose la question du devenir de nos données après notre mort.
Et pour ce qui concerne le code, le léguer à la FSF est une bonne idée ;)
Cet article est rangé dans le répertoire « 2002 » de son site. Il avait alors 16 ans !
Aaron Swartz - 2002 - Site personnel
(Traduction : Moosh, lgodard, zozio nocture (aka brandelune), aKa, Sky)
Si je me fais renverser par un camion… lisez cette page.
Il y a une vieille blague chez les programmeurs sur qui va gérer le code si son auteur se fait renverser par un camion. Cette page est ici pour assurer que tout le monde sache quoi faire si, pour une raison donnée, je ne suis plus en mesure de conserver mes services Web en fonctionnement.
Je désigne Sean B. Palmer comme mon exécuteur testamentaire virtuel pour l’organisation de ces choses (et Sean, si tu effaces quoi que ce soit, je te hanterai de ma tombe !)
Je demande que le contenu de tous mes disques durs soit rendu public sur aaronsw.com.
Web.Resource.org Sean (ou la personne qu’il désignera) deviendra le nouveau webmaster. Continue de mettre à jour le site et la liste des miroirs, et garantis la persistance des URLs. (Ceci implique que rien de controversé ou d’illégal ne doive être ajouté, à part pour Cryptome.)
Code Source Le copyright pour mon code source sous GPL doit être transféré à la Free Software Foundation. Elle semble avoir une politique raisonnable concernant la mise à disposition du code.
Sites Web Merci de laisser les sites Web opérationnels quand c’est possible, sans modifier les contenus que j’ai écrit quand approprié. Des pages dédiées (par exemple sur aaronsw.com) pourront contenir une note sur ce qui m’est arrivé avec un lien vers des plus d’information. La page d’accueil sur aaronsw.com devra être modifiée avec un lien vers l’ancienne page.
Tombe Je voudrais reposer dans un endroit qui ne me tuera pas. Ce qui veut dire avoir un accès à de l’oxygène (bien qu’un accès direct serait probablement une mauvaise chose), et ne pas avoir à traverser 6 pieds de saleté.
Pour le reste, envoyez un e-mail à Sean. Je suis certain qu’il fera quelque chose de raisonnable.
Si quelque chose m’arrive, merci de mettre à jour le pied de page de cette note avec un lien. Envoyez également un e-mail aux listes concernées et mettez en place une réponse automatique pour mon adresse e-mail afin d’informer les personnes qui m’écrivent. N’hésitez pas à publier les choses que les gens disent à mon propos sur le site. Tout ceci est probablement évident, et je suis certain que vous vous en sortirez.
Oh, et au fait, vous me manquerez tous.
Crédit photo : Doc Searls (Creative Commons By)
Un certain nombre de textes tournent actuellement sur le Net suite au décès d’Aaron Swartz. Parmi eux on trouve « La Conscience d’un hacker » (ou « Le Manifeste du hacker ») datant de… 1986 et que d’aucuns trouvent particulièrement adapté aux circonstances. Et pour cause…
Nous vous le proposons traduit ci-dessous[1]. Il a été rédigé par Loyd Blankenship, (alias The Mentor) juste après son arrestation.
« Oui, je suis un criminel. Mon crime est celui de la curiosité. »
Remarque : Nous sommes en 1986 et c’est par le téléphone que passe le réseau. Un téléphone qui se retrouve alors bloqué par ces « sales gosses » pour la communication classique.
The Mentor - 8 janvier 1986 - Phrack.org
(Traduction : NeurAlien, Moosh, ga3lig, goofy, zozio nocture (aka brandelune), Slystone, KoS, aKa, Martin, lamessen, Sky)
Ce qui suit a été écrit peu de temps après mon arrestation…
Un autre s’est fait prendre aujourd’hui, c’est partout dans les journaux.
« Scandale : Un adolescent arrêté pour crime informatique », « Arrestation d’un hacker après le piratage d’une banque »…
Satanés gosses, tous les mêmes.
Mais vous, dans votre psychologie de costume trois pièces et votre conscience technologique des années 50, avez-vous un jour pensé à regarder le monde avec les yeux d’un hacker ?
Ne vous êtes-vous jamais demandé ce qui l’avait fait agir et quelles forces l’avaient animé ?
Je suis un hacker, entrez dans mon monde…
Mon monde, il commence avec l’école… Je suis plus éveillé que la plupart des autres enfants et les nullités qu’on nous enseigne m’ennuient…
Satanés gamins, ce sont tous les mêmes.
Je suis au collège ou au lycée. J’ai écouté les professeurs expliquer pour la quinzième fois comment réduire une fraction.
J’ai bien compris. « Non Mme Dubois, je n’ai pas montré mon travail. Je l’ai fait dans ma tête ».
Satané gosse. Il a certainement copié. Ce sont tous les mêmes.
J’ai fait une découverte aujourd’hui. J’ai trouvé un ordinateur.
Attends une minute, c’est cool. Ça fait ce que je veux. Si ça fait une erreur, c’est parce que je me suis planté.
Pas parce qu’il ne m’aime pas…
Ni parce qu’il se sent menacé par moi…
Ni parce qu’il pense que je suis un petit malin…
Ni parce qu’il n’aime pas enseigner et qu’il ne devrait pas être là…
Satané gosse. Tout ce qu’il fait c’est jouer. Ce sont tous les mêmes.
Et c’est alors que ça arrive. Une porte s’ouvre…
Les impulsions électroniques déferlent sur la ligne téléphonique comme l’héroïne dans les veines d’un drogué.
Pour trouver dans un Forum le refuge contre la stupidité quotidienne.
« C’est ça… C’est ici que je dois être…»
Ici, je connais tout le monde… Même si je n’ai jamais rencontré personne. Je ne leur ai jamais parlé, et je n’entendrai peut-être plus parler d’eux un jour… Je vous connais tous.
Satané gosse. Encore pendu au téléphone. Ce sont tous les mêmes.
A l’école, on nous a donné des pots de bébé alors qu’on avait les crocs pour un steak…
Les morceaux de viande que vous avez bien voulu nous tendre étaient pré-mâchés et sans goût.
On a été dominé par des sadiques ou ignoré par des apathiques.
Les seuls qui avaient des choses à nous apprendre trouvèrent en nous des élèves de bonne volonté, mais ceux-ci étaient comme des gouttes d’eau dans le désert.
C’est notre monde maintenant… Le monde de l’électron et des commutateurs, la beauté du baud. Nous utilisons un service déjà existant, sans payer ce qui pourrait être bon marché si ce n’était pas géré par des profiteurs avides, et c’est nous que vous appelez criminels.
Nous explorons… et vous nous appelez criminels.
Nous recherchons la connaissance… et vous nous appelez criminels.
Nous existons sans couleur de peau, sans nationalité, sans dogme religieux… et vous nous appelez criminels.
Vous construisez des bombes atomiques, vous financez les guerres, vous assassinez et trichez, vous manipulez et vous nous mentez en essayant de nous faire croire que c’est pour notre propre bien… et pourtant c’est nous qui sommes les criminels.
Oui, je suis un criminel. Mon crime est celui de la curiosité.
Mon crime est celui de juger les gens selon ce qu’ils pensent et disent, pas selon leur apparence.
Mon crime est d’être plus malin que vous, quelque chose que vous ne me pardonnerez jamais.
Je suis un hacker, et ceci est mon manifeste.
Vous pouvez arrêter un individu, mais vous ne pouvez pas tous nous arrêter…
Après tout, nous sommes tous les mêmes.
The Mentor
Crédit photo : Elizabeth Brossa (Creative Commons By-Nc-Sa)
[1] Il en existait une première traduction mais elle était « perfectible ».
Chaque jeudi à 21h, rendez-vous sur le framapad de traduction, le travail collaboratif sera ensuite publié ici même.
Traduction Framalang :
, , , , , , , , , , , , ,Kai Blin
Kai Blin est un bio-informaticien qui mène des recherches sur les antibiotiques dans le cadre de ses activités quotidiennes, tant sur ordinateur qu’au labo. Il est très heureux de pouvoir diffuser le logiciel développé dans le cadre de ses activités professionnelles sous licence open source. Vivant dans la charmante ville de Tübingen, dans le sud de l’Allemagne, Kai passe une partie de ses soirées sur l’ordinateur, à programmer pour le projet Samba. Il consacre la majorité de son temps libre restant au théâtre, où il participe aussi bien à la performance scénique qu’à la construction d’accessoires et à la régie technique dans les coulisses.
Écrire des correctifs et les proposer est souvent la première interaction concrète que vous pouvez avoir avec un projet open source. C’est la première impression que vous donnez aux développeurs présents. Proposer de « bons » premiers correctifs, ou tout du moins jugés comme tels par le projet auquel vous contribuez, vous rendra la vie plus facile. Les règles précises d’écriture du correctif, de la façon de le soumettre au projet et tous les autres détails nécessaires vont sans doute varier selon les divers projets auxquels vous voulez contribuer. Mais j’ai trouvé quelques règles générales que l’on retrouve presque à chaque fois. Et c’est ce dont traite cet article.
Le fil rouge de ce livre est « ce que j’aurais aimé savoir avant de commencer », aussi permettez-moi de commencer par l’histoire de mes premiers correctifs. J’ai été impliqué sérieusement dans l’écriture de code pour la première fois pendant le Google Summer of Code™ de 2005. Le projet Wine avait accepté que j’implémente un chiffrement NTLM basé sur des outils connexes à Samba. Wine est un projet à committer unique, ce qui signifie que seul le développeur principal, Alexandre Julliard, possède les autorisations de commit sur le dépôt principal. En 2005, Wine utilisait encore CVS comme système de gestion de versions. Quand le projet a démarré et que j’ai reçu le courriel me disant que j’étais accepté, j’ai contacté mon mentor sur IRC et me suis mis au travail.
J’alignais joyeusement les lignes de code et bientôt j’ai pu implémenter les premières fonctionnalités. J’ai produit un correctif et l’ai soumis à mon mentor pour qu’il fasse une relecture. Au temps du CVS, il fallait renseigner toutes les options de diff(1) manuellement, mais je m’étais particulièrement documenté sur la partie cvs diff -N -u > ntlm.patch. De cette façon, j’avais le fichier que je pouvais envoyer à mon mentor. En fait, c’est quelque chose que j’ai bien fait. Et c’est la première chose que vous devriez prendre en compte quand vous préparez un correctif. Le résultat classique de la commande diff est sans doute plus facile à lire pour un ordinateur, mais je n’ai jamais rencontré un humain préférant le résultat classique au résultat d’un diff unifié. Grâce à l’option -u , diff utilise les notations + + +
et - - -
Par exemple, le diff qui suit est le résultat de la réécriture de « Hello, World! » en Python, version suédoise.
diff —git a/hello.py b/hello.py index 59dbef8..6334aa2 100644 --- a/hello.py +++ b/hello.py @@ -1,4 +1,4 @@ #!/usr/bin/env python # vim: set fileencoding=utf-8 -print "Hello, world!" +print "Halla, varlden!"
La ligne qui commence par « - » est la ligne supprimée, celle qui commence par « + » est celle qui va être ajoutée. Les autres lignes permettent à l’outil de correction de faire son travail.
J’ai envoyé le diff unifié que je venais de créer à mon mentor qui m’en a fait une review(2) en me signalant beaucoup d’éléments à modifier. J’ai effectué les corrections et lui ai renvoyé un nouveau diff peu de temps après. Le cycle d’analyse du code a continué durant toute la durée du GSoC et mon correctif ne cessait de grossir. Quand la date de livraison est arrivée, je me suis retrouvé avec un correctif monstrueux dans lequel étaient inclus tous mes changements. Naturellement, j’ai eu beaucoup de mal à obtenir une review de mon correctif, sans parler de le faire accepter. Pour finir, Alexandre refusa de regarder plus avant le correctif tant que je ne l’aurais pas scindé. Les règles en usage chez Wine exigent que les correctifs soient de petites étapes logiques ajoutant une fonctionnalité. Chaque correctif doit faire quelque chose d’utile et pouvoir être compilé.
De fait, scinder un énorme correctif existant en différentes parties cohérentes individuellement et qui peuvent être compilées représente beaucoup de travail. C’était même d’autant plus de travail que je ne connaissais qu’une seule manière de le faire : écrire un petit correctif, créer le diff, le proposer à la validation, mettre à jour ma contribution locale et écrire alors le correctif suivant. Peu de temps après que j’ai commencé à envoyer mes premiers petits correctifs, Wine est entré dans une phase de gel des fonctionnalités d’un mois menant à la version 0.9.0 bêta. Je suis resté sur le correctif suivant pendant un mois avant de pouvoir continuer et j’ai finalement envoyé mon dernier correctif en novembre. Complètement frustré par cette expérience, j’ai décidé que je ne voulais plus jamais avoir à faire avec la communauté Wine.
Ma frustration perdura jusqu’à ce que des personnes qui utilisaient réellement mon code commencent à me poser des questions sur celui-ci en février 2006. Mon code était vraiment utile ! Ils voulaient également davantage de fonctionnalités. Quand Google annonça qu’il reconduirait le GSoC en 2006, mes projets pour l’été étaient clairs. Maintenant que Wine avait basculé de diff à git en décembre 2005, je savais que je ne serais pas ennuyé par des gels de fonctionnalités, puisque je pouvais finalement créer tous mes petits correctifs localement. La vie était belle.
Ce n’est que lorsque je suis tombé sur une interface de git (appelée porcelaine dans le langage git) qui émulait le comportement de Quilt que j’ai appris qu’il y avait des outils qui auraient pu rendre ma vie plus facile, même en 2005.
Maintenant que je vous ai raconté comment j’ai réussi à me planter avec l’envoi de correctifs, permettez-moi de poursuivre avec quelques conseils pour éviter les pièges.
Mon premier conseil est de lire attentivement toutes les directives de soumission de correctifs que peut avoir le projet auquel vous voulez contribuer. Celles-ci, ainsi que les normes de style de codage, doivent être consultées avant même de commencer à coder.
Même si ce n’est pas explicitement indiqué dans les directives de soumission des correctifs, vous devez vraiment, vraiment envoyer le résultat d’un diff unifié. Je n’ai encore rencontré aucun projet qui préfère la sortie non unifiée du diff. Les diffs unifiés rendent la révision du correctif beaucoup plus facile. Ce n’est pas par hasard que les programmes de gestion de version modernes utilisent automatiquement ce format dans leurs commandes diff par défaut.
En ce qui concerne la gestion de versions moderne, vous devriez vraiment utiliser un système de gestion de versions distribué (DVCS) pour travailler localement sur le code. Git et Mercurial sont les choix les plus populaires de nos jours, quoique Bazaar puisse aussi très bien faire l’affaire. Même si le projet auquel vous voulez contribuer utilise toujours un système de gestion de version centralisé, être en mesure d’envoyer vos changements de manière itérative est une très bonne chose. Tous les outils de gestion de versions distribués mentionnés ci-dessus devraient être capables d’importer des changements depuis un SVN ou un CVS. Vous pourrez y aller et apprendre doucement Quilt mais, sérieusement, le futur passe par les systèmes de gestion de versions distribués.
Quand je dois examiner des correctifs, les plus ennuyeux à traiter sont ceux qui sont trop gros ou qui tentent de faire de nombreuses choses en même temps. Les correctifs qui ne font qu’une chose à la fois sont plus faciles à traiter. Au final, ils vous faciliteront la vie quand vous devrez déboguer les erreurs qu’auront manquées à la fois l’auteur et le vérificateur.
Après avoir proposé votre correctif, gardez un œil sur les canaux de communication du projet et sur votre correctif. Si vous n’avez eu aucun retour au bout d’une semaine, vous devriez poliment en demander un. En fonction de la façon dont le projet gère les propositions de correctif, celui-ci pourrait être noyé dans le bruit. N’espérez pas voir votre correctif retenu du premier coup. Il faut, en général, quelques essais pour s’habituer au style d’un nouveau projet. En tant que contributeur néophyte, personne ne vous en voudra pour ça, à condition d’avoir presque tout bon. Assurez-vous seulement de corriger ce que les développeurs vous ont indiqué et envoyez une seconde version du correctif.
Écrire de bons correctifs n’est pas difficile. Il y a deux ou trois choses à prendre en considération. Mais après en avoir écrit quelques-uns vous devriez être au point sur celles-ci. Un système moderne de contrôle de version (distribué) et le workflow (Ndt : flux de production) qui en résulte gèreront de fait la plupart des choses que j’ai mentionnées. Si vous n’avez qu’une chose à retenir, c’est ceci :
Les quelques lignes directrices ci-dessus devraient vous aider à bien faire la plupart des choses, sinon toutes, quand vous soumettrez vos premiers correctifs. Bon codage.
(1) Un diff (abréviation de différence) est un fichier qui affiche le résultat d’une comparaison entre deux éléments (en général, des lignes de code). Pour en savoir plus : http://fr.wikipedia.org/wiki/Diff
(2) Review : http://fr.wiktionary.org/wiki/review
Il se passe quelque chose d’assez extraordinaire actuellement sur Internet suite à la tragique disparition d’Aaron Swartz : des centaines de professeurs et scientifiques du monde entier ont décidé de publier spontanément leurs travaux en Libre Accès !
Il faut dire que sa mort devient chaque jour plus controversée, les pressions judiciaires dont il était l’objet n’étant peut-être pas étrangères à son geste. Comme on peut le lire dans Wikipédia : « En juillet 2011, le militant américain pour la liberté de l’Internet Aaron Swartz fut inculpé pour avoir téléchargé et mis à disposition gratuitement un grand nombre d’articles depuis JSTOR. Il se suicide le 11 janvier 2013. En cas de condamnation, il encourait une peine d’emprisonnement pouvant atteindre 35 ans et une amende s’élevant jusqu’à 1 million de dollars. »
On peut suivre l’évolution du mouvement derrière le hashtag #pdftribute (pdf hommage) qui a déjà son site et son compte Twitter dédiés.
Dans la foulée nous avons décidé de traduire ensemble un autre article important d’Aaron Swartz, en lien direct avec la motivation de tous ceux qui lui rendent ainsi un vibrant, concret et utile hommage : Guerilla Open Access Manifesto.
Ce manifeste s’achève sur cette interrogation : « Serez-vous des nôtres ? »
Oui Aaron, et sache que ta mort n’est pas vaine…
Remarque : L’émouvante photo ci-dessous représente Aaron Swartz a 14 ans en compagnie de Larry Lessig. On remarquera son bien joli tee-shirt ;)
Guerilla Open Access Manifesto
Aaron Swartz - juillet 2008 - Internet Archive
(Traduction : Gatitac, albahtaar, Wikinade, M0tty, aKa, Jean-Fred, Goofy, Léna, greygjhart + anonymous)
L’information, c’est le pouvoir. Mais comme pour tout pouvoir, il y a ceux qui veulent le garder pour eux. Le patrimoine culturel et scientifique mondial, publié depuis plusieurs siècles dans les livres et les revues, est de plus en plus souvent numérisé puis verrouillé par une poignée d’entreprises privées. Vous voulez lire les articles présentant les plus célèbres résultats scientifiques ? Il vous faudra payer de grosses sommes à des éditeurs comme Reed Elsevier.
Et il y a ceux qui luttent pour que cela change. Le mouvement pour le libre accès] s’est vaillamment battu pour s’assurer que les scientifiques ne mettent pas toutes leurs publications sous copyright et s’assurer plutôt que leurs travaux seront publiés sur Internet sous des conditions qui en permettent l’accès à tous. Mais, même dans le scénario le plus optimiste, la politique de libre accès ne concerne que les publications futures. Tout ce qui a été fait jusqu’à présent est perdu.
C’est trop cher payé. Contraindre les universitaires à débourser de l’argent pour lire le travail de leurs collègues ? Numériser des bibliothèques entières mais ne permettre qu’aux gens de chez Google de les lire ? Fournir des articles scientifiques aux chercheurs des plus grandes universités des pays riches, mais pas aux enfants des pays du Sud ? C’est scandaleux et inacceptable.
Nombreux sont ceux qui disent : « Je suis d’accord mais que peut-on y faire ? Les entreprises possèdent les droits de reproduction de ces documents, elles gagnent énormément d’argent en faisant payer l’accès, et c’est parfaitement légal, il n’y a rien que l’on puisse faire pour les en empêcher ». Mais si, on peut faire quelque chose, ce qu’on est déjà en train de faire : riposter.
Vous qui avez accès à ces ressources, étudiants, bibliothécaires, scientifiques, on vous a donné un privilège. Vous pouvez vous nourrir au banquet de la connaissance pendant que le reste du monde en est exclu. Mais vous n’êtes pas obligés — moralement, vous n’en avez même pas le droit — de conserver ce privilège pour vous seuls. Il est de votre devoir de le partager avec le monde. Et c’est ce que vous avez fait : en échangeant vos mots de passe avec vos collègues, en remplissant des formulaires de téléchargement pour vos amis.
Pendant ce temps, ceux qui ont été écartés de ce festin n’attendent pas sans rien faire. Vous vous êtes faufilés dans les brèches et avez escaladé les barrières, libérant l’information verrouillée par les éditeurs pour la partager avec vos amis.
Mais toutes ces actions se déroulent dans l’ombre, de façon souterraine. On les qualifie de « vol » ou bien de « piratage », comme si partager une abondance de connaissances était moralement équivalent à l’abordage d’un vaisseau et au meurtre de son équipage. Mais le partage n’est pas immoral, c’est un impératif moral. Seuls ceux qu’aveugle la cupidité refusent une copie à leurs amis.
Les grandes multinationales, bien sûr, sont aveuglées par la cupidité. Les lois qui les gouvernent l’exigent, leurs actionnaires se révolteraient à la moindre occasion. Et les politiciens qu’elles ont achetés les soutiennent en votant des lois qui leur donnent le pouvoir exclusif de décider qui est en droit de faire des copies.
La justice ne consiste pas à se soumettre à des lois injustes. Il est temps de sortir de l’ombre et, dans la grande tradition de la désobéissance civile (http://fr.wikipedia.org/wiki/D%C3%A9sob%C3%A9issance_civile), d’affirmer notre opposition à la confiscation criminelle de la culture publique.
Nous avons besoin de récolter l’information où qu’elle soit stockée, d’en faire des copies et de la partager avec le monde. Nous devons nous emparer du domaine public et l’ajouter aux archives. Nous devons acheter des bases de données secrètes et les mettre sur le Web. Nous devons télécharger des revues scientifiques et les poster sur des réseaux de partage de fichiers. Nous devons mener le combat de la guérilla pour le libre accès.
Lorsque nous serons assez nombreux de par le monde, nous n’enverrons pas seulement un puissant message d’opposition à la privatisation de la connaissance : nous ferons en sorte que cette privatisation appartienne au passé. Serez-vous des nôtres ?
Aaron Swartz
Crédit photo : Rich Gibson (Creative Commons By)
Chaque jeudi à 21h, rendez-vous sur le framapad de traduction, le travail collaboratif sera ensuite publié ici même.
Traduction Framalang :
, , , , , , , , , , , , , ,Henri Bergius
Henri Bergius est le fondateur de Midgard(1), un dépôt de contenu pour les logiciels libres. Il a aussi été longtemps impliqué dans la géolocalisation d’ordinateurs de bureaux sous Linux ainsi que dans les communautés Maemo et Meego. Il dirige un petit cabinet de conseil nommé Nemein, bidouille CoffeeScript et PHP et passe beaucoup de son temps à faire de la moto dans des régions reculées du continent Eurasien. Il vit dans la froide ville nordique d’Helsinki, en Finlande.
Il se peut qu’il existe un système complètement nouveau dans lequel vous pouvez être défini davantage par qui vous êtes plutôt que par ce que vous possédez, par ce que vous avez créé et partagé, parce que d’autres personnes ont ensuite construit sur cette base
- John Seely Brown, ancien directeur de Xerox PARC dans An Optimist’s Tour of the Future (Mark Stevenson, 2010)
Le monde du logiciel libre est pour l’essentiel divisé en tribus rassemblées autour de choses appelées projets. Il existe des projets majeurs tels que GNOME(2), KDE(3) ou Drupal(4) et il existe bien d’autres projets plus modestes tournant autour d’une seule application ou bibliothèque logicielle.
En fait, les qualifier de « projets » est un peu ridicule.
Selon moi, un projet est l’organisation d’un effort visant un but que l’on puisse atteindre et comprend un calendrier avec dates de début et de fin. Ainsi, GNOME 3.1 serait par exemple un projet tandis que GNOME, pris dans son ensemble, n’en est pas un. Il s’agit d’une communauté d’individus qui entretiennent et créent le corps d’un logiciel par de petits efforts variés ou des projets.
Assez de pédantisme. Le souci avec le concept de projet c’est qu’il finit par maintenir un séparation entre les personnes. Cela crée des communautés isolées souvent réticentes voire incapables de collaborer avec « la concurrence ». Mais en fin de compte, toutes ces communautés sont composées de personnes écrivant des logiciels libres. Et ce sont elles qui décident de l’utilisation possible ou non d’un logiciel dans différents environnements.
En fin de compte, nous voulons tous que le logiciel que nous avons créé soit utilisé par d’autres. Mieux encore : nous voulons que les autres joignent leurs efforts aux nôtres et créent des choses sympa à partir de ce que nous avons créé. Après tout, ceci constitue le cœur même des logiciels libres.
Alors pourquoi érigeons-nous ces murs autour de nous ? Garder une communauté isolée ne fait que favoriser une mentalité de type « nous contre eux ». Les incompatibilités des différents langages de programmation contribuent déjà fortement à notre division. Pourquoi en rajouter ?
Il est une chose que j’aurais voulu savoir quand j’ai démarré, dans cette période optimiste des « .com » de la fin des années 90 : c’est qu’en réalité le développement de logiciels ne gagne rien à s’isoler. Avec un peu d’efforts nous pouvons partager nos logiciels et nos idées par le biais de communautés, ce qui renforce et améliore à la fois les logiciels et les communautés.
Quand j’ai démarré ma carrière dans le logiciel libre, c’était l’époque des grands projets. Netscape ouvrait son code source, la fondation Apache prenait forme et des sociétés de capital-risque venaient de partout. Tenter de bâtir sa communauté devenait la norme. C’était le chemin assuré vers la gloire, la fortune et la réalisation de choses extraordinaires.
Alors nous avons construit nos propres infrastructures web. À ce moment-là il n’y en avait pas tant que cela, en particulier pour le tout jeune langage PHP. Le PHP n’était même pas notre premier choix. Nous l’avions seulement choisi au terme d’un long débat sur l’utilisation de Scheme(5) que notre développeur principal préférait. Mais le PHP gagnait alors en popularité, devenant le langage de programmation de la Toile. Et nous voulions construire la Toile.
Au début, les choses semblaient prometteuses. Beaucoup de développeurs rejoignaient notre communauté et commençaient à y contribuer. Il y a même eu des entreprises fondées autour de Midgard. Notre infrastructure gagnait en fonctionnalités et devenait de plus en plus liée à Midgard.
Avec le recul, c’est là que nous avons fait une erreur. Nous avons positionné Midgard pour être distinct du PHP lui-même. Quelque chose que vous installeriez séparément, et utiliseriez comme base pour y construire des sites entiers. Il fallait soit suivre notre voie, soit suivre celle de tout le monde.
Avec Midgard, vous deviez utiliser notre interface de dépôt de contenus pour tout, aussi bien pour notre gestion des utilisateurs que pour le modèle de permissions. Vous deviez utiliser notre système de modèles et stocker beaucoup de votre code dans le dépôt au lieu d’utiliser un système de fichiers.
Ceci ne passait évidemment pas très bien auprès de l’ensemble de la communauté PHP. Nos idées leur semblaient étranges, et Midgard, à ce moment-là, était même distribué en tant que gigantesque correctif à la base de code puisqu’on ne pouvait pas charger de modules avec PHP3.
Les années ont passé et la popularité de PHP a connu des hauts et des bas. Pendant ce temps, la communauté Midgard est restée relativement constante : un petit groupe soudé faisant des progrès sur le long terme mais séparé du monde plus large de PHP.
Nous nous sommes toujours demandé pourquoi il était si difficile d’interagir avec le monde PHP. Même d’autres communautés faisant des choses complètement différentes, comme l’environnement de bureau GNOME, semblaient plus faciles à approcher. Ce n’est que récemment, après des années d’isolement, que nous avons pris conscience du problème. En résumé : les infrastructures nous séparent alors que les bibliothèques nous permettent de partager notre code et nos expériences.
En définitive, les logiciels ont pour objectif l’automatisation, la construction d’outils que les autres peuvent utiliser pour résoudre des problèmes ou se connecter entre eux. Avec les logiciels, ces outils comportent plusieurs couches. Il existe des services de bas niveau comme les systèmes d’exploitation, puis les bibliothèques, les infrastructures, les boîtes à outils et enfin les applications elles-mêmes.
Les applications sont toujours écrites pour des usages spécifiques, donc entre elles il existe peu de possibilités de partage de code.
Les possibilités les plus séduisantes se situent au niveau des bibliothèques et infrastructures. Une infrastructure, si elle est suffisamment générique, peut généralement être utilisée pour construire différentes sortes de logiciels. Une librairie, quant à elle, peut être utilisée pour apporter un élément particulier de logique ou de connectivité là où le besoin s’en fait sentir. De mon point de vue, c’est dans cette couche que le plus gros de la programmation devrait être fait, avec des applications spécifiques qui ne sont que des connexions entre diverses bibliothèques au sein d’une infrastructure qui s’occupe alors de faire tourner l’application en question.
Qu’est-ce qu’une bibliothèque et qu’est-ce qu’une infrastructure ? Les gens utilisent souvent ces termes indifféremment bien qu’il existe une règle grossière qui permet de les différencier : une bibliothèque est une ressource à laquelle votre code fait appel, alors qu’une infrastructure est une ressource qui fait appel à votre code.
Si vous voulez que votre code soit utilisé et amélioré, le meilleur moyen est de maximiser le nombre de ses utilisateurs et contributeurs potentiels. Avec le logiciel libre, cela fonctionne en s’assurant que votre code peut être adapté à de multiples situations et environnements.
En définitive, ce que vous voulez développer c’est une bibliothèque. Les bibliothèques c’est cool.
Le plus difficile est de franchir la barrière du « eux-contre-nous ». Les développeurs de l’autre communauté sont des bidouilleurs concevant du logiciel libre, tout comme vous. Il suffit donc de franchir le pas et de commencer à leur parler.
Une fois le débat engagé, voici quelques points que j’ai trouvés importants quant à l’application effective des idées communes ou des bibliothèques au-delà des frontières du projet
Bonne chance pour abattre les frontières du projet ! Dans la plupart des cas, cela fonctionne si vos idées sont bonnes et présentées avec un esprit ouvert. Mais même si vous ne trouvez pas de terrain d’entente, tant que votre application remplit sa fonction pour vous, ça n’a pas été fait en vain. Après tout, ce qui compte c’est de proposer des logiciels et d’offrir la meilleure expérience utilisateur possible.
(1) http://midgard-project.org/
(2) gnomefr.org
(3) fr.kde.org
(4) drupalfr.org
(5) http://fr.wikipedia.org/wiki/Scheme
Crédit photo : mommy peace - (CC BY-NC-SA 2.0)
Une vague d’émotion sans précédente s’est emparée du Web (que j’ai l’habitude de lire) après la récente tragique disparition d’Aaron Swartz à l’âge de 26 ans. Il faut dire qu’il en avait fait des choses en une pourtant si courte période !
Nous avons décidé de lui rendre hommage en traduisant collectivement l’un des articles de son blog où il évoque son parcours et ses nombreux projets.
Cet article a été initialement écrit en 2007. Aaron avait alors à peine 20 ans…
Aaron Swartz - 18 août 2008 - Blog personnel
(Traduction : ga3lig, clementd, Amic, tth, bld, KoS, Havok Novak, a_r_n_a_u_d_b, jpcw + anonymous)
L’écrivain américain Kurt Vonnegut avait l’habitude de toujours nommer ses interventions « Comment obtenir un travail comme le mien » pour parler ensuite de ce que bon lui semblait. Je suis plutôt dans la situation inverse. On m’a informé que je pouvais parler de n’importe quel sujet qui m’intéressait et j’ai donc décidé, plutôt que de pontifier sur l’avenir d’Internet ou de la puissance de la collaboration massive, que la discussion la plus intéressante était probablement celle-ci : « Comment bénéficier d’un travail comme le mien » (NdT : ce texte a été rédigé en préparation d’une conférence donnée au congrès informatique Tathva à NIT Calicut en 2007).
Comment ai-je réussi à dégotter ce job ? Sans aucun doute, la première étape a été de faire le bon choix, c’est-à-dire les bons gènes : à la naissance, j’étais un garçon, blanc, et américain. Ma famille était relativement aisée et mon père travaillait dans l’industrie informatique. Hélas, il n’existe à ce jour aucun moyen d’influer sur ce genre de choses donc je ne vous serai probablement d’aucune utilité sur ce point.
En revanche, quand j’ai débuté, j’étais un très jeune gamin coincé dans une petite ville au milieu de la campagne. J’ai donc dû trouver quelques astuces pour m’en sortir. En espérant rendre la vie un peu moins injuste, je me suis dit que je pourrais les partager avec vous.
La première chose que j’ai faite, et qu’a priori vous avez tous déjà faite, c’était d’apprendre des choses à propos des ordinateurs, d’Internet et de la culture Internet. J’ai lu un paquet de livres, j’ai lu une quantité énorme de pages Web et j’ai essayé des trucs. J’ai commencé par rejoindre des listes de diffusion et j’ai essayé de comprendre les discussions jusqu’à ce que je me sente assez à l’aise pour me lancer et y participer à mon tour. Ensuite, j’ai regardé des sites Web et j’ai essayé de construire le mien. À la fin, j’ai appris à construire des applications Web et j’ai commencé à le faire. J’avais treize ans.
Le premier site que j’ai réalisé s’appelait get.info. L’idée était d’avoir une encyclopédie en ligne gratuite, que chacun pourrait éditer, ou compléter, ou réorganiser à travers son navigateur. J’ai tout développé, ajouté un tas d’options sympas, testé ça sur tous les types de navigateurs et j’en étais très fier. J’ai même remporté un prix pour la meilleure application Web de cette année-là. Malheureusement, les seules personnes que je connaissais à cette époque étaient d’autres jeunes de mon école, donc je n’avais pas grand monde pour écrire des articles d’encyclopédie. (Heureusement, quelques années plus tard, ma mère m’a montré ce nouveau site appelé « Wikipédia » qui faisait la même chose.)
Le second site s’appellait my.info. L’idée était qu’au lieu d’aller à la recherche d’informations sur toutes sortes de pages Web différentes, il suffisait d’avoir un programme qui allait chercher les nouveautés dans toutes ces pages Web et qui les regrouperait à un seul endroit. Je l’ai construit et je l’ai fait marcher, mais il se trouve qu’à l’époque, je n’étais pas le seul à avoir eu ce genre d’idée. Beaucoup de gens travaillaient sur cette nouvelle technique, appelée alors « syndication ». Un groupe d’entre eux s’est mis à part et a décidé de travailler sur une spécification appelée RSS 1.0, et je les ai rejoints.
C’était l’été, je n’étais pas à l’école et je n’avais pas de boulot, j’avais donc beaucoup de temps libre à disposition. Et je l’ai entièrement consacré à lire la liste de diffusion de RSS 1.0 et à faire toutes sortes de travaux bizarres et tout ce qu’il y avait d’autre à faire. Assez rapidement, on m’a demandé si je voulais devenir membre du groupe, et je me suis retrouvé être co-auteur, puis co-éditeur de la spécification RSS 1.0.
RSS 1.0 était construit au-dessus d’une technologie appelée RDF, source de débats agités sur les listes de diffusion de RSS. J’ai donc commencé à m’intéresser à RDF, j’ai rejoint les listes de diffusion autour de RDF, lu des choses, posé des questions idiotes pour lentement commencer à comprendre comment ça marchait. Assez rapidement, je devenais connu dans le petit monde du RDF et quand ils ont annoncé la création d’un nouveau groupe de travail destiné à créer la prochaine spécification RDF, j’ai décidé de m’y glisser.
Premièrement, j’ai demandé aux membres du groupe de travail si je pouvais m’y joindre. Ils m’ont répondu négativement. Mais je voulais vraiment faire partie de ce groupe de travail, alors j’ai décidé de trouver un autre moyen. J’ai lu le règlement du W3C, qui expliquait le fonctionnement d’un groupe de travail. Les règles indiquaient que, bien que se réservant le droit de rejeter toute demande d’adhésion individuelle, il suffisait que l’une des organisations faisant partie des membres officiels du W3C sollicite la participation d’un candidat pour qu’elle soit acceptée d’emblée. Ainsi, j’ai examiné en détail la liste des organisations membres du W3C, découvert celle qui me paraissait la plus accessible et lui ai demandé de m’inclure dans ce groupe de travail. Et c’est ce qu’ils ont fait !
Faire partie d’un groupe de travail impliquait des communications téléphoniques hebdomadaires avec les autres membres, un tas de discussions sur des listes de diffusion et sur IRC, de temps à autre de voyager vers d’étranges villes pour des rencontres réelles et une quantité de prises de contact avec des personnes à connaître partout.
J’étais aussi un chaud partisan de RDF, j’ai ainsi œuvré ardemment à convaincre d’autres de l’adopter. Quand j’ai découvert que le professeur Lawrence Lessig lançait une nouvelle organisation appelée Creative Commons, je lui ai transmis un courriel lui conseillant d’adopter RDF pour son projet et lui ai expliqué pourquoi. Quelques jours après, il me répondit : « Bonne idée. Pourquoi ne le ferais-tu pas pour nous ? »
Donc, j’ai fini par rejoindre les Creative Commons, qui m’ont fait m’envoler vers toutes sortes de conférences et de réunions, et je me suis retrouvé en train de rencontrer encore plus de gens. Parmi tous ces gens qui commençaient à savoir qui j’étais, j’en suis arrivé à me faire des amis dans un paquet d’endroits et de domaines différents.
Puis j’ai laissé tout ça de côté et je suis allé à l’université pour un an. Je suis allé a l’université de Standford, une petite école idyllique en Californie où le soleil brille toujours, où l’herbe est toujours verte et où les jeunes sont toujours dehors à se faire bronzer. Il y a des enseignants excellents et j’ai sans aucun doute beaucoup appris, mais je n’y ai pas trouvé une atmosphère très intellectuelle étant donné que la plupart des autres jeunes se fichaient apparemment profondément de leurs études.
Mais vers la fin de l’année, j’ai reçu un courriel d’un écrivain nommé Paul Graham qui disait démarrer un nouveau projet, Y Combinator. L’idée derrière Y Combinator était de trouver un groupe de développeurs vraiment talentueux, les faire venir à Boston pour l’été, leur donner un peu d’argent et la base administrative pour lancer une société. Ils travaillent alors très, très dur pour apprendre tout ce dont ils ont besoin de savoir sur le monde des affaires, en les mettant en contact avec des investisseurs, des clients, etc. Et Paul suggéra que je m’inscrive.
Donc je l’ai fait, et après beaucoup de peine et d’efforts, je me suis retrouvé à travailler sur un petit site appelé Reddit.com. La première chose à savoir à propos de Reddit était que nous n’avions aucune idée de ce que nous étions en train de faire. Nous n’avions pas d’expérience dans les affaires, nous n’avions pratiquement pas d’expérience en création de logiciels au niveau qualité d’un produit fini. Et nous n’avions aucune idée si, ou pourquoi, ce que nous faisions fonctionnait. Chaque matin, nous nous levions et nous vérifiions que le serveur n’était pas tombé en panne et que le site ne croulait pas sous les messages indésirables, et que nos utilisateurs étaient toujours présents.
Lorsque j’ai commencé à Reddit, la croissance était lente. Le site avait été mis en ligne très tôt, quelques semaines après avoir commencé à travailler dessus, mais pendant les trois premiers mois, il a difficilement atteint trois mille visiteurs par jour, ce qui représente un minimum pour un flux RSS utilisable. Nous avons ensuite, lors d’une session marathon de codage de quelques semaines, transféré le site de Lisp à Python et j’ai écrit un article sur mon blog au sujet de cet exploit. Il a beaucoup attiré l’attention (même l’enfer ne peut déclencher autant de colère que celle d’un fan de Lisp mécontent) et encore aujourd’hui les gens que je rencontre en soirée, lorsque que je mentionne que j’ai travaillé à Reddit, disent : « Oh, le site qui a migré depuis Lisp. »
C’est à ce moment-là que le trafic à vraiment commencé à décoller. Dans les trois mois qui ont suivi, le trafic a doublé à deux reprises. Chaque matin, nous nous levions pour vérifier les statistiques et voir comment nous nous en sortions, vérifier si une nouvelle fonctionnalité que nous avions lancée nous avait attiré plus de monde, ou si le bouche à oreille continuait de faire parler de notre site, ou encore si tous nos utilisateurs nous avaient abandonnés. Et, chaque jour, le nombre de visiteurs progressait. Mais nous ne pouvions nous empêcher d’avoir l’impression que la croissance du trafic était encore plus rapide lorsque nous arrêtions de travailler sur le site.
Nous n’avions toujours pas d’idée sur la façon de gagner de l’argent. Nous avons vendu des t-shirts sur le site, mais, chaque fois, l’argent récupéré sur la vente servait à racheter encore plus de t-shirts. Nous avons signé avec un acteur majeur de la publicité en ligne pour vendre de la publicité sur notre site, mais cela n’a guère fonctionné, en tout cas pas pour nous, et il était rare que nous touchions, en réalité, plus de deux dollars par mois. Une autre idée était de commercialiser, sous licence, le savoir-faire « Reddit » pour permettre à d’autres de monter des sites sur le modèle Reddit. Mais nous n’avons trouvé personne d’intéressé pour acquérir notre licence.
Rapidement, Reddit a acquis des millions d’utilisateurs chaque mois, un chiffre qui dépasse de loin le magazine américain moyen. Je le sais, car j’ai discuté, à cette période, avec de nombreuses maisons d’édition. Ils se sont tous demandés comment le charme de Reddit pourrait opérer pour eux.
De plus, les sites d’actualités en ligne ont commencé à voir que Reddit pourrait leur envoyer un énorme trafic. Ils ont pensé, d’une certaine manière, encourager cela en ajoutant un lien « reddit this » à tous leurs articles. Pour autant que je sache, ajouter ces liens n’améliore pas vraiment votre chance de devenir populaire sur Reddit (bien que cela rende votre site plus moche), mais cela nous a offert beaucoup de publicité gratuite.
Assez rapidement, la discussion avec nos partenaires se dirigeait vers une négociation d’acquisition. L’acquisition : la chose dont nous avions toujours rêvé ! Il n’y aurait plus à s’inquiéter de faire du profit. Des entreprises externes se chargeaient de cette responsabilité en contrepartie de faire notre fortune. Nous avons tout laissé tomber pour négocier avec nos acheteurs. Et ensuite, cela est resté à l’abandon.
Nous avons négocié pendant des mois. Au début, nous débattions sur le prix. Nous préparions des « business plans » et des feuilles de calcul, puis allions au siège social pour faire des présentations et affronter des réunions et des appels téléphoniques sans fin. Finalement, ils refusèrent notre prix et nous sommes donc repartis. Plus tard, ils changèrent d’attitude, nous nous sommes serrés la main et nous étions d’accord sur la transaction pour finalement commencer à renégocier sur certains autres points cruciaux, et nous éloigner à nouveau. Nous avons dû nous retirer trois ou quatre fois avant d’obtenir un contrat acceptable. Au final, nous avons dû arrêter de travailler efficacement pendant six mois.
Je commençais à devenir malade d’avoir à consacrer autant de temps à l’argent. Nous commencions tous à être affectés par le stress et le manque de travail productif. Nous avons commencé à nous disputer et ensuite à ne plus nous parler, avant de redoubler d’efforts pour retravailler ensemble, pour retomber finalement dans nos errements. L’entreprise a failli se désintégrer avant que la transaction ne se concrétise.
Mais finalement, nous sommes allés chez nos avocats pour signer tous les documents et le lendemain matin, l’argent était sur nos comptes. C’était terminé.
Nous nous sommes tous envolés pour San Francisco et avons commencé à travailler dans les bureaux de Wired News (nous avions été rachetés par Condé Nast, une grande entreprise de publication qui possède Wired et de nombreux autres magazines).
J’étais malheureux. Je ne pouvais pas supporter San Francisco. Je ne pouvais pas supporter une vie de bureau. Je ne pouvais pas supporter Wired. J’ai pris de longues vacances de Noël. Je suis tombé malade. J’ai pensé à me suicider. J’ai fui la police. Et quand je suis revenu le lundi matin, on m’a demandé de démissionner.
Les quelques premiers jours sans travail ont été bizarres. Je tournais en rond chez moi. Je profitais du soleil de San Francisco. Je lisais quelques livres. Mais rapidement, j’ai senti que j’avais besoin, à nouveau, d’un projet. J’ai commencé à écrire un livre. Je désirais collecter toutes les bonnes études dans le domaine de la psychologie pour les raconter, non pas comme des analyses, mais comme des histoires. Chaque jour, je descendais à la bibliothèque de Stanford pour y faire des recherches. (Stanford est une école réputée en psychologie.)
Mais un jour, Brewster Kahle m’a appelé. Brewter est le fondateur de The Internet Archive, une organisation formidable qui essaye de numériser tout ce qu’elle trouve pour le publier sur le Web. Il m’a dit qu’il voulait démarrer un projet dont nous avions parlé à l’époque. L’idée serait de rassembler l’information de tous les livres du monde dans un lieu unique, un wiki libre. Je me suis mis immédiatement au travail, et dans les quelques mois qui ont suivi, j’ai commencé à contacter les bibliothèques, mettre à contribution des programmeurs, cogiter avec un designer et faire plein d’autres trucs pour mettre ce site en ligne. Ce projet a fini par devenir Open Library. Il a été développé en grande partie par un talentueux programmeur indien : Anand Chitipothu.
Un autre ami, Seth Roberts, a suggéré que nous devrions trouver le moyen de réformer le système des études supérieures. Nous n’arrivions pas à nous mettre d’accord sur une solution satisfaisante, mais nous avons eu une autre bonne idée : un wiki qui explique aux étudiants à quoi ressemblent les différents métiers. Ce site va être bientôt lancé…
Ensuite, un autre ancien ami, Simon Carstensen, m’a envoyé un e-mail disant qu’il avait obtenu son diplôme universitaire et qu’il cherchait à monter une entreprise avec moi. En fait, j’avais gardé une liste d’entreprises qui pourraient être d’excellentes idées et j’ai pris la première de la liste. L’idée était de créer un site Web aussi simple à remplir qu’un champ texte. Pendant les mois suivants, nous avons travaillé d’arrache-pied à rendre les choses de plus en plus simples (et un peu plus complexes aussi). Le résultat, avec le lancement il y a quelques semaines, est le site : Jottit.com.
Je me suis aussi engagé en tant que conseiller pour deux projets du Summer of Code, les deux étant étonnamment ambitieux et avec un peu de chances, ils devraient être lancés bientôt.
J’ai décidé également alors de m’impliquer dans le journalisme. Mon premier article papier vient d’être publié.
J’ai aussi lancé quelques blogs sur la science et j’ai commencé à travailler à rédiger un article académique moi-même. Il se base sur une étude que j’avais conduite il y a quelques temps sur les rédacteurs effectifs de Wikipédia. Quelques personnes, y compris Jimmy Wales, qui est en quelque sorte le porte-parole de Wikipédia, affirmait que Wikipédia n’était pas, tout compte fait, un projet massivement collaboratif, mais était plutôt rédigé par une équipe d’à peu près 500 auteurs, qu’il connaissait pour la plupart. Il avait fait quelques analyses simples pour le mettre en évidence, mais j’ai vérifié attentivement les chiffres et j’arrive à la conclusion inverse : la grande majorité de Wikipédia a été écrite par de nouveaux rédacteurs, la plupart ne s’étant pas donné la peine de créer un compte, ajoutant quelques phrases de ci de là. Comment Wales a-t-il pu commettre une telle erreur ? Il a analysé le nombre de modifications effectuées par chaque auteur sans vérifier la nature de ces modifications. Or la grande majorité de leurs modifications sont tout à fait mineures : ils font des choses comme des corrections orthographiques ou des remises en forme. Il semble plus raisonnable de croire que ces 500 personnes se comportent plus comme des inspecteurs que comme des producteurs de contenu.
Quel est le secret ? Comment pourrais-je condenser les choses que je fais dans des phrases concises qui me correspondent le plus ? Allons-y :
J’ai suivi cette ligne de conduite. Et voilà où j’en suis aujourd’hui, avec une douzaine de projets en tête et mon niveau de stress toujours au plus haut.
Chaque matin, je me lève et vérifie mes courriels pour savoir lequel de mes projets a implosé aujourd’hui, quelle date limite a été dépassée, quels discours je dois préparer et quels articles doivent être rédigés.
Un jour, peut-être, vous aussi serez dans la même situation. Si tel est le cas, j’espère que j’y aurai modestement contribué.
Crédit photo : Sage Ross (Creative Commons By-Sa)
Chaque jeudi à 21h, rendez-vous sur le framapad de traduction, le travail collaboratif sera ensuite publié ici même.
Traduction Framalang :
, , , , , , , , , , , , ,Thiago Madeira
Thiago Macieira est doublement diplômé. Il a une maîtrise en administration des affaires (MBA) et un diplôme d’ingénieur. Mais son implication dans le mouvement open source, depuis près de 15 ans maintenant, est antérieur à ses diplômes. Participant actif des communautés KDE, Qt et MeeGo, il a été ingénieur logiciel et responsable produit pour Qt, il a fait des conférences et il a écouté les gens. À présent, Thiago vit à Oslo en Norvège et quand il ne travaille pas sur Qt, il essaye — sans grande réussite — d’améliorer son skill à StarCraft 2.
Les problèmes forment une routine à laquelle nous sommes confrontés presque tous les jours ; nous les résolvons et c’est tellement habituel que bien souvent nous n’en avons même pas conscience. Cela peut être des situations aussi simples que chercher le meilleur chemin pour arriver à destination ou trouver la meilleure façon de tout faire tenir dans le réfrigérateur. Ce n’est que lorsque nous ne parvenons pas à les résoudre immédiatement que nous remarquons les problèmes car nous devons alors nous arrêter et y réfléchir. Notre vie professionnelle n’échappe pas à cette règle et la résolution de problèmes commence à faire partie de la description du poste à pourvoir.
La résolution de problèmes était le sujet de mon premier cours quand j’ai commencé ma formation d’ingénieur. Dans cet amphithéâtre bondé du siècle dernier, notre professeur expliquait à environ 700 étudiants de première année en quoi les ingénieurs étaient des solutionneurs de problèmes et comment nos vies professionnelles consisteraient à enchaîner les problèmes à résoudre. Certains seraient des problèmes faciles résolus en deux temps trois mouvements ; d’autres seraient tellement difficiles que nous aurions besoin d’une structure de projet et d’une équipe pour les résoudre — mais la plupart se situeraient entre ces deux extrêmes. Puis il commença à donner des exemples sur la façon dont sa propre mentalité de « solutionneur de problèmes » l’avait aidé dans sa vie professionnelle et personnelle, et nous offrit même un exemple en direct quand tout à coup le projecteur nous tomba dessus.
La faculté de résoudre des problèmes est un talent que nous pouvons affiner par la pratique et un travail de fond. La pratique est quelque chose que l’on ne peut acquérir que par l’expérience, par succession d’essais et d’erreurs (1) ; ce n’est donc pas quelque chose qu’on peut apprendre dans un livre. Se mettre en situation de résoudre des problèmes, en revanche, est quelque chose que l’on peut apprendre. Face au problème, l’expérience est comme notre boîte à outils, et les techniques de résolution le mode d’emploi des outils.
La question à laquelle nous essayons de répondre fournit la direction que nous allons prendre en essayant de résoudre le problème. Posez la mauvaise question et les réponses seront peu pertinentes, invalides ou juste complètement fausses. Par conséquent, poser la bonne question est essentiel. De plus, poser correctement la bonne question est important, car cela apporte des indices quant à ce que nous recherchons. La manière la plus inutile d’énoncer un problème qu’on puisse rencontrer est : « ça marche pas », c’est pourtant un grand classique. Certes, l’énoncé est juste, puisque manifestement quelque chose a planté. Néanmoins, cette façon de présenter le problème n’apporte aucun indice sur le point de départ pour rechercher des solutions.
Les systèmes de gestion de bogues imposent souvent au rapporteur du bogue de préciser les actions effectuées qui ont conduit à ce problème, la description de ce qui s’est passé (c’est-à-dire le symptôme) et une description du comportement attendu. La comparaison entre le symptôme et le comportement attendu est un bon point de départ pour poser la question fondamentale : « pourquoi cela s’est-il produit, pourquoi cet autre comportement ne s’est-il pas produit ? ». Même si ce n’est pas la seule manière d’y arriver, appliquer cette technique à des problèmes peut certainement aider à formuler la question.
Formuler correctement le problème et la question, dans ses moindres détails, est aussi une manière de décrire davantage le problème tel qu’il s’est manifesté. En premier lieu, nous devons avoir conscience que le problème ne se trouve probablement pas où nous nous attendons à le trouver — si c’était le cas, nous l’aurions probablement déjà résolu. Présenter tous les détails du problème permet à l’assistance technique d’avoir plus d’informations pour travailler. De plus, même si c’est contre-intuitif, le fait de décrire le problème dans sa totalité conduit souvent à trouver la solution, si bien que de nombreux groupes de développement ont besoin que des développeurs se concentrent sur cette tâche, soit en discutant avec un collègue soit en s’adressant à un être innocent, tel qu’un canard en caoutchouc ou M. Patate.
De plus, il faut revenir régulièrement à la question afin de garder l’objectif dans le viseur. Lors de la résolution du problème, il convient de faire attention à ne pas se concentrer exclusivement sur l’une de ses parties en perdant de vue l’objectif global. Pour la même raison, il est nécessaire de reprendre la question de départ lorsqu’on a trouvé une solution éventuelle, pour pouvoir s’assurer qu’elle couvre bien l’intégralité du problème. Là encore, cela prouve bien la nécessité de poser la bonne question, qui décrira le problème dans son intégralité : sans la question complète, la solution pourrait être également incomplète.
L’expérience que j’ai acquise en aidant des utilisateurs en ligne à résoudre leurs problèmes m’a appris que la plupart des personnes considérent leurs difficultés comme des blocs d’achoppement, monolithiques et indivisibles, qu’il faut traiter comme un tout. Vu sous cet angle, un vaste problème pose une question à laquelle il est très difficile de répondre entièrement.
À vrai dire, la grande majorité de ces problèmes peut se décomposer en plusieurs petits problèmes qu’il est donc plus facile de traiter séparément afin de déterminer s’ils sont la cause originelle du problème, sans parler de la possibilité qu’il y ait plusieurs origines au symptôme rapporté. Répéter cette opération, ne serait-ce qu’un petit nombre de fois, revient à s’attaquer à des problèmes mieux circonscrits, et amène par conséquent à des solutions plus rapides.
Cependant, plus nous sommes obligés de décomposer, plus nous devons connaître le fonctionnement interne du système que nous avons sous la main. De fait, celui qui doit résoudre un problème ne pourra le décomposer qu’aussi loin que sa connaissance du sujet le lui permettra, et c’est depuis ce point qu’il pourra ensuite traiter la question.
Pour ce qui concerne le développement logiciel, les sous-systèmes utilisés sont souvent de bons indices pour trouver comment décomposer le problème. Par exemple, si le problème implique une transmission de données par TCP/IP, deux subdivisions possibles sont l’expéditeur et le destinataire : il ne sert à rien de chercher le problème du côté du destinataire si l’expéditeur ne transmet pas les données correctement. De même, une application graphique qui n’affiche pas les données appelées dans une base de données a une division claire : ce serait une bonne idée de vérifier d’abord que l’accès à la base de données fonctionne avant d’enquêter sur la cause du mauvais affichage. Par ailleurs, on pourrait également envoyer des informations quelconques aux fonctions d’affichage et vérifier que ces données s’affichent correctement.
Même quand les regroupements ne sont pas faciles à faire, diviser le problème peut tout de même contribuer à éclairer la question. En fait, les divisions sont presque toujours utiles, car elles réduisent la quantité de code à inspecter et le niveau de complexité à gérer. Au pire, le simple fait de diviser le code en deux parties et de chercher le problème dans l’une des deux peut être utile. Cette technique, nommée bissection, est recommandée si les divisions créées à partir des sous-systèmes et des interfaces n’ont pas encore apporté de solution.
Une succession de divisions appropriées aura pour résultat final un petit exemple autonome qui expose le problème. À ce stade, l’une des trois options suivantes est habituellement la bonne : le problème peut être identifié et localisé ; le code est en fait correct et c’était ce que l’on en attendait qui était faux ; ou bien un bogue a été trouvé dans la couche de code de plus bas niveau. Un des avantages de ce procédé, c’est qu’il génère un scénario de test à joindre à un rapport de bogue, pour peu que qu’un bogue soit en cause.
Une question similaire à la division du problème est celle des conditions aux limites. En mathématiques et en physique, les conditions aux limites sont l’ensemble des valeurs qui déterminent la région de validité des équations résolues. Pour le logiciel, les conditions aux limites sont l’ensemble des conditions qui doivent être satisfaites pour que le code s’exécute correctement. Habituellement, les conditions aux limites sont loin d’être simples : à la différence des mathématiques ou de la physique, les variables des systèmes logiciels sont beaucoup trop nombreuses, ce qui signifie que leurs conditions aux limites sont également légion.
Dans les systèmes logiciels, les conditions aux limites sont souvent nommées « conditions préalables », c’est-à-dire des conditions qui doivent être satisfaites avant qu’une certaine action ne soit autorisée. Vérifier que ces conditions prélalables ont été satisfaites est un bon exercice dans la recherche d’une réponse, car leur violation est clairement un problème qui doit être résolu — quand bien même ce n’est pas la cause première du problème initial. Des conditions préalables peuvent tout simplement prendre la forme d’un pointeur qui doit être valide avant qu’on puisse le déréférencer, ou d’un objet qui ne doit pas être éliminé avant de pouvoir être utilisé. Les conditions préalables complexes seront très probablement documentées en vue de l’utilisation du logiciel.
Un autre groupe intéressant de conditions aux limites se caractérise, curieusement, par ce qui n’est pas autorisé : le comportement indéfini. Ce type de conditions aux limites est très commun lorsque l’on traite des spécifications qui essaient d’être très explicites sur la manière dont le logiciel est censé se comporter. Les compilateurs et les définitions de langage en sont un bon exemple. À strictement parler, déréférencer un pointeur null est un comportement indéfini : la conséquence la plus commune en est l’enregistrement d’une exception du processeur et l’arrêt du programme, mais d’autres comportements sont aussi autorisés, y compris le fonctionnement sans faille.
Si les ingénieurs sont des solutionneurs de problèmes, la devise de l’ingénieur est « Utilise le bon outil pour le bon usage ». Cela peut sembler évident, étant donné qu’on ne s’attend pas à ce que quelqu’un utilise un marteau pour résoudre un problème électronique. Cependant, les cas d’utilisation du mauvais outil sont plutôt fréquents, souvent parce qu’on ignore qu’il existe un meilleur outil.
Certains de ces outils sont la base du développement logiciel, comme le compilateur et le débogueur. L’incapacité à se servir de ces outils est impardonnable : le professionnel qui se retrouve dans un environnement d’outils nouveaux ou inconnus, si par exemple il change de poste ou d’emploi, doit consacrer du temps à apprendre à les utiliser, à se familiariser avec leurs fonctionnalités et limitations. Par exemple, si un programme plante, être capable de déterminer l’endroit du plantage ainsi que les variables appelées dans cette portion du code peut aider à trouver la cause du problème et donc la solution.
D’autres outils peu connus sont plus évolués, prévus pour des emplois spécifiques, ou encore ne sont disponibles qu’à un prix ou sous des conditions que l’ingénieur ne peut réunir. Ils peuvent toutefois être incroyablement utiles pour contribuer à la résolution de problèmes. Il peut s’agir de vérificateurs de code statique ou de processus, de débogueurs de mémoire, d’enregistreurs d’événements matériels, etc. Par exemple, le matériel de développement inclut souvent un système permettant de le contrôler à l’aide d’une interface spéficique comme JTAG ou de lister toutes les instructions exécutées et l’état des processeurs. Mais cela nécessite d’avoir du matériel et des outils spécifiques, qui ne sont pas facilement accessibles et coûtent plus cher que les machines et périphériques grand public. Un autre exemple est la suite d’outils Valgrind (4), qui comprend un vérificateur de processus et des débogueurs de mémoire. L’ensemble est gratuit, facilement disponible, mais fait partie de ces outils spécifiques de haut niveau dont l’usage n’est pas enseigné à l’école.
Connaître le contenu de sa boîte à outils est un savoir précieux. L’utilisation d’un outil spécialisé pour chercher un problème va probablement donner un résultat plus rapide, qu’il soit positif — et confirme le problème — ou négatif, et oriente la recherche dans une autre direction. Par ailleurs, il est important de savoir comment utiliser ces outils, ce qui justifie le temps passé à lire la documentation, à s’entraîner ou simplement à expérimenter ces outils avec des problèmes connus pour comprendre comment ils fonctionnent.
Résoudre les problèmes est un art accessible à tous. Comme pour tous les arts, certaines personnes semblent avoir une telle facilité qu’ils semblent être nés avec cette compétence. Mais en réalité, avec assez d’expérience et de pratique, la résolution des problèmes devient une activité insconsciente.
Quand on est confronté à un problème qui n’est pas évident à résoudre, il faut s’asseoir et le considérer dans son intégralité. Quel problème avons-nous ? Pouvons-nous formuler la question à laquelle nous devons répondre ? Une fois que nous savons ce que nous cherchons, nous pouvons commencer à examiner où peut être situé le problème. Peut-on le décomposer en parties plus petites et plus maniables ? Quels sont les meilleurs outils à utiliser pour chaque partie ? Avons-nous vérifié que nous utilisions correctement les fonctionnalités et services disponibles ?
Après avoir résolu de nombreux problèmes, on commence à repérer des schémas. Il devient plus facile de détecter des indices subtils à partir des symptômes et de diriger les recherches vers le problème réel. Un correcteur de problèmes expérimenté peut même ne pas se rendre compte que cette action a lieu. C’est un signe que l’expérience et les automatismes se sont si bien mis en place qu’il n’y a plus besoin d’effort conscient pour accéder à ces compétences.
Bien sûr il, y aura toujours des problèmes qui seront difficiles à résoudre dans la vie : problèmes professionnels, existentiels, philosophiques ou même ceux qui sont causés par la pure curiosité. Là encore, c’est le défi qui nous stimule, le besoin de comprendre toujours plus et mieux. Sans cela, la vie serait trop triste.
(1) http://fr.wikipedia.org/wiki/Apprentissage#Apprentissage_par_essais_et_erreurs
(2) http://fr.wikipedia.org/wiki/Diviser_pour_régner_(informatique)
(3) http://fr.wikipedia.org/wiki/Condition_aux_limites
(4) http://fr.wikipedia.org/wiki/Valgrind
Crédit photo Luxuryluke (CC BY-NC-ND 2.0)
Des dizaines de milliers d’ados s’enregistrent et postent leurs vidéos sur YouTube.
Plus rares sont ceux qui ont un poster de Tux dans leur chambre ;)
The most talented youth choose open source tools
Phil Shapiro - 13 décembre 2012 - OpenSource.com
(Traduction : clementd, KoS, Pouhiou, Robin Dupret, ProgVal)
Je suis bibliothécaire, j’aide les gens à utiliser les ordinateurs en libre accès. Après une longue journée de travail, j’aime à me détendre en écoutant quelques vidéos musicales sur YouTube. Grand fan de cet artiste j’ai ainsi entré « Reprise Bob Dylan cette semaine », l’autre jour, dans le moteur de recherche du site
Imaginez ma joie et ma surprise de tomber sur cette vidéo de « Knockin on Heaven’s Door » en multipistes. Mais minute ! Ce ne serait pas un poster du manchot Tux accroché au mur derrière cette jeune musicienne ? Eh si. Mmmh, est-ce que cette affiche a été sciemment placée ici ou est-ce une simple coïncidence ?
Je devais en avoir le cœur net. J’ai alors directement posé la question à la musicienne. Emily Fox me répondit qu’elle était une fan inconditionnelle des logiciels libres ! Elle utilise ainsi OpenShot, un éditeur pour créer la vidéo de sa musique.
Ça me réchauffe le cœur de voir que certains des plus grands talents de la nouvelle génération choisissent des outils libres. L’histoire ne s’arrête pas là, pourtant. L’histoire a une suite…
La semaine dernière, Emily Fox a mis en ligne la vidéo de sa dernière composition appelée « Please, Mr. Snowman » avec ses propres graphismes, simples mais superbes, réalisés avec GIMP ! Si vous aviez des doutes quant à son talent créatif, ces doutes auront peut-être disparu avec cette vidéo. Les voix sont simples et profondes. Les instruments de fond propres et bien équilibrés. Je suis impatient d’écouter les prochaines créations d’Emily et de voir ce qu’elle deviendra plus tard.
Ceci m’a fait penser aux jeunes que je rencontre dans la bibliothèque où je travaille. Certains des plus talentueux sont profondément attachés à l’utilisation des logiciels libres. Un collégien, dont l’aide m’est précieuse, me dit qu’il ne touchera aucun appareil qui utilise des DRM (Digital Rights Management). Je suis pour ma part plus modéré à ce sujet, mais je comprends son point de vue.
Une vague d’amateurs du Libre est-elle en train d’émerger à travers notre système scolaire ? Je dirais que oui. Elle n’est pas énorme, mais elle apporte un grand soutien et une grande promesse à sa diffusion. En dix ans, quelques-uns de ces jeunes créeront de nouvelles entreprises ou seront des artistes de renommée mondiale. Dans vingt ans, certains seront nos élus. Pour que cela dure, nous devons continuer nos efforts pour promouvoir le mouvement du Libre.
Et vous, par quelles petites choses allez-vous faire avancer le Libre ces jours-ci ?
Source : Sony sort un disque de Bob Dylan uniquement pour éviter le domaine public (Numerama)
Crédit : Simon Gee Giraudot (Creative Commons By-Sa)
Chaque jeudi à 21h, rendez-vous sur le framapad de traduction, le travail collaboratif sera ensuite publié ici même.
Traduction Framalang :
Austin Appel
Austin Appel, alias « scorche », est un professionnel de la sécurité informatique qui passe son temps à casser (il est dûment autorisé, évidemment) des choses précédemment réputées sécurisées. On le croise souvent enseignant le crochetage de serrure durant des conférences de sécurité et de hacking. Dans le monde de l’open source, il fait une foule de choses pour le projet Rockbox et a œuvré bénévolement pour le projet One Laptop Per Child (un ordinateur portable par enfant).
Les sauvegardes c’est bien. Les sauvegardes c’est super. Un administrateur compétent fait toujours des sauvegardes régulières. On apprend ça dans n’importe quel manuel traitant de l’administration des serveurs. Le problème c’est que les sauvegardes ne sont vraiment utiles qu’en cas d’absolue nécessité. Lorsque quelque chose de grave arrive au serveur ou à ses données et qu’on est forcé de se replier sur autre chose, les sauvegardes viendront à point nommé. Cependant, cela ne devrait jamais arriver, n’est-ce pas ? À n’importe quel autre moment, à quoi cela sert-il pour vous et votre environnement serveur d’avoir des sauvegardes ?
Avant d’aller plus loin, il est important de noter que ce conseil vaut pour les administrateurs serveurs des plus petits projets open source — la majorité silencieuse. Si vous maintenez des services qui vont engendrer une grande frustration, et même peut-être faire du tort s’ils sont indisponibles, vous devriez considérer ceci avec la plus grande circonspection.
Pour le reste d’entre nous qui travaillons sur d’innombrables petits projets ayant des ressources limitées, nous avons rarement deux serveurs séparés pour la production et les tests. En vérité, avec tous les services qu’un projet open source doit maintenir (système de gestion de version, services web, listes de diffusion, forums, ferme de compilation, bases de données, traceurs de bogues ou de fonctionnalités, etc.), des environnements de test séparés sont souvent de l’ordre du rêve. Malheureusement, l’approche courante de l’administration systèmes est d’avancer avec précaution et mettre les systèmes à jour uniquement en cas de nécessité absolue, afin d’éviter tout problème de dépendance, de code cassé, ou n’importe laquelle des millions de choses qui pourraient mal se dérouler. La raison pour laquelle vous êtes nerveux n’est pas que vous pourriez manquer d’expérience. Il est important de savoir que vous n’êtes pas seul dans ce cas. Que nous l’admettions ou non, beaucoup d’entre nous ont été (et sont probablement encore) dans cette situation. Il est triste que cette inaction — découlant de la peur de détruire un système fonctionnel — conduise souvent à des services en fonctionnement qui ont souvent plusieurs versions de retard, ce qui implique de nombreuses failles de sécurité potentiellement sérieuses. Cependant, soyez assuré que ce n’est pas la seule manière de jouer le jeu.
Les gens ont tendance à jouer un jeu différent selon qu’ils aient une infinité de vies ou qu’ils doivent recommencer depuis le début dès lors qu’une seule erreur a été commise. Pourquoi devrait-il en être autrement pour de l’administration systèmes ? Aborder le concept de sauvegardes avec un état d’esprit offensif peut complétement changer votre conception de l’administration systèmes. Au lieu de vivre dans la peur d’une dist-upgrade complète (ou de son équivalent pour yum, pacman, etc.), celui qui est armé de sauvegardes est libre de mettre à jour les paquets d’un serveur, confiant dans le fait que ces changements pourront être annulés si les choses tournent au vinaigre. La clé du succès réside tout entière dans l’état d’esprit. Il n’y a aucune raison d’avoir peur tant que vous avez vos données sauvegardées sous la main comme filet de sécurité lorsque vous sautez le pas. Après tout, l’administration système est une expérience d’apprentissage permanente.
Bien sûr, si vous ne validez pas vos sauvegardes, vous reposer sur elles devient un jeu très dangereux. Heureusement, les administrateurs systèmes expérimentés savent que le commandement « Garde des sauvegardes à jour » est toujours suivi par « Valide tes sauvegardes ». À nouveau, c’est un mantra que les gens aiment réciter. Ce qui, en revanche, ne tient pas de façon élégante dans un mantra entraînant est la manière de valider rapidement et simplement ses sauvegardes. La meilleure manière de dire qu’une sauvegarde est fonctionnelle est, bien sûr, de la restaurer (de préférence sur un système identique qui n’est pas en cours d’utilisation). Mais, une fois encore, en l’absence d’un tel luxe, on doit faire preuve d’un peu plus de créativité. C’est là (tout du moins pour les fichiers) que les sommes de contrôle peuvent vous aider à vérifier l’intégrité de vos fichiers sauvegardés. Dans rsync, par exemple, la méthode utilisée par défaut pour déterminer quels fichiers ont été modifiés consiste à regarder la date et l’heure de la dernière modification, ainsi que la taille du fichier. Cependant, en utilisant l’option ‘-c’, rsync utilisera une somme de contrôle MD4 de 128 bits pour déterminer si les fichiers ont changé ou non. Bien que ce ne soit pas toujours la meilleure idée à mettre en œuvre à chaque fois en toute occasion — à cause d’un temps d’exécution beaucoup plus long qu’un rsync normal et d’une utilisation accrue des accès disques — cette méthode permet de s’assurer que les fichiers sont intègres.
Le rôle d’un administrateur systèmes peut être éprouvant par moments. Il n’est cependant pas nécessaire de le rendre plus stressant que nécessaire. Avec le bon état d’esprit, certaines commandes de précaution apparemment à but unique et limité peuvent être utilisées comme des outils précieux qui vous permettent de progresser de façon agile, tout en gardant votre santé mentale intacte et la vitesse tant appréciée dans les projets open source.
Chaque jeudi à 21h, rendez-vous sur le framapad de traduction, le travail collaboratif sera ensuite publié ici même.
Traduction Framalang :
, , , , ,Jeff Mitchell
Jeff Mitchell passe ses journées de travail à s’activer sur tout ce qui touche aux ordinateurs et aux réseaux et son temps libre à barboter dans toutes sortes de projets de logiciels libres et open source. Ce qu’il préfère c’est la convergence des deux. Après avoir travaillé en tant qu’administrateur systèmes professionnel de 1999 à 2005, il maintient son niveau de compétences en les mettant bénévolement au service de projets libres en divers lieux. Ces temps-ci, son activité pour le Libre est dédiée à l’administration systèmes pour KDE1 et c’est l’un des développeurs principaux du lecteur Tomahawk2. Jeff vit actuellement à Boston, aux États-Unis.
Récemment, à mon travail, j’ai fait partie d’une équipe qui faisait passer les entretiens d’embauche pour un poste d’administrateur systèmes. Après avoir parcouru quelques dizaines de curriculum vitae nous avons finalement convoqué notre premier candidat. Celui-ci — appelons-le John — avait aussi bien l’expérience de petites structures, style laboratoire informatique, que de plus vastes opérations dans des centres de données. À première vue, les choses se présentaient bien, si ce n’est qu’il avait eu cette réponse bizarre à quelques-unes de nos questions : « je suis administrateur systèmes ». Le sens de cette phrase n’a pas été immédiatement clair pour nous, jusqu’à ce que l’échange suivant ait lieu :
Moi : Donc, vous avez dit que vous n’avez pas d’expérience avec Cisco IOS, mais qu’en est-il des réseaux en général ?
John : Eh bien, je suis administrateur systèmes.
Moi : Oui, mais que diriez-vous sur les concepts de réseau ? Les protocoles de routage comme BGP ou OSPF, les VLANs, les ponts réseaux…
John, exaspéré : Je suis administrateur systèmes.
C’est à ce moment-là que nous avons compris ce qu’il voulait dire. John ne nous disait pas qu’il connaissait toutes ces choses que nous lui demandions puisqu’il était administrateur systèmes ; il nous expliquait que parce qu‘il était administrateur systèmes, il n’en savait rien. John était administrateur systèmes et cela signifiait pour lui que ces tâches étaient celles d’un administrateur réseau. Sans surprise, John n’a pas obtenu le poste.
Dans bien des projets open source, la spécialisation est une malédiction et non une bénédiction. Qu’un projet relève d’une catégorie ou l’autre dépend souvent de la taille de l’équipe de développement ; la spécialisation à l’extrême peut entraîner de graves perturbations dans un projet en cas de départ d’un développeur, que ce soit en bons ou mauvais termes, qu’on le regrette ou non. Il en va de même pour les administrateurs systèmes de projets open source, bien que la pénurie générale de ces derniers semble autoriser aux projets une marge de tolérance parfois dangereuse.
L’exemple le plus flagrant qui me vienne à l’esprit impliquait un projet spécifique dont le site de documentation (y compris toute celle de l’installation et de la configuration) était indisponible depuis plus d’un mois. La raison : le serveur était en panne et la seule personne qui en avait l’accès naviguait sur un « bateau pirate » avec les membres du parti pirate suédois. C’est une histoire vraie.
Cependant, tous les points de défaillance ne sont pas dus à l’absence des administrateurs systèmes ; certains sont artificiels. Sur un gros projet, les décisions des droits d’accès à l’administration systèmes étaient assumées par un seul administrateur. Il ne s’était pas seulement réservé certains droits d’accès uniquement pour lui-même (vous l’avez deviné : oui, il a disparu pendant un certain temps, et oui, cela a causé des problèmes) ; il avait aussi décidé de la façon dont les droits d’accès devaient être accordés, en fonction de la confiance qu’il portait personnellement au candidat. La « confiance », dans ce cas, se fondait sur une seule chose : non pas le nombre de membres de la communauté qui se portait garant pour cette personne, ni depuis combien de temps cette personne était un contributeur actif et de confiance pour le projet, ni même depuis combien de temps il connaissait lui-même cette personne dans le cadre de ce projet. Au lieu de cela, elle reposait sur la façon dont il connaissait personnellement quelqu’un, ce par quoi il entendait la façon dont il connaissait cet individu en personne. Vous imaginez bien à quel point cela est adapté à une équipe d’administrateurs systèmes disséminée sur toute la planète…
Bien sûr, cet exemple ne fait qu’illustrer la grande difficulté pour un administrateur systèmes open source de trouver le juste milieu entre sécurité et capacité. Les grandes entreprises peuvent se permettre d’avoir du personnel redondant, et ce, même si le travail se répartit selon différentes responsabilités ou domaines de sécurité. La redondance est importante. Mais qu’en est-il si la seule possibilité d’avoir une redondance pour l’administrateur systèmes est de prendre la première personne se présentant au hasard sur votre canal IRC ou une personne quelconque proposant son aide ? Comment pouvez-vous raisonnablement avoir confiance en cette personne, ses capacités et sa motivation ? Malheureusement, seuls les contributeurs principaux du projet ou une petite partie d’entre eux peuvent savoir quand la bonne personne se présente en utilisant le même modèle de toile de confiance3 qui sous-tend une grande partie du reste du monde open source. L’univers des projets open source, leurs besoins et les personnes qui veulent contribuer à un projet particulier forment une extraordinaire diversité ; par conséquent, la dynamique humaine, la confiance, l’intuition et la manière d’appliquer ces concepts à un projet open source sont de vastes sujets, bien au-delà de la thématique de ce court article.
Une chose importante a cependant facilité la découverte de cette ligne d’équilibre sécurité/capacité : l’essor des systèmes de gestion de versions distribués, ou DVCS (NdT : Distributed Version Control System, système de gestion de version distribué). Auparavant, les contrôles d’accès étaient primordiaux car le cœur de tout projet open source — son code source — était centralisé. Je me rends bien compte que beaucoup doivent penser : « Jeff, tu devrais pourtant le savoir, le cœur d’un projet, c’est sa communauté, pas son code ! ». Ma réponse est simple : les membres de la communauté vont et viennent, mais, si quelqu’un fait accidentellement un « rm -rf » sur tout l’arbre du système de gestion de versions de votre projet et que vous manquez de sauvegardes, combien de ces membres de la communauté vont continuer à s’investir dans le projet et aider à tout recommencer à zéro ? (Mes propos se basent sur une histoire vraie dans laquelle un membre de la communauté saoul qui s’énervait à déboguer un bout de code, lança un « rm -rf » sur toute sa contribution, avec l’intention de supprimer tout le code du projet. Par chance, il n’était pas administrateur systèmes et n’avait donc pas accès au dépôt central, et il était trop saoul pour se rappeler qu’il travaillait seulement sur une copie du projet.)
Le code du projet est son cœur ; les membres de sa communauté en sont l’énergie vitale. Privé de l’un ou de l’autre, vous aurez du mal à garder un projet vivant. Avec un logiciel de gestion de version (NdT : VCS pour version control system) centralisé, si vous n’avez pas eu la présence d’esprit de mettre en place un système de sauvegarde régulier, vous pourriez, avec de la chance, ré-assembler l’arborescence complète du code source à partir des différents éléments contribués qu’auront gardés les autres personnes. Mais pour la majorité des projets, l’historique du code est aussi important que le code lui-même et cela, vous l’aurez tout de même entièrement perdu.
Ce n’est plus le cas désormais. Quand tous les clones locaux ont tout l’historique du projet et que des sauvegardes de secours peuvent être effectuées chaque nuit, en lançant une tâche planifiée aussi simple que « git pull », les dépôts centralisés ne sont plus que des outils de coordination. Cela en diminue l’importance de quelques degrés. Le projet doit toujours être protégé contre les menaces aussi bien internes qu’externes : les systèmes non corrigés sont toujours vulnérables à des exploits bien connus. Un administrateur systèmes malveillant peut tout mettre sans dessus dessous, un système d’authentification déficient peut permettre l’entrée de codes malveillants dans la base, et un « rm -rf » accidentel sur le dépôt central peut toujours coûter cher en temps de développement. Mais ces défis peuvent être surmontés, et à l’ère des serveurs privés virtuels (VPS) abordables et des centres d’hébergement de données, les absences des administrateurs systèmes peuvent également être compensées. (Il vaut mieux cependant s’assurer d’avoir un accès redondant au DNS ! Oh et mettez aussi vos sites internet sur un dépôt vérifié et certifié [DVCS] , et faites des branches pour les modifications locales. Vous me remercierez plus tard.)
Les DVCS permettent la redondance du cœur de votre projet pour trois fois rien, ce qui est une bonne façon d’aider les administrateurs systèmes à dormir la nuit et nous donne l’impression d’être un peu des maîtres du temps. Cela veut aussi dire que si vous n’êtes pas sur un DVCS, arrêtez de lire immédiatement et passez sur l’un d’eux. Ce n’est pas qu’une question d’espace de travail et d’outils. Si vous vous souciez de la sécurité de votre code et de votre projet, vous migrerez.
La redondance du code source est une nécessité, et en général plus vous avez de redondances, plus vos systèmes sont robustes. Il semble aussi évident que vous voulez une redondance de vos administrateurs systèmes ; ce qui vous semblera peut-être moins évident, c’est que l’importance de la redondance ne se joue pas tant en termes de personnes qu’en termes de niveau des compétences. John, l’administrateur systèmes, a travaillé dans des centre de stockage des données et au sein d’entreprises qui avaient des systèmes d’administration redondants mais des niveaux de compétences rigides, définis. Cela fonctionne dans de grandes entreprises qui peuvent payer pour embaucher de nouveaux administrateurs systèmes avec des compétences à la carte. Mais la plupart des projets open source n’ont pas ce luxe. Vous devez faire avec ce que vous avez. Cela veut dire bien sûr que, pour que l’administration systèmes soit redondante, une solution — et c’est parfois la seule — consiste à répartir la charge : d’autres membres du projet prenne chacun une ou deux compétences jusqu’à ce qu’il y ait redondance.
Il n’y a guère de différence entre le côté développement et le côté créatif d’un projet ; si la moitié de votre programme est écrite en C++, l’autre moitié en Python, et qu’un seul développeur sait programmer en Python, son départ du projet provoquera de gros problèmes à court terme et pourrait aussi causer de sérieux problèmes à plus long terme. Encourager les développeurs à se diversifier et à se familiariser avec d’autres langages, paradigmes, bibliothèques, etc. entraîne que chacun de vos développeurs gagne en valeur ; cela ne devrait pas choquer : l’acquisition de nouvelles compétences est le résultat d’un apprentissage qui se poursuit tout au long de la vie, et un personnel mieux formé a aussi plus de valeur. (Cela rend aussi le curriculum vitae de chacun plus attractif, ce qui devrait être une bonne motivation.)
La plupart des développeurs open source que je connais considèrent comme un défi et un plaisir de s’aventurer sur de nouveaux territoires : c’est justement ce genre d’état d’esprit qui les a menés à développer de l’open source au départ. De même, les administrateurs de systèmes open source sont une denrée rare, et ne peuvent se permettre de s’enliser dans une routine. De nouvelles technologies intéressantes pour les administrateurs systèmes apparaissent constamment et il existe souvent de nouvelles façons d’utiliser des technologies actuelles ou anciennes afin de renforcer l’infrastructure ou d’améliorer leur efficacité.
John n’était pas un bon candidat parce qu’il apportait peu de valeur ajoutée ; et il apportait peu de valeur car il n’était jamais allé au-delà des limites du rôle qui lui était attribué. Les administrateurs systèmes open source qui tombent dans ce piège ne nuisent pas seulement au projet dans lequel ils sont impliqués sur le moment, ils réduisent leur valeur pour d’autres projets utilisant des technologies d’infrastructure différentes et qui auraient vraiment besoin d’un coup de main ; cela diminue les capacités globales de la communauté open source. Pour un administrateur de logiciel libre efficace, il n’existe pas de zone de confort.
Que les gros salaires lèvent le doigt, surtout en temps de crise… Mais ce qu’il y a peut-être de plus intéressant dans l’affaire Depardieu, ce qu’elle a rebondi sur une mise en accusation globale du financement du cinéma français, grâce à une tribune mordante de Vincent Maraval dans Le Monde.
On notera au passage que c’est un producteur qui a mis les pieds dans le plat et non un journaliste, ce qui en dit long sur l’inféodation d’une profession qui préfère se voiler la face en se cantonnant à voir des films (gratos) en pondant leur anecdotique et souvent insignifiant « J’aime / J’aime pas ».
« Le système est sclérosé », surenchérit ici Jérémie Nestel, du collectif Libre Accès, en insistant sur une revendication dont le persistant refus devient de plus en plus difficile à justifier : ce qui est financé sur fonds publics doit être placé tôt ou tard sous licence libre. Tard ce serait ici pas plus d’une dizaine d’années en n’attendant surtout pas la trop lointaine échéance du domaine public, 70 ans après les morts de tous les protagonistes d’un film !
Musique, littérature, cinéma… Internet révèle chaque jour davantage une culture soumise à l’industrie culturelle qui ne profite qu’à une minorité, qui criminalise le partage et qui ne peut ou veut s’adapter à son époque.
Jérémie Nestel - 6 janvier 2013 - Libre Accès
Licence Art Libre
Notre mémoire collective contribue à forger une morale commune fait de références similaires.
Cette mémoire collective repose essentiellement sur « des œuvres de l’esprit ».
L’incapacité des politiques à préserver les biens communs dont ceux issus des œuvres de l’esprit annonce la fin du contrat social de notre société.
Pourquoi aliéner notre liberté à une société privilégiant des intérêts particuliers à l’intérêt général ?
Les débats autour d’Hadopi, du droit d’auteur et des nouvelles taxes demandées au public pour financer des rentes à vie aux stars des médias et aux multinationales du divertissement trouvent un écho à deux articles du monde commentant l’exil fiscal de Depardieu.
Tout d’abord ce premier article du Monde « Depardieu, enfant perdu de la patrie » faisant le parallèle entre la volonté de Depardieu de renoncer à sa nationalité et une thèse de Pierre Maillot sur l’identification des Français aux acteurs.
L’article suggère que « le Français qui se reconnaît dans Depardieu se reconnaît perdu ». En choisissant l’exil et « sa déchéance nationale » Depardieu devient le symbole d’une France dont le lien social est brisé.
Le deuxième article du Monde « Les artistes français sont trop payés », coup de gueule du producteur Vincent Maraval, qui relativise l’exil de Depardieu au regard des salaires indécents des acteurs du cinéma Français.
On y apprend que le salaire des acteurs n’est pas lié à la recette commerciale de leur film mais à leur capacité à obtenir les fonds cumulés du CNC, des taxes, des avantages fiscaux et de la télévision publique.
« Est-il normal qu’un Daniel Auteuil, dont les quatre derniers films représentent des échecs financiers de taille, continue à toucher des cachets de 1,5 million d’euros sur des films coproduits par France Télévision ? »
Cet article nous apprend qu’aucune des grandes productions françaises ne doit sa viabilité économique à son exploitation commerciale mais uniquement au financement public direct ou indirect.
Ces fonds publics ne servent pas à faire émerger une esthétique cinématographique française mais à maintenir une société d’acteurs et de producteurs percevant des millions.
Système complètement sclérosé où les réseaux de distribution des salles de cinéma et des chaînes de télévision sont saturés par des grosses productions françaises ou américaines et incapables de s’adapter à la démocratisation des outils numériques de production cinématographique et à la multiplicité des réalisateurs !
L’article de Maraval aura donné lieu à des réactions en chaîne du milieu du cinéma, Libération annonçant même une série de conférences dédiées.
On y apprendra pèle mêle :
Olivier Bomsel : « Les chaînes françaises n’achètent donc que des créneaux de diffusion : leur seul actif est la valorisation instantanée par la diffusion ».
C’est peut-être là le plus grand scandale, au final. Qu’importe que des acteurs perçoivent des millions comme Daniel Auteuil grâce à des fonds publics, mais pourquoi priver les Français de leur droit au partage sur des productions qu’ils ont contribué à financer ?
Si Canal plus avec Studio Canal détient un catalogue grâce aux films qu’ils ont produits, pourquoi interdire ce droit aux chaînes publiques, chaînes publiques qui appartiennent aux Français ?
La société française est prise en otage d’une économie cinématographique et musicale défaillante ne pouvant se maintenir qu’en exigeant toujours plus de taxes, et en privant les français de leur droit au partage. Dans ce contexte surprenante intervention de la ministre de la Culture Aurélie Filippetti, à la tribune de Maraval, pour affirmer que le mode de financement du cinéma est « un un système vertueux ». Pour pérenniser un système défaillant on ne parlera pas d’une nouvelle économie bâtie sur le partage mais de régulation.
En toile de fond, de l’affaire Depardieu, on retiendra sa capacité à mobiliser sur une affaire somme toute personnelle, deux présidents de la République : Incroyable pouvoir d’influence des acteurs du cinéma sur le politique !
Ce n’est donc pas demain qu’un Ministre de la Culture affirmera que tout film produit à l’aide de financement public (CNC, de France Télévision, aides régionales, Européenne etc.) puisse être diffusé sous une licence libre favorisant le partage. L’appropriation « des catalogues de films » par les multinationales du divertissement vole à notre humanité des pans entiers de notre culture commune. Il n’est donc pas injuste de penser qu’au bout de dix ans d’exploitation un film puisse être diffusé sous une licence libre compte tenu que ceux qui l’ont réalisé ont déjà été rémunérés.
Le partage, l’échange de films qui ont marqué notre vie est un acte social à l’heure du numérique aussi banal que de chanter en famille des chansons en fin de dîner.
Crédit photo : Vincent Roche (Creative Commons By-Sa)
Vous avez peut-être remarqué dans les derniers articles publiés sur le framablog que quelques illustrations à l’humour approximatif étaient signées Gégé, le générateur de Geektionnerd. Ce petit jeu graphique vous est aujourd’hui offert en libre-service par Framasoft.
C’est une conception des Mozilla Labs dont on peut trouver toute la petite histoire et les caractéristiques techniques sur ce blog de Mozilla hacks. Pour simplifier, Willian Carvalho a voulu réaliser avec Canvas (traitement de l’image en JavaScript) ce qui existait seulement en Flash. C’est une chouette et amusante démonstration de ce qu’on peut faire désormais avec le HTML5, que Mozilla défend et promeut comme le langage du Web, plateforme ouverte de développement…
C’est Cyrille (avec l’aide de Quentin pour la mise en ligne) qui a réalisé une adaptation francophone, avec la complicité de Simon “Gee” Giraudot qui a fourni les images. Vous pouvez trouver les sources librement disponibles sur le github, n’hésitez pas à le forker, à vous installer votre propre version avec vos images et à fabriquer vous-mêmes des bandes dessinées libres.
C’est vraiment simple et intuitif. Rendez-vous sur la page du générateur de Geektionnerd, choisissez et déplacez les éléments graphiques, saisissez du texte pour vos “bulles”, redimensionnez les éléments avec les flèches haut/bas du clavier et inversez-les avec les flèches droite/gauche. Vous pouvez enregistrer facilement vos créations ensuite.
…d’ailleurs n’hésitez pas à en faire profiter tout le monde, peut-être publierons-nous vos meileures réalisations ici, qui sait ?
Eh bien nous lui avons posé la question…
Quelle a été ta première réaction quand tu as découvert ce générateur ?
Très bonne ! Lorsque Cyrille a partagé la première version du générateur sur la liste de l’association Framasoft, tout le monde a commencé à jouer avec et à partager ses créations sur la liste. C’est assez marrant de voir mes personnages avec des mots qui ne sont pas les miens dans leur bouche !
D’une certaine façon c’est la continuité logique des créations libres que tu as réalisées avec la série des Geektionnerds ?
À priori c’est pareil. D’ailleurs, les dessins du générateur ne sont pas des dessins « exclusifs », ils sont en fait issus d’articles du blog (donc ils sont déjà sous CC-By-Sa !). Mais oui, c’est l’exacte continuité de ce que je propose dans le Geektionnerd. J’ai placé mes œuvres sous licence libre par conviction, parce que c’est comme ça que je vois « l’art » de manière générale. Le fait que les dessins soient librement modifiables n’est qu’une liberté, mais ça ne veut pas dire que vous allez forcément l’utiliser : grâce à ce générateur, on vous propose d’expérimenter cette liberté et de créer vos propres BD dérivées du Geektionnerd !
Tout le monde peut s’amuser avec ce petit générateur que nous te remercions d’avoir alimenté de tes dessins. Penses-tu que c’est juste un gadget sympathique ou que ça peut déclencher des vocations ?
L’un n’empêche pas l’autre, non ? ;) Blague à part, c’est surtout un outil de loisir, à mon sens. Ça reste du bidouillage de dessins et de textes, je ne me verrais pas réaliser une histoire complète avec ça, par exemple. Mais après, qui sait ? Avec les licences libres, les possibilités sont infinies : imaginez une personne qui a une idée géniale de scénario pour une BD, mais ne sait absolument pas dessiner. Grâce aux contributions que l’on met dans le pot commun de l’art libre (et je ne parle pas que de moi ici mais de tous les artistes libres), il pourrait tout à fait récupérer une énorme base de données de dessins et les arranger comme il le veut pour correspondre à son scénario. Sympa, non ?
Si l’on va un peu plus loin, ce genre de pratiques implique la fin de l’œuvre unique, puisque chacun peut utiliser, copier, remixer, re-créer et diffuser des comic strips ? l’analogie avec les 4 libertés du logiciel libre est frappante, non ?
Oui, c’est exactement ça. Pour autant, il ne faut pas voir ça comme une trahison de l’œuvre ou un manque de respect de l’auteur (ce genre d’argument revient souvent lorsqu’on parle de modifier les œuvres sans l’autorisation de l’auteur - un des principes d’une licence libre). L’œuvre originale, le Geektionnerd, reste une « œuvre unique », si l’on veut. La différence avec une œuvre sous régime de droit d’auteur classique, ce n’est pas que vous allez vous l’approprier et en faire ce que vous voulez : ça, honnêtement, vous le faites aussi avec des œuvres protégées.
La différence, c’est que là, non seulement personne ne viendra vous demander des comptes et vous traiter de voleur, mais en plus, on vous y encourage ! Tu parles de l’analogie avec les 4 libertés du logiciel libre : je pense aussi, personnellement, aux deux modèles que propose Florent Latrive dans son livre Du bon usage de la piraterie. Il explique que, classiquement, on aimait considérer les artistes comme des « génies romantiques » qui avaient une inspiration naturelle et quasi-divine. Mais l’artiste est en fait plus proche du « hacker », qui s’approprie toutes les informations qui l’entourent pour créer quelque chose de nouveau. Tous les artistes passent leur temps à reprendre, copier, réutiliser les œuvres du passé. La licence libre ne fait que se mettre en accord avec cette réalité qui est pourtant loin d’être spécifique à l’art libre ! On connait la fameuse citation de Picasso, « Les bons artistes copient, les grands artistes volent ». Aurait-il mis ses œuvres sous licence libre si cela avait existé à son époque ? C’est une autre question ;)
Chaque jeudi à 21h, rendez-vous sur le framapad de traduction, le travail collaboratif sera ensuite publié ici même.
Traduction Framalang :
Lydia Pintscher
Lydia Pintscher est une femme naturellement douée pour apprivoiser les gens, les geeks et les chatons. Entre autres, elle est en charge des programmes de mentors de KDE (Google Summer of Code, Google Code-in, Season of KDE), membre fondateur des groupes de travail de la communauté KDE et membre du conseil de KDE e.V.
Le logiciel libre a un ennemi. Ce n’est pas celui auquel pensent la plupart des personnes sur Internet. Non, l’ennemi, c’est le manque de participation active.
Chaque jour des milliers de personnes se mettent à chercher ce qui pourrait bien donner un sens à leur vie, et se demandent comment réaliser quelque chose qui compte vraiment. Tous les jours des milliers de lignes de code pour des logiciels libres sont en attente d’écriture et de débogage, des programmes attendent d’être mis en avant et traduits, des éléments artistiques attendent de voir le jour et ainsi de suite.
Malheureusement, il arrive beaucoup trop souvent que la connexion ne s’établisse pas entre tous ces individus et tous ces projets. Il y a plusieurs raisons à cela. Tout commence avec des personnes qui ne connaissent rien au logiciel libre, à tous ses avantages et à ses valeurs. Mais on commence à y arriver. Les gens commencent à utiliser et peut-être même à comprendre le logiciel libre à grande échelle. Les projets de logiciels libres vivent de la conversion de certains de leurs utilisateurs en contributeurs actifs. Et c’est là que les problèmes sérieux commencent.
J’ai accompagné des centaines d’étudiants avec des programmes de tutorat et je suis allée sensibiliser de diverses façons aux projets de logiciels libres. J’ai travaillé avec des gens enthousiastes dont la vie a pris un tour bien meilleur grâce à leurs contributions aux logiciels libres. Mais il y a un leitmotiv que je vois encore et toujours et ça me brise le cœur parce que je sais maintenant à côté de quels talents nous passons à cause de ça : ne pas se sentir autorisé à faire quelque chose d’extraordinaire. Un collègue tuteur du Google Summer of Code a mieux résumé ceci en disant : « on a rarement l’impression que les contributeurs de l’open source n’ont pas eu la permission de travailler sur des trucs mais plutôt qu’ils ne se sont pas précipités assez vite au bon moment ». Les contributeurs potentiels pensent souvent qu’ils ne sont pas autorisés à contribuer. Les raisons en sont nombreuses et reposent toutes sur des malentendus. Voici les préjugés les plus courants d’après mon expérience :
Ces préjugés sont presque toujours sans fondement et j’aurais aimé savoir il y a bien longtemps qu’ils sont si répandus. J’aurais dès le début abordé très différemment mon travail de sensibilisation.
Le plus simple, pour sortir quelqu’un de cette situation, c’est de l’inviter en personne. « Cet atelier que nous proposons ? — Oui, bien sûr, tu devrais venir ». « Ce bogue remonté dans le traqueur de bogues ? — Je suis sûre que tu es la personne idéale pour essayer de le corriger ». « Ce communiqué de presse qu’il faut préparer ? — Ce serait super si tu pouvais le relire et t’assurer qu’il est bon ». Et si ce n’est pas possible, assurez-vous que votre matériel de promotion — vous en avez bien un peu, non ? — précise clairement quel genre de personnes vous recherchez et ce que vous estimez être les prérequis.
Assurez-vous surtout de toucher les personnes en-dehors du cercle des contributeurs habituels, car la barrière est encore plus haute pour eux. À moins de dépasser cette limite, vous ne recruterez que vous-même — c’est-à-dire que vous aurez davantage de contributeurs semblables à ceux que vous avez déjà. Les personnes semblables à celles déjà présentes sont géniales, mais pensez à toutes les autres personnes extraordinaires à côté desquelles vous passez et qui pourraient apporter de nouvelles idées et de nouvelles compétences à votre projet.