Framablog - Archives (octobre 2012)

Issu du monde éducatif, Framasoft est un réseau de sites web collaboratifs à géométrie variable dont le dénominateur commun est le logiciel libre.

Le: 31 10 2012 à 18:22 Auteur: aKa

Ce n’est pas la première fois que nous vous proposons un témoignage raz-le-bol de Facebook qui joint la théorie à la pratique en décidant de quitter réellement le célèbre réseau social.

Après « la maman », voici « le musicien »… Et si ces deux cas isolés anticipaient un futur (et salutaire) mouvement de fond ?

Le constat va croissant, nombreux sont désormais les gens autour de moi qui n’aiment pas (ou plus) Facebook. L’attrait de la nouveauté envolé, les changement soudain de paramétrage qui désorientent et menacent notre vie privée, le temps passé dessus au détriment de « la vraie vie » (avec des morceaux de vrai(e)s ami(e)s dedans)… nombreuses sont les raisons qui font que la « douce saveur » du début a un arrière-gout de plus en plus amer.

Mais, contrairement à nos deux courageux, la grande majorité y reste pourtant, par habitude ou « parce que, vous comprenez, tout le monde est dessus ».

La parallèle est discutable mais ça me fait penser à tous ces utilisateurs, passés ou présents, enchaînés à leur système d’exploitation Windows. On finit par haïr Microsoft mais on en redemande quand même. Et cela porte un nom : addiction.

Facebook est le Windows de notre époque et il n’a toujours pas trouvé son GNU/Linux (puisqu’en l’occurrence notre musicien ne s’en va malheureusement pas beaucoup plus loin en choisissant Google+).

Phphoto2010 - CC by-nd

Facebook en voie de devenir le prochain MySpace ?

Is Facebook becoming the next MySpace?

Christian Grobmeier - 31 octobre 2012 - Blog personnel
(Traduction : lgnap, tiossanne, Yuston, ehsavoie, Yann, Gatitac, unnamed4, Naar, Damien, Maxauvy, Paul, Simon Villeneuve, 3josh)

Je suis musicien amateur. Bon, entre Time & Bill et d’autres projets me prenant tout mon temps, je suis actuellement un musicien « en pause », mais en 2005, j’étais plutôt actif et je me souviens que nous voulions sortir notre prochain CD. Tous mes amis musiciens étaient sur MySpace et nous parlaient de la pub efficace qu’ils pouvaient y faire. J’ai toujours trouvé le site laid, mais il y avait tellement de monde dessus que je m’y suis inscrit à mon tour, j’y ai déposé nos chansons et j’ai fait l’effort de construire un réseau. Ça a bien fonctionné pendant un moment. Ensuite, il est apparu qu’il y avait plus de musiciens que d’auditeurs sur le site. J’ai reçu des tonnes de messages comme « Écoute mon nouveau titre » ou « Viens à notre concert ». Les commentaires sur notre page ressemblaient à un grand mur couvert de pubs collées par d’autres musiciens. Parfois, parmi tous ces messages, on pouvait voir des femmes nues proposant leurs services. J’ai fini par fermer les commentaires. Puis MySpace a commencé à « faire mieux» (NdT : nouveau slogan du site). Ça a échoué, le site est simplement devenu plus lent, laid et inutilisable. Finalement, j’en suis parti et me suis préoccupé uniquement de notre site web. MySpace était un vrai bazar et n’avait plus aucune utilité.

Ensuite, tout le monde est passé à Facebook. J’y ai jeté un œil, sans être emballé. Il était difficile d’y mettre de la musique. Il y avait un côté restrictif et j’ai vraiment détesté l’interface utilisateur, mais bon, là encore tout le monde s’y est inscrit, et j’en ai donc fait de même. J’ai trouvé quelques applications tierces qui permettaient à mes visiteurs d’écouter ma musique. Tout allait bien. Après quelques temps, j’y ai même retrouvé avec émotion de vieux amis. Tout semblait aller pour le mieux.

C’est alors que les jeux sont arrivés. Tout à coup, ce fut le bazar. Eh, je ne veux pas gagner d’or, tuer des dragons ou cultiver des salades. Je suis juste là pour discuter avec des amis et échanger avec les fans de notre groupe. Cela empira au point de vouloir quitter Facebook lorsque j’ai découvert FBPurity. Et les choses s’arrangèrent. Quand j’ai découvert comment faire pour que Facebook arrête de m’envoyer des e-mails « Veux-tu jouer à ce jeu super ? », tout est rentré à nouveau en ordre, apparemment.

J’ai pendant longtemps ignoré toutes les discussions sur la confidentalité des données. Je ne publie rien de sensible sur Facebook. Les photos téléversées sont du tout-venant. Je ne réponds pas à toutes les questions que Facebook me pose. Ainsi, j’ai pu vivre avec le fait que Facebook fasait des choses vraiment étranges avec mon profil. À un moment, des clients m’ont ajouté à leur liste d’amis, j’ai donc dû devenir plus prudent avec mon profil. Il est probablement étrange pour mes clients de lire sur mon mur les invitations de ma maman à récolter de la salade sur Farmville, mais bon, ils doivent faire avec.

La confidentialité des données — est-ce vraiment un problème ? Parce que j’ai appris que la majeure partie du contenu sur Facebook est de la vraie foutaise. « Aïe, je me suis cassé un orteil » est l’un des messages les plus intéressants. Parfois, quelqu’un a un bébé, et si c’est un vieil ami, je le sais déjà. Si c’est une personne dont je n’ai pas entendu parler depuis des années, ce n’est pas aussi amusant que de lire les bêtises d’un autre ami dans un bar. Alors, quelles sont les « données importantes » dont nous nous préoccupons tous ? Si ce ne sont pas les absurdités que nous écrivons, c’est probablement lorsque nous cliquons sur « J’aime », parce que Facebook sait alors que nous aimons Coca-Cola et qu’il peut vendre notre profil client à n’importe qui.

Néanmoins, je peux accepter qu’ils vendent mes données pour me fournir un service apte à promouvoir mon groupe et garder contact avec avec mon réseau de relations, même si l’interface est toujours un cauchemar. Depuis le lancement de Google+, Facebook est devenu encore plus bordélique. Par exemple, il me faut toujours un temps fou pour ajouter des évènements à une page qui m’intéresse pour un ami.

Maintenant, qu’est-ce qu’on nous propose ? Des pubs partout,me forçant à utiliser AdBlock+ (j’y suis passé). Du contenu bien souvent sans intérêt et trop chronophage, je suis bien assez occupé comme ça. Mon profil est vendu à des inconnus. Ah, et au fait, j’oubliais : Facebook modifie pas mal de choses sans notification préalable.

Par exemple, vous ne pouvez plus cibler tous les fans de votre page lorsque vous postez un nouveau contenu. C’est vrai, Facebook me conseille maintenant de payer pour cela. Voici un billet intéressant à ce sujet qui décrit la situation. Après tout, il faut bien compenser la chute des actions en bourse…

À présent, Facebook a largement dépassé la moisissure qu’était Myspace. Non, je ne paierai pas pour ça, et je vais cesser de poster du contenu. Pourquoi continuerais-je à en poster si personne ne le lit ? Pourquoi paierais-je pour discuter de choses futiles et anodines avec mes amis ? Le téléphone est bien moins cher ! Pourquoi paierais-je pour la présence de mon groupe sur cette plateforme alors qu’il ne génère aucun revenu actuellement ?

Il en va souvent ainsi j’imagine, parfois, les grands réseaux sociaux oublient que les utilisateurs ne sont pas que des machines à fric, et aussi qu’ils peuvent partir. Je compte d’ailleurs quitter Facebook au profit de Google+. J’y poste déjà le contenu de tous mes blogs, si vous souhaitez me suivre. J’aime beaucoup son interface. ses bulles, ses cercles et son tchat vidéo. On y trouve du contenu de meilleure qualité que sur Facebook, et beaucoup de spécialistes sur un sujet donné.

Ce qui fait que Twitter et G+ sont désormais mes principaux canaux de communication. Du moins, jusqu’à ce qu’ils empirent. Twitter fait déjà des choses étranges, comme avec ses nouvelles modifications plus restrictives de l’API. Voyons ce que le futur nous réserve.

Enfin, je crois fermement qu’un jour, il y aura un réseau social décentralisé fondé sur des outils open source.

Adieu Facebook. Tu ne me manques pas.

Crédit photo : Phphoto2010 (Creative Commons By-Nd)

Le: 30 10 2012 à 21:12 Auteur: aKa

« J’ai encaissé deux fois plus d’argent en une seule journée que ce que je touche d’habitude en un mois ! »

Andy Othling est musicien. Il est guitariste de tournée pour Future of Forestry et il a enregistré des albums personnels sous le nom Lowercase Noises.

Sa musique est cool et planante :)

Mais ce qui est encore plus cool c’est la très originale et probante expérience qu’il vient de mener sur Internet.

Sous le régime du copyright classique, ses albums sont présents sur le site de vente de musique en ligne Bandcamp (en passant cette plateforme est dans DRM et propose la format FLAC et Ogg Vorbis).

Présents et tous payants, sauf pendant 24h…

C’est le récit de cette folle journée qu’il vous raconte ci-dessous.

Attention, les conclusions pourront fortement heurter la sensibilité de certains hadopistes !

Lowercase Noises - Knate Myers

Que se passe-t-il lorsque votre musique est gratuite pendant une journée ?

What happens when your music is free for a day?

Andy Othling - 23 octobre 2012 - Blog personnel
(Traduction : Cyrille L., ehsavoie, Martin, Gatitac, Yann, ZeHiro, geecko, Naar, Sparty, Gaëtan, e-Jim, Tchevengour)

Il existe un débat houleux pour savoir si donner gratuitement sa musique est une bonne pratique ou non. Certains disent que cela dévalorise votre musique et vous empêche d’être pris au sérieux. D’autres pensent que c’est nécessaire pour attirer l’attention du public sur celle-ci.

Ce billet n’est pas là pour vous faire adhérer à l’une ou l’autre de ces thèses, mais plutôt pour vous présenter les résultats d’une expérience que j’ai menée il y a quelques semaines. J’ai voulu voir ce qu’il se passerait si je mettais toute ma musique à prix libre (avec un minimum de 0 $) sur ma page Bandcamp pendant 24 heures.

Comment je m’y suis pris

Voici comment j’ai travaillé : j’ai programmé l’envoi d’un e-mail à ma liste de diffusion le 4 octobre à 1 heure du matin annonçant à tout le monde que toute ma musique était disponible à prix libre, à partir de 0 $, et leur indiquant de faire passer le message à toutes leurs connaissances.

J’ai aussi programmé des mises à jour de mes statuts Facebook et Twitter pour la même heure, en demandant aux gens de diffuser l’information les prochaines 24 heures. Ensuite, j’ai programmé des tweets toutes les 2 à 4 heures et des mises à jour du statut Facebook toutes les 4 à 6 heures durant les 24 heures de l’opération, afin de leur rappeler l’offre spéciale.

Les résultats

C’était attendu, l’un des résultats est que beaucoup plus de personnes ont eu accès à ma musique. Ils ont tapé 0 $ et ont téléchargé tout ce qu’ils voulaient gratuitement. Mais d’autres choses intéressantes se sont produites.

Sur Bandcamp, le nombre de téléchargements est le facteur principal de la notoriété.

Puisqu’un grand nombre de personnes ont téléchargé ma musique (gratuitement ou non), mes albums furent propulsés en haut de beaucoup de listes du site. L’image ci-dessous montre les albums d’ambiance les plus vendus de ce jour si spécial :

lowercasenoises1.png

Comme vous pouvez le voir, mes six albums sont directement en haut de cette section. Génial ! (Y voir aussi Karl Verdake me réjouis !)

Être en haut de ces listes, c’est plus de nouveaux visiteurs.

Parce que ma musique a atteint les sommets de certaines listes de Bandcamp, elle est devenue plus visible à ceux qui parcouraient ces listes ce jour-là. Ci-dessous, quelques captures d’écran des pages de statistiques de Bandcamp du jour J :

lowercasenoises5.png

lowercasenoises2.png

Plus de 100 personnes sont allées écouter ma musique depuis la page d’accueil de Bandcamp et 50 autres l’ont fait grâce aux listes mentionnées plus haut. Ce sont des personnes qui ne connaissaient pas même l’existence de ma musique.

Les gens se sont vraiment passés le mot.

Je n’ai eu aucune honte a demander aux gens de diffuser autour d’eux que mes morceaux restaient gratuits pendant ces 24 heures. Grâce à cela, quelqu’un a spontanément relayé l’info sur Reddit. Comme vous pouvez le voir ci-dessous, cela m’a apporté encore plus de nouveaux auditeurs :

lowercasenoises3.png

Une fois de plus, 202 nouveaux auditeurs rien qu’en demandant aux gens d’en parler autour d’eux !

Les gens continuaient de payer pour ma musique.

Maintenant, vous vous demandez probablement qu’est-ce que ça a donné en terme de rentabilité. J’avais prévu une chute des revenus, car c’est généralement ce à quoi on s’attend quand on commence à distribuer les choses sans contrepartie. Mais ce qui est en fait arrivé, c’est que, sur les ventes, j’ai encaissé deux fois plus en une seule journée que ce que je touche d’habitude EN UN MOIS. Oui, parfaitement, vous lisez bien. Une journée a davantage rapporté que deux mois en temps normal !

Je ne suis pas vraiment capable d’expliquer cela, mais je pense que ça s’est joué pour beaucoup sur la générosité réciproque. Les gens ont vraiment semblé apprécier que je fasse ce geste et ont répondu en donnant plus qu’ils ne le faisaient auparavant. J’ai ainsi été stupéfait par ceux qui ont décidé de donner davantage pour un album que le prix qu’il leur aurait coûté la veille.

Le plus important : les contacts

Plus d’argent, c’est génial, mais à mon avis ce n’est pas le plus grand succès de cette expérience.

lowercasenoises4.png

Vous pouvez constater qu’en une journée, j’ai ajouté plus de 450 noms à mon carnet d’adresses. Ce sont 450 nouveaux contacts dont je pourrais bénéficier à l’avenir, et 450 personnes de plus qui peuvent à leur tour relayer l’info si jamais je venais à répéter ce genre d’opération. C’est bien plus important à mes yeux que l’argent.

Récapitulatif

Donc, que s’est-t-il passé là?

  • Beaucoup de personnes ont récupéré ma musique gratuitement ;
  • J’ai gagné beaucoup d’argent de manière inattendue ;
  • J’ai de nouveaux auditeurs et des contacts pour mes prochaines sorties d’albums.

D’après moi, c’est du gagnant-gagnant. Il n’y a vraiment eu aucun coût pour moi à réaliser cette expérience, les gains se sont avérés énormes et mes auditeurs n’ont pas été abusés. Pour ne rien vous cacher mon taux de téléchargements payants a baissé de 22% à 8%, mais étant donné tout ce qui est arrivé, cela ne me gêne pas le moins du monde.

Alors, que cela signifie-t-il pour vous en tant qu’artiste ? C’est un peu plus dur à dire, étant donné que cela dépend de ce que vous avez mis en place et que la situation de chacun est différente. Mais, cela montre au moins l’importance de l’expérimentation. N’hésitez pas à essayer des choses pour voir à quoi vos fans vont réagir. Vous devez apprendre d’eux comme ils ont appris de vous.

Question : Et vous, avez-vous déjà proposé votre musique gratuitement ou bien à prix libre ? Cela a-t-il fonctionné ?

Crédit photo : Knate Myers

Le: 30 10 2012 à 01:18 Auteur: aKa

Le loi de Moore (qui n’est en fait qu’un conjecture) affirme que le nombre de transistors des microprocesseurs sur une puce de silicium double tous les deux ans. Ce qui, par extension, a donné pour le grand public que le rapport entre la puissance d’un ordinateur et son prix double tous les dix-huit mois.

Autrement dit, les machines sont de plus en plus puissantes et de moins en moins chères.

C’est bien ce qu’il s’est produit et se produit encore, pour le plus grand bonheur du logiciel libre et sa culture…

Leonardo Rizzi - CC by-sa

Un allié secret de l’open source : la loi de Moore

Open source’s secret ally: Moore’s Law

Glyn Moody - 10 octobre 2012 - The H
(Traduction : KoS, ProgVal, Sylvain, greygjhart)

Linux est passé du statut de petit bidouillage sympa dans une chambre à celui de logiciel capable de changer le monde il y a un peu plus de 21 ans lorsque Linus a envoyé son fameux message : « Bonjour aux utilisateurs de minix », invitant les gens à le rejoindre. Comme je l’ai remarqué le mois dernier, cette approche ouverte, collaborative était tout à fait nouvelle et s’est avérée décisive dans l’adoption et le développement de Linux.

Cela fut possible car Internet était déjà suffisamment présent pour qu’assez de gens se joignent à l’équipe distribuée de volontaires de Linus. En d’autres termes, l’émergence du logiciel libre est intimement liée à internet. En effet, le décollage rapide de Linux, comparé aux progrès plutôt lents du projet GNU est probablement dû, au moins en partie, au fait que ce dernier ne pouvait se reposer sur une connectivité globale. C’est grâce à cela que Richard Stallman a pu vivre des ventes de GNU Emacs, qu’il distribuait sur des bandes magnétiques.

La nature symbiotique du logiciel libre et d’internet, le premier utilisant le second, le second étant utilisé par le premier, est maintenant largement reconnue. Mais un autre facteur clé dans l’apparition de l’open source a été sous-estimé, alors que Linus lui-même le mentionne dans ce fameux premier message :

Je programme un système d’exploitation (gratuit, c’est juste un passe-temps, ça ne sera pas un gros projet professionnel comme GNU) pour des clones AT 386(486).

Comme nous vivons à l’ère Intel depuis deux décennies, une ère qui touche peut-être à sa fin, avec la montée en puissance des smartphones et des tablettes et leurs processeurs de familles différentes, il est facile de négliger l’importance du fait que Linus développa Linux pour les processeurs 80386.

Aussi étrange que cela puisse paraître , l’ordinateur principal de Linus avant qu’il n’écrive Linux était un Sinclair QL, un ordinateur typiquement anglais qui utilisait le processeur Motorola 68008 (qui fonctionnait à 7,5 MHz), fourni avec 128K de RAM et utilisait un infâme microdrive comme stockage.

Passer à un PC 386, fonctionnant à 33MHz, avec 8 Mo de RAM et 40Mo de disque dur, était un véritable bond en avant pour Linus, et poussa ses finances à leurs limites. En fait, il n’a pu acheter son premier PC que le 5 janvier 1991 parce qu’il reçut de l’argent pour Noël qu’il ajouta à un prêt étudiant que le gouvernement Finlandais lui avait récemment accordé. Ce dernier était sensé payer sa nourriture et son logement pendant qu’il étudiait à l’université d’Helsinki mais comme il vivait toujours avec sa mère pendant cette période, il réussi à le détourner pour un usage plus intéressant.

Le fait qu’il puisse se payer un système aussi performant reposait sur l’amélioration continuelle du matériel, couplée à la diminution régulière des prix. C’est à dire que c’est grâce à la loi de Moore, qui dit que le ratio entre performances et prix double tous les 18 mois environ, que Linus a pu se retrouver avec le système 386 qu’il mentionne dans le premier message sur Linux.

Sans la loi de Moore, il serait sans-doute resté avec son Sinclair QL, codant pour un système dont peu de gens se souciaient. Avec le 386, il a pu rentrer dans le courant dominant de l’informatique en même temps que de nombreuses autres personnes. Partout dans le monde (ou en tout cas dans les zones les plus riches) les jeunes gens ont pu s’acheter de vrais ordinateurs basés sur l’Intel 80386 et (plus tard) 80486. Cela signifiait qu’ils pouvaient faire tourner le code de Linux dès ses débuts, et aussi qu’ils pouvaient contribuer.

Encore une fois, sans la loi de Moore mettant des ordinateurs moins chers dans les mains de bidouilleurs, Linus n’aurait pas été en mesure de construire cette communauté mondiale à travers Internet et le rythme de développement en aurait souffert. En effet, comme la loi de Moore continuait de tirer les prix vers le bas tout en augmentant les performances, de plus en plus de gens dans un nombre croissant de pays ont pu acquérir des PCs suffisamment puissants pour rejoindre le projet Linux. Des processeurs plus rapides signifiaient des temps de compilation plus courts pour les programmes ce qui rendait le bidouillage du code plus facile - et plus agréable.

Il y a ici un contraste intéressant avec le développement du logiciel propriétaire. Les avancées dues à la loi de Moore ne profitent que peu aux programmeurs dans les entreprises, puisqu’ils ont généralement du matériel assez bon. Et les entreprises n’en bénéficient guère plus, puisque ce qui coûte le plus dans la programmation est le salaire des programmeurs, pas le prix de leurs PCs. Dans le monde du logiciel libre, les programmeurs volontaires sont bénévoles et le facteur limitant est le prix du matériel. C’est pourquoi la loi de Moore est très avantageuse pour l’open source.

Potentiel futur

Ce n’est pas un effet purement historique des premières heures de Linux. Nous voyons encore aujourd’hui la Loi de Moore tirer les prix vers le bas en accueillant toujours plus d’utilisateurs. Un bon exemple est le mini-ordinateur Raspberry Pi. Il offre les bases de la puissance d’un PC sur une petite carte mère, à un prix minuscule. Cela signifie que non seulement les personnes ordinaires – même des enfants – peuvent l’acheter sans avoir à penser au prix, mais aussi que les écoles peuvent envisager d’en acheter un pour chaque étudiant, ce qui est normalement inenvisageable avec les prix prohibitifs des PC, même ceux bon marché.

L’effet que le Raspberry Pi aura sur l’éducation n’est pas encore clair, mais il semble que celui-ci ou l’un des nombreux systèmes semblables à prix très bas va permettre l’arrivée de nouveaux types de projets avec des nouveaux groupes de contributeurs, dans les pays émergents par exemple.

Et les choses sont déjà en train d’aller plus loin. Voici un projet Kickstarter qui illustre à merveille cette progression continue rendue possible grâce à la loi de Moore. Il s’agit de Parallella. l se décrit comme un « Supercalculateur Grand Public », et ce n’est pas une blague.

Une fois terminé, l’ordinateur Parallella devrait fournir l’équivalent d’un processeur à plus de 45Ghz sur un circuit de la taille d’une carte de crédit tout en consommant moins de 5 Watts en fonctionnement normal. En s’en tenant seulement à la fréquence, c’est plus de puissance qu’un serveur haut de gamme qui coûte des milliers de dollars et consomme 400W.

Important, tout le système sera ouvert :

  • Accès ouvert : absolument aucun accord de non divulgation ou accès spéciaux nécessaires ! Toute l’architecture et le kit de développement seront publiés sur le web dès que le projet sera financé sur Kickstarter.
  • Open Source: la plateforme Parallella sera basée sur des outils et des librairies libres et gratuites. Tous les fichiers de conception des circuits seront fournis une fois que Parallella sera sur le marché
  • Bon marché : les coûts du matériel et des outils de développement ont toujours été une barrière très difficile à franchir pour les développeurs cherchant à écrire des applications haute-performance. Notre but est de fournir l’ordinateur haute-performance Parallella à un coût inférieur à 100$, le rendant accessible à tous.

Oui, c’est un super ordinateur à 45GHz, fourni en standard avec Ubuntu, pour moins de 100$. Si Parallella parvient à sortir cela - et en tant que projet Kickstarter (il y a toujours le risque qu’il ne soit pas totalement financé ou qu’il ne fonctionne pas correctement) il va mettre un nouveau niveau de puissance de calcul entre les mains de tout le monde, y compris les étudiants.

Potentiellement, cela va permettre à des gens qui, jusqu’à présent, ne pouvaient tout simplement pas s’acheter une telle puissance de calcul de démarrer une toute nouvelle génération de projets open source. Encore une fois, le principal bénéficiaire ici est l’open source : si une entreprise a besoin d’un supercalculateur, elle va généralement l’acheter immédiatement, puisqu’elle peut se permettre de payer un prix conséquent pour les modèles actuels. Ce que Parallella apporte, grâce à la loi de Moore, est la démocratisation d’une puissance de calcul de cet ordre, qui ne va plus être réservée à des projets commerciaux disposant de solides fonds.

Il est important de noter que c’est la loi de Moore, agissant sur le matériel qui apporte ces bénéfices, plutôt que n’importe quel changement exponentiel dans le logiciel (qui n’y contribue qu’indirectement). De plus des la loi de Moore pour d’autres types de matériel commencent également à prendre forme. Un exemple frappant en est l’impression 3D, où les prix baissent régulièrement. Ou encore le monde du séquençage du génome, démêler les milliards de « lettres » chimiques qui forment la double hélice de l’ADN, qui voit l’arrivée de changements encore plus importants.

Vous savez peut-être que le coût de séquençage du génome baisse mais vous n’avez peut-être pas la moindre idée de la vitesse à laquelle il baisse. Le National Human Genome Research Institute qui fait partie du National Institute of Health américain a compilé des données étendues sur le coût de séquençage de l’ADN au cours de la dernière décennie et a utilisé ces informations pour créer deux graphique à couper le souffle. Les chercheurs du NHGRI montrent que non seulement les coûts de séquençage sont en chute libre mais ils dépassent la courbe exponentielle de la loi de Moore d’une grande marge.

Cela signifie que le coût de séquençage de votre génome, ou de n’importe quel autre organisme, va bientôt devenir à la portée de tout le monde. Cela va-t-il créer une communauté globale de bio-hackers libristes, menée par un nouveau Linus avec un séquenceur de bureau (et peut-être un supercalculateur Parallella) dans sa chambre à coucher ? L’expérience des logiciels libres suggèrent que oui et nous apprend que nous ne devrions jamais sous-estimer le simple pouvoir de la loi de Moore à conduire des changement inattendus et révolutionnaires.

Crédit photo : Leonardo Rizzi (Creative Commons By-Sa)

Le: 29 10 2012 à 01:22 Auteur: aKa

Excellent accélérateur de migration Windows vers GNU/Linux, Framasoft soutient et promeut depuis le début la distribution grand public Ubuntu. Et ce ne sont ni les annotations de Richard Stallman ni la récente « affaire Amazon » (fort bien explicitée par Christophe Sauthier) qui nous feront changer d’avis.

Mais cela ne nous empêche pas dans ces colonnes de traduire de temps en temps des articles parfois critiques à son égard, au risque de déclencher des ires dans les commentaires ;)

Ici le journaliste Sam Varghese reproche à Mark Shuttleworth de ne pas avoir clairement affirmé, et ce dès l’origine, le caractère commercial d’Ubuntu intimement liée à sa société Canonical. C’est ce qui explique pour lui que cette histoire avec Amazon a été si mal prise pour la communauté.

Et de citer alors en exemple la société Red Hat qui lui semble plus claire dans ses objectifs (de profits). D’ailleurs cette dernière propose deux distributions plutôt qu’une : la « commerciale » Red Hat Enterprise Linux et la « communautaire » Fedora.

Il est d’ailleurs possible que cette éventuelle confusion soit encore plus forte dans des pays comme la France où la communauté Ubuntu est très dynamique.

Il est vrai qu’une fois qu’on découvre GNU/Linux (souvent avec Ubuntu), on s’aperçoit qu’il existe bien des différences entre les distributions. Le très pratique mais pas très libre Linux Mint n’est pas la même que la moins pratique mais très libre Triskel. La gouvernance et finalité d’une Debian diffèrent sensiblement de celle d’Ubuntu qui s’en est inspirée à la base.

C’est toute la richesse et diversité du logiciel libre et c’est très bien ainsi, non ?

StephenrWalli - CC by-sa

La grande erreur de Mark Shuttleworth

Mark Shuttleworth’s big mistake

Sam Varghese - 26 octobre 2012 - ITWire.com
(Traduction : peupleLa, Bob Young, KoS, Yuston, Gatitac, HgO, greygjhart)

La semaine dernière a marqué le huitième anniversaire de l’apparition d’Ubuntu sur la scène GNU/Linux. Depuis octobre 2004, de nouvelles versions de cette distribution sont sorties tous les six mois : le buzz initial a été très fort avant de s’estomper peu à peu.

Il est remarquable qu’au fil des ans, chaque fois que Mark Shuttleworth, l’homme qui possède Canonical, la compagnie qui est derrière Ubuntu, introduit une nouvelle fonctionnalité destinée à générer des revenus, des cris et des pleurs se font entendre. Alors, les gens d’Ubuntu essaient de s’expliquer et pour finir, on trouve un semi-compromis qui ne satisfait personne.

La dernière de ces fonctionnalités, dans la version 12.10, fut l’ajout des résultats de recherche d’Amazon aux résultats de recherche habituels. Ce qui signifie un peu d’argent venant d’Amazon pour Canonical (à chaque fois qu’un utilisateur d’Ubuntu achète un produit Amazon à partir de la recherche). Le compromis a été d’en faire une fonctionnalité optionnelle.

De telles situations se sont déjà produites par le passé, et se reproduiront encore à l’avenir. Il y a selon moi une raison simple à cela : Mark Shuttleworth n’a pas réussi à formuler une vision claire du projet Ubuntu à ses débuts. Grave erreur.

Lorsqu’Ubuntu est sortie pour la première fois, il y a eu beaucoup de discussions à propos de la signification de la formule : l’humanité en partage (NdT : humanity to others). Il y avait un tas de fonctionnalités cools, qui mettaient l’accent sur l’implication de la « communauté ». Des cédéroms étaient livrés gratuitement aux gens. On aurait dit une œuvre de bienfaisance du logiciel libre gonflée aux stéroïdes. Ou à l’EPO, à la Lance Armstrong (en français dans le texte) si vous préférez.

Mais il n’y a jamais eu de discussions à propos du fait qu’Ubuntu est une distribution commerciale ; elle a besoin de générer du profit pour exister. Shuttleworth a les poches profondes mais elles ne sont pas sans fond. Le logiciel a beau être gratuit, il faut néanmoins que les comptes atteignent un jour l’équilibre.

À l’opposé, lorsque Red Hat, de loin l’entreprise générant le plus de profits grâce à GNU/Linux, est née, en 1994, tout le monde savait que son but était de générer de l’argent grâce au système d’exploitation libre. Il n’y avait pas d’illusions. C’est pourquoi en 1997, lorsque j’ai pour la première fois entendu parler de GNU/Linux, la communauté du logiciel libre surnommait déjà Red Hat la « Microsoft » des distributions Linux !

Mais au fil des ans, Red Hat a acquis beaucoup de karma positif auprès de la communauté. Elle contribue largement au progrès de Linux en recrutant une bonne partie des développeurs contibuant au noyau. Elle finance des activités périphériques pour participer à la croissance de l’écosystème des logiciels libres.

Personne n’a dit le moindre mal d’Ubuntu à ses débuts. Mais à certains moments en cours de route, quand il s’agissait d’incorporer des fonctionnalités en vue de générer des revenus, les utilisateurs se sont dressés en masse. On ne peut pas leur en vouloir; ils avaient été amenés à croire que la communauté était primordiale et ils ont réagi.

Après quelques-unes de ces confrontations, Shuttleworth a levé le pied et poursuivi sur le chemin qu’il avait choisi. Il ne pouvait pas vraiment faire autrement, après les critiques d’abords douces puis amères soulevées par ses tentatives progressives d’introduire des fonctionnalités commerciales.

Les membres de la communeauté n’ont rien contre ceux qui gagnent de l’argent grâce à des logiciels libres. Patrick Volkerding, créateur et mainteneur principal de la distribution Slackware, est considéré par beaucoup comme un héros pour avoir toujours fourni à ses utilisateurs la distribution qu’ils voulaient. En retour, ces utilisateurs achètent tout ce qu’il produit pour qu’il gagne de l’argent et continue son travail. Et sa distribution est demeurée bénéficiaire la majeure partie de son existence.

Mais Shuttleworth a plus ou moins creusé sa propre tombe. Il aurait dû être clair quant au chemin qu’il allait prendre, clair à propos de son but, et faire attention à ce que son plan soit transparent. Une société basée sur GNU/Linux doit tracer son chemin différemment d’une société ordinaire ; peut être que Shuttleworth n’en avait pas conscience.

Quelle qu’en soit la raison, son manque de communication a abouti à ce qui s’est produit avec les résultats de recherche Amazon et ce qui s’en suivra. C’était la grosse erreur de Mark Shuttleworth.

Crédit photo : Stephen Walli (Creative Commons By-Sa)

Le: 28 10 2012 à 17:40 Auteur: aKa

Notre premier billet consacré à l’impression 3D date de 2008. Depuis cette technologie a fait de gros progrès, elle frappe déjà à la porte de nos maisons pour le plus grand bénéfice de tous. Et tous les espoirs sont permis puisque l’esprit du libre s’est penché dès le départ sur son berceau.

Sauf qu’ici comme ailleurs, nous ne sommes pas au pays de bisounours et la résistance de l’ancien monde sera à n’en pas douter dure et acharnée. C’est d’ailleurs pour être prêts en amont que nous avons déjà publié ces deux articles : L’impression 3D, ce sera formidable… s’ils ne foutent pas tout en l’air ! et Ils tenteront de nous pourrir l’impression 3D avec leurs DRM.

Comme cela est déjà le cas pour le logiciel, de nombreuses attaques viendront du côté des brevets (et la récente affaire Apple Samsung n’est pas faite pour nous rassurer).

Heureusement la législation américaine a mis en place une nouvelle procédure qui permet à tout citoyen de participer au processus de validation (ou non) d’un brevet. C’est ce droit de vigilance que se propose d’exercer l’Electronic Frontier Foundation (ou EFF) avec nous.

Oui, cela ne concerne (pour le moment) que les États-Unis mais dans ce domaine on sait très bien que ce sont eux qui donnent le la au niveau mondial.

Fdecomite - CC by

Rejoignez les efforts de l’EFF pour que l’impression 3D reste libre

Join EFF’s Efforts to Keep 3D Printing Open

Julie Samuels - 24 octobre 2012 - EFF.org
(Traduction : KoS, Ward, PostBlue, tibs, Simounet, Ag3m, Damien, Jeff_, HgO, Aylham, 4nti7rust)

Grâce à la communauté « open hardware » (NdT : ou matériel libre), vous pouvez maintenant posséder une imprimante 3D pour quelques centaines de dollars, avec des douzaines de modèles disponibles. Ces imprimantes conçues par la communauté surclassent déjà les modèles propriétaires qui coûtent pourtant 30 fois plus cher. Cette innovation incroyable est possible grâce à l’expiration, il y a plusieurs années, du brevet principal couvrant les technologies de l’impression 3D, ce qui a permis à des projets comme RepRap de prouver ce que nous savions déjà, à savoir que le libre dépasse souvent le système de brevets pour stimuler l’innovation.

Les matériels d’impression libres ont déjà été utilisés pour le prototypage rapide de nouvelles inventions, pour imprimer des pièces de remplacement d’objets d’appareils domestiques, par des maîtres du bricolage pour transformer une perceuse en centrifugeuse, pour des jeux où nous pouvons créer nos propres pièces, et pour des milliers d’autres choses par des gens de tous horizons. Des projets comme MakerBot et Solidoodle ont rendu les imprimantes 3D aussi faciles d’accès qu’un dispositif plug&play, où vous n’avez même plus à souder quoi que se soit pour commencer à manufacturer des objets que vous avez dessiné ou dont vous avez téléchargé les plans sur Internet. Avec l’expiration des brevets, la communauté de l’open hardware sera en mesure de libérer son esprit créatif sur les nouvelles technologies, des technologies qui ont déjà été utilisées pour concevoir des prothèses personnalisées, des guitares, des chaussures, et plus encore. Les possibilités sont illimitées (NdT : traduit ici par le Framablog).

Le Problème

Alors que les principaux brevets restreignant l’impression 3D ont expiré ou sont sur le point de l’être, il existe un risque que les creative patent (NdT : brevets sur les idées) continuent de verrouiller les idées au-delà des 20 ans initialement prévus pour ces brevets, ou qu’ils ne restreignent les avancées futures de la communauté open source. Alors même que, nous le savons, la nature incrémentielle des innovations sur l’impression 3D la rend particulièrement inéligible pour les brevets.

Le projet

Comme nous l’avons dit précédemment , l’America Invents Act n’a pas réussi à corriger le problème de l’excessive brevetabilité. Malgré on y trouve au moins une clause récente qui, nous le pensons, pourra être utile : le Preissuance Process.

Cette procédure autorise des tiers à participer au processus de dépôt de brevets en ayant la possibilité d’informer les examinateurs de l’état antérieur de la technique en question. Nous sommes fiers de voir que le Patent Office (NdT : Bureau des Brevets) a ouvert le processus à ceux qui ne déposeront probablement pas de brevets eux-même, mais qui en seront impactés dans leur vie quotidienne. Nous sommes content de savoir que ce nouvelle procédure pourra aider à endiguer la déferlante de brevets illégitimes.

L’EFF et la Cyberlaw Clinic au Centre Berkman de Harvard pour l’Internet et la Société travaillent ensemble pour utiliser cette nouvelle procédure afin de mettre à l’épreuve les dépôts de brevets qui menacent particulièrement les technologies d’impression 3D en plein développement. En premier lieu, nous évaluons les dépôts de brevets sur l’impression 3D qui sont actuellement en cours devant le Patent Office pour identifier de potentiels dangers. Nous avons besoin de vous ! Si vous connaissez des applications qui couvrent les technologies d’impression 3D et qui selon vous devraient être contestées, faites-le nous savoir par mail à 3Dprinting@eff.org (indiquez nous également tous les précédents pertinents que vous connaîtriez).

Pour s’impliquer, il est possible de se rendre sur l’outil de recherche du USPTO (NdT : Bureau de gestion des brevets et des marques déposées des États-Unis), du PAIR (NdT : Récupération d’informations des dépôt de brevets) et/ou de Google Patents. Chacune de ces sources contient de nombreux détails sur les brevets actuellement en attente de validation au USPTO.

Voilà le problème : avec les lois en vigueur, un dépôt de brevet ne peut être contestée par la Preissuance Submission que dans les six mois suivant sa publication (ou avant la date du premier rejet, si cette action se passe après). Ce qui signifie que le compte à rebours a déjà commencé pour les rejets concernant les dépôts de brevet en cours.

Une fois les cibles identifiées, nous nous renseignerons sur les précédents pertinents. Nous vous demanderons à nouveau votre aide à ce moment là, alors, s’il vous plait, soyez vigilants. Tout document disponible publiquement avant le dépôt d’un brevet est considéré comme un précédent; cela peut inclure des e-mails sur des listes publiques, des sites internet, et même des thèses universitaires. En raison de la limite temporelle, nous devons effectuer ces recherches très rapidement.

Il est heureux d’avoir à disposition cette nouvelle façon de combattre le dépôt de brevets dangereux avant qu’ils ne deviennent réellement dangereux. Mais l’America Invents Act et les capacités de recherche du site du Patent Office ne nous rendent pas la tâche aisée. Nous avons besoin de votre aide pour pouvoir accomplir cela, alors s’il vous plaît, faites ce que vous pouvez pour aider à protéger la communauté de l’impression 3D des brevets flous et nocifs qui peuvent menacer de passionnantes innovations.

Crédit photo : Fdecomite (Creative Commons By)

Le: 27 10 2012 à 19:22 Auteur: aKa

Il y a 3 ans nous traduisions un article issu du blog de Google et rédigé par l’un de ses hauts gradés Jonathan Rosenberg : The meaning of open. Il y expliquait pourquoi et comment la célèbre entreprise prônait l’ouverture à tous ses étages.

Le même auteur récidive ici en dépassant la problématique Google pour affirmer non sans un certain optimiste (à l’américaine) que c’est le futur tout entier qui est désormais ouvert et que c’est très bien comme ça.

Remarque 1 : Nous avons choisi de traduire tout du long « open » par « ouverture » ou « ouvert ». L’adéquation n’est pas totalement satisfaisante, mais laisser le terme d’origine en anglais eut été selon nous plus encore source de confusion.

Remarque 2 (troll et hors-sujet ?) : À comparer avec la situation française où l’on semble actuellement beaucoup plus préoccupé de savoir ce que nous prend ou nous donne l’État que de promouvoir ou pratiquer l’ouverture. Sans oublier, évidemment, la fameuse taxe Google qui « sauvera » la presse !

John Martinez Pavliga - CC by

Le futur est ouvert

The Future Is Open

Jonathan Rosenberg - octobre 2012 - ThinkWithGoogle.com
(Traduction Framalang : nobo, peupleLa, KoS, Smonff, ehsavoie, tibs, Louson, goofy, Khyvodul, Pandark, lgodard, Kiwileaks)

Il y a trois ans, Jonathan Rosenberg, alors vice-président délégué à la gestion de la production, a écrit un mémo (NdT : que nous avions traduit) expliquant pourquoi les entreprises ouvertes seraient les gagnantes du futur. Aujourd’hui, consultant au service du management, il a vu la réalité dépasser ses rêves les plus fous.

Il y a bientôt trois ans, en décembre, j’ai envoyé un courriel à mes chers collègues de Google, pour essayer de donner une définition claire d’un terme galvaudé : Ouvert. Je trouvais gênant qu’entre nos murs, il prenne différents sens selon les personnes, et que trop de Googlers ne comprennent pas l’engagement fondamental de l’entreprise pour ce qui est ouvert. En me référant à la fois aux technologies ouvertes et aux informations ouvertes, j’ai présenté la philosophie sous-jacente à notre volonté de transparence. Rechercher des systèmes ouverts, avais-je argumenté, nous a menés, et continuera de nous mener vers deux résultats souhaitables : Google devient meilleur, et le monde avec lui.

L’argument était convaincant, et plus tard, un billet sur le blog de Google , « The Meaning of Open », permit de clarifier encore plus ce concept parfois difficile à appréhender. Dans les semaines qui ont suivi, j’ai reçu des messages pleins de profondeur de la part d’un public divers et varié : enseignants ou écrivains qui appréciaient ce point de vue de l’intérieur de Google, chefs d’entreprise qui m’expliquaient comment l’ouverture avait influencé leurs affaires, étudiants surpris d’une position qui allait entièrement à l’encontre de la stratégie de fermeture qu’on leur avait enseignée. Trois ans ont passé, et ce qui me saute aux yeux dans ce manifeste c’est que… j’avais tort !

On ne peut pas dire que le développement ouvert n’ait pas fait progresser Google et le reste du monde. Seulement c’est arrivé beaucoup plus vite que je ne l’avais imaginé. C’est au beau milieu d’un des gestes les plus banals du vingt-et-unième siècle que j’en ai pris conscience : je vérifiais mon téléphone, un Droid Razr Maxx. Je fixais la chose, et j’en voyais toute la diversité : deux douzaines d’applications, du New York Times à Flipboard, de Dialer One à OpenTable, de RunKeeper à SlingPlayer, créées par un tas de développeurs différents, sur un téléphone conçu par Motorola. Il m’est apparu que ce que je regardais n’était pas simplement un appareil mobile, mais l’incarnation physique de la façon dont un écosystème ouvert peut se disséminer à travers le monde presque du jour au lendemain.

Sans aucun doute, j’ai toujours senti que cette idée tenait debout – mais je n’avais pas anticipé l’ampleur avec laquelle les règles du jeu entre les secteurs privés et publics allaient être réécrites. C’est la conséquence de trois tendances techniques qui ont évolué à une vitesse étonnante. Premièrement : Internet rend l’information plus libre et omniprésente que ce que j’aurais pu croire ; pratiquement tout ce qui se passait hors ligne est maintenant en ligne. Deuxièmement : ce qui était une vision du potentiel des mobiles est vraiment devenu réalité, puisque les machines sont devenues plus puissantes et plus rapides que prévu, facilitant une portée globale et une connectivité sans précédent. Troisièmement : l’informatique dans le nuage (NdT : Cloud computing) a permis une puissance de calcul infinie à la demande. Et nous sommes loin d’avoir fini. Alors même que j’écris ces lignes, Google Fiber s’apprête à déployer un service à un gigabit à Kansas City, indice que la connectivité est sur le point de franchir une nouvelle limite.

La conjonction des de ces progrès techniques a un effet paradoxal : aussi nouveaux soient-ils, ils finissent par ramener les entreprises aux fondamentaux. La gamme et la qualité des produits sont maintenant les facteurs les plus importants pour déterminer le succès d’une entreprise. Historiquement, les entreprises pouvaient profiter d’une pénurie d’information, de connectivité ou de puissance de calcul pour attirer et conserver leurs clients et repousser les concurrents.

De nos jours, les clients peuvent prendre des décisions bien plus éclairées en accédant aux informations des autres consommateurs. En effet, ils renforcent mutuellement leur pouvoir de décision par leurs échanges via des sites comme Yelp et toute une flopée de réseaux sociaux. Une société ne peut plus complètement contrôler l’environnement de ses clients. Au moment où les frontières de la distribution se sont effondrées – pensez aux moyens de transports mondialisés et bon marché, pensez aux étalages infinis des détaillants en ligne – les consommateurs ont de plus en plus de contrôle par eux-mêmes. Avec ce nouveau paradigme, et des marchés toujours plus compétitifs, les sociétés n’ont plus d’autre choix que de se concentrer sur la qualité et les gammes de produits. Si elles ne le font pas, une autre le fera à leur place.

Avec autant de changements en si peu de temps la nécessité de l’ouverture s’est imposée comme une tactique commerciale décisive pour atteindre à la fois l’excellence et la déclinaison des produits. Ouvrir un produit à toute une armée de créatifs est le plus court chemin pour créer de l’innovation et de la diversité, puisque cela permet à chaque contributeur de se focaliser sur ce qu’il fait le mieux et que cela encourage les contributions d’un public le plus large possible.

Chrome et Android, qui ont tous deux décollé depuis que « The Meaning of Open » a été publié, illustrent parfaitement ce principe. Avec chacun d’eux, nous avons maintenu un seul objectif simple dès le début : rendre le produit aussi robuste que possible. Comme nous l’avons appris maintes et maintes fois, il n’y a pas de route plus rapide et plus fiable qu’une route ouverte : davantage de mains travaillant sur un même produit ne peuvent que l’améliorer. L’ouverture permet de prototyper un concept, ou de le tester dans ses toutes premières étapes. Qui plus est, les systèmes ouverts tolèrent mieux les défaillances – et attirent une communauté d’utilisateurs plus fidèles. Ils savent que la motivation première d’un système ouvert est l’excellence ; si la société essaie d’imposer un autre agenda, la communauté de développeurs le repérera immédiatement et se révoltera. En proposant un produit ouvert, la société renonce à la possibilité de faire autre chose que de le rendre meilleur pour l’utilisateur.

Les résultats parlent d’eux-mêmes. Si vous possédiez un smartphone en 2006, il y a des chances pour que « Blackberry » ou « Nokia » ait été inscrit dessus. Il y a encore trois ans, Android représentait à peine 5% du marché. Aujourd’hui nous avons dépassé les 51%, et il y a de fortes chances pour que votre smartphone ait été fabriqué par Samsung, HTC, Motorola ou un autre partenaire d’Android.

Android a même débarqué dans des secteurs que nous n’avions pas anticipés, tels que les téléviseurs, les voitures, les avions, et même les appareils domestiques. (Voyez Ouya, une nouvelle console de jeux vidéo basée sur Android. Sans un Android ouvert, ce genre d’innovation n’existerait pas). Il semble clair à présent que si vous vous investissez dans un système ouvert, vous vous engagez dans une compétition perpétuelle pour garder votre place d’innovateur principal.

La question de l’ouverture n’a pas été moins opérante pour le navigateur Chrome, qui s’est construit par dessus le projet open source Chromium. Aujourd’hui, Chrome est sept fois plus rapide qu’il ne l’était lorsqu’il a été lancé il y a à peine 4 ans, et le nouveau code est disponible pour le monde entier à mesure qu’il se développe. Travailler ainsi au grand jour rend plus difficile le fait d’avoir des agendas cachés ou quoi que ce soit de dissimulé ; faites mal les choses, et une communauté mondiale de développeurs vous repérera instantanément.

Faire de l’ouverture une tactique commerciale peut nécessiter de nouvelles compétences organisationnelles. La vitesse est primordiale, comme l’est la rigueur du processus de décision. Un écosystème ouvert encourage le bouillonnement d’idées. Or trouver de bonnes idées, c’est facile ; ce qui est difficile, c’est de choisir parmi elles. L’ouverture des données peut offrir un avantage concurrentiel important aux entreprises, mais seulement si elles sont correctement positionnées pour pouvoir en profiter. L’autre tactique — qui est notamment utilisée par Apple et nos équipes de recherche — est de garder le système plus fermé, et d’y exercer un contrôle total. Cette approche nécessite son propre jeu de compétences organisationnelles, au-delà de la vitesse d’exécution, puisque l’excellence du produit et son innovation prennent leur source uniquement en interne. Les deux approches peuvent évidemment toutes les deux réussir, mais selon notre expérience, quand il s’agit de construire une plateforme entière, l’ouverture est le chemin le plus sûr vers la réussite.

Heureusement, de plus en plus d’organisations perçoivent ce message. Dans Wikinomics, les auteurs Don Tapscott et Anthony D. Williams racontent l’histoire de Goldcorp, une entreprise de mines d’or de Toronto, qui semblait sur le déclin à la fin des années 90. Face à un marché en baisse, une foule de problèmes internes et ce qui semblait être un filon épuisé, le PDG Rob McEwen fit précisément l’inverse de ce que n’importe quel livre sur le business dirait : il commença par donner le peu que l’entreprise avait encore.

Plus exactement, il publia sur le site de l’entreprise 400 Mo d’informations concernant le site minier de 220 kilomètres carrés de Goldcorp. Plutôt que de conserver jalousement ses derniers lambeaux d’information propriétaire, il offrit un prix de 500,000$ à quiconque parviendrait à utiliser ces données, afin de trouver de l’or contenu dans le sol. Ce fut un énorme succès. Plus de 80% des cibles identifiées par le public donnèrent des quantités significatives d’or. Avec ce petit investissement initial, la société tira du sol l’équivalent plus de 3 milliards de dollars en or.

Évidemment, McEwen était seulement en train de s’accorder avec les principes profonds du mouvement open source. Dans les premiers jours confus de l’internet, une éthique d’universalité et d’égalitarisme s’était propagée. « Les jardins cernés de murs (NdT : Walled gardens), tout plaisants qu’ils soient, ne pourront jamais rivaliser en diversité, en richesse et en innovation avec le marché fou et palpitant du Web de l’autre côté du mur » a écrit Tim Berners-Lee, l’inventeur du World Wide Web. Google a toujours prospéré sur cette diversité, cette richesse et cette innovation. C’est ce qui nous a permis de lancer des créations comme Chrome et Android, et c’est ce qui a permis à une entreprise d’extraction vétuste d’éblouir le monde avec des succès similaires et pour des raisons similaires.

Aussi spectaculaire que soit l’histoire de Goldcorp, c’est seulement la partie émergée de l’iceberg. En effet, ce qui avait commencé comme un concept de geek au sein de communautés scientifiques s’est propagé dans tous les domaines, des affaires à la politique, de la santé à l’éducation et bien au-delà. Chez Google, nous envisageons un certain nombre de possibilités au-delà du secteur technique, où l’ouverture pourrait amener des progrès modestes et immenses à la fois.

L’éducation

De Stanford à la Corée, des universités et des enseignants du monde entier commencent à distribuer gratuitement des contenus éducatifs de très grande qualité sous licence libre. Qui plus est, des personnes vivant dans les endroits les plus reculés ont de plus en plus accès à ces contenus. La bande passante et la connectivité ont fait sauter de nombreuses barrières de la société en matière d’éducation.

Tout au bout d’un long chemin de terre à Bombay, un étudiant muni d’un téléphone peut maintenant suivre les cours du MIT au plus haut niveau. De façon tout aussi intéressante, ce même étudiant peut devenir professeur. Grâce à des organisations véritablement démocratiques, telles que la Khan Academy, une organisation à but non lucratif, qui propose en ligne plus de 3 000 cours en vidéo. Partout dans le monde des personnes peuvent à la fois disposer de et contribuer à une bibliothèque de ressources qui ne cesse de croître, depuis des leçons de physique jusqu’à des manuels de finance. Nous savons déjà à quel point l’éducation publique a transformé la société au cours du vingtième siècle. Les possibilités offertes par une éducation ouverte et en ligne semblent tout aussi illimitées.

Les gouvernements

Prétendre à la transparence gouvernementale est une chose mais des exemples comme celui du Canada avec sa Déclaration officielle de Gouvernement Ouvert, en sont une autre. Ce document reconnaît l’ouverture comme un état actif et non passif : il ne s’agit pas seulement de donner aux citoyens un libre accès aux données chaque fois que possible, mais bien de définir une « culture active de l’engagement » comme finalité de ces mesures.

Tandis que toujours plus de villes, de régions et de gouvernements fédéraux avancent dans cette direction, il y a tout lieu de croire que cela finira par payer financièrement (au moment où les données GPS ont été mises en libre accès public à la fin des années 80, par exemple, on estime que les services commerciaux qui en ont tiré parti ont contribué à hauteur de 67.6 milliards de dollars à la valeur économique des États-Unis). À l’inverse, on pourrait dire que lorsque le régime égyptien a verrouillé Internet en janvier 2011, cela a poussé les citoyens à descendre dans la rue pour avoir plus d’informations, et à venir grossir les foules de la place Tahrir. Il est ici probable que le retour à un système plus fermé ait accéléré la chute du gouvernement.

Le système de santé

PatientsLikeMe est un site de réseautage social de santé construit sur des bases de données ouvertes du Département de la Santé des États-Unis. Il ouvre la voie à d’autres initiatives, comme procurer aux patients des moyens de partager des informations et d’apprendre entre personnes souffrant de symptômes similaires. Les chercheurs pourraient également tirer profit de plus d’ouverture dans l’industrie.

L’ouverture des données sur la santé pourrait permettre à des études épidémiologiques à grande échelle de réaliser des percées importantes tout en mettant en place des garde-fous plus forts que jamais pour assurer au patient le respect de la confidentialité. En mettant à la disposition des chercheurs son registre des malformations congénitales, la Californie a permis aux médecins d’accéder à une mine d’informations relatives à l’impact des facteurs environnementaux sur la santé. Et bien sûr, Google Flu Trends a déjà prouvé sa pertinence pour analyser et prévoir l’arrivée d’un virus particulier, tout simplement en permettant que l’information soit partagée et rassemblée.

La science

Chercheurs, institutions, et agences de financement du monde entier commencent à prendre conscience qu’un meilleur partage et une meilleure collaboration sur les résultats de recherches scientifique peuvent mener à des recherches plus rapides, plus efficaces, de meilleure qualité et d’un meilleur impact général. En tant que commissaire européen, Neelie Kroes faisait récemment remarquer dans un discours sur la science et les politiques du libre en Europe, « les chercheurs, les ingénieurs et les petites entreprises ont besoin d’accéder aux résultats scientifiques rapidement et facilement. Si ce n’est pas possible, c’est mauvais pour les affaires ».

Un meilleur accès aux recherches scientifiques peut stimuler l’innovation dans le secteur privé et aider à résoudre des défis importants auxquels le monde doit faire face (les Google ‘Fusion Tables sont un outil que les scientifiques peuvent utiliser pour partager et collaborer sur des ensembles de donnés disparates). Pendant ce temps, l’ouverture dans le domaine scientifique signifie l’ouverture à de tout nouveaux participants. Après avoir échoué pendant plus d’une décennie à résoudre la structure d’une enzyme protéase provenant d’un virus ressemblant au SIDA, les scientifiques ont proposé le défi à la communauté des joueurs. En utilisant le jeu en ligne Foldit, les joueurs ont pu résoudre ce problème en trois semaines.

Les transports

En libérant les données des transports publics, les gouvernements permettent aux entrepreneurs de créer des applications basées sur ces données, et ainsi d’améliorer l’expérience des citoyens ; ces derniers peuvent également utiliser ces données ouvertes pour signaler des problèmes d’infrastructure. Chez Google, nous avons déjà pu observer comment cela fonctionne. Lorsque nous avons commencé à organiser les informations géographiques mondiales, nous avons constaté que, pour de nombreux endroits, il n’existait tout simplement pas de carte correcte. Nous avons donc créé MapMaker, un outil de cartographie participative qui permet à chacun de créer des annotations sur Google Maps. C’est avec cela qu’un réseau de citoyens cartographes est né, traçant en deux mois plus de 25 000 kilomètres de routes précédemment non cartographiées au Pakistan.

Les tendances technologiques convergentes sont maintenant sur le point de modifier, en fait elles ont déjà commencé à le faire, les domaines historiquement fermés, secrets et dormants. « L’avenir des gouvernements, c’est la transparence,» écrivais-je il y a un an, «L’avenir du commerce, c’est la symétrie de l’information. L’avenir de la culture, c’est la liberté. L’avenir de la science et de la médecine, c’est la collaboration. L’avenir du divertissement, c’est la participation. Chacun de ces avenirs dépend d’un Internet ouvert. »

Je mettrais juste un bémol. Étant donnés les changements radicaux auxquels nous avons assisté ces trois dernières années, le défi s’est déplacé. Nous devons viser plus loin même que l’Internet ouvert. Les institutions dans leur ensemble doivent continuer à adhérer à cette philosophie. Atteindre ces futurs objectifs ne sera pas chose facile. Mais je suis content de pouvoir dire que nous en sommes plus proches que jamais.

Crédit photo : John Martinez Pavliga (Creative Commons By)

Le: 24 10 2012 à 21:48 Auteur: aKa

S’en prendre conjointement à GNU/Linux et Microsoft, il fallait oser ! Mais en fait cela se tient et mérite peut-être débat.

Soyons plus précis. L’auteur jette ici son dévolu sur les deux nouvelles interfaces graphiques utilisateurs de l’actuelle distribution Ubuntu et de la prochaine version de Windows, à savoir respectivement Unity et Metro.

Il les met dans le même sac et y voit un changement poussé par les mêmes logiques. Un changement mais pas forcément une amélioration, surtout si l’on utilise son ordinateur pour travailler et non facebooker

Nous avions cru comprendre que le fameux « Internet 2.0 » avait fait sauter la barrière entre les consommateurs et producteurs de contenus. Est-il possible ici qu’on les sépare à nouveau ?

LGEPR - CC by

Metro et Unity sont des adolescentes aux cheveux fluos

Metro and Unity Are Teenage Girls With Fluorescent Hair

Jeremy Morgan - 23 octobre 2012 - Blog personnel
(Traduction : Yuston, ehsavoie, Thomas Dutrion, tibs, Evpok, M0tty, goofy, Maïeul, Oliv, lgodard, Kronos, peupleLa, Gaëtan)

Vous vous souvenez de ces filles ni spécialement horribles, ni particulièrement attirantes, qui voulaient être le centre de toutes les attentions ? Elles faisaient des trucs fous comme se colorer les cheveux avec des couleurs criardes et portaient des piercings partout. Elles avaient souvent beaucoup de qualités mais ne le savaient pas. Ces filles pensaient qu’elles n’avaient rien de mieux à offrir, alors elles se promenaient avec des styles provocateurs pour attirer l’attention.

Voilà précisément pourquoi je pense que Microsoft et Ubuntu imposent leurs récentes modifications de l’interface graphique malgré les retours négatifs des utilisateurs. Ce besoin pressant d’apparaître différent et d’attirer l’attention va bien au-delà de la nécessité de satisfaire leurs utilisateurs.

Que ce soit parce que notre durée d’attention est beaucoup plus courte ou parce que les systèmes d’exploitation ont perdu de leur intérêt, le changement pour le changement semble être devenu la règle du jeu. Canonical et Microsoft secouent tout pour faire différent. Pas meilleur mais différent.

Metro et Unity : vous vous y ferez

L’interface Unity fut introduite avec la version 11.04 d’Ubuntu Linux, celle de Metro sera livrée avec Windows 8 et il semble bien que toutes deux suscitent la même réaction. Toutes les deux apportent des modifications radicales de l’interface utilisateur qui arrivent pour une bonne raison : le monde s’éloigne des ordinateurs de bureau. Le monde devient mobile, c’est incontestable.

Mais plusieurs d’entre nous, assez fous pour continuer à préférer un ordinateur de bureau ou un portable (ceux qui permettent de travailler vraiment) détestent ces interfaces. Si vous utilisez une tablette pour regarder des vidéos ou jouer à Angry Birds ça va. Si vous êtes architecte, infographiste, développeur de logiciel, animateur 3D ou quelque chose du genre, vous haïssez probablement ces nouvelles interfaces.

La réponse des deux camps est la même : l’avenir est déjà là alors autant vous faire à ces changements. Vous êtes libres de remplacer le bureau Ubuntu par l’une des nombreuses alternatives, et Windows 8 a un mode bureau mais il est radicalement différent. Que vous l’aimiez ou non le standard est défini et les plaintes tombent dans l’oreille d’un sourd.

Pourquoi tous ces changements ?

Demandez à n’importe qui chez Microsoft ou Canonical pourquoi ils changent nos repères et ils avanceront probablement des arguments marketing sur les tendances émergentes et la nécessité d’aller de l’avant et autres non-sens. Je pense que la vraie raison pour laquelle ils ont fait ces changements et les verrouillent est extrêmement simple : parce que c’est nouveau. C’est changer simplement pour le plaisir de changer parce que le bureau classique n’a pas changé depuis bien longtemps.

Le bouton Démarrer a toujours été présent depuis la sortie de Windows 95, Gnome et KDE sont apparus en 1997. Depuis cette époque, nous avons fait beaucoup de modifications et bien sûr d’améliorations, mais avec du recul, elles se ressemblent toutes. Des fenêtres, des menus, des messages similaires, et ce depuis la moitié des années 90. Vous voyez le problème ?

Ils ont seulement besoin de faire évoluer l’apparence. Les fonctionnalités d’un système d’exploitation ne changent pas radicalement avec le temps, si vous voulez restez dans le coup avec des cycles de renouvellement technologique rapides, vous devez faire bouger les choses. Vous devez être innovant, pas forcément meilleur. Eh vous avez vu ? — nous n’avons plus de bouton Démarrer.

Qu’est ce qui se cache derrière ?

Vous pouvez donc vous demander : sont-ils juste en train de mettre du rouge à lèvre à un cochon ? La réponse pour les deux systèmes est non. En réalité, ils sont tous les deux meilleurs que ce qu’ils n’ont jamais été.

Ubuntu Linux est un système d’exploitation de premier ordre qui devient plus rapide, plus stable et qui prend en charge plus de matériel que jamais. La pile logicielle est super, la gestion des paquets et la sécurité… tout cela est hautement apprécié.

Windows 8 a également été remanié et cela pourrait bien être leur meilleur système d’exploitation à ce jour. Des avancées technologiques comme l’UEFI ont été introduites : un pré-système d’exploitation, le diagnostic à distance, une option « live USB », un temps de démarrage plus rapide et le support de l’USB 3.0, pour n’en citer que quelques unes. Il y a eu des améliorations au niveau du noyau et d’autres modifications qui le font tourner plus vite que Windows7 sur le même matériel. Du point de vue technique, il n’est pas à la traîne.

Ces deux systèmes d’exploitation sont au top de leur niveau, alors pourquoi développer ces interfaces flashy pour attirer l’attention ? Pourquoi ne peuvent-ils pas vendre ces systèmes d’exploitation en mettant en avant leurs propres mérites ?

Parce que plus personne ne se soucie de ces trucs-là.

La cible marketing

En tant qu’utilisateur régulier d’Ubuntu, j’aime bien lancer une petite pique par-ci par-là à Jono Bacon et sa bande, surtout lorsqu’on en vient à Unity. Je l’ai déjà dit et je le redirai : si je veux un système Ubuntu vraiment stable, j’utilise la version 10.04 et lui compile un noyau 3.6. Ça marche, tout simplement, et l’interface est facile à utiliser pour ceux qui en ont besoin. Pour mon usage, Ubuntu a atteint un sommet à la version 10.04, et moi, comme d’autres, l’avons fait savoir.

La réponse qu’on me ressort tout le temps : « tu n’es pas notre cible de toute façon ». Je le comprends et je sais que c’est vrai. Canonical ne cible plus les hackers maintenant, et Microsoft ne l’a jamais fait. Ils veulent tous les deux répondre à l’appel du marché grand public.

Quand les versions bêta d’Unity et Metro sont sorties, les hackers ont été les premiers à s’en plaindre bruyamment, mais ils ont été ignorés. Mais le plus gros problème que je vois, c’est que pratiquement tous les utilisateurs semblent les détester.

Vous ciblez Monsieur Tout-le-monde, mais c’est ça le problème : Monsieur Tout-le-monde s’adapte encore moins facilement à des interfaces déroutantes. Un geek va faire de son mieux pour apprendre quelque chose de nouveau mais si un utilisateur moyen est dérouté par une interface, il va simplement l’éviter.

Le client a toujours raison, mais on s’en fiche

Unity est sorti depuis un moment maintenant, et il y a certainement des personnes qui s’y sont habituées, et d’autres qui vont même jusqu’à le le préfèrer. Quoi qu’il en soit, la plupart des personnes avec qui j’en ai parlé et 90% des commentaires que j’ai vus sur Internet suggèrent que Unity est un flop. Windows 8 n’est pas en test depuis suffisamment longtemps mais j’ai pu voir que ça partait déjà dans la même direction.

Allez vous donc rester sur votre mauvaise décision même si votre public ne l’aime pas ? Dans le cas de Canonical/Ubuntu la réponse est oui. Il semblerait que Microsoft suive le même chemin. Ils ont tous les deux une position similaire : on sait ce qui est bon pour vous et on va vous forcer à l’utiliser. Si vous ne l’aimez pas, vous allez vous habituer à l’utiliser. Ne soyez pas effrayé par le changement, ne vivez pas dans le passé.

Cette attitude arrogante est partagée par les deux camps, et c’est un pari énorme d’abandonner certains bons concepts et bonnes expériences utilisateur connues dans le but de faire différent.

Conclusion

Si vous lisez ce blog, il y a de fortes chances que vous ne correspondiez pas au type d’utilisateur que souhaitent Microsoft ou Canonical. Ils mettent en place une nouvelle interface tape-à-l’œil pour ce nouveau type d’utilisateurs. Ils veulent des gens qui consomment du contenu, pas des gens qui en produisent. La raison en est assez évidente : il y a beaucoup plus de consommateurs que de producteurs de contenus. Si vous produisez quelque chose, le système d’exploitation sera simplement un outil pour faire démarrer votre ordinateur et fonctionner votre programme. Vous n’avez pas besoin de plus, et mettre à jour tout votre système tous les ans deviendrait bête et inutile.

Si vous êtes un consommateur, vous voulez des mises à jour même si elles ne veulent pas vraiment dire grand-chose. S’ils fournissent une espèce de nouvelle fonctionnalité pour votre appareil, vous installerez joyeusement un nouveau système d’exploitation tous les six mois. Vous voulez du neuf et du tape-à-l’œil, pas du vieux et terne. Vous voulez qu’on puisse voir à dix mètres de distance que votre système est différent des autres. Si vous voulez de la stabilité et des recettes qui ont fait leurs preuves, vous prendrez un produit Apple. Voilà exactement sur quoi comptent Microsoft comme Canonical, et ils vont parier leur avenir là-dessus.

GrowDigital - CC by

Crédit photos : LGEPR et GrowDigital (Creative Commons By)

Le: 23 10 2012 à 18:42 Auteur: aKa

Framavectoriel

Nous avons annoncé la sortie du projet Framavectoriel il y a à peine quelques heures.

Et l’on nous a gentiment signalé par Twitter qu’on l’utilisait déjà avec des enfants dans un espace public numérique corse !

Il s’agit de l’espace Cyber-base emploi / P@m de Folelli dans la cadre d’un CLAE (Centre de Loisirs Associé à l’Ecole).

Nous en sommes ravis et félicitations à tous ces petits Mondrian en herbe :)

framavectoriel1.jpg

framavectoriel5.JPG

framavectoriel2.JPG

framavectoriel7.JPG

framavectoriel4.JPG

framavectoriel3.JPG

framavectoriel6.JPG

Le: 23 10 2012 à 15:04 Auteur: aKa

« L’affaire OpenJustitia » qui se déroule actuellement en Suisse est un cas très intéressant.

Comme on peut le lire sur le site du projet, OpenJustitia est « un ensemble de logiciels spécifiques pour les tribunaux. Le Tribunal fédéral a développé ces derniers de sa propre main et les a personnalisés à ses propres besoins. OpenJustitia permet notamment une recherche efficace dans les décisions du tribunal. »

Il a donc été développé en interne et, comme son nom le suggère, il est libre (sous lience GNU GPL v3) et a d’ailleurs reçu un prix dernièrement aux CH Open Source Awards 2012.

OpenJustitia

Nous voici donc en présence d’un logiciel libre métier développé et mutualisé par l’administration. D’ailleurs le canton de Vaud a d’ores et déjà signé une convention de collaboration avec le Tribunal fédéral.

C’est exactement ce que prône en France une association comme l’ADULLACT avec la fameuse citation de son président François Elie : « l’argent public ne doit payer qu’une fois ».

Sauf qu’un parti politique (et derrière lui un éditeur de logiciels propriétaires) ne l’entendent pas de cette oreille, comme nous le rapporte l’ICTjournal.

Pour ce qui concerne l’éditeur, c’est (plus que) maladroit mais (malheureusement) compréhensible :

L’entreprise bernoise Weblaw, éditrice de logiciels de tribunaux propriétaires, estime que le Tribunal fédéral et sa solution font de l’ombre aux fournisseurs privés de logiciels. Le Tribunal fédéral doit-il s’occuper de droit ou de logiciels ?

Mais ce qui l’est moins c’est de voir l’UDC lui emboîter le pas et ne pas saisir l’intérêt, voire le bon sens, à utiliser du logiciel libre dans les institutions publiques :

Le Conseil fédéral doit examiner, à la demande de l’UDC, si le Tribunal fédéral a le droit de d’agir comme fournisseur du logiciel open-source Openjustitia. En agissant de la sorte, ce dernier délivrerait des services non liés à ses compétences judiciaires.

Il est « totalement absurde » que le Tribunal fédéral fonctionne comme distributeur de logiciels, a déclaré Martin Baltisser, secrétaire général de l’UDC. Selon lui, d’une part le Tribunal fédéral n’aurait aucun intérêt prépondérant à agir en tant que fournisseur de logiciels, d’autre part il serait également dépourvu de base légale. Selon la Constitution et la Loi sur les finances de la Confédération, l’Etat ne peut intervenir au niveau commercial uniquement s’il n’existe pas d’offre privée et qu’une loi l’y autorise. Le Tribunal fédéral réplique qu’il ne réalise «aucun service commercial», comme le projet est open source, le logiciel est mis à disposition gratuitement.

Comme on peut le voir ci-dessous, on en a même parlé le 20 octobre dernier à la RTS mais, triste classique, en occultant complètement le libre pour n’évoquer que le gratuit :


D’autres voix se font heureusement entendre, comme celle de l’élu des Verts François Marthaler qui conteste, à juste titre et avec vigueur, cette demande de clarification de l’UDC sur son blog :

Je veux bien croire que la situation économique de Weblaw soit menacée. Mais je ne peux pas imaginer que les pouvoirs publics se trouvent empêchés de développer des solutions plus performantes et surtout moins onéreuses, dans l’intérêt de tous les contribuables et du bon fonctionnement de l’Etat. Plus encore que les coûts du développement initial du logiciel, ce qui est en jeu, c’est la maintenance et l’évolution du système au profit de l’administration, des justiciables et, finalement, des contribuables.

Sans le dire, Weblaw s’attaque au modèle économique des logiciels libres (open source). Un modèle dans lequel le prestataire ne peut prétendre encaisser plus que la réelle valeur ajoutée au produit et pas une rente de situation. Que se serait-il passé si une société privée avait conçu le logiciel OpenJustitia et avait décidé de le mettre sous licence GNU/GPL ? Rien ! L’UDC n’aurait pas pu invoquer le « moins d’Etat » pour défendre les intérêts privés de cette petite société.

Espérons que comme le dit le dicton : les chiens aboient, la caravane passe…

Le: 23 10 2012 à 10:50 Auteur: aKa

Dans la famille « les libres et pratiques services Web proposés par Framasoft » qui ne demandent pas d’inscription, on a : le traitement de texte collaboratif (Framapad), le tableur collaboratif (Framacalc), l’équivalent d’un Doodle mais en libre (Framadate) et un tout récent éditeur de cartes mentales (Framindmap).

Et pourquoi pas aussi, tant qu’on y est, un outil d’édition d’images en ligne ?

Il arrive, il arrive et il s’appelle Framavectoriel !

Framavectoriel

Attention, ce n’est pas demain la veille qu’on trouvera un équivalent de The Gimp à même votre navigateur, mais on vous propose néanmoins la version francisée de svg-edit, libre application certes modeste mais non dénuée déjà de nombreuses fonctions et qui saura trouver son utilité dans des cas simples ou des situation de formation (nous ne saurons trop vous suggérer de mettre vos enfants dessus plutôt que sur l’abominable Paint).

En fait ce n’est pas la comparaison avec The Gimp qui est judicieuse ici mais plutôt Inkscape (dont il constitue une excellente initiation). En effet l’atout principal de Framavectoriel c’est de proposer de travailler au puissant format libre et ouvert SVG.

Parce que certains l’ignorent encore mais lorsque vous êtes en situation de création graphique et non de retouche photo il est alors bien plus pertinent d’utiliser des images vectorielles et non matricielles, a fortiori si le format est libre.

Et c’est aussi parce que nous avons envie de participer à pousser ce format que nous avons décidé de mettre en ligne ce service en le baptisant ainsi.

-> Découvrir et utiliser Framavectoriel

PS : Oui, on vous le coup à chaque fois désormais, mais si vous avez le temps et les moyens d’un petit soutien sonnant et trébuchant pour nous remercier du service (si service il y a), ça nous aiderait à poursuivre sereinement l’aventure car nous n’avons qu’une visibilité de quelques mois actuellement.

Le: 22 10 2012 à 21:38 Auteur: Goofy

Windows 8, le nouveau système d’exploitation de Microsoft, qui sera le même pour PC, tablette et smartphone, devrait être lancé officiellement le 26 octobre, et on peut compter sur le puissant marketing de la multinationale pour nous abreuver d’images cool, avec des doigts qui caressent une interface tactile en tuiles sur un bureau attrayant. C’est certain, l’interface entièrement rénovée sera plus au goût du jour, maintenant que la vaste diffusion des appareils mobiles nous a accoutumés à d’autres gestes que cliquer sur des icônes…

Le libristes habitués aux versions successives plus ou moins buguées de Windows (et celle-ci promet déjà de l’être) hausseront sans doute les épaules et retourneront à leur Debian. Ils auront peut-être tort si l’on en croit Casey Muratori, qui se demande si l’impact du nouveau système ne pourrait pas être aussi décisif pour l’informatique grand public que la sortie de Windows 3.0.

En effet, derrière ce qu’on ne manquera pas de nous vendre comme un progrès, c’est une véritable régression qui va s’opérer : tous les logiciels qui tourneront avec le nouveau système devront passer obligatoirement par le Windows Store, Microsoft exercera donc un contrôle total sur son écosystème logiciel.

De plus, la compatibilité maintenue de l’ancienne interface avec la nouvelle, si elle semble assurée dans une première étape, pourrait à terme en signer la disparition pure et simple, comme le souligne l’auteur de l’article ci-dessous, qui établit judicieusement un rappel historique : souvenez-vous de la manière dont MS-DOS a progressivement été effacé du paysage après une brève période de coexistence avec Windows 3.0. Euh oui ça ne rappellera rien aux plus jeunes, mais prendre un peu de recul est ici pertinent.

La menace de Windows 8 c’est d’abord d’imposer un système fermé à tous les développeurs et bien sûr à tous les consommateurs. Mais Casey Muratori se demande in fine si la première victime ne sera pas Microsoft lui-même, tant le virage stratégique qu’il opère risque de lui coûter ses principaux soutiens. La bataille des systèmes d’exploitation est engagée, qui en sortira indemne ?

Remarque : Nous n’avons pas traduit les deux appendices qui figurent en bas de l’article d’origine mais nous serions ravis de trouver des volontaires prêts à compléter cela avec nous sur le framapad de travail.

Kiwi Flickr - CC by

Les vingt ans à venir

The Next Twenty Years

Casey Muratori - 8 octobre 2012 - MollyRocket.com
(Traduction : Genevois, Maïeul, KoS, BlackEco, mib_6025, Geekandco, FredB, goofy, Quentin)

Voici pourquoi le modèle de distribution fermé de Windows 8 doit être remis en cause dans l’intérêt des développeurs, des consommateurs et même de Microsoft lui-même.

Pour la première fois dans l’histoire du PC, Microsoft s’apprête à diffuser un nouvel écosystème Windows dont il sera le seul et unique fournisseur de logiciels. Si vous achetez Windows 8, le seul endroit où vous pourrez télécharger des logiciels qui s’intègreront à la nouvelle interface de système, ce sera le Windows Store officiel. Microsoft exercera un contrôle total sur les logiciels autorisés ou non sur son système d’exploitation.

Microsoft a déclaré que les applications destinées à l’interface plus ancienne du bureau ne seraient pas impactées par cette nouvelle politique. Tant qu’ils utiliseront seulement des applications qui tournent sur le bureau classique, les utilisateurs auront encore la possibilité d’acheter, vendre, développer et distribuer des logiciels sans que Microsoft ne s’en mêle. Beaucoup d’utilisateurs de Windows ont compris cette déclaration comme une assurance que le modèle ouvert de distribution dont ils bénéficient aujourd’hui serait encore valide dans les futures versions de Windows. Du coup beaucoup moins de gens ont réagi au problème posé par Windows 8 que si la déclaration avait été comprise différemment.

Mais est-ce bien réaliste de croire que l’ordinateur de bureau sous Windows sera encore une plateforme informatique utilisable à l’avenir ? Et quelles en seraient les conséquences si elle venait à disparaître, laissant les utilisateurs de Windows avec pour toute ressource l’écosystème cadenassé de logiciels introduit par Windows 8 ? Pour répondre à ces questions, cette édition de Critical Detail examine les effets à court et à long terme des exigences imposées par Microsoft pour obtenir sa certification. Nous explorerons en profondeur comment l’histoire permet de prédire la durée de vie du PC classique sous Windows, nous aborderons de façon pragmatique cette question : vaut-il mieux pour Microsoft en tant qu’entreprise qu’elle adopte un écosystème ouvert ou fermé ?

Le Jeu de l’Année 2032

Selon PC Gamer Magazine, et de nombreuses autres sources en accord, le jeu PC de l’année 2011 était Skyrim : Elder Scrolls V. Ce constat n’a étonné personne. Skyrim pour PC a été rendu disponible sur Windows, pas MS-DOS. Même si les développeurs le voulaient, il leur était impossible de mettre à disposition un jeu PC comme Skyrim sur DOS car aucune des innovations graphiques des 15 dernières années n’est disponible sur celui-ci. Il est même absurde de penser pouvoir vendre des applications tournant sous MS-DOS aujourd’hui.

Hypothétiquement, on peut penser autant absurde dans 20 ans de vendre des applications pour la version bureau de Windows. Il n’y aura pas de jeux vidéo PC en 2032 comme il n’y a pas de jeux sous DOS en 2012. Tout fonctionnera sous une forme redéfinie pour l’interface moderne de Windows 8.

Puisque aucune application pour cette plateforme à venir ne pourra être vendue sans passer par le Windows Store, l’équipe ayant travaillé sur Skyrim devra envoyer son application à Microsoft pour validation. C’est ensuite la firme qui jugera de la validité de l’application et de la possibilité de la vendre. Savez-vous ce que pourrait être la réponse de Microsoft ?

Moi oui. Ce serait « non ».

Ce n’est pas une spéculation, c’est une certitude. Skyrim est un jeu pour adultes. Il est certifié PEGI 18. Si vous lisez les conditions de certification Windows 8 App, vous trouverez à la section 5.1 :

Votre application ne doit pas proposer de contenu pour adulte, et les metadatas doivent être appropriés à chacun. Les applications avec une évaluation PEGI 16, ESRB ADULTE, ou qui proposent du contenu pouvant nécessiter une telle évaluation ne sont pas autorisées.

Et c’est plié. Pas de Skyrim sur le Windows Store, à moins que les développeurs ne reviennent en arrière et retirent le contenu classé PEGI-18.

C’est le Jeu de l’Année 2011, banni du Windows Store. Et à propos de 2012 ? Avec de nombreux jeux très attendus à venir, personne ne peut deviner lesquels seront sélectionnés. Mais une sélection aléatoire des prédictions actuelles que l’on retrouve sur la toile suggère comme principaux prétendants Max Payne 3, The Witcher 2, Mass Effect 3, Assassins Creed 3, Call of Duty: Black Ops 2 et Borderlands 2. Parmi les quatre de cette liste qui ont reçu une évaluation PEGI pour adultes, combien pourront être vendus sur le Windows Store ?

— Aucun.

Il y a certainement aujourd’hui de nombreuses personnes, si ce n’est la majorité, qui pensent que les jeux vidéo n’ont pas de vrai potentiel culturel. Ce ne sont pas des œuvres d’art diront certains, et ce n’est donc pas grave qu’une plateforme majeure interdise sa diffusion. Dans l’intérêt d’illustrer de manière plus étendue l’importance d’une plateforme ouverte , donnons à nos jeux un lifting culturel. Supposons que nous ayons d’un coup de baguette magique tout un lot de jeux équivalents aux meilleures séries nommées aux Emmies 2012 : Boardwalk Empire, Breaking Bad, Mad Men, Downton Abbey, Homeland et Game of Thrones.

Admettons que Downtown Abbey ait été le seul à franchir le test d’évaluation PEGI, mais même si les autres satisfaisaient plus ou moins les critères, ils auraient été exclus du magasin pour un tas d’autres raisons, telles que l’expose la section 3.5 :

Votre application ne devra pas proposer du contenu ou des fonctionnalités qui encouragent, facilitent ou glorifient des activités illégales.

Et section 5.6 :

Votre application ne devra pas proposer du contenu qui encourage, facilite, ou glorifie une utilisation excessive ou irresponsable d’alcool, de tabac, de drogues ou d’armes.

Ou section 5.8 :

Votre application ne devra pas contenir de propos blasphématoires outranciers.

Cette vision d’un futur Windows fortement censuré par Microsoft est effrayante. Mais quelles sont les risques que cela arrive ?

Pour Windows RT, la version de Windows pour les tablettes peu puissantes et les téléphones, ce futur commence le 26 octobre. Tous les appareils fonctionnant avec Windows RT ne pourront faire tourner que des logiciels venant du Windows Store, et tous les logiciels devront suivre les exigences de certification énoncées ci-dessus et des dizaines d’autres. Les utilisateurs de Windows RT n’auront pas dix ou vingt ans avant de ne plus pouvoir jouer aux jeux les plus populaires sur leurs machines. Ces jeux auront été bannis dès le premier jour.

Mais pour Windows 8 et Windows 8 Pro, les versions qui seront les plus répandues, le calendrier est encore incertain. Contrairement à Windows RT, ces versions incluent le bureau classique de Windows qui prend encore en charge la distribution ouverte. Est-il possible, alors, que les utilisateurs de la version bureau n’aient jamais à expérimenter ce futur ?

Une brève analyse de l’histoire de Microsoft suggère plutôt l’inverse.

Anatomie d’un changement de plateforme chez Microsoft

Dans la fin des années 1980 une bonne partie de l’informatique grand public utilisait déjà des interfaces graphiques. Des machines comme le Macintosh d’Apple, le Commodore d’Amiga et l’Atari ST ont eu un grand succès et chacune était livrée avec un système d’exploitation graphique moderne pré-installé. D’un autre côté, les PC tournaient essentiellement sous MS-DOS, un environnement en ligne de commande où les applications devaient implémenter leur propre interface rudimentaire.

Malgré cet inconvénient, le PC n’en était pas moins florissant. Comme c’était une plateforme matérielle ouverte et qu’elle avait été adoptée dans l’environnement professionnel, la plupart des logiciels de productivité de l’époque, comme Lotus 1-2-3 et WordPerfect - traitaient MS-DOS comme une plateforme commerciale majeure.

Puis, le 22 mai 1990, Microsoft sort Windows 3.0. Cette version de Windows peut faire quelque chose que les précédentes versions ne pouvaient pas : faire tourner des programmes MS-DOS en plus des applications graphiques natives. Pour la première fois, on pouvait faire tourner les applications de travail standards sans quitter une interface conviviale. L’interface graphique de Windows n’était peut-être pas aussi flashy que ce qui existait sur d’autres plateformes, mais cela offrait aux gens la possibilité de n’utiliser qu’un seul OS pour tout et c’est ce que les consommateurs voulaient. Le taux d’adoption monta en flèche.

Durant les cinq années suivantes, Microsoft continua à ajouter de nouvelles API à Windows. Bien que les gens aient continué à développer des programmes sous MS-DOS, il devint de plus en plus difficile de faire une application professionnelle qui n’intégrait pas des choses comme le gestionnaire de polices de Windows, les services d’impression, les boîtes de dialogue standard et les presse-papiers. Les clients s’attendaient à pouvoir utiliser ce genre de choses et les logiciels MS-DOS ne le pouvaient tout simplement pas.

La plupart des applications firent la transition vers des versions natives Windows ou disparurent, mais les jeux furent l’obstacle majeur. Ils vivaient et mouraient par la performance et ne pouvaient se permettre la surcharge induite par Windows. Mais finalement Microsoft trouva le moyen de leur fournir l’accès au hardware dont ils avaient besoin, et lentement mais sûrement les jeux natifs Windows devinrent de plus en plus communs. Lorsque Windows 2000 fut lancé le 17 février 2000, seulement dix ans après la sortie de Windows 3.0, faire tourner des programmes MS-DOS était passé du statut de principale caractéristique qui faisait de Windows ce qu’il était à un mode de compatibilité fermé destiné seulement à assurer le support des versions précédentes. MS-DOS en tant que plateforme et tous les programmes qui lui étaient liés sombrèrent dans l’obscurité.

Le 22 juillet 2009, pas loin de vingt ans après la sortie de Windows 3.0, Microsoft présenta la version de Windows la plus utilisée aujourd’hui, Windows 7 64-bits. Si vous essayez de lancer une application MS-DOS sur Windows 64 bits, vous aurez une boîte de dialogue qui dit :

win-alert.jpg

Vous pouvez toujours faire tourner ce programme, mais vous devrez installer une version 32 bits de Windows ou télécharger et installer un paquet Windows XP Mode sur le site de Microsoft.

Retour à 1990

La situation du PC en tant qu’objet informatique de consommation est très similaire aujourd’hui en 2012 à ce qu’elle était en 1990. Sur le PC, nous utilisons encore l’interface WIMP (Windows, Icônes, Menus, Pointeur) dont le standard s’est imposé depuis une trentaine d’années (seulement une vingtaine sur les seuls PC). Mais pour ce qui est de tous les autres appareils populaires aujourd’hui — les smartphones et les tablettes — les interfaces WIMP n’existent plus. Les systèmes d’exploitation comme iOS et Android ont remplacé le WIMP par des interfaces tactiles, exactement comme les Macintosh et Amiga ont fait disparaître la ligne de commande des interfaces utilisateurs dans les années 80.

Mais voilà que le 26 octobre, Microsoft va lancer son premier système d’exploitation tactile, Windows 8. Plutôt que d’abandonner carrément le WIMP, ils ont choisi de l’inclure comme sous-ensemble de leur nouvelle interface tactile. Tout comme l’interface de Windows 3.0 coexistait avec MS-DOS, la nouvelle interface de Windows 8 sera disponible avec un bureau traditionnel Windows 7.

Comme c’était déjà le cas pour Windows 3.0 et DOS, l’intégration d’une interface dans l’autre est tout à fait superficielle. Certaines parties sont bien intégrées mais la plupart ne le sont pas. Vous pouvez créer des tuiles dans la nouvelle interface utilisateur pour lancer des programmes dans l’ancienne, tout comme dans Windows 3.0 vous aviez des icônes qui permettaient de lancer des programmes sous DOS. Mais exactement comme les programmes DOS tournaient dans un conteneur spécial, et rendaient impossibles des opérations comme l’ouverture d’autres fenêtres, de boîtes de dialogue, l’usage de fontes différentes ou le transfert d’images vers le bureau, les applications de bureau classiques sont contingentées dans un conteneur spécial du bureau de Windows 8 et ne pourront accéder à la plupart des nouvelles fonctionnalités de nouvelle interface Windows 8.

Bref, le bureau sous Windows 8 en est au point où se trouvait MS-DOS sous Windows 3.0. Ce qui nous amène à la question cruciale?: si Microsoft est aussi attentif à la nouvelle interface utilisateur de Windows 8 qu’il l’a été à celle de Windows 3.0, à quoi va ressembler le support du bureau Windows classique à l’avenir ? Si vous pensez que l’histoire se répète, la réponse est sans ambiguïté : il sera relégué dans l’oubli d’ici dix ans et cessera d’exister dans vingt sauf si on assure la rétro-compatibilité manuellement.

Maintenant, nul ne peut prédire l’avenir avec certitude. Beaucoup d’entre vous ne sont probablement pas convaincus le moins du monde que l’avenir du bureau sera inspiré par une version plus élaborée et affinée de la nouvelle interface de Windows 8. Mais si vous jetez un coup d’œil en arrière vous prendrez conscience que beaucoup de gens pensaient exactement ainsi quand Windows 3.0 est sorti, j’espère que vous mesurez à quel point il est possible que nous soyons dans une situation similaire.

L’avenir mort-né de Windows 8

Pour les développeurs aujourd’hui, le monde de l’informatique de grande consommation avant l’arrivée de Windows 8 est un peu chaotique. Il y a iOS, une plateforme sur laquelle vous ne pouvez publier aucune application native sans la permission aléatoire et arbitraire d’Apple. Il y a Android, une plateforme agréablement ouverte mais qui est en proie à une gestion catastrophique des spécifications du matériel, qui manque d’implication pour le support de code natif et qui est menacée d’être sérieusement mise en péril par des poursuites judiciaires qui bloqueraient tout au nom des brevets logiciels. Et puis il y a les plateformes comme Blackberry, WebOS, Kindle Fire (basée sur Android) et Nook, qui sont encore en quête d’une adoption plus consistante par des utilisateurs.

Entre en scène Windows 8. Il est conçu pour une interaction tactile, a de spécifications matérielles bien définies, est doté d’une interface dont le code natif est bien documenté, peut être utilisé directement comme environnement de développement sans nécessiter de compilation sur un autre système — et oui, il est soutenu par une entreprise notoire pour sa sournoiserie, qui détient un portefeuille de brevets cinq fois plus épais que celui d’Apple. Donc si jamais Apple essayait d’entreprendre une action litigieuse contre Windows 8 similaire à celle qu’il a menée contre Android, nous verrions se déclencher en représailles un tir nourri de plaintes pour violation de brevets qui atteindrait un tel niveau que le chouette immeuble flambant neuf du quartier général d’Apple serait submergé par des tonnes de paperasses rédigées en une obscure langue juridique.

On en est aujourd’hui à un tel point de confusion dans le paysage du développement en informatique que cela pourrait effectivement être un pas en avant pour les développeurs. En supposant que le développement du nouvel écosystème de Windows 8 suivra les mêmes règles que le développement de l’ancien, n’importe quel développeur pourrait simplement installer Windows 8, développer des logiciels ciblant le marché du tactile, puis le distribuer gratuitement ou en le monnayant via son site web ou un distributeur tiers. Moins de prises de têtes avec la diversité des plateformes, pas d’exigences incertaines à satisfaire préalablement pour tester, pas de frais de développement bizarres ou de souscription obligatoire — et plus important encore, pas de puissance hégémonique d’Apple s’interposant entre les développeurs et leurs clients.

Mais voilà, il y a un petit problème. Microsoft a décidé de ne pas suivre, pour le nouvel écosystème de Windows 8, les mêmes règles qu’avec les éditions précédentes de Windows. À la différence de la transition entre MS-DOS et Windows 3.0, Microsoft ne prévoit pas d’étendre l’écosystème de Windows. Ils veulent lui faire prendre une tout autre voie.

Monopole

Le problème commence avec le Windows Store. Si le nom vous rappelle le App Store d’Apple, c’est parce qu’effectivement c’est l’App Store d’Apple. C’est une plateforme de distribution centralisée que Microsoft contrôle, qui permet aux utilisateurs finaux d’acheter des logiciels à partir d’un catalogue de titres explicitement approuvés par Microsoft.

Ce qui, en soi, pourrait ne pas être aussi mauvais. Il y a des arguments valables contre le fait que le propriétaires d’une plateforme contrôle le marketplace par défaut pour cette plateforme, mais si la plateforme permet aux personnes de développer et de distribuer des logiciels gratuitement en-dehors du marketplace, alors d’autres entreprises peuvent aussi bien contourner/se passer du/ le magasin. Les développeurs peuvent distribuer leurs logiciels par d’autres canaux, ou même fournir des magasins alternatifs, réduisant par une saine concurrence le danger d’abus ou d’obstruction de la part du propriétaire de la plateforme.

Toutefois, il est très clair en parcourant les publications de Microsoft sur Windows 8 que pour avoir le droit de bénéficier de la nouvelle interface utilisateur, vous devrez distribuer votre application dans le Windows Store. Cela veut dire qu’en octobre, Microsoft lui-même sera devenu l’unique source de logiciels pour tout ce que vous voudrez faire tourner sur une machine Windows qui ne serait pas relégué au vieil écosystème précédent. À la différence de la transition historique entre MS-DOS et l’interface utilisateur de Windows, et même si la précédente version restera probablement disponible, la nouvelle (celle de Windows 8) sera bel et bien fermée. Ce qui placera Microsoft dans une position de monopole totalement nouvelle : celle d’un distributeur exclusif de logiciels pour la majeure partie des ordinateurs du monde entier.

Maintenant, il existe apparemment un point qui fait controverse. Peut-être parce que Microsoft n’en a pas fait état de façon très importante dans ses communiqués de presse, certains doutent que pour distribuer des logiciels destinés à la nouvelle interface utilisateur, il faudra nécessairement que les développeurs obtiennent la permission de Microsoft. Mais ils ont tort. Afin de mettre les choses au clair une fois pour toutes, une analyse complète et des recherches approfondies sur les publications officielles de Microsoft sur le sujet figurent en annexe B de l’article d’origine. Il démontre qu’il n’y aura aucun moyen pour les développeurs de distribuer sur Internet des applications compatibles avec l’interface utilisateur moderne, sans avoir reçu une approbation explicite de la part de Microsoft.

Donc, en gardant cela à l’esprit, il est grand temps de se poser la question cruciale : si l’interface du nouveau Windows 8 en vient à remplacer complètement le bureau classique, et que Microsoft exerce désormais un contrôle total sur les logiciels qui seront autorisés ou non pour cette nouvelle interface, dans quelle mesure l’avenir de Windows sera-t-il spectaculairement affecté ? Est-ce que les jeux conçus pour les adultes seront les seules victimes de ce changement ou bien l’enjeu est-il beaucoup plus important ?

L’avenir pourrait être n’importe où

Bannir la plateforme de jeux la plus populaire du tout nouvel écosystème Windows 8 – qui est aussi le seul écosystème accessible aux utilisateurs de Windows RT – est l’une des conséquences négatives des directives de certification des applications par Microsoft. D’autres parties de ces directives auraient empêché l’existence de choses comme Flash, JavaScript et le Web dynamique, l’app store lui-même, s’ils n’existaient pas encore et donc d’être inclus à la plateforme de Microsoft elle-même. Il est donc clair que Microsoft s’est assuré que le nouvel écosystème Windows n’hébergerait jamais plus que les quelques applications que Microsoft considère comme importantes.

Mais simplement parce que Microsoft a fait un travail épouvantable en définissant les limites du nouvel écosystème, est-ce que cela signifie que la seule alternative est de réaliser un écosystème complètement ouvert ? Microsoft ne pourrait-il par définir de nouvelles et meilleures directives ?

La réponse étant pas tant qu’ils ne connaissent pas l’avenir. Et pas dans un sens général, mais littéralement le voir en pleine résolution/*lumière*/, et chaque détail avec clarté. En l’absence de telles prévisions idéales, comment une entreprise pourrait-elle dicter des règles pour des logiciels futurs sans interdire accidentellement des choses sur lesquelles de nouveaux logiciels révolutionnaires pourraient se fonder ?

La réalité est que même les entreprises les plus prospères sont rarement capables de prédire le futur avec précision. L’histoire de l’informatique regorge d’exemples. Digital Equipment Corporation, qui a été un certain temps la seconde plus grande entreprise d’informatique, n’a pas réussi à prévoir la révolution de l’informatique personnelle et son nom lui-même n’existe plus maintenant. Silicon Graphics, qui a été le leader du matériel d’imagerie 3D, n’a pas prévu la popularisation de ce matériel et à finalement été contraint de se déclarer en faillite.

Bien qu’étant très loin de connaître un sort aussi affreux, le passé de Microsoft montre qu’ils ne sont pas meilleurs prophètes. Bill Gates a ainsi déclaré à la fin des années 1990 :

« On se fait parfois surprendre. Par exemple, quand Internet est arrivé, c’était notre cinquième ou sixième priorité. »
– Bill Gates, lors d’un discours à l’Université de Washington en 1998

Et le changement de barreur sur le navire Microsoft n’a pas apporté d’amélioration :

« Il n’y a aucune chance que l’iPhone s’attribue une part de marché significative. Aucune chance. »
– Steve Ballmer, dans une entrevue avec USA Today en 2007, dans laquelle il a prédit que l’iPhone ne prendrait que « 2 ou 3% » du marché du smartphone.

Sans connaissance précise du futur, la seule manière d’éviter de bloquer l’innovation sans le vouloir est par définition de ne rien interdire de manière significative. Les seules exigences de certification que Microsoft pourrait choisir et qui soutiendraient complètement le futur seraient celles qui permettraient de certifier tout ce que des développeurs pourraient créer.

C’est la définition la plus épurée d’un écosystème ouvert.

Une maigre concession

Pour n’importe quel développeur désireux de créer le logiciel innovant du futur, il devrait être extrêmement clair que la nature fermée du nouvel écosystème de Windows 8 sera catastrophique pour la plateforme. La question ne se pose même pas, elle devrait être ouverte. Mais les développeurs ne sont pas les personnes chargées des politiques de Windows 8.

Donc la question plus pertinente pourrait être : est-ce que Microsoft peut se permettre de changer de cap et autoriser la distribution des applications Windows 8 par n’importe qui, et non pas seulement sur le Windows Store! ?

En prenant en compte le long terme, Microsoft ne peut pas se permettre de ne pas changer de cap. Ils sont déjà en retard sur tous les segments du marché de la consommation en-dehors du PC, par conséquent ils n’ont pas le droit à l’erreur. Si une nouvelle innovation logicielle arrive et considère qu’Android est sa plateforme primaire/de prédilection parce qu’elle a un système ouvert de distribution, cela pourrait facilement conduire à une nouvelle “décennie perdue” pour Microsoft, lorsqu’ils devront à nouveau rattraper leur retard.

Mais aujourd’hui les entreprises ne regardent généralement pas sur le long terme. Les profits à court terme et les besoins des actionnaires constituent des préoccupations immédiates et impératives ; et Microsoft est un compagnie notoire, contrainte par des nombreux intérêts externes. La question se pose donc en ces termes : l’entreprise Microsoft peut-elle autoriser un système de distribution ouvert avec Windows 8 sans nuire à son chiffre d’affaires ?

De manière surprenante, la réponse est qu’il y aura peu ou pas de pertes de revenus en autorisant un système ouvert de distribution dans Windows 8. Cela peut sembler absurde, mais si vous lisez attentivement les publications de Microsoft, vous verrez que c’est vrai. Bien que Microsoft ait fermé le système de distribution à l’intérieur du nouvel écosystème de Windows 8, ils n’ont pas fermé le système de paiement. Extrait de l’agrément développeur de Microsoft lui-même :

« En ce qui concerne le commerce d’applications. Vous pouvez choisir de proposer des options d’achat à l’intérieur même de votre application. Il n’est pas requis que vous utilisiez le moteur de commerce de Microsoft pour proposer ces achats. Si vous choisissez d’utiliser le moteur d’achat commercial de Microsoft, les achats seront soumis à l’Agrément/*, y compris, mais pas seulement, les frais de magasin et les exigences de licence et de transfert. »

Aussi étrange que cela puisse sembler, si un développeur propose une application limitée dans sa version gratuite sur le Windows Store, il pourrait alors vendre, directement dans l’application, une mise à niveau ou un déverrouillage vers la version complète pour laquelle il pourrait accepter un paiement direct. Ils n’ont pas besoin de verser 20 ou 30% de royalties comme c’est le cas avec une transaction sur le Windows Store. La seule chose qu’ils ne peuvent pas faire c’est utiliser un système de distribution non-Microsoft, tel que leur propre site web ou leur propre « boutique » en ligne.

Ainsi, il est presque impossible de concevoir une situation où Microsoft perdrait des revenus significatifs en ouvrant le système de distribution, puisqu’il a déjà ouvert le système de paiement, et que pratiquement tous les revenus proviennent du système de paiement. Le seul revenu que Microsoft continuera à obtenir du store pour une application qui n’utiliserait pas leur moteur de commerce serait les frais variables d’application, d’un montant de 100 $ par application (et non pas par achat). Le Windows Store devra perdre 10.000 - 20.000 applications avec la distribution ouverte chaque jour pour atteindre l’équivalent de 1% du revenu de Microsoft. Pour référence, l’app store le plus populaire au monde, celui d’Apple, en reçoit moins de 500 par jour.

De plus, le potentiel de migration des utilisateurs du Windows Store depuis Microsoft vers des fournisseurs tiers ne serait pas aussi important avec un système ouvert de distribution. N’importe quel utilisateur du Windows Store tel qu’il est actuellement décrit pourrait ouvrir un compte pour un autre système de paiement, pour une application qui proposerait l’achat en son sein. Une fois qu’il a décidé de créer un compte de ce type, rien ne l’empêche d’utiliser ce compte de façon triviale pour acheter n’importe quelle autre application qui serait disponible par le même processus de paiement. L’inertie de l’achat via un tiers n’est présente que la toute première fois qu’on l’utilise. Une distribution ouverte ne fonctionnerait pas différemment. Le Windows Store resterait la source par défaut des applications pour Windows 8, et c’est seulement quand l’utilisateur pourrait créer un compte pour une distribution externe que le Windows Store perdrait l’avantage de l’inertie.

Ainsi donc, Microsoft n’a quasiment aucun intérêt financier à ne pas autoriser un système ouvert de distribution. On peut supposer qu’il y a d’autres raisons sous-jacentes à leur décision de garder fermé le système de distribution. Est-ce pour limiter la menace de malware ? Est-ce pour prévenir le piratage ? Est-ce pour mieux gérer leur image de marque ? Tant que Microsoft ne sera pas explicite quant à ses objectifs, sa décision pourra être portée contre elle, nous pouvons seulement spéculer sur les motivations ; tous les autres candidats similaires proposent des solutions simples qui n’impliquent nullement une politique draconienne, comme forcer les utilisateurs à installer seulement des logiciels approuvés par Microsoft.

Et maintenant que fait-on ?

Les expériences sur les plateformes ouvertes sont l’une des sources premières d’innovation dans l’industrie informatique. Il n’y a pas deux manières de voir les choses. Les écosystèmes logiciels ouverts sont ce qui nous a donné la plupart des produits que nous utilisons aujourd’hui, qu’il s’agisse de logiciels d’entreprise tels que les feuilles de calculs, de logiciels de divertissement comme ceux de tir à la première personne, ou les paradigmes révolutionnaires qui changent le monde, comme le World Wide Web. Le monde sera bien meilleur pour tout le monde si ce type d’innovation continue.

Les développeurs, les consommateurs et même Microsoft devraient souhaiter que les vingt prochaines années ressemblent aux vingt dernières : année après année des nouvelles choses auparavant inimaginables, vous ont été apportées par des développeurs motivés et créatifs qui étaient libres d’aller là où leur vision les conduisait, sachant très bien que s’ils produisaient quelque chose de grand, il n’y aurait pas de barrière entre eux et la diffusion de leur création dans la monde entier.

Avec Windows 8, Microsoft est dans une position pivot pour aider à faire de ce futur une réalité. Ils pourraient devenir l’une des principales forces luttant pour permettre le développement pour tablette aussi ouvert que l’était le développement pour ordinateurs de bureau avec le Windows traditionnel. Ils pourraient prendre des parts de marché à l’iPad, complètement fermé (et totalement d hégémonique), et aider à restaurer dans ce domaine la liberté d’innover que les développeurs ont perdue lorsque Apple a imposé ses politiques restrictives.

Ou bien Microsoft peut lancer Windows RT, Windows 8 et Windows 8 Pro avec leur politiques actuellement en place, et se contenter d’être un autre acteur du marché de l’appareil tactile, avec leur propre jeu d’obstacles ridicules qui restreignent considérablement les possibilités de logiciel et font perdre leur temps aux développeurs avec leurs processus mal conçus de certification.

Pourquoi prendre ce risque ? Pourquoi pas ne pas se mettre en quatre pour fournir aux développeurs une plateforme ouverte, afin que tous et chacun d’entre eux ne soient pas seulement des soutiens, mais vraiment des personnes enthousiastes pour aider Windows à débarquer dans le monde des tablettes ?

Le succès de Windows 8 sur le marché des tablettes et des smartphones est loin, très loin d’être garanti. Est-ce que Microsoft veut véritablement se lancer dans la bataille sans l’appui de ses plus importants atouts ? Veulent-ils qu’une entreprise comme Valve, qui contrôle plus de 50% des ventes de jeux pour PC, décide de porter tout son effort vers Linux, compte-tenu que l’écosystème de Windows 8 interdit les plateformes de distribution tierces comme son fleuron Steam ? Veulent-ils vraiment que le lancement de Windows 8 soit pourri par une cascade de déclarations de développeurs de premier plan prenant position contre la nouvelle plateforme ? Et surtout, vont-ils délibérément courir le risque de s’attirer l’hostilité des développeurs au point de les voir promouvoir activement et développer leurs propres plateformes comme leur produit phare, puisque Windows ne leur offrira plus la liberté de développer et distribuer leurs logiciels à leur gré ?

Espérons, dans l’intérêt de tous, qu’ils prendront conscience que la seule réponse sensée à toutes ces questions est « NON ».

Crédit photo : Kiwi Flickr (Creative Commons By)

Le: 22 10 2012 à 13:42 Auteur: aKa

Fedora, l’une des plus populaires distributions GNU/Linux, ne propose que Firefox et n’inclut pas les navigateurs Chrome et Chromium de Google.

On le comprend bien pour Chrome qui n’est pas libre, mais moins pour l’open source Chromium.

D’où ces quelques explications qui ne proviennent pas officiellement de Fedora mais d’un simple (et passionné) utilisateur de Fedora.

Scott Beamer - CC by-sa

Pourquoi Fedora ne distribue pas Chrome et Chromium ?

Why Fedora doesn’t ship Chrome and Chromium?

Alex Diavatis - 15 octobre 2012 - WorlOfGnome.org
(Traduction : pwetosaurus (@paul_playe), tibs, Sylvain, misc, ehsavoie, Gatitac, L’gugus, Penguin, viking, Nÿco)

Pour Chrome les raisons sont évidentes, Chrome de chez Google est un logiciel privateur, il contient des modules qui ne sont pas open source, donc fin de l’histoire.

Dans le cas de Chromium qui est issu du projet de système d’exploitation Chromium OS, les choses sont plus compliquées et remontent au 19 novembre 2009, quand une discussion débuta pour savoir si oui ou non il fallait pour distribuer Chromium avec Fedora. Presque trois ans plus tard, nous en sommes toujours au point de départ.

Fedora et l’open source

Fedora a toujours été et sera toujours un défenseur et un distributeur fondamental de l’open source. Un partisan fondamental de l’open source, mais pas un fanatique invétéré du logiciel libre, puisqu’ils fournissent des blobs binaires propriétaires dans leur noyau Linux. On ne peut rien reprocher à Fedora ici puisque cela vient en amont du noyau, le noyau de Torvalds, qui n’est pas totalement libre à cause de pilotes firmwares propriétaires présents principalement pour mieux faire tourner le matériel.

J’aime le nom Fedora et son logo est selon moi l’un des plus beaux qui soient dans le monde des distributions Linux. Le nom Fedora fait référence à un type de chapeau (borsalino) et vient rappeler qu’il provient de Red Hat, la plus grande compagnie open source.

Fedora Logo

Il y a cependant un fait gênant : la police du logo est une police commerciale (très chère qui plus est avec ses 275$ pour l’utiliser).

Dans leur wiki, à propos de leur logo, ils écrivent :

La police utilisée pour le logo est Bryant2. Cette police n’est pas une police libre mais elle a été choisie parce que c’est celle qui s’intègre le mieux dans le design du logo. La licence pour l’utilisation de cette police dans le logo officiel a été payée, ainsi le logo peut être utilisé à chaque fois que la marque déposée et les recommandations d’usage le permettent, sans coût supplémentaire.

Ils auraient quand même pu la partager via un torrent puisque le piratage est une forme de liberté numérique, comme l’anarchie est une forme de liberté sociale… Je plaisante bien sûr. ;)

En tout état de cause, tout cela montre que Fedora n’est pas piloté par une bande d’idéologues passés de mode du logiciel libre. Fedora ne distribue que des logiciels open source pour des raisons bien précises (sur lesquelles je ne m’étendrai pas), mais sûrement pas parce qu’ils « détestent » les logiciels commerciaux.

Fedora et l’environnement de bureau

Certaines personnes disent que Fedora n’est qu’une version de test pour la distribution commerciale Red Hat Enterprise Linux (RHEL) et ne veulent pas être des « bêta-testeurs de Red Hat ». Je pense que, même si c’était peut-être le cas dans le passé, les choses ont évolué. Les deux dernières versions de Fedora (17 et 18) tentent vraiment de proposer un système convivial et de qualité pour un usage bureautique.

Pour être franc, je pense que Canonical nous a quelque part aidé le jour où Ubuntu a décidé de développer Unitypar dessus GNOME, ne faisant plus de ce dernier l’environnement de bureau par défaut. Aujourd’hui, Red Hat et GNOME sont contraints de faire de Fedora une distribution conviviale de qualité car ils ne bénéficient plus comme avant de l’aide d’Ubuntu. Bien sûr, Fedora a beaucoup de travail à accomplir pour rattraper Canonical car Ubuntu est désormais mondialement connu comme étant la distribution de bureau pour le grand public et a réussi à se faire un nom réputé sur le marché.

Fedora et les logiciels

Fedora a une politique stricte qui détermine quel logiciel est autorisé à être inclus dans leurs dépôts officiels et quel logiciel est interdit.

Le Projet Fedora encourage vivement à utiliser des logiciels libres et open source. Fedora possède une ligne de conduite qui impose les obligations suivantes :

  • Si c’est propriétaire, cela ne peut pas être inclus dans Fedora (la seule exception étant donc les firmwares binaires).
  • Si c’est légalement problématique, cela ne peut pas être inclus dans Fedora.
  • Si cela enfreint les lois des États-Unis, cela ne peut pas être inclus dans Fedora.

Vous pouvez trouver plus de détails sur la page du wiki « Fedora Forbidden Items ». Ainsi des logiciels de base comme certains pilotes nVidia et ATi, ceux des cartes Wi-Fi, la version Java d’Oracle, le greffon Flash d’Adobe, etc. ne sont pas inclus. Bien que je sois complètement d’accord avec ce qu’ils font, je ne suis pas toujours d’accord avec la manière dont ils le font.

Et nous en arrivons au sujet initial de ce billet, à savoir : pourquoi Fedora refuse d’incorporer Chromium à leur distribution.

Chromium et Chrome

Pour les gens qui ne connaissent pas la différence, Chromium est le navigateur open source dont Google Chrome tire son code source. Les deux navigateurs (Chrome et Chromium) partagent la majorité du code et des fonctionnalités bien qu’il y ait quelques différences mineures.

Chromium n’intègre pas de fonction de mises à jour automatiques, ni de lecteur PDF ni de lecteur Flash. Chrome est un gratuiciel et ils ne fournissent pas le code source (qui est quasiment identique à Chromium de toute façon), alors que Chromium est, accrochez-vous, sous licences BSD, MIT, LGPL, MS-PL et sous triple licence MPL/GPL/LGPL.

Pourquoi Fedora ne distribue pas Chromium



Chromium est en théorie un logiciel instable (mais en pratique stable) et ils ne distribuent pas de versions stables. C’est la première raison pour laquelle Fedora ne le distribue pas. Cependant, Chromium maintient de nombreux « forks » stables parmi les créations (ou builds) de la communauté et qui portent le même nom : « Chromium ». Ce n’est donc pas le principal problème aujourd’hui.

Le vrai problème, c’est la politique d’empaquetage de Fedora et la politique d’empaquetage de Chromium. Chromium est constitué de nombreux composants open source, mais concrètement il a tendance à les forker puis les empaqueter pour les intégrer.

Par exemple (cas d’école) Chromium utilise OpenSSL. Mais l’équipe de Chromium n’est pas vraiment satisfaite de son fonctionnement et elle veut y apporter des modifications. Ils font alors un fork et ils l’incluent dans le paquet de Chromium. Ils maintiennent cependant une documentation sur les modifications qu’ils apportent à ces paquets. Mais donc maintenant Chromium se retrouve avec son propre OpenSSL, qui n’a pas été testé avec le système et cela rend l’empaquetage difficile pour tous les contributeurs de distributions Linux.

Un rapport de bug a été ouvert à ce sujet en novembre 2009 : bug de suivi sur la création d’une vraie version pour les distributions Linux #28287

Bien que nous fournissions le code source, il y a quelques étapes nécessaires avant que cela soit utilisable en amont par les distributions Linux. Ce bug de suivi sert à en suivre l’avancement.

…mais encore aujourd’hui, il faut toujours un dépôt supplémentaire pour installer Chromium.

Tom Callaway

Tom Callaway est manager de l’équipe d’ingénierie Fedora chez Red Hat et travaille conjointement avec Google pour corriger les problèmes de Chromium dans le but de l’incorporer au dépôt officiel. Il maintient également ses propres paquets de test de Chromium.

Callaway décrit le problème :

« Google forke des bits de code libre pour Chromium comme un lapin fait des petits : avec régularité et sans trop y penser. Plutôt que de tirer parti des API existantes des projets upstream comme ICU, libjingle et SQLite (pour ne nommer qu’eux), ils préfèrent forker ce code à l’instant t et modifier à mort leurs propres API pour être utilisées dans Chromium.

Ce qui ressemble beaucoup à de la méthodologie Java, que je pourrais résumer ainsi : « j’ai envie d’utiliser ce code tiers mais mon application est trop spéciale pour l’utiliser tel quel, donc j’ai rajouté des jantes et pare-chocs en alu et un éclairage néon pour éclairer le dessous, puis j’ai fourré ma copie bling-bling dans mon application ». Une grande partie des développeurs upstream de Chromium semble avoir un passé de codeurs Java ce qui pourrait être une explication mais qui n’excuse rien. Cette façon de faire devrait être un dernier recours, pas la norme.

Voici ce qui devrait plutôt arriver dans l’absolu (en prenant SQLite comme exemple) :

  • google Hé, ça serait sympa si nous pouvions utiliser SQLite dans Chromium pour nos besoins de bases de données locales.
  • google Hum, l’API SQLite ne cadre pas à 100% avec la manière dont j’aimerais que Chromium l’utilise.
  • google Salut l’équipe SQLite, il y a quelques endroits où nous aimerions voir des améliorations de l’API pour que Chromium en tire profit dans notre cas d’utilisation.
  • sqlite_upstream Salut Google, c’est tellement cool que vous vouliez utiliser notre code.
  • sqlite_upstream regarde les changements proposés par Google à SQLite.
  • sqlite_upstream Intéressant, vous pourriez essayer d’utiliser la fonction X pour mieux répondre à vos besoins mais le reste des changements semble OK.
  • sqlite_upstream valide les changements dans le code source dans la révision 12345.
  • sqlite_upstream Notre prochaine version va les inclure.
  • google Ouais ! Nous allons dire aux gens d’appliquer notre patch ou d’utiliser la révision 12345 ou plus récente. »

Vous trouverez plus d’informations sur la page consacrée à Chromium dans le Wiki Fedora.

Finalement

Au final, il y a deux bons navigateurs open source, Firefox et Chromium, mais Fedora persiste à n’en fournir qu’un seul et, malheureusement pour moi, ce n’est pas celui que je préfère :)

L’ironie du sort, c’est que si vous recherchez « Fedora Chrome/Chromium » dans Google, il y a de fortes chances pour que vous vous retrouviez sur une page qui vous propose le téléchargement de Chrome, puisque Google fournit un dépôt officiel Chrome pour Fedora !

Et l’on se retrouva en fin de compte avec un Google Chrome et son Flash intégré :)

Crédit photo : Scott Beamer (Creative Commons By-Sa)

Le: 19 10 2012 à 15:44 Auteur: aKa

L’une francophone, l’autre anglophone, deux sources principales d’informations ont accompagné ma découverte du logiciel libre, un peu avant le passage du deuxième millénaire : LinuxFr et Slashdot (alias « /. »).

C’était eux qui m’apportaient alors des news fraîches et exclusives. Eux encore qui participaient à ma formation en parcourant les discussions dans les si nombreux commentaires.

Internet a évolué depuis, je pense notamment à l’arrivée des blogs puis des réseaux sociaux. Mais ces deux sites sont toujours là. L’un est resté bénévole et associatif. Mais l’autre s’est monté en société qui a connu depuis plusieurs repreneurs. À tel point que son créateur, Rob Malda, a fini avec le temps à ne plus s’y retrouver, jusqu’à passer définitivement la main l’année dernière.

Voici son témoignage.

PS : Le jour viendra lui aussi mais pour ne pas me voir rédiger le même billet dans un tout proche avenir merci de Soutenir Framasoft ;)

Redjar - CC by-sa

15 ans après mon premier article

15 Years After the First Post

Rob Malda - 3 octobre 2012 - Blog personnel
(Traduction : Naar & Amélie, Dryt, Gatitac, ttoine, ZeHiro, goofy, Penguin, audece, onoff_web, minimoy)

L’histoire de Slashdot est totalement indissociable de ma propre vie. Je l’ai créé alors que j’étais encore étudiant à l’université. Quand les gens normaux faisaient leurs devoirs ou s’adonnaient à des activités personnelles, je passais mes soirées à dessiner des icônes dans Gimp, à coder en Perl dans Vim ou à publier de nouvelles histoires à partager avec mes amis. Je n’oublierai jamais les nuits passées à scruter les dernières lignes du fichier access_log et à célébrer avec des amis comme Jeff, Dave, Nate et Kurt chaque connexion provenant de microsoft.com ou de mit.edu.

Slashdot a toujours absorbé tout mon temps, mais en grandissant il commença à engendrer des coûts réels : d’abord pour la bande passante puis pour les serveurs. Mes amis et moi-même avons fondé une société visant à couvrir ces frais pour simplement arriver à l’équilibre. Au moment où je me suis diplômé, l’entreprise ne pouvait employer qu’une seule personne à plein temps : moi. Je gagnais moins d’argent que j’aurais pu le faire autrement, mais là j’étais enfin libre de me consacrer à ce qui me passionnait le plus.

Le site a s’est développé, dépassant nos imaginations les plus folles. Rapidement, il connut une demi-douzaine d’employés mais notre petite entreprise ne pouvait plus faire face. Vendre Slashdot a été la bonne décision à ce moment-là : nous n’aurions pas pu survivre à la croissance ni aux années de vaches maigres après l’explosion de la bulle Internet. Cette décision non anodine allait nécessairement avoir des conséquences, mais elles n’ont pas été visibles au cours des premières années.

À la suite de la vente, nous avons connu un cycle ininterrompu d’années dorées : les nouveaux employés qui nous rejoignaient partageaient nos rêves. Il s’agissait de personnes qui comprenaient intuitivement ce qu’était Slashdot, ce qu’il signifiait, et à quel point il était important, car c’étaient aussi des lecteurs et utilisateurs du site. Beaucoup d’entre eux sont encore mes amis aujourd’hui. Ce sont des relations dont la valeur pour moi va bien au-delà de la sphère professionnelle.

J’ai eu alors la chance de parcourir le monde comme représentant d’une communauté en pleine croissance : Japon, Allemagne, Espagne, Australie. J’ai rencontré cette communauté en chair et en os et j’ai travaillé avec des personnes admirables. Nous participions à un projet très stimulant et mettions les utilisateurs au premier plan. Rien ne pouvait nous arrêter.

J’ai connu à travers Slashdot 14 années de tragédies : Columbine, le 11 septembre, le crash de la navette spatiale Columbia, Fukushima. Ces événements-là et tant d’autres sont à jamais associés à des pics de connexion sur les tchats entre les rédacteurs et modérateurs surexcités. La tristesse et la terreur n’empêchaient pas notre équipe de donner le meilleur d’elle-même en aidant des milliers de personnes à se connecter entre elles au moment où elles avaient le plus besoin.

Mais pour tous ces moments tristes, il y eut encore plus d’optimisme et de joie. D’innombrables avancées scientifiques, des lolcats et un flux incessant de nouvelles technologies et découvertes scientifiques en train de changer, généralement pour le meilleur, le monde autour de nous. Et je n’oublierai jamais la moiteur des mes mains alors que j’attendais fiévreusement une réponse de ma petite amie, à qui j’avais fait ma demande en mariage sur la page d’accueil de Slashdot. Tout ceci partagé avec des amis.

En 2007, je pris le plus long congé de toute ma carrière, et cela pour la meilleure des raisons. Pendant les deux semaines qui ont suivi la naissance de mon fils, je n’ai en effet mis en ligne aucune page de Slashdot. Quand j’y suis retourné, le site se portait comme un charme. Slashdot a célébré son dixième anniversaire et je comprenais pour la première fois qu’il pouvait tranquillement continuer sans moi…

Ce qui était bien, car le site était en déclin depuis quelques années. Les amis avaient été remplacés par des inconnus. Des décisions étaient prises par des gens qui, de plus en plus, n’étaient pas des utilisateurs direct du site. Ils voyaient Slashdot avant tout par la lorgnette du business : un compte de résultat, un rack de serveurs ou un nombre d’employés.

Avec le trafic qui déclinait, les challenges techniques diminuaient également. La charge était rarement un problème. Le système de modération fonctionnait… tout simplement. Mais le code de la plateforme commençait à dater. Il n’était plus souple ni maintenable. Notre équipe s’était réduite… jusqu’à ce qu’il n’y reste plus qu’un seul technicien ! Notre capacité à livrer du code s’était évaporée. Le peu de temps de développement qui restait était bien trop souvent gaspillé dans des projets voués à l’échec par manque de compréhension des utilisateurs.

Au cours de ces dernières années, ces critiques à peine voilées ont lentement évolué vers de l’amertume. Il fut impossible, au bout d’un moment, de le cacher à mes amis, à ma famille, et enfin, même à mes collègues de travail. Ils l’avaient compris bien avant moi : je devais partir.

C’était il y a plus d’un an. Abandonner mon salaire me faisait peur, mais moins que quelque chose de plus important encore à mes yeux. Slashdot avait beau être devenu ce célèbre site pour geeks and nerds, il était avant tout pour moi mon site web personnel. Je l’avais toujours considéré comme mon chez moi sur Internet. Quand je suis parti, j’ai perdu le droit de continuer à y poster du contenu. Objectivement j’étais d’accord avec mes amis qui me disaient qu’une « rupture franche et nette » (NdT : The Clean Break) était meilleure pour moi… mais émotionnellement, je ressens toujours cette perte aujourd’hui. J’aime bien Twitter et Google+, mais j’aurai toujours l’impression de vivre dans la maison de quelqu’un d’autre.

Sans mon contrôle éditorial habituel, Slashdot m’a semblé souvent à côté de la plaque. J’ai fini par le lire uniquement via son flux RSS, où mon bien aimé « News for nerds » devint juste un flux parmi d’autres. J’y parcourais moins en moins d’articles. Parce que j’y trouvais de meilleures infos ailleurs mais aussi voire surtout par que venir sur le site me faisait tout de suite voir ses changements. Des trucs que probablement personne d’autre n’aurait remarqués du reste. Quelques pixels par ici, une formulation changée par là. Certaines modification sont pertinentes… mais beaucoup ne le sont pas. Et ça me rend triste, même maintenant.

La bonne nouvelle pour moi, c’est que je n’avais pas été aussi heureux professionnellement parlant depuis des années. Mon travail aux WaPo Labs me rappelle les effervescentes premières années de Slashdot, quand tout paraissait important. Notre équipe semble toujours lire le même livre, même s’ils ne sont pas tous à la même page. Mon boulot me paraît rafraîchissant et motivant. Et le mieux dans tout ça, c’est que je peux enfin séparer mon « moi » de « mon travail » quand le besoin s’en fait sentir. Je peux m’en détacher et prendre du recul. Je peux être impartial, lucide et honnête comme je n’ai jamais pu le faire au milieu de la tempête Slashdot.

Il y a peu, Slashdot a été vendu à un nouveau poids lourd… mettant encore plus de distance entre moi et ma création. J’y ai toujours quelques amis mais la plupart me sont étrangers. Il m’arrive cependant de passer encore de temps en temps sur une page familière dont l’information me parle et se trouve enrichie et bonifiée par la discussion. Je me surprends alors à fermer les yeux en pensant qu’un bout de mon ADN est toujours là-bas, là-dedans.

Je n’arrive toujours pas penser à l’histoire de Slashdot sans la lier à celle de ma propre vie. Mais après un an de séparation, j’ai fait mon deuil et compris que nous étions juste un chapitre dans l’histoire de nos vies respectives.

Mais quel putain de bon chapitre cela a été !

Crédit photo : Redjar (Creative Commons By-Sa)

Le: 17 10 2012 à 16:15 Auteur: aKa

Framasoft harcèle (et parfois excède) ses followers Twitter actuellement avec ses « lolcats de soutien » (, , , , , , , , , ou encore ), ce qui ne nous empêche de nous penser sérieux et appliqués dans notre démarche de promotion et diffusion du Libre.

L’idée générale de la traduction ci-dessous c’est que si vous voulez créer un véritable réseau social au sein de votre structure alors il vous faudra aussi accepter ce qui n’a rien à voir avec votre structure. C’est le coté social du réseau social et il est beaucoup moins futile qu’on peut à priori le penser car c’est souvent un préalable à une bonne ambiance d’où pourront émerger des choses bien pertinentes pour votre structure.

Michellelevine - CC by-sa

Si vous voulez une culture vraiment collaborative, vous devez aussi accepter les LOLCats

If you want a culture of collaboration, you need to accept the LOLCats too

Steve Radick - 11 janvier 2012 - OpenSource.com
(Traduction : KoS, Maïeul, @ali0une, greygjhart)

Même lorsque la presse était sacrée, nous avons eu des romans érotiques 150 ans avant d’avoir des journaux scientifiques
Clay Shirky (Conférence TED Cannes juin 2010)

C’est une de mes citations favorites de l’une de mes personnalités favorites d’Internet, Clay Shirky. Je l’aime particulièrement parcequ’elle illustre selon moi l’époque où certaines organisations se trouvent en essayant d’intégrer les médias sociaux en leur sein.

Avant que les wikis ne soient utilisés par les communautés de coopération scientifique, les personnes s’y inscrivaient pour désigner leur équipe de foot favorite. Avant que l’intranet de ma propre entreprise ne remporte un prix, nous avions des personnes qui nous expliquaient comment elles étaient heureuse de se montrer (presque) nues sur leurs profils. Avant que nos dirigeants commencent à utiliser Yammer pour communiquer avec la base, des groupes de fanas d’Android ou de fitness s’étaient déjà constitués. Je vous parle de cela parce que si vous décidez un jour d’intégrer un média social interne à votre organisation, vous devrez préparer vous-même, vos collègues, vos patrons, votre haute direction à cette vérité inexorable.

Si vous paniquez en voyant tout ça sur votre intranet, vous n’êtes probablement pas prêt pour un intranet social.

Si vous voulez créer une culture dynamique de collaboration, vous devez accepter les photos de LOLCats, les sujets parlant de foot, les débats sans fin sur Apple et Andoid, et même les critiques sur la politique de l’entreprise.

Acceptez et intégrez ce fait maintenant et vos communautés auront de bien meilleurs chances de succès. Ou, continuez à penser que de telles choses sont une perte de temps et ne sont pas professionnelles, et soyez prêt à payer beaucoup d’argent pour un système que personne n’utilise à moins d’être forcé à le faire (et ils l’utiliseront alors mal).

Malheureusement, « social » à l’air d’être devenu un gros mot en entreprise, associé à l’image d’employés perdant leur temps sur Facebook, parlant à leur petit ami au téléphone, ou prenant une pause déjeuner de trois heures. Acceptons d’arrêter d’essayer d’enlever le social d’un réseau social. Les interactions sociales ne doivent pas seulement être acceptées, elles doivent même être encouragées et récompensées. Shirky explique pourquoi dans cette conférence TED (à partir de 5 minutes 33 secondes).

Shirky explique :

Le fossé est entre faire quelque chose et ne rien faire. Et quelqu’un qui fait des LOLcat a déjà franchi ce fossé. Oui, il est tentant de vouloir obtenir des projets aussi noble que Ushahidi sans les LOLCats, d’avoir les choses sérieuses sans les choses futiles. Mais l’abondance de médias ne marche pas comme ça. La liberté d’expérimenter, c’est aussi voire surtout la liberté d’experimenter n’importe quoi.

Il y a cette tendance de la part des dirigeants à vouloir supprimer (voire sanctionner) les blogs qui évoqueraient des solutions de contournement de la politique d’entreprise et les pages wiki détaillant les meilleurs restaurants pour déjeuner. Ils veulent aller droit au but qui serait la co-création de méthodologies avec des équipes inter-fonctionnelles et des initiatives de crowdsourcing qui font économiser des millions de dollars !

Ça ne fonctionne pas pas comme ça. Les communautés collaboratives ne commencent pas à innover juste parce que vous mettez en place un site web et envoyez un mémo. Souvenons-nous que les nouvelles érotiques sont apparues bien avant les journaux scientifiques. Il y aura donc des LOLCats avant des Ushahidi. Vous devez accepter le fait que vos employés parleront de sport et de vacances avant d’être prêts à utiliser l’outil pour procéder à un « vrai » travail.

C’est intuitivement du bon sens. N’est-il pas plus facile de publier votre bon plan du midi plutôt que d’envoyer ce rapport sur lequel vous travaillez depuis trois semaines ? Si quelqu’un n’apprécie pas votre restaurant préféré, quelle importance ? En revanche si quelqu’un critique le rapport que vous avez passé des semaines à écrire, c’est un peu plus intimidant. Une fois que vous avez franchi ce seuil, ce seuil entre ne rien faire et faire quelque chose, c’est plus facile alors de monter les marches. Une fois la glace rompue avec la mention de votre passion pour la gastronomie chinoise, il vous sera soudainement plus facile de participer à la conversation sur tel projet important de votre entreprise. Peut-être même que vous accepterez d’envoyer une partie coriace du rapport en demandant aide et éclaircissement aux autres. Sous cet angle, même les publications les plus stupides et les conversations les plus insignifiantes ont de la valeur, parce qu’elle n’engage qu’un risque mineur pour les gens à se jeter à l’eau et faire le premier pas.

Cela peut prendre du temps pour que les employés se sentent vraiment à l’aise avec l’utilisation des réseaux sociaux au travail. En lui laissant ainsi la possibilité de s’épanouir et d’apprendre ensemble à son propre rythme, votre communauté supportera bien mieux les changements d’échelle et durera bien plus longtemps.

Alors acceptez les LOLCats, les délires footballistiques, les discussions sur la bouffe, et les avatars personnalisés : au moins vos employés créeront et partageront quelque chose avec quelqu’un d’autre. Parce que ce qui viendra après ces stupides discussions mènera à du lien, des relations, des questions, des réponses, et finalement, à des innovations très créatives, à des produits et des solutions qui vous feront économiser du temps et (beaucoup) d’argent. Et vous serez récompensés pour avoir participé à rendre votre entreprise humaine et chaleureuse.

Crédit photo : Michellelevine (Creative Commons By-Sa)

Le: 17 10 2012 à 09:37 Auteur: aKa

Nous sommes en 2023. Vous cassez malencontreusement une assiette. Vous allez tout naturellement chercher son fichier numérique sur le Net pour en créer une nouvelle sur votre imprimante 3D, en la modifiant éventuellement au passage pour l’adapter à vos besoins. Mais deux minutes plus tard la Police du Copyright sonne à votre porte et vous embarque en flagrant délit d’effraction de propriété intellectuelle et contournement de mesure de protection…

En mai 2011 nous publiions une longue et riche traduction : L’impression 3D, ce sera formidable… s’ils ne foutent pas tout en l’air !.

Nous y sommes désormais. Et ils vont chercher à bloquer le système et le partage tout comme ils ont cherché (et partiellement réussi) à le faire avec le logiciel, la musique ou le cinéma.

Sauf qu’ici nous avons déjà nos propres imprimantes, logiciels et formats libres et ouverts. En se débrouillant un peu, et luttant beaucoup, on devrait pouvoir s’épargner un nouveau Napster ou Megaupload de l’impression 3D.

FdeComite - CC by

Comment les DRM vont infester la révolution de l’impression 3D

How DRM will infest the 3D printing revolution

Ryan Whitwam - 16 octobre 2012 - ExtremeTech.com
(Traduction : Kurze, Dryt, Gatitac, goofy, Sylvain, Kiwileaks)

Alors que vous étiez tout occupés à vous exciter et à déclarer que l’impression 3D est le début d’une nouvelle époque, une nouvelle loi sur les brevets s’apprête à pourrir l’ambiance.

En effet, Nathan Myhrvold, ancien DSI chez Microsoft et fondateur d’Intellectual Ventures, société détentrice de nombreux brevets, a réussi à obtenir un brevet onéreux étendu sur les DRM de l’impression 3D. Cette révolution de l’impression 3D que nous avons tant espérée s’en trouve tout d’un coup fort contrariée.

Le système envisagé par Myhrvold sera utilisé afin d’empêcher les utilisateurs d’imprimante 3D de violer les « droits de production des objets ». Pour utiliser son imprimante il faut d’abord la charger avec le fichier numérique de l’objet à imprimer. Or ici, avant qu’une quelconque impression ne soit lancée, on va vous obliger à vous connecter à un serveur distant qui vérifiera que vous avez l’autorisation d’imprimer cet objet. Si cela vous semble familier c’est parce que c’est ce qui était arrivé à la musique en son temps dans le sillage de Napster.

La loi sur le droit d’auteur est une grosse machine compliquée et elle n’est pas applicable traditionnellement aux objets. Cependant, un nouvel appareil, une invention ou une nouvelle conception peuvent être brevetés. C’est justement ainsi que ceux d’Intellectual Ventures gagnent de l’argent et c’est probablement la raison pour laquelle ils sont intéressés par ce genre de DRM. L’entreprise acquiert les brevets sur différentes technologies et inventions, se construit ainsi son petit portefeuille, et ensuite elle poursuit tous ceux qui pourraient être en infraction. C’est cela qui a conduit de nombreuses personnes à surnommer ces sociétés des « troll à brevets » (NdT : Patent Troll), et elles ont probablement raison.

Alors comment passe t-on de la situation actuelle à une sorte de dystopie où votre imprimante vous dénonce à la police du copyright ? Il y aura, je pense, deux forces négatives qui nous pousseront dans ce sens,

la première est le risque d’amalgame avec le P2P (échange de fichier peer-to-peer). Plus les imprimantes gagneront en précision, plus les entreprises qui vous vendent ces imprimantes seront comparées à celles qui proposent les logiciels de peer-to-peer. Voilà le premier casse-tête légal auquel ces entreprises devront faire face. Nombreux sont les auteurs de ces applications de partage de fichiers qui ont fini devant les tribunaux et je ne serais pas surpris que quelque chose de similaire arrive un jour ou l’autre aux constructeurs de type MakerBot.

La seconde force qui va s’opposer au développement de l’impression 3D est un peu plus inquiétante. Il y a déjà des gens qui étudient la faisabilité de l’impression de composants d’armes à feu. Ce n’est peut être pas encore faisable pour le moment, mais ça le sera un jour. Avant que cela n’arrive, des armes plus simples comme des « poings américains » réalisés avec du plastique super résistant vont être susceptibles de poser des problèmes aux gouvernements des pays où ces objets sont illégaux. Les lois sur les armes ne sont pas celles de la propriété intellectuelle mais elles nous amèneront au même point : la restriction de l’usage de l’impression 3D. Les lobbies de copyright pourraient s’appuyer et s’appuieront sur ce problème pour justifier un contrôle plus général.

Les vendeurs d’imprimantes 3D ne seront probablement pas obligés directement par la loi de mettre en place des restrictions, mais le déluge de poursuites pour des armes et des objets brevetés imprimés pourrait les pousser à le faire. Même Google n’a pas eu d’autre choix que de mettre en place des algorithmes sévères de détection automatisée de contenus sous droits d’auteur sur Youtube pour limiter sa responsabilité. Nous avons cependant vu ce système automatisé échouer maintes et maintes fois.

Chaque système de DRM implémenté jusqu’à aujourd’hui a été piraté d’une façon ou d’une autre. C’est vraiment une mauvaise blague pour l’utilisateur moyen : les DRM les bride dans leur vie numérique. Les autres, plus calés, contourneront les règles et pourront imprimer tous les objets brevetés qu’ils voudront. Les DRM ne résoudront véritablement aucun problème. Ils ne le font jamais. Mais ce sera peut-être un élément inévitable de l’avenir de l’impression 3D.

Crédit photo : FdeComite (Creative Commons By)

Le: 16 10 2012 à 00:32 Auteur: aKa

Framindmap est un nouveau projet du réseau Framasoft.

Framindmap

Il permet de faire de jolies cartes heuristiques directement en ligne à même le navigateur (on parle aussi de carte mentale ou mind map).

L’interface est franchement fluide et intuitive.

Pas d’installation, pas d’inscription, vous voici tout de suite opérationnel(le) ! De plus nous ne conservons strictement aucune donnée personnelle (l’application ne laisse de traces que locales sur votre ordinateur et non sur le serveur).

Contrairement à Framapad ou Framacalc, Framindmap ne permet pas la collaboration sur une même carte. Mais vous pouvez à la sortie l’imprimer, en faire une image et donc aussi l’enregistrer localement (soit directement dans votre navigateur soit comme fichier au format JSON[1]) pour une utilisation ultérieure.

Pour ce qui concerne les usages, Framindmap pourra être utile en situation de brainstorming, prise de notes, formation, classification, structuration d’un projet, etc.

Comme d’habitude, il repose sur une solution libre que nous avons adaptée et francisée, en l’occurrence mindmaps, du JavaScript sous licence AGPL v3. Et comme d’habitude vous êtes cordialement invité(e) à l’installer sur votre propre serveur pour faire respirer le Web (et vos données personnelles) en le décentralisant.

-> Découvrir et utiliser Framindmap

PS : Nous sortons de nombreux projets actuellement, merci de les relayer si vous le jugez bon car toute notre équipe marketing commerciale est en vacances actuellement (en fait ça fait 10 ans que ça dure). Merci également de faire en sorte que cela ne soit pas notre chant du cygne en nous soutenant ! :)

Notes

[1] Format non lu directement par Freeplane par exemple, mais ce serait un chouette plugin à développer ;)

Le: 15 10 2012 à 15:01 Auteur: aKa

L’association Sésamath existe depuis 10 ans maintenant.

10 ans de projets au service des mathématiques dans l’éducation. 10 ans également, et par effet de bord, au service du logiciel libre, de par les choix des outils et des licences adoptées ainsi que la manière toute collaborative de travailler.

Avoir, entre autres, réussi à couvrir tout le collège avec des manuels scolaires libres qui représentent aujourd’hui près de 20% du marché, ça n’est pas rien ! (et c’est même du jamais vu au niveau mondial !)

L’occasion de faire le point avec Sébastien Hache, salarié et co-fondateur de l’association, qui nous annonce de bien bonnes et libres nouvelles.

Sésamath - Flyer

En quelques mots, comment se porte Sésamath ?

Sébastien Hache : Sésamath se porte plutôt bien. L’envie et la passion sont toujours là, depuis maintenant plus de 10 ans. De nouveaux membres viennent régulièrement renforcer une équipe globalement stable et de plus en plus expérimentée. La grosse difficulté est de parvenir à maintenir les ressources existantes (de plus en plus utilisées : plus d’un million d’élèves inscrits à Labomep par exemple l’an dernier) tout en continuant à faire évoluer les outils et à élargir le champ : c’est un défi compliqué mais c’est aussi passionnant.

Que pensez-vous de la récente circulaire sur l’usage du logiciel libre dans l’administration ?

Nous pensons que c’est une très bonne chose et que cela constitue un bon élément d’appui pour tous ceux qui veulent promouvoir les ressources et logiciels libres dans l’enseignement.

Que pensez-vous de l’opération Open TextBook de l’État californien ?

Plus il y aura de ressources éducatives libres et ouvertes, et mieux ce sera !

Que pensez-vous de la récente introduction de l’option Informatique et Sciences du Numérique en Terminale S ? Pensez-vous vous y impliquer de près ou de loin ?

Sesamath a fait le choix de ne pas se positionner sur des sujets autres que ceux inscrits dans ses statuts. Les objectifs de Sesamath nous occupent déjà largement.

Alors, justement, Sésamath a annoncé des nouveaux projets au lycée et dans le primaire. Peux-tu nous en dire plus ?

Pour l’instant, l’essentiel des projets de Sésamath se concentrait sur le collège, même si depuis longtemps, en particulier au niveau des liaisons inter-cycles, des ressources collège étaient utilisées en CM2 ou en seconde. C’est donc assez naturellement que nous avons lancé des appels (toujours en vigueur pour ceux que ça intéresse) dans ces deux directions pour amorcer des projets éditoriaux. En effet, l’expérience de Sésamath au collège a montré que le travail collaboratif autour d’ouvrages destinés à être publiés sur papier (même s’ils ont nativement une version numérique) était un bon catalyseur pour créer ensuite d’autres ressources numériques : un peu comme si l’ouvrage éditorialisé servait de fil conducteur pour tout le reste. Paradoxalement, le papier est aussi une bonne façon de faire connaître le numérique.

En CM2, une équipe composée de professeurs des écoles et de professeurs de collège travaille actuellement à un cahier d’exercices sur le modèle des cahiers d’exercices de collège (afin d’avoir une continuité dans la ressource). Ce cahier est destiné à être sous licence libre (CC By-Sa) : pour l’instant, durant la phase de conception, seuls les enseignants inscrits à Sésaprof peuvent y avoir accès mais quand il sera achevé (début 2013) il sera intégralement téléchargeable pour tous aux formats ODT et PDF. En même temps, nous concevons le cahier numérique associé. Une autre équipe construit en parallèle le futur manuel Sésamath 6e, qui est très largement modifié par rapport au précédent en partie justement pour tenir compte de la liaison.

En seconde, une équipe composée de professeurs de collège et de lycée travaille sur un manuel complet. Ce manuel est écrit en LaTex. Il sera de la même façon publié sous licence libre et accompagné d’un manuel numérique gratuit. Le premier chapitre sera très prochainement mis en ligne. Beaucoup de lecteurs de ce blog seront heureux de voir que Sésamath produit collaborativement un ouvrage en Latex (c’était déjà le cas pour un ouvrage d’exercices en classes préparatoires) !

Pour résumer, nous travaillons cette année sur 3 ouvrages en même temps. C’est possible grâce à l’expérience de l’association et de ses membres sur la création collaborative de manuels scolaire (organisation, outils…), mais aussi les licences libres et les formats ouverts qui permettent ce mode de création et motive les auteurs.

En parlant de format ouvert, il se dit que Sésamath est en train d’abandonner Flash. Qu’en est-il ?

Effectivement, une grande partie des ressources interactives de Sésamath (dont l’exerciseur Mathenpoche) a été développé en Flash. Il y a déjà eu pas mal de discussions sur ce point : avec le recul, il n’y a sans doute rien à regretter, mais on se rend compte actuellement que cela nous mène à une impasse. Avant d’être technique, l’impasse est d’abord collaborative : nous n’avons pas réussi à former suffisamment d’enseignants à la programmation en Flash et nous nous sommes coupés d’une communauté de développeurs dont nous avons grand besoin aujourd’hui.

C’est pourquoi, Sésamath s’est donné les moyens, depuis plus d’un an maintenant, de créer un nouveau modèle d’activités intéractives : Il s’agit du projet J3P basé sur les technologies web modernes (html5/javascript). D’une certaine façon, Sésamath a terminé sa mue complète vers le libre (je me permets de remercier tous ceux qui ont contribué à ça, de façon souvent très intelligente et patiente, et parmi ceux-là évidemment toute l’équipe de Framasoft). Mais l’intérêt de J3P ne réside pas que dans son format : il ouvre aussi des pistes importantes du point de vue pédagogique. L’idée est de pouvoir créer des ressources de plus en plus adaptées aux difficultés de chaque élève en leur proposant des exercices où les réponses qu’ils donnent conditionnent les questions suivantes, pour tenter de s’adapter à la nature de leurs difficultés éventuelles.

Le projet J3P veut donc offrir aux enseignants un moyen de concevoir de tels exercices. L’enseignant pourra construire ou paramétrer le graphe de chaque exercice. Ce graphe décrit, suivant les réponses de l’élève à chaque étape, les différents parcours possibles parmi les sections qui composent l’exercice. Le projet J3P est sous licence GPL.

Toutes les bonnes volontés sont les bienvenues (ne pas hésiter à nous contacter.

Crédit illustration : Brochure Sésamath

Le: 15 10 2012 à 10:58 Auteur: aKa

On nous le reproche souvent, nous sommes de ceux qui ne considèrent pas comme « libres » les licences Creative Commons possédant la clause Pas d’Utilisation Commerciale NC. Nous préférons alors parler de licences « ouvertes ».

Apposer cette clause Pas d’Utilisation Commerciale à votre œuvre stipule que l’utilisateur n’aura « pas le droit d’utiliser cette œuvre à des fins commerciales » (sans vous en demander au préalable votre autorisation).

Le problème c’est qu’il est fort difficile de définir réellement et pratiquement les contours de ce qui est ou n’est pas commercial, ce qui entrave du même coup le partage et la libre circulation de l’œuvre. La preuve avec les nombreux exemples proposés ci-dessous par Evan Prodromou (Wikitravel, Identi.ca…) sur une liste de discussion des Creative Commons.

Réfléchissez-y à deux fois en choisissant cette clause pour votre propre œuvre parce que vous ne voulez pas que « d’autres se fassent de l’argent sur votre dos »…

Remarque : Cette traduction a été donnée sur grand écran en direct livre de l’Open Word Forum samedi 13 octobre dernier. C’était fascinant de voir virevolter les couleurs des participants sur notre Framapad !

Tax Credits - CC by-sa

Cas d’usage de la clause Pas d’Utilisation Commerciale de la licence Creative Commons

Use cases for NonCommercial license clause

Evan Prodromou - 19 avril 2012 - Liste de discussion Creative Commons
(Traduction : JonathanMM, KoS, Pascal, Barbidule, L’gugus, Evpok, aKa, mandourin, TheophrasteL, Cyrille, audece, Franck, Ypll, feedoo)

Je pense qu’il pourrait être utile d’obtenir des réponses de ceux qui s’occupent des licences Creative Commons au sujet d’un certain nombre d’usages plus ou moins « commerciaux ». Voici donc une liste d’exemples dont j’ai cherché à déterminer si oui ou non ils respectaient la clause non commerciale NC. J’ai exprimé mon opinion entre parenthèses en fin de phrase.

(Je suppose ici que l’on respecte les autres dispositions, dont l’attribution BY et la notification de la licence.)

  • Un éditeur télécharge un livre sous licence CC by-nc 2.0 sur internet, en fait un tirage de 100 000 exemplaires et le vend en librairies dans le pays. (Non)
  • Un particulier télécharge un livre sous licence CC by-nc 2.0 sur son ordinateur et le lit. (Oui)
  • Un particulier télécharge un livre sous licence CC by-nc 2.0 sur son ordinateur, l’imprime sur son imprimante, et lit le document imprimé. (Oui)
  • Un particulier télécharge un livre sous licence CC by-nc 2.0 sur son ordinateur et l’envoie par courriel à un ami. (Oui)

  • … et le partage avec le monde sur son site web. (Oui)
  • … et le partage avec le monde via un réseau P2P. (Oui)
  • Un particulier télécharge un livre sous licence CC by-nc 2.0 sur son ordinateur, l’imprime sur son imprimante et le donne à un ami. (Oui)
  • …et laisse son ami utiliser son imprimante et son ordinateur pour l’imprimer lui-même. (?)
  • … et envoie la copie imprimée à un ami en facturant au prix coûtant correspondant au prix des frais (papier, encre, électricité…). (?)
  • … et vend la version imprimée à un ami pour le prix des frais et du temps correspondant à la recherche et à l’impression du livre. (?)
  • … et vend la copie imprimée à un ami au prix des frais, plus son temps passé à trouver et à imprimer le livre, plus 10% de bénéfice. (?)
  • … et échange la copie avec un ami contre un autre livre imprimé. (?)
  • … et échange la copie avec un ami contre un grille-pain. (?)

  • Une personne télécharge un livre sous licence CC by-nc 2.0 sur son ordinateur et l’imprime sur son imprimante. Elle en réalise elle-même des photocopies près de chez elle, qu’elle donne à une amie. (Oui)
  • … et paie le personnel de la boutique pour en avoir une copie, qu’elle donne à son amie. (Oui)
  • … et paie le personnel du commerce pour en faire 100 copies pour elle, qu’elle donnera à ses amis et sa famille. (Oui)
  • Une boutique de reprographie possède un ordinateur à l’accueil. On peut naviguer parmi les livres sous licence CC qu’on aime sur cet ordinateur puis payer le personnel pour réaliser une impression d’un ou plusieurs d’entre eux pour soi. (Non)
  • Une boutique de reprographie possède un site web. Vous pouvez feuilleter les livres que vous voulez sur ledit site et ensuite, remplir un formulaire en ligne pour commander le livre que vous souhaitez acquérir. Le site vous enverra une copie. (Non)
  • Une boutique de reprographie télécharge un livre sous licence CC by-nc 2.0 et le reproduit en 100 exemplaires qu’elle place en évidence dans sa vitrine. Vous pouvez en acheter un à la caisse. (Non)

  • … qu’elle place en évidence dans sa vitrine. Vous pouvez en prendre autant que vous le souhaitez. (Non ?)
  • … qu’elle place en évidence dans sa vitrine. Sur la couverture, il est écrit : « Avec la permission de la boutique Trucmuche » (Non)

  • … qu’elle place en évidence dans sa vitrine. Vous pouvez en prendre un gratuitement, pour tout achat de 10$ ou plus. (Non ?)
  • … dont elle fait don à un programme d’alphabétisation pour enfants. (Non ?)
  • … qu’elle distribue anonymement à un programme local d’alphabétisation pour enfants. (Non ?)
  • Un particulier qui télécharge un livre sous licence CC by-nc 2.0 sur son ordinateur et le partage avec le monde sur son site internet. Chaque téléchargement coûte 0,99$. (Non ?)
  • … et le partage dans le monde entier via son site Web. Il faut payer 5,95$ par mois pour devenir membre et pouvoir télécharger. (Non)
  • … et le partage avec le monde sur son site web. Des versements ne sont pas requis, mais il y a des bandeaux publicitaires sur chaque page. (?)
  • … et le partage avec le monde sur son site web. Les versements ne sont pas obligatoires, mais il y a un lien Paypal « Soutenez ce site ! » sur chaque page. (?)
  • Un professeur télécharge une pièce sous licence CC by-nc 2.0 sur internet. Sa classe d’art dramatique joue la pièce devant le reste de son école lors d’une réunion. (Oui)
  • Sa classe d’art dramatique joue la pièce pour les parents, faisant payer 7$ la place. (Non)
  • Une troupe de théâtre locale joue une pièce licence CC by-nc 2.0, à 35$ la place. (Non)
  • Une troupe de théâtre locale joue une pièce sous licence CC by-nc 2.0 gratuitement dans une école primaire lors d’une assemblée. (Non ?)
  • Une troupe de théâtre locale joue une pièce sous licence CC by-nc 2.0 gratuitement devant les élèves d’une école primaire dans leur propre théâtre. (Non ?)
  • Un costumier télécharge et imprime de nombreux textes de pièces sous licence CC by-nc 2.0. Ils louent les textes imprimés à des enseignants. (Non ?)
  • Un costumier télécharge et imprime de nombreux textes de pièces sous CC by-nc 2.0. Si des instituteurs louent des costumes pour la pièce, ils peuvent utiliser les textes gratuitement. (Non ?)
  • Une boutique de reprographie télécharge une image d’abeille sous licence CC by-nc 2.0 depuis internet. Elle la place dans un encart publicitaire du journal local, en disant, « Soyez malin ! Utilisez la boutique de reprographie Trucmuche ! ». (Non)

  • Un groupe de scouts féminin télécharge une image d’abeille sous licence libre CC by-nc 2.0 à partir d’internet. Il l’imprime sur des prospectus distribués dans le voisinage: « Soyez sympa ! Ne me jetez pas ! » (Oui)
  • … « Soyez cool ! Achetez les cookies des filles scout ! » (Non)
  • … « Soyez cool ! Ne me jetez pas ! (Fabriqué pour vous par la troupe 45 des filles scout qui font de délicieux cookies) (Non)
  • … « Soyez cool ! Donnez de l’argent aux filles scout ! » (Non)

  • … « Soyez cool ! Donnez de votre temps aux filles scout ! » (Oui ?)
  • Un particulier télécharge Eastern Standard Tribe (un livre sous licence CC by-nd-nc 2.0 de Cory Doctorow) sur son ordinateur. Il paie à compte d’auteur 100 copies reliées, à ses frais, qu’il offre ensuite à des amis et la famille. (Oui)
  • Un particulier télécharge Eastern Standard Tribe sur son ordinateur. Il a un compte personnel à régler avec Cory Doctorow remontant à un cocktail en 1997. Alors, il paie pour que soit produits, à grand peine, 100.000 exemplaires reliés à la main, à ses frais, qu’il distribue ensuite gratuitement, en engorgeant le marché. Doctorow fait faillite. (Oui)
  • Les Éditions Trucmuche téléchargent Eastern standard tribe, publié par leur plus grand rival. Ils font 100 000 copies qu’ils distribuent ensuite gratuitement, engorgeant le marché. Doctorow et son éditeur font faillite. (Non)
  • Une association à but non lucratif qui s’occupe d’apprendre à lire aux enfants télécharge une copie d’un livre sous licence CC by-nd-nc 2.0. L’équipe reproduit 100 exemplaires avec la photocopieuse de l’association et les distribue aux orphelinats locaux. (Oui)
  • … et les vend aux orphelinats locaux au prix du papier. (Non)
  • … et les vend aux orphelinats locaux au prix du papier et de la main d’œuvre. (Non)
  • … et les vend aux orphelinats locaux au prix du papier et de la main d’œuvre, avec une marge de 10%. (Non)
  • … et les distribue publiquement pour attirer l’attention sur la lecture. (Oui)
  • … et les distribue publiquement comme cadeau pour toute donation d’au moins 50 $. (Non ?)
  • … et les vend publiquement avec une marge. (Non)
  • … et les distribue publiquement en « suggérant un montant de donation ». (Non ?)
  • Un groupe d’alphabétisation pour enfant télécharge une copie d’un livre sous licence CC by-nc 2.0. Une boutique de reprographie (Trucmuche) fait don de temps et de matériel pour effectuer 100 copies du livre, qui est ensuite rendu public pour éveiller à la lecture. La couverture arrière dit, « travail et matériel sont le don de la boutique Trucmuche ». (Oui)
  • Une bibliothèque dispose d’ordinateurs et d’une imprimante. L’utilisation des ordinateurs et imprimante est gratuit. Une personne utilise l’ordinateur et imprime pour elle-même un roman sous licence libre CC by-sa 2.0. (Oui)
  • Un cybercafé dispose d’ordinateurs et d’une imprimante. Chaque impression coûte 5 centimes la page. Un particulier réserve un ordinateur et imprime un roman sous licence libre CC by-sa 2.0 pour lui-même, et paye pour le temps et les coûts d’impression. (Oui)
  • Une bibliothèque publique qui vend des copies de livres sous licence CC by-nc 2.0. (Non)

Bon, tout ceci me fatigue (et vous aussi j’imagine). Désolé pour cette si longue liste, mais c’est un sujet réellement compliqué. Il y a probablement pas mal d’autres cas marginaux qui mériteraient d’être explorés.

Evan

Crédit photo : Tax Credits (Creative Commons By-Sa)

Le: 12 10 2012 à 16:05 Auteur: aKa

Grosse mise à jour pour le projet Framapad !

Et on l’attendait car nombreux étaient ceux qui subissaient les petites contrariétés de l’ancienne version (se manifestant principalement par des sauts intempestifs de connexion)[1].

Les plus impatients peuvent d’ailleurs tout de suite aller s’en rendre compte par eux-mêmes sur notre pad « bac à sable ».

Framapad - Etherpad Lite

En conséquence de quoi il est beaucoup plus agréable de travailler. L’interface (un petit peu déroutante au tout début pour les habitués) est plus fluide, plus souple et ne se bloque plus comme avant (on aurait bien envie de dire « ne se bloque plus du tout » mais tout administrateur systèmes est superstitieux !).

Outre ce point fondamental, voici quelques différences marquantes avec la situation antérieure (liste non exhaustive) :

  • Il n’y a plus de limitation au nombre de connectés simultanés (nous avions du réduire la voilure par le passé à 8 puis à 16). Nous sommes ainsi montés à 40 sans broncher lors de nos phases de test.
  • Vous pouvez (enfin) exporter et importer votre pad dans les formats suivants : TXT, HTLM, PDF, ODF, DOC et même, bonus Framasoft, en LaTeX !
  • Mise en forme du texte plus riche : on peut ainsi ajouter des titres, sous-titres… (ce qui correspond à l’introduction des balises H1, H2…)
  • Vous pouvez proposer votre pad en lecture seule, sans possibilité donc pour le visiteur de pouvoir modifier le texte (l’astuce consistant alors à donner une autre adresse URL spécialement conçue à cet effet)
  • Il est plus facile et fonctionnel d’embarquer le pad dans votre propre site (en copiant/collant un bout de code).
  • Optimisation pour smartphones et tablettes : il est donc désormais possible de collaborer sur un pad partout dans le monde grâce à son mobile

Techniquement parlant cela correspond à la mise en place d’Etherpad Lite, version beaucoup plus légère que la précédente, installée, localisée et adaptée par nos soins.

Attention cependant cette mise à jour majeure ne concerne que les classiques pads publics et non les pads privés qui en restent à l’ancienne version malheureusement pour le moment. Du coup, réfléchissez bien avant d’opter pour la création d’un compte privé. Nous vous rappelons en passant que nos pads ne sont pas indexés par les moteurs de recherche (sauf si l’un des participants se met à partager publiquement le lien, sur les réseaux sociaux par exemple).

Voilà. Framasoft est fier et ravi de vous proposer un service Framapad de meilleure qualité, ce qui implique aussi que les usages vont s’en trouver multipliées (n’hésitez à nous raconter comment vous l’utilisez dans les commentaires).

Framasoft est évidemment là pour assurer et maintenir ce service, mais n’oubliez pas qu’il s’agit aussi d’affirmer que ce service est libre et que vous pouvez vous aussi l’héberger sur votre propre serveur (Etherpad Lite et notre « fork » sur GitHub). De ce fait, ce nouveau Framapad fait le lien avec Framadate ou le récent Framacalc pour témoigner qu’il est possible d’envisager un cloud libre et décentralisé qui ne captent pas nos données personnelles.

Nous en profitons pour remercier tous les membres de la liste de discussion dédiée au projet. D’ailleurs si vous souhaitez nous rejoindre pour participer avec nous à l’aventure Framapad, il suffit de vous inscrire ci-dessous :

E-mail :

Un dernier mot. Il y a un lien direct entre la venue d’un second permanent au sein de notre association et le dynamisme actuel du réseau. Cette embauche était nécessaire mais comportait un risque financier. Et nous y sommes justement ! Alors merci de nous soutenir, si vous le pouvez et le jugez bon, pour nous montrer que nous avions raison d’être optimistes :)

Sur ce, il est grand temps de découvrir ce nouveau Framapad

Notes

[1] Nous avions d’ailleurs appelé à l’aide l’année dernière suite à une crise de croissance de Framapad. Appel bien reçu par Bearstech qui est alors devenu l’hébergeur du projet (merci pour eux). Mais le problème tenait plus à la (mauvaise) qualité intrinsèque de la version antérieure du logiciel qu’à une simple question de trafic.

Le: 11 10 2012 à 23:16 Auteur: aKa

It’s not a bug, it’s a feature :P

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Source : Firefox 16 : diffusion interrompue à cause d’une faille de sécurité (Tasse de Café)

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)

Le: 10 10 2012 à 16:20 Auteur: aKa

Lionel Dricot, alias ploum, vient de temps en temps rédiger dans nos colonnes (clavier Bépo, monnaie Bitcoin, histoire d’OpenOffice). Plus généralement c’est un acteur engagé en faveur de la défense et promotion du logiciel libre, et ce depuis bien longtemps déjà.

Il se présente sous la bannière du Parti Pirate (Brabant-Wallon) pour les élections communales et provinciales du dimanche 14 octobre prochain.

Il a eu la gentillesse de bien vouloir répondre à quelques une des nos questions. Et je suis certain qu’il trouvera malgré tout le temps de répondre aux vôtres dans les commentaires ;)

Lionel Dricot - Ploum

Bonjour Lionel. Tu es contributeur occasionnel au Framablog mais peux-tu te présenter pour ceux qui ne te connaissent pas ?

Je m’appelle Lionel Dricot mais, sur la toile, vous me verez surtout sous le pseudonyme de Ploum. Je suis un ingénieur en informatique de 31 ans, belge une fois et actif dans le logiciel libre depuis 2001.

J’aime beaucoup réfléchir, écrire et remettre en question, sous une lumière purement rationnelle, ce qui est considéré comme acquis. Je me suis passionné pour Linux et XMPP à une époque où Windows et MSN étaient des acquis. Pour la même raison, j’ai remis en question l’Azerty pour passer au Bépo et j’ai remis en question le principe monétaire avec Bitcoin.

Et tu es candidat aux élections qui vont avoir lieu en Belgique…

La Belgique est un pays très complexe. Cette année, nous allons élire nos représentants à la province (l’équivalent des départements français) et à la commune. Les élections provinciales passionnent peu mais les élections communales sont très importantes car elles auront des conséquences immédiates sur la vie quotidienne des habitants. Le bourgmestre (équivalent du maire) est en effet nommé pour six ans suite à ces élections.

Je suis candidat du Parti Pirate, en première position dans la commune d’Ottignies-Louvain-la-Neuve et en 9ème position pour la province du Brabant-Wallon.

Sont-ce tes premiers pas en politique ?

Pas vraiment. J’ai toujours trouvé important de suivre la politique de près. Comme beaucoup de jeunes, j’ai voté pendant des années pour Ecolo, équivalent des Verts en France, avant d’être très déçu. J’ai été quelques temps membre actif du MR, parti libéral de centre-droit, souhaitant défendre les libertés individuelles. J’ai aussi été déçu par certains aspects conservateurs ou ultra-capitalistes.

J’ai découvert que, dans tous les partis, il y a des gens extraordinaires et des gens insupportables avec des idées dangereuses. Et que, malheureusement, la particratie belge lissait le tout, rabrouant ceux qui sortent un peu du lot et qui sont pourtant ceux que je voulais voir en politique.

Tu t’es alors tourné vers le Parti Pirate. Alors pourquoi lui et pas un autre ?

En fait, avec plusieurs amis, on se morfondait devant les partis politiques traditionnels. Par exemple, nous avions trouvé une erreur fondamentale dans le programme Ecolo pour sortir du nucléaire. Une erreur qui multipliait par 10 la puissance des éoliennes. Nous avons donc contacté les responsables du parti et il nous a été répondu qu’on nous répondrait après les élections.

Dans nos discussions, nous avons lancé l’idée d’un parti politique qui ne serait pas idéologique mais qui tenterait une approche pragmatique des problèmes, reconnaissant si nécessaire ses erreurs et n’hésitant pas à faire marche arrière quand une solution donnée s’avère défaillante. On avait appelé ça le Parti Intellectuel ou un truc du genre, je ne sais plus trop.

Mais quand le Parti Pirate est arrivé, j’y ai retrouvé exactement cet état d’esprit. Et je n’ai pas été le seul vu que mes amis Nicolas Ykman, blogueur sur artimuses.be, et Gauthier Zarmati s’y sont aussi retrouvés.

De là à être candidat, il y a pourtant une sacrée marge. Pourquoi s’investir autant ?

Parce qu’il n’y avait personne d’autres dans notre province. Sur le forum du Parti Pirate, je tentais de savoir qui seraient les candidats pour le Parti Pirate, demandant pourquoi il n’y avait pas quelqu’un pour lancer tout. J’ai un jour reçu un mail de Paul Bossu, coordinateur du Parti Pirate pour la Wallonie, qui m’a dit : « Tu es quelqu’un comme un autre, tu n’as pas besoin de notre permission, lance-toi ! ». Nicolas et Gauthier m’ont dit : « Si tu te lances, je me lance » et on a fondé la section locale du Parti Pirate.

Étant en mars 2012, on s’est dit qu’on était trop tard pour les élections d’octobre, on ne se préoccupait pas de ça. Mais notre section locale s’est rapidement développée, avec des membres de tous horizons, apportant chacun leur motivation. Paul nous a dit que ce serait une bonne expérience de se présenter aux élections.

Et il avait raison : refaire le monde, avoir des idées c’est bien. Mais refuser de se présenter aux élections, c’est un peu de la lâcheté. Il faut se confronter à la vraie vie.

Mais qu’est-ce qu’un geek libriste peut trouver dans la politique ? Le logiciel libre et le Parti Pirate ont-ils le moindre rapport ? Surtout à un niveau extrêmement local.

Oui, les deux sont complètement liés. Il y a tout d’abord la volonté de remettre en question l’existant, d’essayer de nouveaux modèles. Mais le logiciel libre m’a appris que, grâce aux nouvelles technologies, des centaines voire des milliers de personnes pouvaient collaborer pour gérer des projets extrêmement complexes. Et ce, malgré l’éparpillement géographique, les différences de cultures, de langues.

Si c’est possible pour de tels projets, cela doit a priori l’être pour une commune. C’est pourquoi nous proposons d’utiliser des logiciels de suivi de problème (genre Bugzilla) pour permettre aux habitants de signaler les problèmes : trottoir abîmé, égout bouché, dégradation du mobilier urbain, etc.

Nous souhaitons également que tous les projets, les règlements soient accessibles sur un wiki avec un suivi des révisions et où chacun pourrait apporter sa modification. Le tout en insistant également sur la transparence du processus politique et ce y compris jusque dans les détails du budget de la commune et du salaire des politiciens.

Tout cela est très expérimental mais Ottignies-Louvain-la-Neuve est une ville à part, un ovni dans le paysage belge. C’est donc l’endroit idéal pour tenter de renouveler le terrain politique.

Crédit photo : Adrien le Maire (Creative Commons By-Sa)

Le: 08 10 2012 à 17:38 Auteur: aKa

« Il est temps de déboulonner le mythe qui voudrait que le droit d’auteur soit nécessaire pour gagner de l’argent, ou même qu’il en rapporte », tel est le titre frappant d’un récent article de Rick Falkvinge (désormais habitué du Framablog).

Puisque ce mythe ne résiste pas aux faits, il est grand temps désormais pour ces messieurs du copyright d’adopter un discours honnête, sérieux et mature si on veut réellement avancer…

Remarque : Nous avons conservé le terme anglo-saxon « copyright », que l’on traduit souvent en français par « droit d’auteur », car l’acception et le périmètre du mot ne sont pas tout à fait similaires ici.

Stephen Downes - CC by-nc

Il est temps de déboulonner le mythe qui voudrait que le droit d’auteur soit nécessaire pour gagner de l’argent, ou même qu’il en rapporte

It’s Time To Debunk The Myth That Copyright Is Needed To Make Money – Or That It Even Makes Money

Rick Falkvinge - 7 octobre 2012 - TorrentFreak.com

Un des mythes les plus tenaces au sujet du monopole du copyright est qu’il est nécessaire afin de rapporter de l’argent. Il s’avère que cette affirmation est fausse dans un grand nombre de cas observés, mais le pluriel « d’anecdote » n’est jamais « statistiques ». Dès lors, penchons-nous sur des preuves statistiques solides pour l’élaboration de notre réflexion politique à ce sujet.

Puisque le monopole du copyright est principalement une activité économique, on constate un gouffre parmi le public, entre ceux qui soutiennent son abolition uniquement dans un cadre non commercial, et ceux qui soutiennent son abolition complète.

Il y a parmi la population une forte majorité qui se prononce en faveur d’une réduction de ce monopole, afin de favorsier les échanges non marchands entre proches, amis et inconnus. Et si on observe la plus jeune moitié de la population, cette majorité passe de forte à écrasante. Est-il besoin de préciser que cette jeune moitié de la population (qui s’étend jusqu’aux adultes d’une quarantaine d’année) ne changera pas ses habitudes ou ses valeurs sur le sujet, n’en déplaise aux doux rêves avancés par l’industrie du copyright actuellement en exercice. D’ici vingt ou trente ans du reste, ce sont eux qui tireront les ficelles de la politique, et les dinosaures actuels morts et enterrés.

Quand on aborde les questions commerciales de ce monopole, on découvre en revanche un certain nombre de mythes florissants qui ont tendance à freiner l’adhésion du public à une abolition complète du copyright jugée improbable et irréaliste. Voyons quels sont ces mythes, et confrontons-les aux faits.

Mythe : Si nous abolissons le monopole du copyright, les artistes ne pourront plus gagner de l’argent.

Fait : C’est un mythe tenace et bizarre, étant donné qu’il y eut des périodes historiques où les artistes n’étaient pas rémunérés. Le système actuel revient à « signer un contrat ou rester pauvre ». Or 99% des artistes ne signent pas de contrats avec l’industrie du disque, et parmi ceux qui le font 99,5% n’ont jamais vu la couleur de leurs droits d’auteur. Il s’agit donc de se dégager d’un système qui laisse délibérément 99,995% des artistes sans aucune forme de revenu pour la pratique de leur art.

Ceci étant donc dit, il est absurde de prétendre que toute évolution vers un système dégraissé de ses intermédiaires « ôterait la possibilité aux artistes de gagner de l’argent », d’autant que ces intermédiaires, devenus aujourd’hui obsolètes, s’octroient en moyenne 93% des revenus des 0,005% des artistes qui gagnent encore de l’argent. Éliminons-les et tout (ou partie) de ces 93% reviendra aux artistes.

Mythe : Le monopole du copyright est une source essentielle de revenus pour les artistes aujourd’hui.

Fait : De tout l’argent dépensé dans la culture, à peine 2% (oui, deux pour cent !) arrive jusqu’à l’artiste à cause des mécaniques complexes de redistribution du monopoly du copyright. Cela a été étudié en profondeur par le suédois Ulf Pettersson en 2006 (lien vers l’article, lien direct vers l’étude, les deux sont en suédois), qui conclut que la majeure partie des artistes gagnent leur vie autrement (travail intérimaire, prêts étudiants…).

Mythe : L’industrie du copyright est vitale pour l’économie dans son ensemble.

Fait : « L’industrie du copyright » est délibérément évaluée par des moyens complètement trompeurs qui confinent au ridicule. Dans les consignes de l’OMPI concernant ce qui doit être compris dans « l’industrie du copyright », nous trouvons de tout, de la création de pâte à papier, à la vente d’électroménager, en passant par la fabrication de chaussures (OMPI 2003, d’après l’article de Pettersson cité plus haut). Si vous mettez pratiquement tous les pans de l’économie dans un ensemble X, et que vous affirmez ensuite que cet ensemble X est vital pour l’économie, alors vous pourriez sembler avoir raison. Il suffit de ne pas vous faire prendre quand on s’intéresse de près à la manière avec laquelle vous avez sélectionné ce gros X fourre-tout, et qu’il n’y a aucun lien avec ce dont vous parlez réellement. Les industries tirant profit du monopole du copyright ne représentent qu’un dixième de celles qui en sont désavantagées. Vous voulez créer des emplois ? Détruisez le monopole !

Mythe : Avec le partage gratuit, personne ne va dépenser d’argent pour le divertissement.

Fait : Les dépenses des foyers pour la culture ont augmenté, année après année, depuis l’apparition du partage de fichiers à grande échelle avec Napster en 1999 (d’autres rapports disent que cela stagne mais aucun ne parle de chute). Il est cependant vrai que les ventes d’enregistrements sur support physique s’effondrent. Ce qui est une excellente nouvelle pour les musiciens, qui n’ont plus besoin de dépendre des intermédiaires qui récupèrent 93% des parts, et qui ont vu au contraire leurs propres revenus augmenter de 114% dans le même laps de temps.

Mythe : Sans la motivation d’un éventuel gain d’argent, personne n’ira plus faire carrière dans l’art et créer.

Fait : Les gens créent malgré le monopole du copyright, pas grâce à lui. YouTube absorbe 72 heures de vidéos téléversées chaque minute. On peut soutenir que la plupart ne seront sans doute pas visionnées, mais il y a certainement des perles là dedans. La discussion est absurde en fait à partir de la simple observation qu’il y a évidente surabondance d’artistes par rapport à ce que le marché peut contenir : on peut facilement trouver un comptable professionnel qui prend une guitare électrique pendant la pause pour se relaxer un peu, mais montrez-moi ne serait-ce qu’un seul guitariste professionnel qui se détend avec un peu de comptabilité pendant son temps libre.

GNU/Linux et Wikipédia sont deux excellents contrepoints qui font voler en éclat ce mythe étrange. Le système d’exploitation dominant et l’encyclopédie dominante ont été créés par des bénévoles non rémunérés (et quand je dis que GNU/Linux est « dominant », je mets aussi dedans le dérivé Android, juste pour mémoire).

Nous créons depuis que nous avons appris à mettre de la peinture rouge sur des parois de grottes, pas à cause de la possibilité de gagner de l’argent, mais à cause de ce que nous sommes et de ce qui nous fondent. Du reste, les gens qui cherchent de l’argent ne s’engagent pas d’emblée dans les arts. Ils vont en faculté de droit ou de médecine. C’est pourquoi les parents ont l’air si désespéré quand leur rejeton leur dit qu’il a décidé de devenir poète pour gagner sa vie.

Le mythe selon lequel le monopole du copyright serait nécessaire pour que n’importe quelle sorte d’art rapporte de l’argent, ou tout simplement pour que cet art existe, est un mythe obscène perpétué par ceux qui ont quelque chose à gagner en écrémant les 90% de l’argent des artistes, les privant du même coup de l’accès a un public par un racket à l’ancienne.

Pouvons-nous, s’il vous plaît, passer à autre chose maintenant ?

Crédit photo : Stephen Downes (Creative Commons By-Nc)

Le: 08 10 2012 à 13:23 Auteur: aKa

Ce serait sympa d’avoir rien moins que Wikipédia sur une Framakey non ?

Et bien c’est désormais possible avec ce nouveau et spectaculaire projet réalisé en partenariat avec Wikimédia France et Kiwix !

Framakey Wikipédia

Comme nous l’annonce Wikimédia France sur son blog : « Le principe est simple : offrir sur une simple clé USB une collection raisonnée et choisie de logiciels libres, accompagnés de l’intégralité du contenu de Wikipédia en français. Rendre tout cela accessible d’un simple clic, utilisable partout, dans les écoles, dans les lieux faiblement connectés, dans des situations d’itinérance, bref partout où les utilisateurs ont besoin d’une solution simple et solide pour accéder à des contenus et utiliser leur ordinateur avec des logiciels fiables et libres. »

Les logiciels « fiables et libres » ce sont ceux de notre traditionnels Framakey et la consultation de Wikipédia hors-ligne à même la clé se fait en utilisant la technologie (libre) développée par Kiwix.

Vous pouvez vous procurer la clé sur notre boutique En Vente Libre au prix de 25 euros pour une capacité de 32 Go. Et évidemment vous pouvez également et comme d’habitude télécharger et installer le tout sur votre propre clé via le site Framakey (15 Go tout de même, mais il faut bien faire rentrer le gros million d’articles dedans !).

Attention, le projet est considéré en bêta dans le sens où il demeure encore pour le moment un certain nombre de limitations techniques que nous chercherons à lever dans les prochaines versions (mais pour Windows elle fonctionne déjà tout à fait bien). C’est ce qui explique aussi pourquoi nous ne proposons qu’une cinquantaine d’exemplaires « collector » à la vente.

Toujours est-il que nous sommes vraiment fiers de participer à ce projet tant le logiciel libre et Wikipédia sont pour nous intimement liés.

Firefox, LibreOffice, Gimp, Inkscape… plus donc aujourd’hui Wikipédia, je me demande si on n’a jamais diffusé autant de biens communs collaboratifs dans un si petit objet !

Le: 08 10 2012 à 01:19 Auteur: aKa

Voici un titre étrange pour un blog comme le nôtre.

Oui il existe des logiciels libres de mauvaise qualité qui ne souffrent pas la comparaison avec leurs concurrents propriétaires ! Et oui encore la majorité des logiciels libres sont uniquement développés par un seul et unique contributeur : leur créateur !

Face à de tels logiciels, les partisans de l’open source pleurent car ils détruisent aussi bien leur argumentaire pratico-technique que le mythe de la collaboration spontanée.

Les partisans de logiciel libre envisagent quant à eu les choses différemment car ce qu’ils voient avant tout c’est que le logiciel est libre

Remarque : Cette traduction qui est le fruit d’une coopération entre Framasoft (et son énergie plurielle présente sur Framalang et les réseaux sociaux) et l’April (via son équipe de traduction du site GNU.org)

James Rickwood - CC by

Quand le logiciel libre n’est pas meilleur, en pratique

When Free Software Isn’t (Practically) Better

Benjamin Mako Hill - GNU.org
Licence Creative Commons By-Nd - Version du 6 octobre 2012
(Traduction : Framalang et l’équipe Trad-GNU de l’April)

Les objectifs affichés par l‘Open Source Initiative sont les suivants : « L’open source est une méthode de développement logiciel qui exploite la puissance d’une évaluation décentralisée, par les pairs, et la transparence des processus. Les promesses de l’open source sont une meilleure qualité, une plus grande fiabilité, davantage de flexibilité, un moindre coût et la fin d’une situation permettant à des fournisseurs rapaces de verrouiller leurs produits. »

Depuis plus de dix ans maintenant, la Free Software Foundation ne cesse d’argumenter contre la qualification d’« open source » dont on affuble le mouvement du logiciel libre. Si nous, les partisans du logiciel libre, réfutons ce qualificatif d’« open source », c’est surtout parce que nous considérons qu’il s’agit d’un effort volontaire pour réduire la portée de notre message de liberté et masquer le rôle de notre mouvement dans le succès du logiciel que nous avons bâti. Si nous disons que le terme « open source » est mauvais, c’est fondamentalement parce qu’il tente d’éviter toute discussion à propos de la liberté du logiciel. Mais il y a une autre raison pour laquelle nous devrions nous méfier du cadre « open source ». L’argument fondamental de l’open source, tel qu’il est défini dans la déclaration ci-dessus, est souvent incorrect.

Malgré la suggestion de l‘Open Source Initiative, que « la promesse de l’open source est une meilleure qualité, une plus grande fiabilité, plus de flexibilité », cette promesse n’est pas toujours honorée. Bien que nous ne le mettions pas souvent en avant, tout utilisateur d’un logiciel libre aux premiers stades de son développement peut expliquer que ce logiciel n’est pas toujours aussi pratique, sur le plan purement fonctionnel, que ses concurrents privateurs[1] Un logiciel libre est parfois de piètre qualité. Il n’est pas toujours très fiable. La souplesse lui fait parfois défaut. Si les gens prennent les arguments en faveur de l’open source au sérieux, ils doivent expliquer pourquoi l’open source n’a pas tenu ses « promesses » et conclure que des outils privateurs seraient un meilleur choix. Il n’y a aucune raison pour que nous fassions de même.

Richard Stallman parle de cela dans son article « Pourquoi l’open source passe à côté du problème que soulève le logiciel libre » lorsqu’il explique : « L’open source repose sur l’idée qu’en permettant aux utilisateurs de changer et redistribuer le logiciel, celui-ci en sortira plus puissant et plus fiable. Mais cela n’est pas garanti. Les développeurs de logiciels privateurs ne sont pas forcément incompétents. Parfois ils produisent un programme qui est puissant et fiable, même s’il ne respecte pas la liberté de l’utilisateur. »

Pour l’open source, la mauvaise qualité d’un logiciel est un problème à analyser ou une raison de fuir ce logiciel. Pour le libre, c’est un problème à résoudre. Pour les partisans du libre, les bogues et les fonctionnalités manquantes ne sont jamais une raison d’avoir honte. Tout logiciel qui respecte la liberté de ses utilisateurs possède un avantage inhérent sur son concurrent privateur. Même s’il a ses propres problèmes, un logiciel libre a toujours la liberté.

Bien évidemment, tout logiciel libre doit commencer quelque part. Un nouveau programme, par exemple, a peu de chances d’offrir plus de fonctionnalités qu’un programme privateur déjà établi. Un projet commence avec de nombreux bogues et s’améliore avec le temps. Alors que les partisans de l’open source peuvent argumenter qu’un projet deviendra utile avec du temps et un peu de chance, un projet libre représente pour les partisans du logiciel libre une importante contribution, dès le premier jour. Chaque logiciel qui donne aux utilisateurs le contrôle sur leur technologie est un pas en avant. L’amélioration en qualité due à la maturation d’un projet n’est que la cerise sur le gâteau.

Un second point, peut-être plus accablant encore, est que le processus de développement collaboratif, distribué, évalué par les pairs, qui est au cœur de la définition de l’open source, ne ressemble que de loin à la manière dont sont développés en pratique la plupart des projets sous licence libre (ou « open source »).

Plusieurs études universitaires menées sur les sites d’hébergement de logiciels libres SourceForge et Savannah ont démontré ce que beaucoup de développeurs de logiciels libres ayant mis en ligne une base de code savent déjà : la grande majorité des projets libres ne sont pas particulièrement collaboratifs. Le nombre médian de contributeurs à un projet de logiciel libre sur SourceForge ? Un. Un développeur solitaire. Les projets de SourceForge du quatre-vingt-quinzième centile en termes de nombre de participants n’ont que cinq contributeurs. Plus de la moitié de ces projets libres, et même la plupart des projets qui ont fait plusieurs versions à succès et ont été téléchargés fréquemment sont l’œuvre d’un seul développeur avec un peu d’aide de l’extérieur.

En insistant sur la puissance du développement collaboratif et de « l’évaluation décentralisée par les pairs », l’approche open source semble ne pas avoir grand chose à dire, dans la majorité des cas, sur les raisons pour lesquelles on devrait contribuer à un projet libre ou se servir d’un logiciel en développement. Puisque les avantages supposés de la collaboration ne peuvent être constatés quand il n’y a pas de collaboration, la grande majorité des projets de développement libres n’ont pas d’avantage technique sur leurs concurrents privateurs.

Pour les partisans du logiciel libre, ces mêmes projets sont tous vus comme des succès importants. Comme chaque logiciel libre respecte la liberté de ses utilisateurs, les partisans du libre peuvent argumenter qu’il possède au départ un avantage éthique intrinsèque sur les concurrents privateurs – même sur ceux qui proposent plus de fonctionnalités. En insistant sur la liberté plutôt que sur les avantages pratiques, la défense du logiciel libre est ancrée dans la réalité technique d’une façon qui manque souvent à l’open source. Quand le logiciel libre est meilleur, nous pouvons nous en réjouir. Quand il ne l’est pas, nous n’avons pas à considérer cela comme une attaque dirigée contre lui ni même comme un argument valable contre l’utilisation du logiciel en question.

Les partisans de l’open source doivent défendre leur thèse selon laquelle le logiciel développé librement devrait, ou devra avec le temps, être meilleur que le logiciel privateur. Les militants du logiciel libre peuvent quant à eux demander : « Comment peut-on rendre le logiciel libre meilleur ? » Dans le cadre du libre, les logiciels de haute qualité existent comme un moyen plutôt que comme une fin en soi. Les développeurs de logiciels libres doivent s’efforcer de créer des logiciels fonctionnels, flexibles, qui servent bien leurs utilisateurs. Mais ceci n’est pas le seul moyen de progresser vers la réalisation d’un objectif qui est à la fois plus simple et bien plus important : respecter et protéger leurs libertés.

Bien sûr, nous ne cherchons pas à nier que la collaboration joue un rôle important dans la création de logiciels de haute qualité. Dans la plupart des projets libres ayant réussi, ce fut d’ailleurs le cas. Il faut comprendre, soutenir et développer la collaboration, plutôt que de considérer dogmatiquement qu’elle va de soi, quand bien même les faits sont là pour montrer le contraire.

Crédit photo : James Rickwood (Creative Commons By)

Notes

[1] Autre traduction de proprietary : propriétaire

Le: 05 10 2012 à 11:44 Auteur: aKa

Avant toute chose, prenez cinq minutes de votre temps pour regarder cette vidéo d’une conférence TED de Marco Tempest.

Cela vous donnera envie de lire la suite :)

Vince Kmeron - CC by-nc-nd

La magie open source

Open source magic

Lori Mehen -16 janvier 2012 - OpenSource.com
(Traduction : ehsavoie, Ag3m, ordiclic, lgodard, Gagea)

« La magie est le seul métier honnête. Un magicien promet de vous mentir, et il le fait. » — Karl Germain

La magie a toujours été l’art de créer des illusions et de garder le secret de leur réalisation. Si le secret est révélé, l’émerveillement disparaît à jamais. Le secret préserve le mystère. Milbourne Christopher, dans le livre Magic: A Picture History, dit : « Le mystère est le premier attrait de la magie. Une fois que les secrets sont divulgués, le magicien se transforme en un simple manipulateur, un acteur dans une histoire à suspens qui a peu d’intérêt car les spectateurs en connaissent la fin à l’avance ».

Les grands magiciens ont compris que nos esprits sont paresseux, que nos cerveaux se bornent à tester des schémas préexistants, et que les grands gestes masquent les petits.

Mais avec les avancées technologiques d’aujourd’hui, les gens ont la possibilité de découvrir plus facilement les secrets de la magie. On peut ainsi enregistrer un numéro d’un magicien, revoir la vidéo, faire un ralenti, et découvrir comment ça marche. Pour chacun des magiciens sur Youtube aujourd’hui, vous verrez de nombreux commentaires proclamant « Je sais comment il a fait ça ».

Mais alors, comment la magie évolue et innove ? Avec de l’open source, bien sûr !

Marco Tempest, un magicien Suisse vivant à New York, considère parfois son travail comme de la « magie open source ». Il dévoile ses secrets, communique et collabore avec son public en ligne, demande son avis, et partage son travail avec la communauté.

Tempest est un techno-illusionniste qui adore les gadgets et les logiciels. Les illusions de Tempest utilisent la réalité augmentée, la robotique, des logiciels et des écrans, combinés avec les trucs et astuces traditionnels de magie. Sa démarche est décrite comme de la « magie continue » (NdT : sustained magic). Wired explique: « Au lieu d’y avoir une révélation au cours de laquelle, par exemple, la bonne carte est dévoilée, c’est une expérience magique continue ».

Les expériences de Tempest sont suspendues entre ce qui est réel et ce qui ne l’est pas. Par exemple, Wired écrit : « Dans son tour de projection sur écran, des balles semblent se déplacer entre le monde réel et le monde virtuel. La magie traditionnelle est présente et imbriquée au sein de ses spectacles – mais sans être annoncée. Quand le public n’est plus vraiment sûr (était-ce un tour de magie ou une manipulation de l’ordinateur ?) c’est que ça fonctionne ».

Tempest est également totalement transparent. Une série de tours implique uniquement la caméra de son téléphone – les illusions ne requièrent aucune retouche vidéo ni post-production. Plus tard, il révèle dans d’autres vidéos comment cela a été fait. Et pourtant, il continue d’émerveiller.

Sur les réseaux sociaux, Tempest échange avec ses spectateurs et obtient des retours. Quand il utilise leurs idées, il les crédite dans son travail.

Tempest ne se contente pas de révéler ses secrets, il partage la technologie qu’il crée pour faire ses illusions. Il dit que « comme en sciences, si nous partageons notre savoir et nos recherches, alors la magie progressera plus vite ».

Pour son tour sur l’iPhone, Marco a collaboré avec des personnes de la communauté open source pour créer un logiciel, appellé MultiVid, qui synchronise une vidéo à travers plusieurs écrans. Puis il a rendu ce logiciel librement disponible pour que d’autres artistes puissent le télécharger depuis l’AppStore.

La démarche de Marco révèle une magie plus interactive, inclusive et ouverte. Marco veut atteindre son public et l’impliquer. Il dit que « la magie, c’est construire une relation avec son public, et cette approche atteint pleinement cet objectif ».

Quelques-unes des illusions de Tempest

  • Les trois iPods Utilisant la vidéo et les glissements de la main sur trois iPods, Tempest raconte l’histoire de la supercherie.
  • Illusion de la caméra du téléphone Tempest va dans les rues pour faire des illusions filmées avec la caméra de son téléphone.
  • L’ardoise magique Une carte projetée et la détection de la position ramène des personnages dessinés à la vie.

Crédit photo : Vince Kmeron (Creative Commons By-Nc-Nd)

Le: 05 10 2012 à 11:11 Auteur: aKa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Source : Budget Hadopi 2013 : 8 millions d’euros, en baisse de 28 % (Numerama)

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)

Le: 04 10 2012 à 10:18 Auteur: aKa

Le témoignage « d’une single mom of two rowdy boys ».

Décalage. Plus vous avez d’amis et plus vous vous enfermez dans une posture positive de vous-même qui finit par ne plus vous correspondre.

Geoff Livingston - CC by-sa

Adieu Facebook

Goodbye facebook

TechSavvyButterfly - 27 juin 2012 - Blog personnel
(Traduction Framalang : Lamessen, Goofy)

Mettons les choses au point : ceci n’est pas une attaque au lance-flammes contre Facebook

Ceci étant dit, je réalise une petite expérience en désactivant mon compte Facebook. Pourquoi, me direz-vous ?

J’ai d’abord rejoint Facebook pour rester en contact avec un groupe d’amis que j’avais rencontrés sur un forum de vente directe. Je quittais les ventes directes et je ne visitais plus le forum, mais je voulais rester en contact avec les amis que j’avais rencontrés là bas. C’était mes tout premiers Amis internet et ils représentaient beaucoup pour moi, même si je ne pouvais pas vraiment continuer à suivre leurs discussions plus longtemps. Ces amis m’ont connu dans l’une des périodes les plus difficiles de ma vie, quand je manquais d’argent et que ma relation amoureuse était au plus mal. J’avais quelques amis de « la vraie vie » d’enregistrés et d’un coup j’avais cette merveille, ce jardin clos incroyable sur lequel je pouvais tout dire, sans soucis. Je pestais, Je délirais, je criais, je rigolais - au début ce groupe initial a vu une version non filtrée de moi.

Ensuite, les connaissances des études supérieures, les contacts professionnels et la famille plus éloignée m’ont trouvé. J’ai très tôt pris la décision de garder mes contacts professionnels au maximum hors de Facebook. je suis content de l’avoir fait, mais mes posts ont étés de plus en plus filtrés au fur et à mesure que la liste d’amis grandissait. Maintenant il ne voient qu’une façade, les faits marquants puisque j’ai enfilé le masque heureux. Mes amis les plus proches connaissent toujours la vérité via messagerie instantanée, les sms et les appels téléphoniques, mais Facebook nous a appris à communiquer les uns avec les autres de façon communautaire.

Facebook était devenu un moyen d’améliorer notre communication plutôt que de la remplacer. Je me sentais subitement connecté à mes amis et heureux de lire leurs messages, de voir des photos de ce qu’ils mangeaient et de partager certains moments de vie avec eux. La partie la plus sympa ? Nous échangions tous des commentaires sur les mises à jour et les photos des uns et des autres. Nos conversations débordaient de la vie réelle vers le domaine numérique. Dans l’ensemble, nous avions grandi si proches les un des autres que nos vies s’entrecroisaient et se rapprochaient, en utilisant Facebook comme un catalyseur.

Puis quelque chose a changé

Mes amis n’y sont pour rien. Les algorithmes de Facebook priorisent de qui apparaît dans le fil d’actualité et il est maintenant rempli de chaînes, de re-partages et de fans fictions. Au lieu de voir les vraies mises à jour de mes amis, je vois du contenu qui n’a même pas un vague rapport avec moi. Voici un exemple classique : j’ai simplement pensé qu’une de mes amies n’utilisait pas souvent Facebook. Un soir, devant une pizza et un verre de vin, elle me parle d’une rupture et d’un poème qu’elle a posté. Je n’avais jamais vu ce poème. Quand j’ai visité son journal, j’ai réalisé qu’elle avait posté tous les jours et que ça ne s’était jamais affiché dans mon fil d’actualité. Au lieu de cela, je vois la photo de quelqu’un que je ne connais pas; parcourant mon fil d’actualité simplement parce que l’un de mes amis a « aimé » ça et que le posteur initial n’a pas correctement mis en place ses paramètres de confidentialité. Et ne me lancez pas sur les paramètres de confidentialité, c’est un sujet totalement différent qui mériterait une ribambelle de billets.

Facebook est devenu moins personnel

En discutant avec une amie, je commence à partager une histoire que j’avais postée plus tôt sur Facebook. Comme elle n’avait pas commenté ou « aimé » le post, je supposais qu’elle ne l’avait pas vue. Pourtant, elle coupa court à mon histoire: « Oui, j’ai vu ton post sur Facebook ». Et ce fut tout. Pas d’échange, pas de joie de discuter ensemble, juste des amis qui s’observent les uns les autres à distance. Je suis coupable, je l’ai fait aussi. Nous sommes devenus des navires tranquilles, voguant dans le silence noir de la nuit.

J’ai pris une décision

Je ne veux plus que mes amis me regardent passivement comme si j’étais devenu un peepshow et je ne veux plus considérer leur vie de cette façon-là non plus. Je veux que nous parlions. Je veux un e-mail personnel. Je veux trouver une façon de partager des photos qui nous encourage à en discuter les uns avec les autres. Je veux glousser lors d’un repas à propos d’événements aléatoires et qu’on pleure ensemble devant un verre de vin lorsqu’on a le cœur brisé. En gros, je veux retrouver mes amis. Et la seule façon de le faire, c’est de couper le cordon.

Crédit photo : Geoff Livingston (Creative Commons By-Sa)

Le: 03 10 2012 à 17:51 Auteur: aKa

Framacalc

Et hop, encore un nouveau projet pour le tentaculaire réseau Framasoft ! Il s’appelle Framacalc et il ambitionne de proposer le même service que Framapad mais pour le tableur cette fois.

Pour rappel, Framapad c’est la possibilité de faire du traitement de texte collaborativement en ligne (nous allons du reste vous en proposer une spectaculaire mise à jour très bientôt). Et pour le tableur me direz-vous ? C’est là qu’intervient Framacalc.

Avec Framacalc donc vous vous retrouvez à travailler à plusieurs sur le même tableur toujours accessible sur Internet.

Vous piaffez déjà d’impatience ? Alors rendez-vous tout de suite sur le site dédié pour le tester.

Attention, quand bien même les fonctionnalités tableur sont déjà bien avancées, celles concernant la collaboration et l’exportation sont encore rudimentaires. Ainsi, contrairement à Framapad, on n’est pas capable de savoir qui se cache derrière telle ou telle édition, même si on observe bien les éditions des autres se faire en temps réel. Il n’y a pas non plus encore de fenêtre de chat et l’export ne se fait pour le moment qu’au format HTML.

Il y a encore du boulot donc (mais cela peut déjà convenir pour de nombreuses situations simple et non confidentielles, on pense notamment à l’éducation). C’est d’ailleurs pourquoi nous invitons toutes les personnes intéressées par le développement de ce projet à nous rejoindre sur une liste de discussion en s’inscrivant ci-dessous :

E-mail :

Tout comme Framapad, il y a une solution libre qui se cache derrière. Il s’agit du projet EtherCalc (avec du Node.js sous le capot). Il est déposé ici sur GitHub et, il va sans dire que nous encourageons les installations individuelles car, Framacalc ou Framapad, les projets Framasoft sont aussi voire surtout là pour que le cloud se décentralise librement (et finisse par contrarier ces capteurs de données personnelles que sont Google, Facebook ou Apple).

Avec Framapad + Framacalc, Google Documents n’a qu’à bien se tenir ? Nous n’en sommes pas encore là mais, un jour, qui sait… :)

-> Framacalc : Tableur collaboratif en ligne du réseau Framasoft

PS : Nous vous rappelons que ce service libre et gratuit est l’un des nombreux projets du réseau Framasoft qui ne vit que par vos dons. Pour en assurer la pérennité et le développement, merci de soutenir notre association si vous le pouvez/souhaitez.

Le: 03 10 2012 à 16:05 Auteur: aKa

Avec combien de login et de mots de passe devons-nous jongler dans la journée ?

Beaucoup en effet…

En même encore plus si nous ne les enregistrions pas automatiquement par défaut dans notre machine (avec un gros risque de sécurité). Ou, pire encore, si nous n’avions pas décidé de nous enregistrer sur des services tiers avec notre compte Facebook, Twitter ou Google (avec un énorme risque de se retrouver prisonnier de leurs cages dorées).

À l’heure et à l’ère de la multiplication exponentielle des services Web, la question de l’identification devient cruciale et problématique.

Nous avons besoin d’un système globale pratique, sécurisé et en qui nous pourrions avoir confiance. C’est ce que propose Persona, le nouveau système d’authentification de Mozilla.

Il n’est pas forcément aisé de le comprendre de l’intérieur mais c’est pour que ce soit le plus simple possible du côté de l’utilisateur :)

Mozilla Persona

Pourquoi Persona de Mozilla apporte la bonne réponse à la question de l’identification

Why Mozilla Persona Is the Right Answer to the Question of Identity

David Somers - 1er octobre 2012 - Blog personnel
(Traduction : greygjhart, ZeHiro, Yho, Evpok, aKa, FredB, Simounet, Mounou, Coyau, Isdf, peupleLa, thot, HgO, salelodenouye)

Le 27 septembre 2012, Mozilla a lancé la première version bêta de Persona. Persona est un système d’authentification d’apparence similaire à OpenID et oAuth, mais qui s’en distingue d’un point de vue technique et fonctionnel.

Nous avons eu la chance de nous associer à Mozilla pour créer la version bêta de The Times Crosswords lors du lancement du Mozilla App Store. Nous sommes ainsi l’un des premiers services tiers à avoir intégré Persona de Mozilla (qui s’appelait encore BrowserID à l’époque), Mozilla en a même fait une vidéo.

Pourquoi un nouveau système d’identification ?

Passons en revue quelques-uns des problèmes d’OpenID et oAuth :

  • OpenID utilise des URLs en tant qu’identifiants.
    • Même si fondamentalement l’idée est bonne, cela peut être déroutant pour les utilisateurs. Le risque ? Se voir demander de « choisir un service d’identification » comme Google, LiveJournal, etc. alors qu’en fait vous n’êtes pas du tout en train de vous identifier avec eux.
    • La plupart des sites voudraient que vous leur fournissiez au moins une adresse email pour pouvoir vous contacter. Il faudra donc presque toujours en passer par une étape supplémentaire lors de la première connexion.
  • OpenID est un système de connexion incohérent : il faut que vous quittiez complètement le site où vous étiez puis y retourner après vous être authentifié avec un outil tiers. On peut en dire autant d’oAuth (même si certaines de ses implémentations permettent une connexion en un seul clic, comme Twitter).
  • oAuth est complexe à implémenter pour les développeurs : cela nécessite le stockage et la gestion de jetons . Il y a également plusieurs versions du protocole, et parfois une authentification supplémentaire (les jetons de rafraîchissement de Google par exemple).
  • Tant OpenId qu’oAuth permettent à votre service d’identification (qu’il s’agisse de Google, Facebook, Twitter) de pister chaque site sur lequel vous vous inscrivez.

Comment Persona et BrowserID résolvent-ils ces problèmes ?

  • Ils utilisent les adresses email au lieu des URLs. Non seulement les adresses email sont plus faciles à mémoriser, mais vous pouvez aussi utiliser une adresse email par identité ; par exemple votre adresse email de travail ou personnelle.
  • Mozilla Persona utilise une « popup », ainsi vous ne quittez pas le site internet sur lequel vous êtes. Mieux encore, si le navigateur supporte le protocole BrowserID, vous n’aurez rien à faire.
  • Persona/BrowserID est en général géré par les navigateurs (que ce soit en JavaScript ou en natif) et en tant que développeur vous n’aurez qu’à vérifier que l’utilisateur est bien celui qu’il dit être. Ceci doit être fait sur votre propre serveur, mais peut être implémenté avec à peine plus qu’une requête cURL.
  • En plaçant le navigateur au centre du processus d’authentification, les services d’identification ne peuvent pas tracer les visites des utilisateurs, mais ils permettent tout de même aux sites visités de vérifier leur identité. On y parvient en incorporant une cryptographie à clé publique dans le protocole.

Bien entendu, Persona ne vous sera d’aucune utilité quand vous aurez besoin d’accéder à des ressources tierces authentifiées comme vos données Twitter, mais ce n’est pas son rôle. Et c’est la ligne de démarcation qu’il faut entre votre identité et vos données.

Comment ça marche ?

Ce qu’il y a de bien avec la solution Persona de Mozilla, c’est qu’elle se décompose en deux niveaux. Le premier est le service BrowserID amorcé : Persona. Le second est le protocole d’identification en lui-même : BrowserID. En concevant ainsi l’amorçage du protocole, Mozilla évite les problèmes de prise en main et le rend attractif pour les développeurs.

BrowserID

Dans un monde idéal où BrowserID serait massivement adopté, voici ce qui se passerait au moment où vous voulez vous connecter à un site Web :

  1. Vous cliquez sur « Connexion ».
  2. Votre navigateur vous demande avec quelle adresse email vous voulez vous identifier.
  3. Vous êtes connecté.

Et voici ce qui se passerait dans le détail :

  1. Vous cliquez sur « Connexion » sur un site désigné ci-dessous par Service Tiers.
  2. Votre navigateur vous demande avec quelle adresse email vous voulez vous identifier.
  3. Votre navigateur contacte votre Service d’Identification (désigné dans la suite par S.I, par exemple Gmail) en utilisant vos identifiants (adresse email et clé publique) et demande un certificat signé.
  4. Optionnel : Votre S.I. vous demande de vous inscrire (avec les habituels identifiant/mot de passe pour cela).
  5. Votre S.I. envoie à votre navigateur un certificat signé qui dure 24 heures.
  6. Votre navigateur génère une « Assertion ». Elle fait preuve que vous êtes le légitime détenteur de votre adresse email : générée à partir de votre clé privée (stockée dans le navigateur), elle contient le domaine du site pour lequel vous vous authentifiez ainsi qu’une date d’expiration.
  7. L’assertion et votre certificat signé sont tous deux envoyés au Service Tiers.
  8. À l’aide de votre clé publique (fournie par votre navigateur), le Service Tiers vérifie que votre Assertion semble correcte.
  9. Le Service Tiers demande la clé publique de votre S.I. (mais n’envoie aucune information sur l’utilisateur) et s’en sert pour vérifier que le certificat, envoyé par votre navigateur, est également correct.
  10. Vous êtes connecté.

Plutôt long le processus ! Mais au moins, il est décentralisé, sécurisé et respecte votre vie privée (votre S.I. ne peut pas savoir quels sites vous êtes en train de visiter).

Si c’était la seule façon d’implémenter BrowserID, son déploiement serait compromis. C’est là que Persona entre en piste.

Mozilla Persona

Mozilla Persona est une application tierce qui fournit une interface de programmation (API) REST plutôt cool pour cacher toute cette cryptographie à clé publique.

  • Persona gère la vérification via les services d’identification et agit également comme service d’identification à part entière pour les services tiers qui n’en possèdent pas (ce qui est la cas de tous les fournisseurs d’adresses email actuellement).
  • Persona fournit une interface de programmation de type REST pour valider chaque assertion.

En traitant toute la partie cryptographie, implémenter BrowserID ne requiert que quelques lignes de JavaScript (le bouton de login et les callbacks en POST pour envoyer l’assertion au serveur) et une requête cURL (pour valider l’assertion).

Envie de l’utiliser ?

Commencez par jeter un œil sur le Persona Quick Setup (NdT : Installer Rapidement Persona) qui vous fournira les instructions pour ajouter Persona à votre site Web, avec des exemples en JavaScript et une implémentation en Python de la vérification de l’assertion (c’est vraiment très simple). Le tout en une soixantaine de lignes de code.

Nous vous suggérons ensuite de consulter le guide des bonnes pratiques pour vous assurer que vous ne faites rien de travers.

Le: 03 10 2012 à 10:37 Auteur: aKa

En 2003 naissait le projet Wikitravel qui est un peu au voyage ce que Wikipédia est à l’encyclopédie : une rédaction collaborative de guides touristiques (pays, ville, etc.), multilingues, sous licence libre et sur un wiki.

Le fait est que cela a plutôt bien marché (exemple avec Paris). Ils en ont même fait de vrais guides papiers.

Sauf que jetez un œil au graphique ci-dessous et vous comprendrez vite que son histoire n’a pas été un long fleuve tranquille. De Wikitravel, on est passé à Wikivoyage pour espérer en arriver aujourd’hui à Wikimedia Travel. C’est tout le charme de la licence libre (en l’occurrence la CC By-Sa) et de ses forks possibles lorsque le projet prend, selon certains, une mauvaise direction.

C’est de cette histoire (à rebondissements) dont il est question dans l’article ci-dessous.

Remarque : On notera que son auteur (créateur de l’application WikiSherpa) est peut-être trop pessimiste car il se pourrait bien qu’on connaisse un happy ending grâce au concours de Wikimedia. Et puis, sans licence libre, on aurait été dès le départ totalement bloqué.

Timeline - Wikitravel

Tirer la leçon de la dramatique et lente agonie de Wikitravel

Lessons From The Dramatic Slow-Motion Death Of Wikitravel

Jon Evans - 29 septembre 2012 - TechCrunch
(Traduction Framalang : @ali0une, Pandark, aKa, LuD-up, @jfomhover, ali0une, lgodard, Karma-sama, martinien, senshu)

Il était une fois, en 2003, deux entrepreneurs avec un rêve. Ils s’appelaient Evan Prodromou et Michele Ann Jenkins, et ils ont rêvé d’un guide de voyage mondial édité collaborativement — un Wikipedia pour les voyages, si vous préférez. Ainsi, il créèrent Wikitravel. Et ils ont fait mentir l’expression anglaise « Lead zeppelin » qui sous-entend que le projet n’aurait jamais pu décoller. Deux ans plus tard, ils furent racheter pour 1,7 million de dollars (~1,3 million d’euros) par une compagnie nommée Internet Brands, pas mal d’argent pour ces nombreuses journées perdues avant que la startup ne devienne populaire. Et Wikitravel prospéra , et en prenant du recul, c’était plutôt bon.

Jusqu’à ce que le paradis s’en vienne à côtoyer les enfers…

Pendant six ans Wikitravel fonctionna bien. Il y avait bien la présence de quelques publicités mais rien d’intrusif. La plateforme technique sur laquelle il tournait prenait de l’âge et avait ses défauts, mais elle fonctionnait, et c’est tout ce qui compte, n’est-ce pas ?

En 2006 cependant, les administrateurs italiens et allemands (bénévoles et indépendants qui réparaient le site, éliminaient le spam, éditaient structure et langage, et le rendaient pour ainsi dire utilisable) ont forké toutes les pages du site en ces langues pour s’en aller migrer vers un nouveau site, appelé Wikivoyage, principalement à cause de la publicité placée par Internet Brands. C’était tout à fait légal parce que tout le contenu de Wikitravel est sous licence Creative-Commons. Et cela n’affecta pas vraiment Wikitravel (et en rien sa partie principale anglaise) qui continua à attirer un demi-million de visiteurs par mois. Son travail de guide pour la planète entière devenait meilleur de jour en jour…

Mais, il y a quelques mois, les administrateurs de Wikitravel en ont eu assez. Ils ont d’abord constaté l’inclusion de nouvelles publicités encore plus invasives et surtout ils ont perdu patience face à leurs demandes répétées de mises à jour techniques restées sans réponses. D’autant plus que quand Internet Brands se décida enfin à effectuer ces mises à jour la plateforme se retrouva toute pleine de bugs ! En conséquence de quoi les administrateurs de Wikitravel baissèrent les bras et voyagèrent à travers l’Internet jusqu’à cette oasis de contenu libre qui s’appelle la Wikimedia Foundation pour lui dire en substance ceci : « Nous n’en pouvons plus de notre logement actuel. Voudriez-vous héberger un site de voyage ? » La Wikimedia Foundation réfléchit, et décida finalement de répondre par l’affirmative.

Et puis l’enfer des procédures judiciaires s’est déchaîné.

Se sentant menacé par ce fork d’un Wikitravel hébergé par Wikimédia, Interned Brands, après avoir semble-t-il initialement proposé un partenariat, « intenta des poursuites contre les contributeurs bénévoles James Heilman et Ryan Hollliday, pour avoir utilisé le mot « Wikitravel » dans la phrase « Communauté Wikitravel » lors de la communication du fork », nous dit David Gerard. En réponse, la Wikimédia Fondation a elle_même intenté une poursuite stratégique contre la mobilisation publique et demandé des explications devant les tribunaux.

Nous allons laisser les sérieux avocats décider du sort de cette aventure. Je veux juste tirer quelques leçons personnelles de cette débâcle :

  • N’irritez pas vos utilisateurs les plus fidèles et actifs (NdT : power users). Vous pensez peut-être que la masse globale de vos utilisateurs est ce qui importe le plus, mais ce sont avant tout ces utilisateurs là qui fournissent avec passion le gros du travail. Ils sont pour ainsi dire le cœur et l’âme de votre site, et s’ils partent vous aurez de gros ennuis.
  • Ne retardez pas le paiement de votre dette technique. Comme la plupart des dettes, elle subit des interêts composés exponentiels :) Et vous ne connaissez pas son taux d’intérêt jusqu’à ce que vous ayez commencé à la rembourser. Je pense qui si Internet Brands avait géré Wikitravel avec plus de considération et de compétences techniques, le fork n’aurait jamais eu lieu.
  • Ne poursuivez pas vos utilisateurs en justice dans un moment d’aigreur et de dépit. Vraiment. Ne le faites pas. N’avons nous donc rien appris de la RIAA (NdT : à comparer avec notre Hadopi) ? Respirez profondément, prenez un calmant, et détendez-vous. En effet, outre la question d’ordre moral, à partir du moment où vous poursuivez vos utilisateurs, vous perdez toute crédibilité aux yeux d’une fraction énorme de l’Internet. Et la crédibilité compte. Hélas, beaucoup de gens ne le réalisent pas, jusqu’à ce qu’ils perdent la leur.

Une version provisoire du nouveau guide de voyage anglophone est maintenant disponible. En attendant la suite…

Le: 02 10 2012 à 10:34 Auteur: aKa

Lorsque vous parcourez un article de l’encyclopédie libre Wikipédia, vous pouvez bien évidemment le lire, mais aussi écrire (le fameux bouton « Modifier ») et consulter tout son historique, sans oublier converser autour avec les autres contributeurs (lien « Discussion »). Il en va de même avec tout logiciel libre déposé sur une plateforme collaborative comme celle de GitHub par exemple (dont l’approche et les fonctionnalités sociales ont donné un coup de vieux à Sourceforge).

Il y a là une manière bien spécifique de fonctionner et une invitation à s’impliquer.

Dans la mesure ou Wikipédia ou GNU/Linux sont d’incontestables réussites, l’un des plus célèbres penseurs du Net, Clay Shirky, s’est récemment demandé, au cours d’une brillante intervention TED, si on ne pouvait pas fortement s’en inspirer pour faire évoluer la politique en générale et l’élaboration de nos lois en particulier.

Ce que l’on pourrait résumer également ainsi : est-ce que le logiciel libre a des choses à dire, voire à enseigner, à la démocratie ?

Fabricio Zuardi - CC by

Peut-on améliorer la politique avec les outils du logiciel libre ?

Could we use open-source tools to improve politics?

Mathew Ingram - 29 septembre 2012 - Gigaom.com
(Traduction : Lamessen, Barbidule, Evpok, David, peupleLa)

Les principes du logiciel libre ont contribué à créer de nombreux logiciels efficients et utiles, y compris le système d’exploitation GNU/Linux et la surpuissante ressource que représente Wikipédia. Cette même approche pourrait-elle être utilisée pour ouvrir le processus de création des lois ? Clay Shirky assure que c’est possible.

La philosophie du logiciel libre a permis entre autres de construire un système d’exploitation et une encyclopédie collaborative de grande qualité. Pourrait-on en faire de même avec la législation et la politique ? C’est ce que le théoricien de la communication Clay Shirky a proposé dans une récente et remarquée conférence TED (Technologie Entertainment Design) à Edimbourg. L’idée est alléchante, employer les méthodes de GNU/Linux et Wikipédia pour rendre les gouvernements plus ouverts et impliquer davantage les concitoyens, mais est-ce véritablement transposable ? L’écriture de logiciels et de services Web est très différente de celle des lois, et l’histoire du logiciel libre a connu son lot de guerres quasi-religieuses. Mais c’est peut-être notre meilleur espoir.

Après avoir fait une sorte de tour d’horizon du mouvement open source, en accordant la part belle à GNU/Linux, Shirky a consacré une grande partie de son discours à Github, plateforme collaborative et sociale de dépôt de logiciels qui permet à n’importe qui d’éditer, de « forker » en créant sa propre version, et de suivre les changement que font les autres. De GitHub à l’idée de législation collaborative, il n’y a qu’un pas. Et c’est ce que Shirky semble avoir à l’esprit. Il y a déjà eu quelques tentatives de réalisation directement via GitHub. Ainsi un développeur allemand a, par exemple, déposé l’intégralité des lois allemandes sur la plateforme. De cette façon, les citoyens peuvent recommander et suivre les changements.

C’est séduisant sur le papier : une simple plateforme logicielle dédiée à la collaboration pourrait changer la façon dont on développe et met en oeuvre les lois. Mais est-ce réaliste ?

Beaucoup de sceptiques disaient au départ que Wikipédia n’avait aucune chance de marcher. Pourtant elle est bel et bien là et sa réputation et fiabilité sont excellentes, malgré quelques ratés comme l’incident récent impliquant l’auteur Philip Roth. Il est vrai cependant que de nombreux critiques pensent que la « cabale » des éditeurs qui contrôlent l’encyclopédie collaborative a trop de pouvoir.



Force est de reconnaître que le fonctionnement des gouvernements reste de toutes les façons trop opaque à l’ère d’Internet, et donc que Github ne peut pas faire empirer les choses. D’ailleurs Shirky n’est pas le seul à le penser : le développeur Abe Voelker a proposé un « Github pour lois » qui propose exactement la même approche pour concevoir des lois collaborativement. D’autres expériences basées sur ces mêmes idées d’ouverture ont déjà eu lieu en Finlande, Irlande et surtout en Islande avec la rédaction collective de sa nouvelle Constitution (NdT : lire à ce sujet L’Islande, la crise, la révolution et moi et on notera en France l’initiative d’Étienne Chouard avec sa Constitution nationale d’origine citoyenne sur un wiki).

Un des problèmes posés par la transposition d’une solution technique comme Github à un processus culturel et politique de grande ampleur, c’est que créer des lois, même mineures, est très différent de bidouiller un bout de code afin que GNU/Linux puisse reproduire les styles de polices de caractères Windows, ou encore modifier l’article sur George Bush dans Wikipédia (sachant que ces deux exemples en apparence inoffensifs ont donné lieu à de vives polémiques au sein de leur communauté respective). Comment peut-on dès lors espérer que des politiciens puissent, dans les faits, se servir d’un processus similaire pour changer la manière dont fonctionne le gouvernement, le parlement et ses lois ? Comme le suggère Shirky dans sa conférence, il y a une bureaucratie bien installée qui n’a probablement aucun intérêt à renoncer à ce contrôle au profit du bon peuple.

Dans son livre « Here comes Everybody », Shirky a montré l’impact positif d’Internet sur la dynamiques des groupes. Son admiration pour Github semble prendre place dans une recherche d’outils collaboratifs et ouverts axée sur l’humain. Il est clair que nous en avons besoin, et même si Github n’est peut-être pas la bonne réponse, à ce stade, tout peut valoir la peine d’être tenté.

Crédit photo : Fabricio Zuardi (Creative Commons By)

Le: 01 10 2012 à 17:00 Auteur: aKa

#Smartarded - Pouhiou - Framabook - CouvertureDes années que je présente ici la sortie d’un nouveau livre de notre libre collection Framabook. Je suis pour ainsi dire rôdé à l’exercice, pas une routine mais presque.

Sauf que là je cale un peu. Je ne sais pas trop par quel bout le prendre celui-là. Il faut dire que sa première phrase ne m’aide pas forcément : « Quand t’as eu des hémorroïdes, tu peux plus croire à la réincarnation ».

Grand moment de solitude…

J’apprends ensuite qu ce roman-feuilleton a été écrit et blogué en direct. Chaque matin, il fallait écrire au moins 800 mots. Chaque soir, à 17h28, il fallait les publier. Un épisode par jour, quatre jours par semaine. Ce premier tome recueille les épisodes publiés entre le 6 février et le 7 juin 2012 sur le blog NoeNaute.

Soit.

Les journalistes ne me jetteront pas la pierre, mais, quand on manque d’inspiration, on a la tentation d’aller pomper de gros morceaux du Dossier de presse.

#Smartarded - Le cycle des NoéNautes, I est une fantaisie urbaine où on trouve pêle-mêle du Hello Kitty, du café à ouverture facile qui s’ouvre pas, des lézards qui shootent des chats, des coussins berlinois, une concierge hackeuse, des féministes malignes, du Babybel, des chatons, des hémorroïdes (on le saura !), une maladie mentale pénienne et mortelle et des SDF rebelles.

Nous voici donc bien plus avancés ! Enfin, si ça vous a déjà convaincu, c’est par ici.

Moi je préfère poursuivre en reproduisant ce qui ressemble (vaguement) à un résumé :

Smartarded est la contraction de Smart Ass (petit malin tête à claques) et Retarded (débile mental).

L’histoire, c’est celle d’Enguerrand Kunismos. Ce jeune homme de 25 ans avait une carrière prometteuse en tant qu’ingêneur. Une sorte de consultant en connardise qui gagne très bien sa vie en imaginant comment pourrir efficacement la nôtre. Mais un accident lui fait développer des capacités assez étranges… Celles de voir et d’intervenir dans les histoires qui se jouent dans nos têtes. Dans la noétie, la sphère des idées.

Enguerrand est un NoéNaute. Or, les NoéNautes sont peu nombreux. Et ils détestent savoir que d’autres sont, encore, en vie.

Enguerrand découvre le petit monde des NoéNautes et ses règles subtiles en essayant de sauver sa peau. Il nous blogue donc sa cavale avec Fulbert (énigmatique monsieur je-sais-tout au magnifique fessier) dans un road-movie livresque bourré de #hashtags cyniques, de références geek, d’amours LGBT. Et d’un héros qui se prend pour un méchant.

Soit, vous connaissez désormais le chemin vers la sortie (du livre), parce que, de mon côté, je continue encore un peu, d’autant que, prévoyant tout, on nous donne dix bonnes raisons de parler de #Smartarded :

1. Pour que l’auteur écrive la suite
2. Car c’est un livre gratuit qui peut s’acheter
3. Parce que c’est le 647e livre de la rentrée.
4. Pour y découvrir une Toulouse insoupçonnée
5. Car c’est le premier roman libre édité en France
6. Parce qu’un auteur libre est mieux payé qu’un auteur sous copyright
7. Pour frimer sur twitter avec des #hashtags
8. Car c’est le premier roman écrit sur tablette
9. Parce qu’il y a des chatons dedans.
10. Non mais sérieusement, quoi : des chatons !

PouhiouNotre auteur marque ostensiblement quelques points là (un peu moins de dix quand même). Plus précisément la licence choisie est la CC0 (Creative Commons Zéro) qui est une sorte d’offrande immédiate et volontaire au Domaine Public. Finalement, peut-être qu’il mérite qu’on clique (enfin) sur ce lien.

Tiens, justement, m’aperçois que je n’ai pas encore parlé de l’auteur !

Que dire sinon qu’il s’appelle Pouhiou et que ce n’est pas avec un pseudo pareil qu’on risque un jour d’avoir son article dédié sur Wikipédia.

On va cependant quand même signaler cet entretien sur le site Framabook, ne serait-ce que parce qu’il comporte des questions aussi subtiles que « Pourquoi ton roman est-il Gay & Geek friendly ? » ou encore « La licence libre, c’est parce que t’as pompé ? ».

Et si vous le croisez un jour, ne vous sentez surtout pas obligé(e) de lui dire : « Il faut que je lise ton livre » !