Développeurs, il est temps de changer le monde !

A la suite de mon article précédent, j’ai réfléchi (un peu).

Et plusieurs idées ce sont assemblées dans ma tête. Je vais essayer de les articuler correctement, mais ça n’est pas si facile …

Vous vous souvenez de la matinée sur le rôle social du développeur à Devoxx ce printemps ? Non ? Dans ce cas-là, j’en ai parlé :

Et je vous invite à relire ces articles pour bien comprendre de quoi il s’agit. L’idée que j’ai tiré, sans originalité, il est vrai, de ces quatre conférences, c’est que la révolution industrielle de l’informatique va changer la donne, comme les précédentes. Pour mémoire, la révolution de l’imprimerie n’a pas vraiment été une bonne chose pour les moines copistes.

Il est déjà évident que la plupart des tâches pilotées par des workflows sont maintenant totalement définies par l’ordinateur (pensez par exemple aux centres d’appels, à la gestion des interventions des grandes entreprises, les remboursements de notes de frais, …).

Mais d’autres domaines vont bientôt tomber dans l’escarcelle des informaticiens : la bancassurance, la médecine. Le plus important étant évidement l’implémentation de la loi. En effet, si la loi est implémentée par du code (c’est le cas du code des impôts, par exemple), ce n’est plus vraiment le politicien qui choisit comme l’impôt est prélevé, mais le code écrit par un informaticien, quand bien même c’est un sous-traitant d’une grosse SSII en contrat avec le gouvernement.

Or actuellement, nos représentants politiques (députés, maires, ministres), sont là pour … nous représenter, parce que leur connaissance de la loi est plus grande, parce qu’ils sont des personnes clé.

En conséquence, on retrouve par exemple dans l’assemblée nationale (je ne retrouve plus les statistiques que j’avais pu consulter il y a quelques années)

  • des avocats
  • des notaires
  • des médecins
  • des fonctionnaires (je sais, ça n’est pas un métier, mais un statut), au premier rang desquels une palanquée d’inspecteurs des impôts.
  • et un agriculteur

Est-ce qu’il y a des informaticiens dans le tas ? je ne crois pas, non.

Est-ce qu’il y a des gens qui comprennent ce qu’est réellement la révolution numérique ? Je suis à peu près certain que non.

Alors ?

Qu’est-ce qu’il faut faire ?

Vous vous doutez bien de la terrible réponse que je vais apporter : nous, les pionniers du digital, devons trouver des représentants, des champions, et les aider à prendre des responsabilités politiques, pour éviter que les politiques ne décident un jour que toutes ces histoires d’ordinateurs sont décidément trop dangereuses pour leur pouvoir, ce qui arrivera forcément.

Les politiciens professionnels ont fucked-up ma démocratie

Le titre est inspiré d’un excellent talk de Quentin Adam, petit entrepreneur du web désabusé par la gestion comptable de l’informatique d’entreprise.

Et personnellement, ce ne sont pas les comptables qui me gênent le plus.

Non.

Ce qui me gène, ces temps-ci, c’est de voir des femmes et des hommes politiques baser leur prochaine élection (qu’elle soit présidentielle ou législative) sur une tenue de bain.

Ce qui me gène, ces temps-ci, c’est de constater que le calcul politicien se base et attise la peur terroriste.

Ce qui me gène, ces temps-ci, c’est de voir des délinquants multi-récidivistes tenter d’obtenir de mon vote une immunité à la Koh-Lanta valable juste 5 ans, en attendant que leurs responsabilités dans des crimes de guerre soit établie.

En conséquence, je décide ici qu’aucun parti n’appelant à la haine de l’autre, sous quelque forme que ce soit, n’aura mon vote.

Qu’il s’agisse de supprimer les menus de substitution, de condamner le port d’un vêtement, fût-il le niqab, de fustiger les prières de rues de quelque religion que ce soit, de menacer des lieux de culte, aucun parti n’agissant ici n’aura ma voix.Et franchement, je vous encourage à bien réfléchir aux gens que vous soutiendrez. Est-ce que ceux que vous soutiendrez voudront toujours de la France telle qu’elle est ?Est-ce que la liberté de tous et de chacun de vivre, croire, aimer, sera leur priorité ?Est-ce que l’égalité des femmes, des hommes, quelque soit leur origine, quelque soit leur croyance, quelque soit leur mode de vie, quelque soit leur richesse, sera leur aspiration ?Est-ce que la fraternité, le respect, l’envie d’aider, sera leur but ?Si vous ne le croyez pas, ils ne détruirons pas seuls la France. Vous serez leurs complices.Et je ne sais pas si c’est votre cas, mais en tout cas, je ne veux pas en être complice.Sans doute que tout cela me rendra spectateur de la prochaine élection. Spectateur malheureux, bien sûr. Mais je préfère encore ne pas voter, que de trahir le sens même du vote.

Les jeux de l’été

Parce que bon, les NAS, le code, tout ça, c’est parfois un peu chiant.

Et comme c’est la fin de l’été, et que j’ai passé mes vacances en famille, je pense pouvoir lancer une série annuelle d’articles sur les jeux auxquels on a joué (en famille, donc de 11 à 40 ans).

1359cd8488bb1c62b4974191f3ccd2ff161e

Piña Pirata

La première partie commence comme un Uno. Et puis très vite (à chaque fin de partie, en fait) de nouvelles règles s’ajoutent, on peut tout poser sur un lapin, on pioche avant de donner, de reprendre des cartes, et au bout du compte ma femme gagne sur un plan B que personne n’avait vu sortir.

C’est la deuxième année qu’on le prend, et à chaque fois on s’amuse vraiment bien.

En bonus, les cartes sont jolies, les parties raisonnablement équilibrées, et si une partie complète peut durer 1H30/2H, une simple donne va beaucoup plus vite.

Munchkin

b739cbf9deb4df5bdf24aceb6990a99a1cec

Acheté sur la foi d’un tweet

Juste avant le départ en vacances, j’ai réussi à le vendre à ma femme en utilisant un argument spécieux tiré quasiment tel quel du dos de la boîte « en fait, on va un peu jouer à Kaamelott ».

En vrai, ça n’est pas du tout ça. Et si le hasard est bien plus (voire beaucoup trop) présent que dans Piña Pirata, on a passé quand même quelques bons moments (et quelques moments frustrants pour les perdants, parce que quand ça veut pas, ça veut vraiment pas).

Du coup, évidement, on va acheter prochainement quelques extensions (en plus de jouer à Munchkin épique – à télécharger chez edgeent.com).

Mobile frame zero

campaigner-mfc398-umfl-stand

Là, on change de catégorie : ça n’est plus de jeu de société qu’il s’agit, mais de jeu de plateau. Et même, plus précisément, de jeu de combat tactique au tour par tour, dans l’esprit de Confrontation, ou de petites parties de Warhammer batailles.

La différence essentielle, pour tout le monde, est que les robots ne sont pas des miniatures à acheter à prix d’or dans une boutique exploitant la frénésie de consommation des adolescents, mais à fabriquer soi-même (ou en famille) avec des briques lego. Un certain nombre de sites fournissent d’ailleurs des instructions de montage, instruction nécessitant généralement des pièces modernes que nous ne voulions pas utiliser.

Donc on a commencé par une phase de trois heures de fabrication de robots en lego respectant un encombrement donné.

Et le lendemain, on s’est tapé une partie « rapide » (de 2 heures et un tour de jeu complet) à l’issue de laquelle mes enfants avaient détruit l’un de mes robots, et en avaient réduit un autre à l’état de simple marcheur.

Et pour le coup, même si certains aspects des règles (téléchargeables gratuitement en français) sont un peu ambigus, et que nous manquions de dés (genre il faut facile 6 dés par robot, ce qui nous en aurait fait une quarantaine, on se serait cru à Shadowrun), c’était un sacré bon moment

Mon NAS …. amélioré

Il y a quelques temps, j’avais failli perdre mon NAS. J’avais donc remplacé mes disques, et remplacé le firmware d’origine par Alt-F. Et ça marchait … à peu près bien.

J’avais juste un problème lié au fait que rss2imap prenait environ 100% du CPU, tout en ramant comme un malade et en empêchant totalement mldonkey de fonctionner ben quoi, moi aussi je télécharge des distributions Linux).

J’y ai donc un peu réfléchi … et je me suis donné deux pistes de résolution pendant mes vacances

  1. Transformer mon vieil iBook en serveur : je peux y faire tourner du Python (merci MacPorts) et xDonkey
  2. Acheter (argh) un Raspberry PI, et y installer tout ce qu’il faut

Comme mes vacances sont finies (re-argh), j’ai pu tester ces deux pistes, et j’en ai tiré quelques conclusions

  1. Utiliser l’iBook marche bien pour rss2imap, par contre xDonkey refusait de se connecter aux serveurs du web
  2. J’ai donc fait l’acquisition d’un Raspberry Pi 3 (avec le wifi, le bluetooth, et tout ce dont on peut rêver) … et ça marche bien !

Donc, oui, j’ai maintenant un raspberry caché sous ma freebox (et non pas dans ma freebox) sur lequel j’ai l’intention de faire tourner l’ensemble des éléments consomateurs de ressource (Python, mldonkey, lighttpd) pour ne laisser sur le NAS que la diffusion de contenu (donc le serveur ssh, et minidlna).

Du coup, j’ai à nouveau un iBook qui ne sert à rien, que j’ai posé à côté des deux ordinateurs de bureau que j’ai à la cave (et qui ne servent eux aussi à rien). Que faire de tout ça ?

La France en déreliction

Alors là je vous calme avec mon mot inconnu. Je vous laisse chercher

Donc, j’étais en vacances pendant trois semaines, avec comme seule connexion avec le monde une bonne vieille radio FM.

Et, pendant ces vacances, la France a connu quelques drames :

  • un camion fou conduit par un déséquilibré manifeste a tué une centaine de personnes lors du 14 juillet à Nice
  • Et un meurtre odieux commis dans une église

Pour être bien clair, et je crois l’avoir déjà écrit ici, la violence, le meurtre, sont des actes ignobles, quels que soient ceux qui les commettent (et j’inclus dedans les policiers incapables de refréner leurs pulsions homicides)

Ces deux actes ont reçu de nos élites politico-médiatiques la même qualification d’actes terroristes, dont les musulmans devaient se désolidariser blablabla.

Agir localement

Mais, avant d’aller plus loin, deux observations troublantes

  1. Ces actes ont été commis alors que l’état d’urgence était en cours
  2. L' »attentat » du 14 juillet a eu lieu dans une ville largement surveillée par des caméras de vidéo-protection (le néologisme est dans ce cadre particulièrement désastreux)

Quelles réponses pratiques nous propose-t-on ?

  1. Reconduire l’état d’urgence qui a prouvé son inefficacité
  2. Continuer à installer des caméras

Oh, et bien sûr, les enquêtes administratives démontreront qu’aucun service policier ou de renseignement n’a failli à sa mission.

De mon point de vue, les actions proposées par le personnel politique montre immédiatement leur manque total d’imagination et d’adaptation : ces mesures ne marchent pas du tout, alors pourquoi les conserver ?

Penser globalement

Et quelle réponse sur le long terme nous est proposée ? Rien d’autre que cette fameuse guerre des civilisations conceptualisée lors de la première croisade.

Pourtant, si je peux me permettre, d’autres axes de réflexion existent.

En particulier, l’axe mémétique.

En effet, si il est si dur de lutter contre ce qui deviendra dans les prochaines années le « terrorisme domestique » français (si vous ne connaissez pas ce terme charmant, c’est dommage : il nous vient des américains pour lesquels les milices américaines sont de cette famille, quand les terroristes moyen-orientaux n’en sont pas), c’est sans doute parce qu’on le considère comme une organisation, plutôt que comme une idée. Et cette idée, c’est quoi ? Tout simplement qu’il faut forcer l’opposition entre l’Europe et le Moyen-Orient pour déclencher l’apocalypse (j’avais lu ça dans un article fascinant sur The Intercept, me semble-t-il, mais je n’arrive plus à remettre la main dessus).

Dans ce contexte, peut-on lutter contre cette secte apocalyptique avec des armes à feu ?

Ou peut-on même se permettre d’appeler terroriste ceux que l’on devrait qualifier de dangereux illuminés ?

Bien sûr, l’objectif politique est tout autre : cette histoire de menace terroriste imminente annihile le débat, et permet aux futurs candidats à la présidentielle de masquer leur absence de projet pour la France. En bonus, évidement, les socialistes pensent que le front national va seulement empêcher les Républicains de l’emporter trop vite.

En réalité, à jouer sur la corde nationaliste, et on le voit déjà depuis novembre 2015, nos concitoyens musulmans et/ou d’ascendance arabe sont à nouveau victimes d’actes racistes, et les seuls votants à la prochaine série d’élections seront les petits vieux des campagnes qui, par peur, par ignorance, et alimentés par des médias jouant sur cette peur, voteront sans hésiter pour le Front National.

Les furets sont au chtijug !

Tout ce qui est présenté est disponible sur GitHub, avec d’autres choses …

Donc, les furets font de l’assurance. Et ils ont fait d’abord différents sites au look … discutable.

En terme de code, actuellement, il y a 450K lignes de code, et un déploiement en prod par jour. Ca change pas mal des clients avec un déploiement par semestre …

DomainModel.stream()

A quoi ça sert

La classe Person, chez eux, est … grosse, et riche d’héritage. Normal pour un projet qui a 7 ans. Et évidement, ce modèle circule dans l’entreprise, du client Javascript à la base backoffice qui reprend les données sous des formats différents.

Evidement, comme c’est compliqué, ils ont cherché à simplifier tout ça, en utilisant globalement des domaines orientés colonne :

  • clé/valeur dans le client
  • modèle colonnes dans Cassandra
  • Vecteurs de données dans la base analytics

Du coup, utiliser un dictionnaire de clé partout devrait simplifier les choses.

Pour la suite, on va travailler sur un modèle simplifié.

Premier souci : comment ça se passe quand on a des relations 1-n ? A priori, « ca marche » … personnellement, je n’y crois pas trop, mais admettons.

Il y a aussi le souci des champs accessibles par plusieurs chemin, qui cette fois-ci sont dupliqués dans les données disponibles.

Et passons tout de suite au livecoding.

Manipulation simple du modèle

Donc, on a d’un côté notre modèle objet traditionnel, et de l’autre, grâce à un wrapper généré par l’outil des furets. Dans ce wrapper orienté clé/valeur, écrire des données se fait avec un simple

SampleModelWrapper.set(FieldId, value)

lire des données se fait simplement avec un

SampleModelWrapper.get(FieldId)

Et en terme d’implémentation, ça se fait facilement en générant des lambdas (évidement, avant Java8, ça aurait marché tout aussi bien avec des classes internes, mais bon, les lambdas sont à la mode). Et, en plus, l’inférence de type semble assez faible, puisque le type contenu dans le FieldId ne suffit pas à contraindre suffisament le type de sortie.

Manipulation avec des streams

Donc évidement, faire SampleModelWrapper#stream() retourne toutes les valeurs du modèle. Et on peut transformer les valeurs en map en traversant le même stream. Pratique, mais pas exceptionnel. Même si le speaker n’est pas de cet avis. Et en un sens, je le comprend, puisque le mapping est traditionnellement un problème compliqué : regardez Jackson/JAXB et autres qui galèrent pour bien faire les mêmes choses.

Petit bonus : on peut filtrer les éléments du wrapper selon différents tags, qui sont définis librement dans le wrapper. De cette manière, par exemple, on peut séparer les données du User et de l’Account du modèle d’exemple. Evidement, ça peut aussi servir à affiner l’accès à certaines interfaces selon les droits des utilisateurs.

A noter que le site des furets a environ 1000 clés dans les différents enums défnissant les modèles utilisés.

Introspection

Typiquement, quand on veut mettre les données dans une base Cassandra ou autre, il faut d’abord créer les colonnes typées associées, pour lesquelles on va naviguer le modèle, et pour chaque élément du modèle, on va créer une colonne dont le type sera obtenu grâce au FieldInfo correspondant à chaque champ.

Evidement, pour moi, il est assez curieux de voir des gens réinventer des notions analogues aux BeanInfo / PropertyDescriptor disponible dans le vieux monde des JavaBeans. Mais dans l’ensemble, ça fait le job assez (peut-être trop, en fait) simplement. Trop simplement, parce que par exemple, les annotations portées par le modèle initial ne sont pas transportées à travers le wrapper.

Conclusion partielle

Je comprend tout à fait l’intérêt de mapper un modèle de beans vers des séries de colonnes. En revanche, l’implémentation, certes joliment Java8, manque quand même de certains aspects clés : la gestion des collections fait vraiment peur, l’introspection est fichtrement limitée.

Cela dit, ça doit clairement bien limiter la complexité de la sérialisation, de la création d’interface graphique, ou même de persistence (non relationnelle, évidement, parce que sinon, c’est évidement merdique).

Il y a en fait là-dedans une idée très intéressante qui a sans doute un rapport certain avec le NoSQL. je m’explique. Lorsqu’on codait il y a dix/quinze ans avec une base de données relationnelle, avoir du code proprement décomposé était une bonne idée. Maintenant que la plupart des outils de stockage sont dénormalisés, à typage faible, bref, merdiques en terme de support des liens sémantiques, avoir un modèle riche est presque une gêne. Et c’est dans ce cadre que ce système de wrapper de modèle présente un intérêt.

Continuous delivery

Bon, si vous ne savez pas ce qu’est le continous delivery, c’est assez simple : c’est l’idée de pouvoir envoyer du code en prod au plus tôt. Et actuellement, les furets font plusieurs mises en prod par jour.

Historique

D’une façon amusante, en 2012, ils faisaient une MEP par mois, parce que leurs sprints SCRUM duraient un mois. Les tests étaient joués en fin de sprint et pouvaient entraîner des retards de MEP du fait de tests à corriger. Pas très pratique …

En 2013, ils ont tenté d’accélérer les choses avec des sprints « bonus » d’une semaine. Le premier impact est que le temps de build est passé de 15 mn à 3 mn.

En 2014/15, passage à Kanban avec une release chaque jour : les fonctionnalités sont marquées finies dans Kanban quand elles sont en prod. L’impact, évidement, c’est que la release est passée d’une journée entière à 2/3 heures. L’autre impact, c’est que les tests ont tous été automatisés. Histoire de se rassurer, les fonctionnalités passent quand même dans un environnement de staging pendant une journée pour vérifier que tout va bien.

Pour le futur, l’objectif est de livrer encore plus vite : les fonctionnalités devraient apparaître presque une par une en prod.

Curieusement, les MEP apportent toujours autant de code, voire même plus, parce qu’il y a beaucoup plus de fonctionnalités dedans.

Quelques aspects techniques

En-dehors des classiques environnements, il y a quelques points notables.

Les tests sont joués en parallèle sur un grid selenium, qui tourne sur une machine avec un RAMFS (128 Go de RAM chez OVH pour 300 €/mois).

Ils développé Zeno qui va sur une URL pour faire une capture d’écran. Et qui fait la différence entre la prod et la préprod. De cette façon, on peut vérifier que les différences visibles sont bien liées aux fonctionnalités développées (et pas à des bugs, par exemple). Cet outil pourrait par exemple être utilisé pour faire de la veille concurrentielle.

Evidement, le développement se fait en mode blue/green. Avec un double cluster.

Continuous delivery en détail

Il y a en gros 3 modèles de développement

  • trunk based : tout ce qui est dans le trunk part en prod. Ca implique le feature flipping qui est du code en trop.
  • feature branching : tout les dévs sont fait dans des branches, qui sont réintégrées dans le trunk au moment de la MEP. Ca pose évidement des problèmes d’intégration continue.
  • Et pour finir, le modèle github où le code est développé dans des branches, et réintégré dans le trunk via des pull requests, qui passeront dans l’intégration continue.

La grande astuce des furets pour simplifier tout ça est de tester les merge rapidement. Grâce à ce qu’ils appellent le continuous merge : lorsqu’un développeur a fini un développement, il est poussé sur un repository qui contient toutes les nouvelles features branches, et qui tente de les merger et de déployer le code sur l’environnement de staging.

git octopus

Chez eux, les branches en cours de dev s’appellent studies/ et celles qui sont finies s’appellent features/. Pour merger tout ça, ils ont un script appelé git octopus disponible sur github. Le truc magique, c’est qu’il peut détecter les conflits entre les branches à merger avant le merge final.

Pour résoudre les problèmes qui arrivent … ben là, essentiellement, c’est du git-fu (et vous savez ce que j’en pense). En fait, c’est pas vrai : tout ce qui est dit est également valable avec Subversion … et j’ai bien l’impression que c’est ce que gigomerge (mince, j’aurais bien mis le lien, mais je ne le retrouve plus) permet d’une certaine façon.

Pour faciliter la gestion des conflits, ils ont également créé un outil de gestion des conflits … qui en fait se contente de créer un workflow d’escalade des exceptions.

Conclusion

Deux présentations très intéressantes, faites par des gens qui se soucient manifestement beaucoup de ce qu’ils livrent, et de la façon dont ils le livrent. Il y a là-dedans des choses vraiment très intéressantes (git octopus, conceptuellement, est très bien, et cette histoire de repository définissant le niveau de maturité d’une feature est également très chouette) D’autres sont en revanche plus discutable (la résolution de conflit me paraît plus de l’ordre de l’astuce que de la solution vraiment propre).

Mais surtout, ce qui apparaît, c’est que, contrairement à bien des boîtes, ils ont l’ambition de se voir comme une boîte de développement logiciel, ce qui implique de produire de la qualité et de la visibilité. C’est sans doute ce qui leur permet de recruter des pointures, puisque nos deux intervenants paraissaient particulièrement compétents.

Je déteste encore git

J’ai déja écrit que je détestais git ? OUI.

Mais, en un sens, ce que je déteste au moins autant, c’est de me faire prendre pour un con.

Tiens, par exemple, quand j’écris un peu énervé

C’est quand même un peu vexant de se voir répondre

Me dire ça, à moi … Me dire que la meilleure façon d’utiliser cet outil difficilement compréhensible, c’est passer par nodejs et chromium … mon dieu.

Et puis, surtout, mon problème n’a rien à voir avec git en tant que tel, mais plus avec la façon foireuse de git d’utiliser la configuration système. Regardez un peu la question StackOverflow que j’ai posé à ce sujet … c’est assez merdique.

Cela dit, quelque chose m’a un peu intrigué. Ce tweet, en particulier.

Là, vous voyez, il y a un problème : le bon outil est ergonomique. Et quand je vois le nombre de personnes qui galèrent pour l’utiliser, sans même parler de l’utiliser correctement, je me demande si, réellement, il y a eu un gain si net par rapport à Subversion. Bon, pour le noyau Linux, clairement, ça doit être indispensable.

Mais ai-je besoin du même genre d’outil pour un projet qui ne va être partagé qu’entre quelques machines de développement et un serveur d’entreprise ?

Ai-je besoin d’un outil développé essentiellement pour des gens qui considèrent que l’ergonomie de la ligne de commande de Linux est un must insurpassable ?

Ai-je besoin d’un outil dont la l’intégration avec Linux est tellement poussée que le moindre problème dans la configuration réseau doit se résoudre dans les fichiers de configuration ssh du compte utilisé ?

Bref, encore une fois, je suis perplexe devant la faculté du monde du développement à adopter un outil inergonomique, rempli de fonctionnalités inutiles, et totalement inopérable pour peu que cet outil permette de démontrer une forme tordue de supériorité intellectuelle.

Et là, je me rends compte qu’en un sens, le Python ou plutôt sa communauté a peut-être changé ma perception de ce genre de choses …

FreeFileSync, c’est quand même vachement bien

Vous savez que j’ai de plus en plus de mal avec « les géants du web » et leurs liens avec l’administration de la surveillance d’état américaine … Par exemple, quand Condoleaza Rice s’installe au bureau de la direction de Dropbox, le signal est assez fort pour que je m’inquiète. Mais ça, c’est sans doute une matérialisation de ma paranoïa.

Toujours est-il qu’il n’y a pas bien longtemps, ma femme a remplacé son portable vieillissant par un UltraBook tout neuf, tout léger. Et là s’est posé la question de la synchronisation de ses données … Alors évidement, elle a un compte Dropbox … mais son compte Dropbox ne permet pas forcément de synchroniser une clé USB et un dossier de sa machine, par exemple. De la même manière, synchroniser sa machine avec un serveur SFTP est impossible.

Heureusement, avec FreeFileSync, c’est possible. Bon, évidement, c’est pas plug’n’play : pour que la synchronisation soit instantanée, il faut jouer avec RealFileSync et les tâches planifiées. Mais une fois que c’est configuré, il suffit de créer/modifier/supprimer un fichier sur la clé USB pour qu’il le soit sur le disque dur local, et le disque dur réseau.

Ca marche quand même très bien … et pas que sur Windows, ce qui est encore mieux !

La blockchain … au chtijug !

Avant toute chose, un petit avertissement : j’ai mangé à Devoxx de la blockchain à foison. Et cette session du chtijug avait donc pour moi comme un goût … de trop peu.

Avant donc de lire ce compte-rendu, je vous encourage à jeter un oeil aux articles précédents

Et donc, c’est parti !

 Survolons donc la blockchain

Pour commencer, petit retour classique sur l’argent : le troc, puis la monnaie, la monnaie fiduciaire, et la crise boursière de 2008. Au passage, et là c’est mon avis, il me semble que toutes ces histoires du troc qui s’étend pour devenir la monnaie sont assez remises en cause par les économistes/historiens …
Ce qui nous amène comme d’habitude à Bitcoin et son échange de monnaie en P2P.
Bitcoin permet d’écrire la confiance dans le code (voir à ce sujet blockchain as a trust machine).
Vient ensuite le classique passage sur l’opposition entre les banques traditionnelles et le P2P qui va tout fracasser.
Pour Julien, ça n’est pas intéressant, alors que c’est tout le sel du sujet : décider où placer le curseur de la distribution de données va permettre (ou pas) le succès de l’implémentation.

Revenons à la technique : la blockchain, basée sur un livre de comptes public et distribué, et une méthode de construction de consensus.

Ce livre de comptes est découpé en plusieurs blocs. Pour créer un nouveau bloc, des acteurs de la blockchain sont incités à effectuer les calculs permettant d’initialiser le bloc suivant (ce sont les fameux mineurs). C’est l’un des points importants : tous les concepts de la blockchain se basent sur des incitations ou pénalités « économiques » favorisant ou empêchant des comportements. Ainsi, les mineurs sont récompensés par des transactions dans le livre de compte en leur faveur lorsqu’ils permettent d’initialiser un nouveau bloc.

Julien voit ça comme une base de données distribuée. C’est vrai au sens où les données sont distribuées. En revanche, les capacités d’indexation et de recherche sont … un peu faibles.

Après un aperçu très … vague de l’activité de minage, vient une comparaison entre bitcoin et les banques traditionnelles. Dans ce cas, la principale différence est que le réseau Bitcoin est totallement public. Oui, public : tous les comptes de tous les utilisateurs sont visibles. Il se trouve juste que ces comptes sont des UUID illisibles.

Le cas d’utilisation présenté ensuite est séduisant, avec la borne de paiement acceptant les bitcoins, mais irréaliste au vu des délais de validation des transactions : actuellement, il faut environ 5 blocs pour être sûr de la validation de la transaction, soit presqu’une heure … Difficile d’attendre tout ce temps pour acheter sa baguette.

L’un des intérêts de bitcoin est aussi que le langage de script embarqué dans les transactions permet des opérations plus complexes que le simple échange de bitcoin de gré à gré. On peut par exemple faire valider le paiement par N personnes parmi M, ou attendre le paiement jusqu’à une date donnée.

Vient ensuite le sujet des oracles. Un oracle permet d’injecter dans la blockchain des données externes. Le gros problème est que, comme toutes les transactions sont rejouées sur tous les noeuds, il faut que les valeurs renvoyées par les oracles soient indépendantes de la date à laquelle ces oracles sont appelés.

Ce qui nous amène aux limites

  • le manque de scalabilité
  • la concentration des acteurs
  • les choix technologiques
  • la gouvernance du projet
  • la protection des clés

Heureusement, des blockchains, il y en a plein. Elles ont certes des valorisations inférieures, mais les évolutions sont encore nombreuses. Et elles ont des objectifs différents : certaines ont un objectif monétaire, ou applicatif … comme ethereum.

Dans ethereum, on peut mettre des transactions d’échange de valeurs, mais aussi des transactions définissant de nouveaux programmes (les fameux smart contracts). Evidement, ces programmes ne sont plus arrêtables à partir du moment où ils sont livrés dans un bloc ethereum.

Et encore une fois, etherscript et son quasi-scratch éminement lisible est lancé.

Dans les exemples d’utilisation, la gestion des cartes volées est anecdotique. En revanche, la gestion du carnet d’entretien automobile dans une blockchain est intéressante, au sens où elle entre précisément dans le champ de la confiance faible : les acheteurs automobiles ont peu confiance en les vendeurs, qui peuvent produire de fausses factures. Stocker les informations dans un tiers de confiance distribué dans ce cas est franchement utile.

Stratumn et les workflow de confiance

Passons maintenant à Seb, de Stratumn … qui nous a mis sa présentation sur internet

Stratumn imagine un paradigme de fonctionnement de la donnée, qui permette d’arrêter les workflow débiles type renouvellement de la carte de séjour : un tiers produit des documents pour un autre tiers que je vais transporter en tant que tiers de confiance.

Et là, la meilleure description de la blockchain est donnée : c’est en fait une base de notarialisation ou de timestamping (selon la qualité de votre accent). En effet, les blockchains permettent simplement de s’assurer qu’une donnée est dans un état à un instant grâce à plusieurs propriétés :

  • immuabilité
  • auditabilité
  • inviolabilité

Typiquement, dans Bitcoin, en inscrivant des transactions minimales, on peut ajouter dans la transaction un hash qui indique qu’une donnée était dans un état donné avant que la transaction ne soit inscrite.

Ils ont donc créé chainscript.io qui permet de définir un workflow dans la blockchain. Alors j’ai un doute sur le concept de chainscript. Je m’explique : l’intérêt de la blockchain est de fournir une auditabilité totale. Or avec chainscript, on ne met dans la blockchain que des hashes. Et en fait, des hashes construit à partir d’innombrables transactions chainscript. Du coup, l’auditabilité en prend un sacré coup.

En revanche, je retiens comme un concept aussi fort que le théorème CAP la trinité des preuves établie par Seb :

  1. preuve d’existence
  2. preuve de calcul
  3. preuve de propriété

Avec ces trois éléments, on peut prouver que l’opération a bien été effectuée d’une façon immuable et inviolable. Et ça, c’est la clé de toutes les blockchains, à mon sens, et l’élément qui permettra d’en tirer un modèle économique, qu’il soit basé sur une blockchain privée ou publique.

Finalement, une bonne session, à part le buffet (qui a été le premier buffet à moitié loupé du chtijug).

Et pour finir, un dernier tweet de l’un de nos joyeux organisateurs qui va élargir le débat

Pas de chti jug sur Typescript pour moi

Ce soir, c’est chtijug sur Typescript. Et en plus, le lieu a l’air sympa.

Pas parce que je n’aime pas Cyril et ses amis, bien au contraire, je trouve le boulot du chijug vraiment chouette.

Mais plutôt parce que … comment dire … tout cet écosystème Javascript me fatigue à un point fou.

Je vous explique.

J’ai fait ma première page web avec du Javascript en 1999 … ou 2000. Bon, la wayback machine a une version datant de juillet 2001. Enfin bref. A l’époque, faire du Javascript était un sale boulot.

Heureusement, jQuery a tout changé. Et pendant quelques années, faire du web dynamique était raisonnablement simple conceptuellement et techniquement.

Et puis un jour, l’apocalypse de la sur-architecture s’est pointée sous les traits de nodejs. Je ne vais pas refaire l’article contre nodejs, parce qu’il suffit de regarder quelques twits de Mario Fusco ou Sam&Max pour comprendre

Et c’est quoi le rapport avec Typescript ?

Pour être honnête, Typescript n’est pas une solution, mais un élément du problème.

En effet, de mon point de vue, les langages modernes ont été créés pour permettre aux gens d’être plus productifs que l’assembleur ou le C, par exemple. Seulement, et au risque de choquer mes camarades Javaistes, le Javascript n’est pas ce genre de langage.

Non.

Comme l’écrivait Douglas Crockford il y a … un moment, le javascript n’est pas le langage qu’on croit. Et franchement, une fois qu’on comprend que le Javascript est un langage fonctionnel s’exécutant dans un environnement peu commode, il se passe une certaine épiphanie qui permet de mieux en comprendre la réelle simplicité. Une simplicité qui rend des monstruosités comme Angular, React, ou Typescript, aussi pratiques qu’un 38 tonnes en ville.

C’est aussi pour ça (en plus de ne pas assister à une conf sans doute intéressante sur un langage qui doit sans aucun doute avoir de bons côtés) que j’ai décidé de ne plus me lancer dans des projets front-end en utilisant autre chose que des bibliothèques simples (voire élémentaires) qui remplissent proprement une fonction simple et claire. Des outils comme

  • RequireJS
  • RactiveJS
  • jQuery
  • underscoreJS

Et sorti de là, comme disait il y a bien longtemps mon prof d’info, point-barre. Du coup, forcément, ce talk sur Typescript présentait un problème d’intérêt fondamental : comment diable pouvais-je m’intéresser à un langage dont la finalité actuelle est précisément de faire quelque chose qui me répugne au plus haut point ?