En vrac’ de fin de semaine…

Comme chaque fin de semaine, l’habituel en vrac. Oui, je le poste un vendredi matin, j’ai un week-end chargé en vue 🙁

Côté logiciel libre, informatique et internet.

Côté culture ?

Bon week-end !

Fedora 27, encore une révolution ? Non sire, juste une évolution :)

Le monde des distributions GNU/Linux, mise à part les infâmes DGLFI n’évolue plus que par petites touches depuis des années.

On est désormais dans un routine qui se résument à mettre en place les dernières versions des grands environnements, avec un noyau récent qu’il soit LTS ou pas, le dernier Xorg ou son successeur Wayland, le dernier LibreOffice, bref, pas de quoi casser trois pattes à un palmipède.

La dernière fois que j’ai consacré un article complet à une Fedora, c’était à l’époque de la bêta de la version 26, en octobre 2016.

D’ailleurs, si on regarde les notes de publications, on s’aperçoit que ce sont des montées en version, dont du tablettisant Gnome 3, LibreOffice 5.4, ou encore l’arrivée de saveurs pour les Raspberry Pi (2 et 3) et autres périphériques à base de processeur ARM.

Mais ce n’est pas une raison pour bouder son plaisir. J’ai donc utilisé mon client de tipiakage favori pour récupérer l’image ISO de la Fedora 27 Workstation.

Mon ami VirtualBox a ensuite pris le relai pour m’aider à voir ce que cette nouvelle mouture de la distribution au chapeau a dans le ventre.

Au démarrage, j’ai pu constaté que la session Wayland a été chargée par défaut.

Anaconda s’est présenté quand j’ai demandé l’installation et au bout d’une quinzaine de minutes, j’ai pu faire redémarrer la Fedora Linux fraîchement installée.

La première étape fut de rechercher des mises à jour. Même si la Fedora 27 est sortie depuis une poignée de jours au moment où j’écris cet article, on n’est jamais trop prudent. D’ailleurs, pas moins de 399 ou 400 paquets ont été touchés… Avec entre autres des mises à jour de LibreOffice ou encore de Mozilla Firefox…

Cette étape passée, j’ai rajouté les dépôts RPM Fusion pour accéder aux quelques paquets manquants pour avoir une expérience aussi bonne que possible : les additions invitées VirtualBox ou encore VLC. Mon ami Simple Screen Recorder a pris le relai pour capturer la Fedora 27 sur le vif.

Mis à part l’obligation de passer par deux fois par la ligne de commande (pour installer VLC et la traduction de LibreOffice) et l’entêtement du gestionnaire d’imprimante à ne pas vouloir me rajouter l’imprimante détectée, j’avoue que cette expérience avec la Fedora 27 a été des plus agréables. On est plus dans l’évolution que dans la révolution. Ça fait du bien, mais on s’ennuierait presque de nos jours, vu le degré de raffinement des grosses cylindrées comme les Debian, Fedora et autres Ubuntu.

Est-ce un mal ? Non. Mais on sent que l’on arrive à une certaine maturation du domaine, en dehors des DGLFI qui ne font qu’apporter leur dose de perte de temps et de ressources.

Vieux Geek, épisode 105 : Eudora OSE, ultime version d’un client courrier historique…

Cet épisode est la suite directe de l’épisode 104, consacré à Mozilla Sunbird. Tandis que je préparais la vidéo consacrée à l’Agenda autonome de la Fondation Mozilla, je me suis souvenu d’une version un peu oubliée d’un grand nom des courrielleurs, Eudora.

Est-il besoin de présenter un des clients de gestion des courriers électronique qui fut un des rois du domaine entre 1988 et 2006 ? Racheté à son développeur en 1991 par Qualcomm, il sera synonyme de client de courrier électronique pour nombre de personnes ayant connu internet dans les années 1990.

La montée en puissance de l’ignoble – désolé, je nettoyais mon clavier et le coup est parti tout seul – Outlook Express et d’autres logiciels de gestion de courrier, dont Mozilla Thunderbird, Qualcomm tente le tout pour le tout et s’associe en 2006 avec la Fondation Mozilla pour lancer le projet Penelope qui est une volonté de récréer Eudora avec une base plus jeune.

Le projet existera jusqu’en 2010 avec une ultime version 1.0. Eudora OSE sera supporté comme la corde soutient le pendu. En 2013, le projet fut abandonné avec le conseil de migrer vers Mozilla Thunderbird.

Comme vous avez pu le voir, Penelope n’était au final qu’une extension qui modifiait l’apparence générale de Mozilla Thunderbird pour aider les personnes habituées à Eudora de continuer à utiliser une interface familière.

Contrairement à ce qu’avait réussi à faire Netscape ou encore Sun Microsystem, le passage du code à l’open-source n’a pas franchement réussi à l’honorable ancêtre du courrier électronique.

Yunohost – Pourquoi les ports 80 et 25 sont ils toujours utilisés ?

Telle est la question que l'on trouve, en anglais, sur le forum de YunoHost.

La question est légitime car ces deux ports, ne présentent pas, par défaut, de connexion sécurisé. Pour avoir une connexion avec du chiffrement, il faudra passer par une connexion en httpS (et le port 443), ou en ImapS (et le port 993).

Une explication est donnée en anglais, par ljf, Groupe Core Dev (développeur du projet). Je la cite et je la traduit ci-dessous, la diffusion de l'information en langue française pouvant être utile au non anglophone.

Port 25 is necessary to send email to other unsecured smtp (if we close this port, some mails couldn't be delivered.


Port 80 is needed by let's encrypt for the ACME challenge, by some YunoHost setup without internet connexion ( in Africa or Asia) which users need to be able to access page without warning, by some website which users are under the "TLS intermediate config" (not so old android device, XP...). In general application packagers make choice or not to redirect port 80 to HTTPS. Sometime just one part of the app (web administration) force https.

A new settings system has been introduce to be able to let more option to the yunohost administrator, but for now, there are no settings developped to let the admin to be able to configure it.

Traduction libre

Le port 25 est nécessaire pour envoyer un courriel à d'autres serveurs smtp qui eux ne sont pas sécurisés (si ce port est fermé, cela aura pour conséquence que certains mails ne puissent être livrés.

Le port 80 est nécessaire pour le challenge ACME de Let's Encrypt, et pour des cas d'installation YunoHost sans connexion internet (en Afrique ou en Asie) pour lesquelles les utilisateurs ont besoin d'accéder à la page de connexion sans avoir un avertissement, pour des mises à dispositions d'applications pour des utilisateurs qui n'ont pas accès au niveau de configuration nécessaire pour une connexion TLS (vieux appareil Android, XP ...). En général, les packageurs d'applications choisissent ou non de rediriger le port 80 vers HTTPS. Par défaut, une seule partie de l'application YunoHost (la partie administration Web) force une redirection vers https.

Un nouveau système de paramétrage a été introduit pour être en mesure de laisser plus de latitude à un administrateur yunohost, mais pour l'instant, il n'y a pas d'interface de développer permettant à l'administrateur d'être en mesure de le configurer.

L’accusation de sexisme peut-elle être employée pour masquer une culture générale peu développée ?

Un court billet qui exprime mon exaspération devant le manque de culture générale d’une partie croissante de la population.

Dans mon précédent article, j’ai employé l’expression de « bal des pleureuses ». J’ai été taxé de sexisme par une personne ayant commenté mon article. J’avoue que j’ai été un brin en colère et que je le suis encore alors que je rédige ce billet.

En colère devant le manque de culture générale d’une partie de la population. Parler de pleureuses n’a rien de sexiste. Bien au contraire. C’est un clin d’œil à une fonction sociale attribuée à la gent féminine depuis au moins l’Antiquité… Vous savez, la période de l’histoire humaine qui a précédé le Moyen-Age. En gros, l’époque des Pharaons, de l’Empire Romain d’Occident ou encore des dieux grecs comme Zeus, Hera ou encore Athéna.

Une pleureuse est une femme qui a pour rôle de pleurer une personne d’un certain rang après son décès, histoire de rendre les funérailles en question plus spectaculaires.

D’ailleurs, cette fonction existe toujours dans la société indienne où il est mal vu sur le plan social de voir des femmes de certaines castes pleurer leur époux parti trop tôt.

Donc, la prochaine fois, avant de dire que je suis un putain de sexiste – ce qui est tout le contraire de ma personnalité profonde – prenez le temps d’ouvrir un dictionnaire, vous savez le gros machin dont l’ouverture est souvent effrayante.

Et faites donc une recherche sur les termes employés. La culture générale, ce n’est pas savoir si la dernière starlette de télé réalité refaite de la tête (plus que vide) aux pieds a réussi à faire caca ou à pisser dans la baignoire de Jéremstar.

Désolé pour la gueulante, mais quand on est énervé, ça soulage !

Lifehacking – Trois écrans : réel confort, luxe ou superflu ?

Il y a quelques temps j'écrivais un billet Ubuntu et trois écrans ? Oui c'est possible dans lequel j'abordais le cas d'un ordinateur portable sur lequel il y avait une carte graphique Intel intégrée au processeur (de la gamme Intel Core i5), deux sorties (une VGA et une HDMI) et le fait que l'on pouvait avoir au final 3 écrans pour une seule et même machine.

Dans l'entreprise dans laquelle je suis, nous avons une place dédiée à un bureau, mais il nous arrive de travailler en mobilité (en réunion, mais pas que. Nous pouvons travailler debout, affalé dans un canapé...). A mon bureau, j'ai deux écrans de grande taille (23 pouces). Et avec le temps, je l'avoue, j'ai pris goût à ce confort d'avoir 3 écrans. Il y a le fait que les écrans sont sur-élevés et donc à hauteur d'yeux (ce qui est mieux quand, comme moi, on passe de nombreuses heures devant un écran).

Chez moi, j'ai aménagé mon environnement de travail / bureau personnel afin d'avoir la place et j'ai également deux écrans (de taille plus modeste, 21"), que je peux brancher à mon ordinateur professionnel pour les fois où j'ai besoin de travailler en dehors des heures de bureau. Je retrouve ainsi le confort que j'ai pour mon post de travail.

Avoir 3 écrans pourrait sembler à l'encontre du lifehacking vu qu'en multipliant les écrans on ajoute des sources de distraction potentielles. Dans mon cas, c'est au contraire une augmentation de ma productivité. Et qui dit productivité dit Lifehacking, d'où le titre et le classement de ce billet.

J'ai le confort d'avoir 3 écrans et donc de pouvoir disposer mon espace de travail numérique comme bon il me semble. Par conséquence Ces 3 écrans me permettent : d'avoir mon fichier de suivi / todo ouvert en permanence dans un coin, et de le remplir / de saisir mon suivi des pomodoros. (cf mes différents billets sur le sujet) Ou quand je dois travailler à une présentation, sur différents documents en parallèle, j'abuse des deux grand écrans avec la fonction de Unity qui permet de découper un écran en deux part égale... J'utilise Unity avec Ubuntu, je ne suis pas passé comme certains de mes collègues sous des Window Manager plus austère et plus complexe comme i3 par exemple.

Sur la fenêtre de l'écran du portable, la plus petite, j'ai un explorateur de fichiers (Nautilus) dans lequel j'utilise les onglets. En arrière plan, j'ai mon navigateur Firefox qui tourne en tâche de fond : accessible en basculant dessus via la combinaison de touches ALT+TAB, pour faire une recherche, caché pour ne pas me distraire. Quand j'ai besoin d'avoir une page (par exemple un tutoriel) affiché en permanence, Firefox bascule du petit écran sur un des grands écrans en face de moi.

D'avoir éventuellement Thunderbird ouvert et visible en permanence, ce qui me permet de voir les mails arrivés. Et je ne traite pas les mails de suite, mais je les dépile / regarde :
- soit il y a une urgence, et je repanifie donc la tâche du prochain pomodoro pour traiter cette urgence, répondre à ce mail (par exemple).
- soit il corresponde à une information fournie, à un projet ou autre et c'est dans une phase de "gestion / mise à jour de la todo et classement des mails", au cours d'un pomodoro dédié, que ce mail sera traité.
Sur le sujet de Thunderbird, voir Lifehacking et la gestion des mails

Bref, tout ça pour dire qu'une fois l'organisation de son environnement de bureau sur 3 écrans faites, avec ses petites habitudes, on gagne vite en réactivité et productivité. Et c'est un peu ça le lifehacking : s'organiser pour gagner du temps.

Mozilla Firefox 57 : derrière des performances en hausse, le bal des pleureuses commence…

J’écris ce court billet rageur avant d’avoir eu ma dose de théine ou de caféine – j’hésite encore – matinale. MéchantFred va sortir et il va remettre des points sur des « i » au risque de déplaire.

Je m’en fous, mais je sentais très bien que ce bal de pleureuses allait certainement arriver comme à chaque évolution majeure d’un logiciel.

J’ai connu en tant qu’emmerdeur… utilisateur d’informatique personnelle de nombreuses migrations dans ma vie derrière un clavier. Depuis 1995, j’ai eu droit au passage de MS-Windows 3.1 vers 95, puis la migration vers MS-Windows 2000, ayant pu échapper au merdissime Millenium.

Sur le plan des logiciels applicatifs, j’ai connu Netscape 3 et 4, puis j’ai migré vers les outils Mozilla. Autant dire que certaines migrations ont été casse bonbon. Mais j’étais prévenu, et j’ai rarement vu des migrations technologiques faites du jour au lendemain pour le plaisir de tout casser.

C’est encore une fois le cas avec Mozilla Firefox 57 et l’arrivée du format WebExtensions pour gérer les extensions du navigateur internet. Sauf erreur de ma part, cela fait depuis le premier trimestre 2017, soit au minimum 6 à 8 mois au moment où je rédige cet article que Mozilla a prévenu, avec des piqûres de rappel : pour Mozille Firefox 57, on va changer de format d’extension, merci de travailler sur une version compatible.

Ajout à 7 h 41 : j’ai trouvé une première annonce dans un article du 23 novembre 2016 !

Il n’y a pas eu des outils et des pages d’informations mises en place non plus…

Je suis d’accord, il ne pouvait pas y avoir 100% de réussite au jour J, mais merde ! Les développeurs de Mozilla ne sont pas responsables de l’inertie des développeurs d’extensions.

Des extensions qui ne sont pas à jour ? Il y a plusieurs possibilités :

  1. L’extension est devenue obsolète par l’intégration de la fonctionnalité dans le code du navigateur.
  2. Le développeur a laissé tomber son extension comme une vieille chaussette moisie.
  3. L’extension ne peut pas être portée pour des raisons techniques.
  4. L’extension prend plus de temps que prévue à être portée.

Durant plusieurs semaines, on aura droit à des utilisateurs et des utilisatrices qui vont pleurer à chaudes larmes car leurs extensions préférées ne sont pas fonctionnelles. Il suffit par exemple de lire les commentaires de cet article de NextInpact… Merde, c’est vrai, j’oubliais la règle de base : ne pas lire les commentaires d’un article 🙂

Sans oublier de se balader sur les réseaux (a)sociaux comme Facebook, Google Plus, Diaspora*, Twitter ou encore Mastodon. On verra des personnes qui cracheront sur Mozilla à cause des indélicatesses des développeurs d’extensions. Les utilisateurs n’ont pas à payer les pots cassés après tout.

Il est vrai qu’un constructeur automobile est responsable des accidents de la route où un de ses véhicules est présent, après tout… Je sais, comparaison n’est pas raison, mais il faut savoir attribuer les responsabilités sur les bonnes personnes.

Je n’ai en tout et pour tout que deux extensions : µblock origin et Grammalecte. Si des personnes ont besoin de 15 extensions, tant mieux pour elles. Deux me suffisent largement 🙂

Je suis d’accord, c’est chiant de perdre une ou plusieurs extensions. Mais est-ce que cela vous empêchera complètement de naviguer sur la toile ?

Maitenant, je vous laisse, j’ai mon petit déjeuner qui vous attend. Allez, bonne journée !

Le noyau linux-libre, un cul-de-sac à terme ?

J’ai pu lire sur Phoronix qu’à peine sorti, le noyau linux 4.14 avait été disséqué pour enlever les micrologiciels et bouts de code précompilés nécessaire au fonctionnement de nombre de matériels.

Le projet Linux-libre veut proposer un noyau complètement débarrassé de ces bouts de code. C’est un choix qu’on peut comprendre sur le plan éthique, même si cela peut entraîner soit le non-support soit un support imparfait du matériel que l’on a parfois acheté à des prix qui font mal au fondement.

Cependant, on peut lire sur l’article de Phoronix la phrase suivante qui résume bien le noeud du problème concernant la production du noyau « libéré » :

There were also complications around upstream Linux 4.14 having dropped their in-tree firmware code.

Une traduction rapide :

Il y avait aussi des complications autour de Linux 4.14 en amont ayant abandonné leur branche du code pour les micrologiciels.

Mais il reste un problème de taille… Le noyau 100% libre ne saurait être vraiment utilisable sans problème sans du matériel qui est lui aussi 100% libre…

Cela veut dire proposer entre autre sous licences libres :

  • Un bios / uefi
  • Un microprocesseur
  • Un circuit son
  • Un circuit graphique
  • Un circuit réseau filaire
  • Un circuit réseau pour le wifi

Le tout se branchant sur une carte mère libre… Et si on regarde, cette liste est loin d’être remplie… Sauf erreur de ma part, il y a bien un bios libre, c’est CoreBoot et sa variante LibreBoot.

Pour les microprocesseurs, il y a le projet RiscV avec une création bien avancé, LowRisc. Il y a aussi d’autres projets basés sur l’architecture Sparc, comme OpenSparc par exemple, mais comme c’est sous la coupe d’Oracle…

Pour tout ce qui est audio, graphisme ou encore le réseau, c’est pas franchement la joie. Le projet Open-Source Graphics ayant disparu vers 2010-2012…

Même si un ensemble de composants 100% libre avec pour résultante un ordinateur 100% libre, il faudrait alors se pencher sur les périphériques les plus courants comme les imprimantes… Et quel serait le prix de production et donc de commercialisation de tels produits ?

Sans vouloir jouer les oiseaux de mauvais augures, il est à craindre que les noyaux 100% libre ne soient à terme un cul-de-sac, surtout sur du matériel récent qui contient des parties non libres pour éviter de produits contrefaisants, comme des Core i7 en 2010…

J’espère juste me tromper !

Vieux Geek, épisode 104 : Mozilla Sunbird, l’oiseau oublié…

L’histoire de la Fondation Mozilla a été marqué par de nombreux projets, dont les plus célèbres ont été la Suite Mozilla devenue SeaMonkey, Mozilla Firefox et Mozilla Thunderbird.

Mais il y a eu aussi des projets qui ont été oubliés et Mozilla Sunbird est l’un d’entre eux. Développé entre 2005 et mi-2010, c’était un projet développé par l’équipe en charge de l’agenda. L’équipe en question avait eu l’idée de proposer un logiciel complet basé sur Gecko pour gérer ses agendas.

Il y a eu quelques versions de cet agenda indépendant, l’ultime version publiée étant une version 1.0b1 que l’on peut encore trouver sur le serveur FTP de Mozilla. Disponible pour Linux, MacOS-X et MS-Windows, le logiciel était presque arrivé à sa première version finale quand il a été arrêté.

J’ai eu envie de lui rendre hommage dans cet article et pour des raisons pratiques, je suis parti d’un MS-Windows 7, version contemporaine de l’OS de Microsoft quand l’ultime version de Mozilla Sunbird a été publiée. Quoi de mieux que de le montrer en action même s’il n’est plus trop utilisable de nos jours ?

Bien que Mozilla Sunbird ait été abandonné, le projet d’agenda intégré à Mozilla Thunderbird est devenu une réalité. Au moment où je rédige cet article, la version stable est la 5.4.4. La version que j’utilise dans mon Mozilla Thunderbird, basé sur le code des versions de développement, compilé maison est la 6.0a1 comme le montre la capture d’écran ci-dessous…

Dommage pour Mozilla SunBird, mais il continue de vivre ainsi 🙂

Et si on faisait un bilan au de bout de 5 ans des distributions GNU/Linux ? Avant-dernière partie.

On arrive enfin au mois de novembre 2012. Après un article consacré au mois d’octobre 2012 et sorti le 13 octobre 2017, replongeons-nous dans le mois qui précéda la plus célèbre apocalypse ratée de ce début de 21ième siècle.

Voyons cela.

2 novembre : la Mozillux, une DGLFI avant l’heure…
3 novembre : la Paldo GNU/Linux et son gestionnaire de paquets écrit en mono !
4 novembre : la Crux 2.8, source d’inspiration d’une certaine… Archlinux
5 novembre : l’AtlasX, mélange de Debian et d’Enlightenment
6 novembre : la Slitaz GNU/Linux. Dans le domaine de l’ultra-léger, c’est une référence !

13 novembre : toujours dans le domaine de l’ultra-léger, pourquoi pas l’AntiX 12.5 en alpha ?
16 novembre : l’OS4 OpenDesktop devenu depuis la BlackLab Linux…
21 novembre : ah, la bêta de la Fedora Linux 18 🙂
27 novembre : la Salix 14.0, une slackware simplifiée 🙂

Au final, pour les disparitions :

  1. La Mozillux
  2. L’AtlasX

Autant dire presque rien au niveau de la liste précédente. Est-ce de la chance ou avais-je mis de coté les distributions suspectes que j’allais appeler DGLFI par la suite ? On verra pour le billet de décembre 2012 si la tendance se confirmait ou pas 🙂

En vrac’ de fin de semaine…

Comme chaque fin de semaine, l’habituel en vrac. Quoi de neuf en ce jour du 99ième anniversaire de l’armistice de la première guerre mondiale ?

Côté logiciel libre, informatique et internet.

Côté culture ?

  • Le groupe finlandais de metal atmosphérique et progressif Edge Of Haze annonce la sortie de son nouvel album « Deluge ».
  • https://edgeofhaze.bandcamp.com/album/deluge

  • Un petit de publicité pour mes créations. J’approche petit à petit de la fin de mon projet de petit roman policier, et j’aurai besoin de retours, ne serait-ce que pour m’aider à trouver des incohérences. À vos bons coeurs, merci !

Bon week-end !

Etre autodidacte

Dans le cadre des entretiens professionnels de recrutement que je suis amené à faire, il m'arrive de recevoir des personnes qui se disent autodidacte ou passionnée par les nouvelles technologies. Manque de bol pour elles, j'entre dans ces deux catégories et je suis donc d'autant plus exigeant quand à leur candidature...

En effet, je veux être sûr que le terme d'autodidacte n'est pas usurpé et mis là pour justifier un absence d'étude. Je veux être sûr que la personne est ce qu'elle prétend et a bien les compétences que je recherche, à savoir la capacité et surtout l'envie (la soif) d'apprendre, de progresser, de toujours aller plus loin, de ne jamais se reposer sur ses acquis. Le métier que j'exerce nécessite de sans cesse progresser, suivre les évolutions, faire de la veille... Etre autodidacte, c'est pour moi, une façon de vivre et de progresser, cherchant à atteindre un graal inatteignable.

Etre autodidacte, pour moi, c'est un travail du quotidien pour moi. Chaque jour je passe du temps à faire de la veille via mon agrégateur RSS Lifehacking - Mes astuces pour faire ma veille ciblée et je ne pourrais vivre sans une connexion à Internet à ce jour (Internet un formidable outil pour les autodidactes ?) Car chaque jour, je continue d'apprendre
Je ne me repose pas sur mes acquis, je cherche sans cesse à progresser...

Je parlais de l'exigence. J'ai vis à vis des autres une exigence et une discipline que je m'impose avant tout à moi-même. Par plaisir, mais aussi par envie, par nécessité, je passe des après-midi les week-ends. C'est au détriment d'autres choses, ce sont des sacrifices (voir à ce sujet mon billetPhilosophie de vie), mais heureusement le lifehacking est là pour l'optimisation de mon temps.

Je sais pertinemment la chance que j'ai de connaître (d'avoir pu déterminé) mes limites à mes capacités, d'avoir pu bien définir en quoi j'étais doué et bon (doué à force de travail, non pas par quelque chose d'inné). Je sais pare exemple que je ne suis pas quelqu'un de particulièrement intelligent. Je suis juste quelqu'un de travailleur et de rigoureux. Ryo-Oki est une personne très intelligente, plus que la normale et je sais donc ce qu'est une personne qui sort du lot, qui se démarque. Moi, j'ai juste été un bon élève durant toute ma scolarité jusqu'à l'université om j'ai atteins mes limites (et aussi découvert ma capacité d'autodidaxie pour le domaine de l'informatique, pour certaines branches de l'informatique plus exacteemnt. Je ne suis pas développeur par exemple). J'ai donc travaillé avec le soutien de mes parents qui m'ont donné le goût des études, eux n'en ayant pas fait. Et ce travail, chaque soir et chaque week-end passer à faire mes devoirs, à travailler encore et encore, sans que ce soit facile car je n'avais pas de facilité particulière ont fait que, jusqu'à l'université, j'ai été dans les premiers de la classe. Et ce parce que j'étais studieux, non pas parce que j'étais intelligent.

Ce travail, cet apprentissage continue et sont des qualités pour moi. Et je pense savoir reconnaître cette qualité chez les autres. Donc pas de bol si vous tombez sur moi en entretien en vous disant autodidacte, vous devrez faire face à mon exigence. Mais une fois le cap de l'entretien passé, si les capacités sont belles et bien là, quel plaisir j'ai alors de travailler avec vous. Je conclurai ce billet en le dédiant à Obi-wan et StanSmith qui se reconnaîtront : vous êtes de vrais autodidactes et c'est un plaisir que de travailler avec vous

Rq : le terme vrai n'a aucun jugement de valeur, bien entendu, vu que je me juge encore plus sévèrement que les autres.

Lucy, Racquel and Me : un premier LP éclectique.

J’ai été contacté il y a quelques jours – du moins au moment où je rédige cet article – par le membre masculin du trio « Lucy, Racquel and Me ».

Dans le courrier que j’ai reçu, j’ai pu apprendre que le trio est composé par l’australienne Lucy (qui écrit les textes), Racquel la Californienne qui pose sa voix dessus et Philippe le musicien qui rajoute les mélodies.

Ce principe de groupe créant des titres via le « grand nain ternet » me fait me souvenir d’un autre qui a fait les beaux jours de la plateforme Jamendo qui venait alors de naître. Je parle bien sûr de Tryad, dont on attend toujours le troisième album d’ailleurs.

Comme je l’ai précisé dans le billet en vrac’ du 4 novembre 2017, le trio prend de nombreuses influences, je cite :

C’est un groupe qui mélange la pop de l’époque de Mamas and Papas, le blues, la folk ou encore la soul. Bref, un brin éclectique. Laissez donc traîner une oreille sur leur site officiel.

Leur premier album est disponible un peu partout, si on en croit leur site officiel, mis à part Bandcamp. Un oubli qui sera sûrement corrigé. Il est à noter que l’on peut aussi le télécharger en toute légalité via une section dédiée, l’album étant sous licence Creative Commons. Cependant, je n’ai pas trouvé le contrat en question 🙁

Après avoir récupéré l’album, j’ai lancé mon ami DeadBeef pour l’écouter.

Sur le plan purement technique, nous avons 11 pistes pour environ 41 minutes. Cela fait donc des petits titres qui s’enchainent les uns à la suite des autres. Ce qui n’est pas plus mal.

On commence avec une mélodie pop un peu sucrée, mais pas trop. C’est une piste entraînante. C’est le genre de titre qui vous remonte le moral même après une journée des plus… pourries 🙂

Vers la fin de l’album, on a la piste « Coffee queen » est aussi une piste plus joyeuse qui contraste avec les autres pistes précédentes que j’évoque ci-après.

Le groupe sait aussi proposer des balades comme « Children in bare feet », « Shattered », « Love now » ou encore « What we did do wrong ? ». En poussant dans le blues avec des titres comme « One Day ».

Le groupe flirte aussi avec des mélodies à la Beatles comme avec « Untraceably gone » qui me fait penser à « Let It Be » dans sa composition. On pourrait y rajouter « All true ».

Toujours dans les inspirations beatlesques, la piste « Gone Baby gone » peut difficilement nier la parenté.

L’ultime piste, « Silence for beginners » est une piste très douce, inspirée bossa nova. Histoire de finir l’écoute sur une dernière impression de calme et de détente.

Philippe m’avait précisé dans son courrier que le groupe cherchait l’éclectisme du « White Album » des Beatles. Après l’écoute du premier album éponyme, le contrat est rempli.

Les seuls regrets que j’ai ? Que le groupe n’ai pas pensé à Bandcamp pour se faire connaître et que l’album ne soit disponible qu’en version numérique. Mais faire des versions physiques, ce n’est pas donné… 🙁

Trois ans sur la framasphere*, quel bilan ?

Il y a un peu plus de trois ans, j’écrivais un billet un peu acide sur la relation que j’ai entretenu avec diaspora*, le réseau social décentralisé.

Je concluais l’article ainsi :

Diaspora* est pour moi un réseau complémentaire, et moins généraliste que Google+ et qui me permet d’avoir un contrôle plus fin des échanges. J’ignore combien de temps j’aurais ce compte sur le pod de framasoft. Peut-être que l’aventure s’arrêtera dans une semaine ou dans trois ans. Pour tout dire, je m’en contrefous complètement.

Ce qui compte, c’est d’essayer, loin de projet feu de paille comme ello. Son idée de ne pas dépendre de la publicité est purement hypocrite, car ils devront bien un jour où l’autre monétiser leurs données, seul trésor de guerre des réseaux sociaux classiques.

Je préfère échouer quelque part que de ne pas avoir essayer. Un échec est plus facile à supporter que des remords. Cela me rappelle une scène culte d’un des meilleurs épisodes de l’hexalogie de la Guerre des Etoiles (en anglais, c’est mieux)

J’ignorais qu’en 2017, je serai encore un utilisateur actif de la framasphere*. Sur mon profil, j’ai quelque chose comme 783 contacts (faudrait que je fasse le tri). D’ailleurs, j’ai remarqué que le réseau décentralisé a fini par remplacer mon vieux compte google plus que je maintiens en vie pour des raisons sentimentales 🙂

Le 30 octobre 2017, Framasoft annonçait en fanfare les 3 ans de son pod diaspora*, qui cumule quelques 40 000 comptes. Seul les mainteneurs du pod doivent savoir quelle est la proportion réellement active.

Nombre de blogueurs influents, comme un certain Manuel Dorne y avait ouvert un compte – à moins que ce fut sur un autre pod du réseau diaspora* – pour le laisser moisir comme une vieille chaussette sale. Ce qui n’empêche pas le réseau diaspora* d’exister après tout !

J’ai réussi à me faire ma petite toile de relations sur diaspora* et c’est le principal. Le réseau est sûrement plus petit que le surpuissant Facebook et ses 2 milliards de comptes créés. Mais il ne souffre pas de la pollution des djeunez en pleine période pubère se perdant dans la haine de l’autre à cause de son orientation sexuelle, de sa couleur de peau, ou encore de sa confession. Oui, c’est un peu caricatural, mais c’est souvent le portrait de la génération des « digital natives ».

Il y a un an, j’écrivais un billet sur ma dé-GAFAM-isation, et sur certains plans, cela en est resté au même point. Je n’ai pas vraiment accroché à l’initiative Framagenda. Mon moteur de recherche reste Google, même si je fais des efforts pour m’en passer.

J’ai ouvert récemment un compte sur Mastodon, via framapiaf. Même si les débuts ont été un peu ardus, cela m’évite de tomber sur les mêmes dérives que celle qui contamine Facebook. Même si je n’ai sur Framapiaf en ce 8 novembre 2017 qu’un peu moins d’une centaine d’abonnés et d’abonnements, c’est toujours mieux sur le plan qualitatif par rapport à l’oiseau bleu.

Bref, pour tout dire, si Mastodon et Diaspora* continue à bien se porter ainsi, je pense qu’au moins mon compte twitter pourrait passer l’arme à gauche dans un délai de 18 mois. Pour Google Plus, je verrai à hauteur de deux ans.

Pour finir ce billet, je tiens à tirer mon chapeau à Framasoft qui montre que ni Facebook, ni Twitter ne sont incontournables. Que la Framasphere* ait soufflé sa troisième bougie est la meilleure claque aux personnes médisantes, dont j’ai fait parti en octobre 2014. Donc, mea culpa !

Virtualbox comme outil dans le cadre de formations

Etant amenés à faire des formations à des client sur différents logiciels, je souhaiterai partager ici plusieurs astuces que nous avons mis en place au sein de mon équipe et que nous réutilisons dans le cadre de formation professionnelle que nous sommes amenés à préparer et donner à des clients. Je profiterai de ce retour d'expérience pour partager des astuces, des conseils, des pratiques qui ont été testées et validées en situation sur le terrain hostile des réseaux d'entreprises...

Nous utilisons également ces VM (VM = Virtual Machines ou Machines virtuelles, soit les machines virtualisées, les systèmes invités dans Virtualbox, le système hôte étant la machine physique qui fait tourner le le logiciel Virtualbox) pour nos différents projets dans le cadre de l'appropriation d'une nouvelle technologie (on ne peut pas tout savoir), de veille ou de la réalisation de P.O.C. (Proof of Concept) rapide.

Dans ce billet, quelques éléments / retour d'expérience. Je ne détaille pas, des connaissances sur le fonctionnement de Virtualbox (ou d'un environnement de virtualisation en général) sont un prérequis.

Pourquoi choisir Virtualbox ?

Nous utilisons Virtualbox et ce pour plusieurs raisons :
- Les machines virtuelles sont portables : nous travaillons sous des distributions Linux différentes selon les collaborateurs, les clients sont sous des OS Microsoft (Windows 7 ou 10). Et le transfert d'une VM d'un environnement à un autre se fait sans soucis (juste le temps de la copie). Les VM sont parfaitement compatibles (si les versions de Virtualbox sont bien les mêmes).
- facilité de transfert et de sauvegarde : les VM sont des gros fichiers qui viennent avec des fichiers de configurations XML. Facile à copier d'une machine à l'autre et donc à sauvegarder (on copie tout le fichier).
- parce que je maîtrise cet outil. Oui je connais KVM (et le fait qu'il y ait une interface graphique si besoin etc. mais je reste fidèle à la facilité de Virtualbox ;)

Prérequis à une formation

Avant d'intervenir en formation en présentielle chez un client, nous demandons comme pré-requis :
- que l'on nous mette à disposition des machines disposant d'un processeur Intel coreiX (X étant un nombre de 3 à 7, l'intérêt est d'avoir un processeur 64 bits, supportant les instructions de virtualisation et donc d'avoir une machine virtuelle performante). Intel ou équivalent chez AMD (que j'avoue ne pas connaître).
- qu'idéalement la machine est un SSD : des machines virtuelles de formation ont des petits jeux de données et ne font que quelques gigas (elles tiennent sur des clefs USB), ce n'est pas ça qui va prendre de la place sur le disque. Et comme un SSD c'est toujours plus rapide et plus de confort pour la virtualisation...
L'astuce de Genma : copier les machines virtuelles de formation sur plusieurs clefs USB. Pour qu'on puisse lancer plusieurs copies le jour J.
- à minima 8 go de RAM : j'ai déjà eu des PC de formation sous Windows 7 64 bits avec 4 giga de RAM, même avec une machine virtuelle à laquelle on affecte que 512 Go à 1 Go de RAM (pour un serveur nginx / php / MySQL), c'est lent. 8 giga de RAM permettent d'être confortable (et de faire tourner 2 VM auxquelles on affecte 2 Giga de RAM chacune), 16 Go c'est idéal.

Configuration réseau

Pour la configuration réseau sous Virtualbox, j'ai fait un billet dédié abordant ce sujet Yunohost, Virtualbox, Interfaces réseaux. Le fait que ce soit Yunohost ne change rien à la philosophie, les explications de mon billet restent et sont valables pour n'importe quel système en tant qu'invité.

L'astuce de Genma : attention à bien penser à faire des reset des adresses MAC à l'installation des VM sur chacun des postes de formation pour éviter des soucis d'IP. En effet, dans le cas d'une connexion réseau par pont sur un réseau fournissant une adresse en DHCP, si la carte réseau virtuelle garde la même adresse MAC (cas d'une copie d'une même machine virtuelle invitée sur plusieurs PC hôte), on se retrouve très vite avec des conflits réseaux...

Il faut anticiper le maximum de problème (on aura toujours des imprévus) d'où une seconde astuce :

L'astuce de Genma : penser à faire valider avant par le client la mise à disposition d'une connexion à Internet et la qualité du réseau (pas de proxy nécessitant une authentification, pas de filtrage par adresse MAC ou autre etc.) Et prendre en compte les informations pour adapter la connexion réseau de la machine virtuelle en conséquence.

Utiliser des points de restauration snapshot

Cela permet que si la personne n'a pas réussi l'exercice, qu'elle puisse repartir d'une machine ayant le résultat et de continuer. Si il y a une mauvaise manipulation, on peut repartir d'une version qui était fonctionnelle. De plus, ces points de restauration / snapshot s'exportent très bien à l'export de la VM (pour sa copie sur clef USB puis sur les PC de formation).

L'astuce de Genma : penser à nommer les points de restauration.

Le luxe étant d'avoir une machine virtuelle par grande phase / partie de la formation (qu'on lance et éteint à chaque fin de grande partie). Mais cela fait autant de machine à maintenir...

Les comptes utilisateurs

Avoir un compte utilisateur et un compte administrateur. Mettre des mots de passe simple (le même pour les deux). L'objectif n'est pas d'avoir de la sécurité mais d'avoir des comptes facile à utiliser

L'astuce de Genma : dans le cas de machine Linux, activer un serveur SSH. Si la machine virtuelle a une IP publique (ou sa machine hôte et qu'on a activé la redirection de port sur la configuration NAT de la machine virtuelle), on peut ainsi facilement accéder à n'importe quel VM via SSH (vu que les comptes sont connus) et aider / débloquer un des participants depuis son propre PC.

Avoir une VM template et maintenir sa VM à jour}

J'ai une VM coquille vide de référence : une installation de Debian minimale de laquelle je peux repartir en la clonant pour répondre à des besoins de formation pour lesquels je n'ai pas encore de VM. Je ne repars pas de zéro comme ça. Et je fais le maintiens / mise à jour de cette VM (tout comme celles plus avancées dans lesquelles il y a un ou plusieurs logiciels dédiés aux formations). Comme ça, je suis les évolutions et montées en version.

Aller plus loin ?

J'avais écrit un billet Jouons avec Ansible et Virtualbox dans lequel, comme le nom l'indique,

On peut imaginer d'automatiser certaines choses avec Ansible et un script. En effet, comme Virtualbox est également accessible en ligne de commandes, on peut imaginer un script qui :
- lance une VM via les commandes Virtualbox
- fait un snapshot /point de restauration de la machine virtuelle
- fait une mise à jour de la VM via Ansible (pour éviter la saisie de mot de passe)
- fait un snapshot /point de restauration de la machine virtuelle (pour conserver la version mise à jour)
- éteindre la machine et passe à la suivante

On lance ça un midi ou un soir et on a toutes ses VM maintenues à jour...

Sauvegardes

Bien évidemment, il faut penser à avoir des sauvegardes de toutes ces machines virtuelles vu tout le travail qu'on aura fait pour les mettre en place. Mais les sauvegardes c'est une évidence, non ?.

Conclusion

Que ce soit pour des VM pour des sessions de formation, pour des POC ou pour des projets, Virtualbox répond parfaitement à mes attentes. Le côté rigueur imposé (comptes connus, mises à jour etc.) permet l'interopérabilité et le transfert rapide à d'autres personnes (collaborateurs ou apprenants de la formation) et permet du gain de temps conséquent. Et vous, un avis, d'autres pratiques ou usages, ou des conseils ?