Slackware Linux : 25 ans déjà ? Comme le temps passe vite !

Bon, d’accord, au moment où je rédige ce billet, cela fait 25 ans et un jour. On ne va pas chipoter pour 24 heures, non plus ?

Même si la Slackware Linux 15.0 n’est toujours pas sortie – même si on reste dans les clous des 2 à 3 ans par version majeure – j’ai eu envie de voir ce que donnait la Slackware Current en ce 18 juillet 2018.

Pour mémoire, la Slackware 14.1 est sortie le 4 novembre 2013, la Slackware 14.2 est sortie le 1er juillet 2016.

Pour éviter de devoir passer plus d’une heure et demie à installer les mises à jour en partant d’une Slackware Linux 14.2, je suis parti du dernier jeu d’images ISO proposées par AlienBob, sortie le 23 juin 2018.

Étant donné que je ne suis pas trop fan de KDE ou de Plasma, j’ai pris l’image ISO de la version Mate.

Après avoir choisi le clavier et la langue qui vont bien, j’ai laissé démarrer la distribution.

On est accueilli par un Mate-Desktop avec une bonne partie de la logithèque de Xfce, mais au moins, cela reste utilisable 🙂

J’ai donc pu partitionner le disque avec gParted. Je suis ensuite passé en tty2 pour lancer en tant que root le script setup2hd qui reprend les grands principes de l’installateur de la Slackware Linux. Ce qui m’a fait toussé, c’est l’espace demandé…

Environ 8,9 Go… Ça pique ? Non, ça empale 🙁

D’ailleurs, l’installation a été très longue… Environ une heure… Je suppose que la machine virtuelle a été responsable de cette lenteur.

La fin de la configuration est classique pour toute personne qui connaît déjà la Slackware Linux.

On s’aperçoit rapidement que du nettoyage sera à faire avant d’effectuer les mises à jour…

Après m’être connecté en root au premier démarrage – le temps de faire le nettoyage – j’ai lancé l’outil pkgtool et j’ai viré toutes les références à Xfce, WindowMaker et les autres environnements et gestionnaires de fenêtres inutiles.

Le nettoyage effectué, j’ai lancé l’installation des mises à jour avec les commandes suivantes :


slackpkg update gpg
slackpkg update
slackpkg install-new
slackpkg upgrade-all

Comme le noyau a été mis à jour, j’ai fini avec un petit lilo -v

Au démarrage suivant, j’ai modifié le fichier /etc/profile.d/lang.sh.

J’ai créé un compte utilisateur avec adduser, et une fois dans la session Mate-Desktop en tant qu’utilisateur normal, j’ai utilisé la commande slackpkg install libreoffice pour installer la suite bureautique. L’utilisation du greffon slackpkg+ activant l’accès au dépôt logiciel d’AlienBob.

Une fois tout cela terminé, j’ai fait chauffer mon enregistreur d’écran.

Comme vous avez pu le voir, il reste encore des angles à arrondir, du moins avec la version Mate-Desktop. Pour une distribution qui vient de fêter ses 25 ans, et même s’il n’y a pas encore de nouvelle version majeure sortie, c’est agréable.

Vivement que la Slackware Linux 15.0 sorte… Je l’attends de souris ferme !

Que devient la SolydXK, ancien fork de la LinuxMint Debian Edition ?

En lisant cet article d’Olivyeahh concernant la LinuxMint Debian Edition et sa migration vers la future version 3, j’ai eu envie de voir ce que devenait le projet SolydXK qui a commencé sa vie comme une variante de la LinuxMint Debian Edition. N’étant pas trop fan de KDE, j’ai donc pris l’image ISO Xfce du projet SolydXK.

En effet, début juillet 2018, une nouvelle série d’images ISO est sortie. C’était donc l’occasion de voire ce que cela donnait. De plus, près de 3 ans et demi après le dernier billet que je lui avais consacré, c’était une raison supplémentaire d’en parler.

Je concluais le billet de mars 2015 ainsi :

Pourrais-je conseiller la Solydxk a une personne qui chercherait une distribution avec Xfce basée sur Debian GNU/Linux ? Oui, surtout si la personne est un peu effrayé par l’installation d’une Debian GNU/Linux pure et dure.

Cette conclusion s’applique-t-elle encore en 2018 ? Voyons cela.

J’ai donc récupéré l’image ISO en saveur Xfce de la SolydXK 9… Quelque chose me dit que sa base est celle de la Debian GNU/Linux Stretch dont la cinquième révision est sortie le 14 juillet 2018.

Après le démarrage, on constate que la SolydXK a cédé à la mode du flat… Joie. L’installateur est celui de la LinuxMint Debian Edition, donc du tout bon.

À noter que l’installateur propose directement de partitionner le disque si celui-ci ne l’est pas.

L’installation est pliée en une dizaine de minutes. J’ai ensuite fait chauffé mon enregistreur de vidéo pour capturer la machine virtuelle dès le début de la post-installation.

Cette distribution tient la route, même si sa base commence à faire sentir son âge. L’assistant de bienvenue est super bien pensé. C’est sûrement l’un des meilleurs que j’ai vu. Même si je ne suis pas toujours d’accord avec les logiciels proposés à chaque fois, c’est déjà bien d’y avoir pensé.

Autre énorme bon point : une traduction quasi-parfaite dès le premier démarrage. Ce qui donne une aura de sérieux à l’ensemble du projet. Les seuls points noirs ? Un habillage graphique qui arrache légèrement la rétine et l’utilisation d’un thème flat.

Est-ce que je pourrais reprendre au mot près la conclusion de l’article de 2015 ? Oui, sans aucun doute. Une excellente surprise donc.

Un peu plus de 5 mois après Mate-Desktop 1.20, où en est la future version 1.22 ?

En février 2018, Mate-Desktop 1.20 sortait. Comme j’ai l’habitude de passer à la version de développement de l’environnement quand il est suffisamment complet, quand on en est à la deuxième version intermédiaire, j’ai désiré avoir un premier aperçu.

Au moment où je rédige ce billet, le 13 juillet 2018, il manque encore des composants et un autre qui ne peut pas être recompilé… J’ai par ailleurs ouvert un bug sur le github de Mate-Desktop pour rapporter le problème rencontré. Je suis parti d’un clone d’une machine virtuelle créée pour le tutoriel du mois de juillet 2018.

La première étape a été de récupérer l’ensemble des codes sources de Mate Desktop 1.21 :

wget -r -nH -nd -np -R "index.html" http://pub.mate-desktop.org/releases/1.21/

Pour les paquets à faire recompiler, j’ai appliqué les lignes de commandes suivantes :

asp export nom-du-paquet
cd nom-du-paquet
upgpkgsums ; makepkg -si

Et voici la liste des composants

Mate :

  • mate-common -> précompilé
  • mate-desktop
  • mate-user-guide
  • libmatekbd
  • libmatemixer
  • libmateweather
  • mate-icon-theme
  • caja
  • mate-polkit -> précompilé
  • marco
  • mate-settings-daemon
  • mate-session-manager
  • mate-menus
  • mate-panel
  • mate-backgrounds -> précompilé
  • mate-themes -> précompilé
  • mate-notification-daemon
  • mate-control-center
  • mate-screensaver
  • mate-media -> précompilé
  • mate-power-manager
  • mate-system-monitor

Mate-extra

  • atril
  • caja-extensions (via caja-open-terminal) -> précompilé
  • engrampa
  • eom
  • mate-calc
  • mate-applets
  • mate-icon-theme-faenza -> précompilé
  • mate-sensors-applet
  • mate-terminal
  • mate-user-share -> précompilé
  • mate-utils
  • mozo -> précompilé à cause du bug rapporté https://github.com/mate-desktop/mozo/issues/44
  • pluma
  • python2-caja -> précompilé

Une petite vidéo de l’ensemble en action.

Comme vous avez pu le voir, aucune grande révolution au passage. On est encore une fois dans le peaufinage. Si cela permet d’avoir un environnement plus stable, pourquoi pas ? J’attends avec impatience la mise à mort de libmateweather au profit de gnomeweather pour une météo plus fine.

Mais ne faisons pas la fine gueule. La version de développement est franchement stable. Mais comme je l’ai précisé un peu plus haut, elle est encore trop incomplète pour que je l’installe en dur sur ma machine… Mais cela va être très dur d’attendre 😀

Petit cadeau d’un geek pour des geek(ette)s :)

En ce milieu du mois de juillet 2018, voici donc une version rafraîchie de mon tutoriel d’installation pour Archlinux… Oui, je sais, j’ai déjà posté la version de juillet 2018, mais j’ai voulu rajouter un petit bonus qui m’a été demandé depuis longtemps : l’installation de Trizen.

Cela a été surtout l’occasion de virer un passage inutile, celui concernant le contournement du bug entre VirtualBox et un noyau linux 4.17 avant le 4.17.4.

Trève de bavardage, le guide est disponible en cliquant sur ce lien, sans oublier les versions « dynamiques » via github et framagit.

Bonne fin de journée !

Ah, les dépôts tiers et leurs aléas…

J’ai souvent eu la dent dure sur l’utilisation abusive des dépôts PPA pour les distributions de la famille Ubuntu. Quand on voit des horreurs comme la FerenOS qui arrive à accumuler quelque chose comme 20 ou 30 dépôts tiers, on se dit que cela finira un jour par partir en cacahuètes. Je vous renvoie à cette vidéo concernant une des préversions de la PinguyOS 18.04 qui n’était pas franchement mieux au final…

On est dans quelque chose qui ressemble à un film d’horreur de série Z. En allant sur distrowatch, j’ai pu lire une énième fois une information concernant le dépôt tiers AUR.

Cette brève reprend un article qui parle de l’existence de recettes sur AUR trafiquées pour installer un logiciel malin qui fait fortement penser à un mineur de crypto-monnaie. En effet, dans l’article on apprend que la modification – appliquée sur le paquet Acroread. Si on regarde les commentaires, on s’aperçoit que la modification avait été introduite le 7 juillet 2018, et que celle-ci a été retirée dans les heures qui ont suivi après un Trusted User. Il n’est pas possible de savoir le nombre de personnes qui ont récupéré la recette malicieuse.

Le compte utilisateur frauduleux a été éjecté au passage. Je l’ai souvent précisé dans mes vidéos, il faut utiliser AUR que lorsque l’on ne trouve pas un logiciel sur les dépôts officiels. Aucun dépôt tiers n’est parfait. Ce qui fait la force d’AUR, c’est que les paquets précompilés sont inexistants, et que toute modification au niveau des recettes sera rapidement vue. Évidemment, si le code source à l’origine est vérolé, la recette n’y changera pas grand chose.

Autre règle de survie : ne jamais installer de noyau en provenance d’un dépôt tiers, ni de logiciels de bas niveau, du genre bibliothèque C… Le risque zéro restera inexistant. Il ne faut pas oublier que Gentoo a été aussi compromise via un de ses miroirs fin juin 2018.

Combien de temps avant qu’un PPA frauduleux ne fasse parler de lui ? Les paris sont ouverts 🙂

Mageia : le retour des grands courageux…

Salut !

Petit billet écrit à l’arrache pour montrer que les trolls sont affamés en ce moment.

Je vous laisse déguster le message trollifère et dont la personne qui l’a posté – avec une adresse forgée de toute pièce – en passant par un relai sur le réseau TOR – on admire le courage d’assumer les propos a laissé sur mon blog.

Et la deuxième partie :

Je ne ferai aucun commentaire et je vous invite à regarder la vidéo en question.

Petite cerise sur le gâteau pourri,  une série d’attaques ad-hominem :

Dernière remarque : je sais très bien que l’équipe de Mageia va encore gueuler de se retrouver dans l’oeil du cyclone.

C’est dommage pour ce projet qui n’en a pas besoin, vu ses difficultés à sortir des images ISO et ce depuis au moins sa version  5.0. Si les trolls de cette engeance pensent qu’ils vont relancer une guerre sainte entre moi la Mageia, c’est raté d’avance.

Je tiens à préciser que désormais TOUS les commentaires basés sur des IP identifiées comme appartenant à un réseau TOR sera sucré sans autre forme de procès.

Sur ce, je vous laisse, je dois retourner à une période où je suis loin des dérives du monde libriste qui ressemblent à celui des adolescents immatures qui sont dans un constant concours de bites qui auraient besoin d’être déniaisées.

Une claque de réalité bien indispensable pour les geek(ette)s…

Je dois l’avouer. Je suis un geek de la pointe de mes cheveux – du moins ce qu’il m’en reste – jusqu’aux ongles des orteils. Avec mes faibles ressources – sur ce point je tiens à préciser que les braves gens peuvent aller se faire cuire une omelette à base d’oeufs d’autruche – je ne peux me payer des vacances chez des amis ou de la famille qu’une fois tous les 6 à 8 mois.

Je passe donc le reste du temps à faire mon geek pour quelques connaissances, à donner des coups de main aux autres aussi bien en réel qu’en virtuel. Pour essayer de conserver un minimum de contact avec la vie réelle.

Celle de ma dentiste, celle d’un kiné. Celle de ma boulangère ou celle d’un agent municipal. Bref, loin de tout ce qui constitue le doucéreux monde de l’informatique, qu’elle soit libre ou pas. Même si je n’en ai rien à foutre d’une compétition sportive quadri-annuelle qui voit des équipes nationales (ou nationalistes ?) taper dans un ballon pour abrutir les masses, en suivant le bon vieux principe du « Panem et circenses ».

Mais revenons-en à l’informatique. Je n’ai que l’expérience d’une personne complètement autodidacte qui sait donc se sortir les doigts du fondement quand c’est nécessaire pour se débrouiller et résoudre un problème.

Je suis pour nombre de personnes « l’informaticien » celui qui résoudra les pannes obscures. Celui qui emploiera des termes volontairement abscons et techniques. Non pas pour se la « péter en societé », mais pour se faire comprendre de ses semblables dans ce domaine qui n’a qu’une soixantaine d’années environ, donc presque rien au niveau de l’histoire de l’humanité.

Bien entendu, cela me fait plaisir de pouvoir dépanner des personnes qui sont moins plongées que moi dans les arcanes insondables de l’informatique. Mais ce n’est pas pour autant que je me prendrai pour le maitre du monde 🙂

Ce n’est pas parce que je sais à quoi sert tel ou tel composant matériel ou logiciel que je serai une personne meilleure dans la vie de tous les jours.

J’ai même eu l’étrange surprise d’avoir la confirmation – en devenant le parrain de deux bouts de choux adorablement insupportables pour qui j’étais déjà leur « tonton Fred » – que le monde du libre est largement plus intolérant que celui de certaines religions.

Cela a été une claque surtout que je ne suis pas franchement un catholique pratiquant proche des fondus de la Fraternité Saint Pie X. Tout à l’opposé même. Même si ce n’est que de l’informatique, peut-on accepter des propos digne de l’anathème ?

Simple question, à vous de répondre maintenant. Je vous laisse, je retourne à cette vie que je commence à apprécier.

Le Markdown comme langage d’écriture universel ?

Introduction

Il y a quelques années, quand j'avais un peu de temps et que je contribuais modestement à Wikipédia pour quelques pages, j'avais envisagé de passer du temps à apprendre la syntaxe wiki, chose que je n'ai fau final pas vraiment faîte, au-delà des quelques éléments de bases : gras, italique, lien hypertexte, liste à puces... Avec mon autohébergement et la mise en place de mon propre wiki pour concerntrer et tracer un certain nombres d'informations utiles (principe d'un wiki), j'ai un peu dérouillé ma syntaxe wiki mais sans plus.

En ayant commencé à utiliser Gitlab (voir à ce sujet Lifehacking - Gitlab, outil idéal ?) pour la gestion des projets, dont les wikis lié aux services que je gère, j'ai commencé à passer plus de temps à faire du markdown (le langage d'écriture par défaut dans Gitlab), que j'avais déjà expérimenté au travers quelques fichiers Read.me publié sur des projets Git.

Devant le côté assez simple de Markdown, le fait qu'il puisse être utilisé pour mon outil de Wiki (Dokuwiki) via un plugin, je me suis posé de l'usage de Markdown comme langage universel : est-ce utile de passer prendre un peu de temps pour l'apprendre ? Telle est la question que je me suis posée et la réponse est tient en un mot : OUI. Ci-dessous le pourquoi et l'intérêt...

Le Markdown ?

Si je cite la définition de base du Markdown Markdown est un langage de balisage léger créé par John Gruber en 2004. Son but est d'offrir une syntaxe facile à lire et à écrire. Un document balisé par Markdown peut être lu en l'état sans donner l'impression d'avoir été balisé ou formaté par des instructions particulières. Un document balisé par Markdown peut être converti en HTML ou en autres formats.

On retrouve deux des caractéristiques que j'apprécie particulièrement : léger et facile, convertissable.

Quel éditeur ?

Il existe différentes éditeurs qui supportent Markdown, dans le cadre de l'industrialisation de nos projets au sein de mes équipes et pour avoir une cohésion des outils (un même outil utilisé par tous permet de pouvoir s'aider facilement les uns les autres), nous avons retenu Atom avec l'extension Markdown comme éditeur de fichier. Atom permet d'avoir un aperçu de son document au moment de la saisie, on retrouve ce bon vieux WYSIWYG (What You See Is What You Get) que je connais depuis mes débuts à faire des pages HTML il y a un peu plus de 15 ans de ça... Associé à un plugin Git pour commiter les fichiers de wiki que l'on édite, c'est un outil pratique et qui convient à nos besoins.

Un autre besoin

Nous faisons beaucoup de rédaction de livrable, nous avons un certain nombre de documents à régulièrement rédiger pour les clients. Nous avons des templates définies avec des styles dans LibreOffice, ce qui est une bonne chose. Mais comment passer à la version supérieure de l'industrialisation ? En éditant la documentation sous forme de fichiers Mardown dans un dossier du projet dans notre instance Gitlab (qui nous sert aussi pour sa partie Kanban, suivi des fichiers de configuration...). On peut ainsi facilement travailler si besoin à plusieurs sur un projet, reprendre le projet, corriger la documentation (nous avons toute la puissance de Git pour la gestion des conflits, la décentralisation...) ce qui est, plus pratique que le suivi des modifications d'un seul et même document LibreOffice édité, à plusieurs, à tour de rôle.

Il faut ensuite le convertir de la source Markdown vers un format LibreOffice. Il existe Pandoc, comme couteau suisse de la conversion, qui permet de prendre différentes sources dans différents formats pour les formater convertir dans différents formats de sortie : Latex vers HTML ou Opendocument (format LibreOffice) par exemple, pour ne citer que deux parmi des dizaines de format. Pour tout savoir, voir le site de Pandoc. Pandoc accepte parmi tous ses formats d'entrée le format Markdown, mais le fichier LibreOffice sortit est un fichier de base.

GreenMan, pour ne pas le citer et avec qui je travaille, a pris sur lui le défi de construire une moulinette en shell bash, pour permettre une transformation d'une documentation écrite en Markdown vers un document formaté sur base de template de l'entreprise et ça marche. Il reste quelques ajustements à faire, nous devons relire et corriger / ajuster la mise en forme du document final pour quelques coquilles, mais le plus gros du travail est fait. Nous avons bien un outil qui nous permet de passer dur Markdown vers LibreOffice, selon un template de document prédéfini. Sur ce sujet, je reviendrai plus tard avec un article dédié co-rédigé avec GreenMan.

Mais c'est outil, sa simplicité d'usage (pour un administrateur système de base qui s'est lancé une commande shell) renforce cette idée d'appropriation du Markdown.

Markdown pour les mails ?

Ayant écrit un compte-rendu dans Gitlab et donc en syntaxe Markdown, j'ai fait un copier coller dans le corps du mail et j'ai eu à remettre en forme... Perte de temps... J'ai donc cherché rapidement et effectivement il existe une extension pour Thunderbird pour la prise en charge du Markdown. Et il existe bien une Extension pour Thunderbird qui correspond à mon besoin : Markdown Here.
Écrivez votre courriel avec Markdown, puis rendez-le attrayant.Markdown Here permet d'écrire un courriel avec Markdown et de le convertir (afin qu'il soit attrayant !) avant de l'envoyer. C'est parfait pour tous ceux qui n'aiment pas travailler avec des boutons de formatage pendant qu'ils écrivent un courriel. C'est particulièrement utile pour les programmeurs qui écrivent des courriels qui incluent du code — la coloration syntaxique est également supportée. Et pour les mathématiciens parmi nous : Markdown Here convertira tout aussi bien les formules TeX.
- http://markdown-here.com (en anglais)
- https://github.com/adam-p/markdown-here (en anglais)

Conclusion

Vu que je m'investis de plus en plus dans l'apprentissage du Markdown, il faudra également que je regarde quel outil permettrait de faire des supports de conférence en se basant sur ce langage d'écriture (Je sais que ça existe, il faudra que je vois), ce qui permettrait encore de renforcer l'intérêt et l'investissement sur ce langage.

En vrac’ de fin de semaine

Un petit en vrac’ depuis des vacances chez des amis.

Commençons par le logiciel libre.

Côté culture :

  • Si vous appréciez le classique moderne ? Alors les compositions de Gianluca Piacenza seront pour vous.

C’est tout pour cette fois. Bon week-end.

Un canal de communication privé ?

Lorsque que je donne ma conférence du pseudonymat au pseudonyme on me pose la question suivante « est ce que j'ai un autre pseudonyme décorrélé – non lié à mon pseudonyme actuel et non lié à mon identité civile…. » Je dois avouer que pour différentes raisons, qu'il faudra que je détaille ultérieurement dans un futur billet, j'y pense de plus en plus. Toutefois, vu l'ampleur du travail que cela serait, car cela est long et compliqué de recréer tout un tissu social en repartant de zéro (pour faire plus simple) et afin d'évaluer les contraintes que cela aurait et commencer par une première expérimentation moins contraignante, je pense que je vais, un peu, changer mon usage des réseaux sociaux.

En réseau social actuellement, j'en utilise deux : Twitter et Mastodon. J'ai longtemps utilisé Diaspora, laissé de côté (abandonné devrais-je dire) par manque de temps au profit de Mastodon. Mais mon fil Mastodon actuel – en ce qui concerne mes publications personnelles – reste encore trop un simple copier coller de mon fil Twitter.

Pour avoir deux canaux de communication sur les réseaux sociaux distincts aux usages et buts différents, et gérer les contraintes qui apparaissent peu à peu avec mon passage du pseudonymat au pseudonyme, j'expérimente donc les usages suivants :
- Twitter pour la veille, le « CV » et la personne publique.
- Mastodon, désormais, en accès restreint (pour choisir les personnes qui me suivent et en ne rendant pas public mes messages), pour garder une intimité « relative ».

Le blog continue, mais aura probablement une orientation avec des réflexions et du partage généraliste et générique, les états d âmes seront alors réservés à Mastodon.
Ce que je raconte n'engage que moi. Ne concerne que moi. Dans le cadre de mes activités dans le cadre professionnel, j'ai un droit de réserve à appliquer. Mais en dehors ? En tant que personnage publique ? Je ne suis nullement le porte-parole de quiconque que ce soit les associations, collectifs ou causes dans lesquelles je m'implique ou je crois tout comme mon pseudonyme, par principe, ne doit pas être lié à l'entreprise qui m'emploie. Mais comme mon pseudonyme est relié indirectement à mon activité professionnelle, je ne pourrais jamais empêcher des personnes de faire un lien, volontaire ou non, entre mes propos personnels et la personne que je suis professionnellement. Certes la frontière est assez mince, mais elle existe. De plus, Internet n'oublie pas. On change de vie… Si je sais où je serai dans quelques mois, je ne sais pas où je serai dans des années…

Ce sont là des éléments de réflexions qui seront à amener à évoluer et s'enrichir avec le temps. Ce billet apporte de l'eau au moulin de la réflexion « faut-il ou non faire le choix de passer du pseudonymat au pseudonyme » à travers un nouveau partage - retour d expérience personnel sur ce sujet. Je n'ai pas et il n'y a pas de réponse, chaque cas et situation est particulière. Et les situations ne sont pas immuables et évoluent avec le temps.

Que sont devenues les distributions GNU/Linux de 2013 ? Troisième partie.

Après le court billet du mois de juin, qui était assez positif dans l’ensemble, voyons le bilan du mois de juillet 2013 au bout de 5 ans…

Quelles étaient donc les distributions GNU/Linux évoquées à l’époque ?

10 billets, 9 distributions citées. Deux sont mortes : la Kwheezy et la Mango. On pourrait en rajouter une troisième avec la Bridge Linux qui n’est pas au mieux de sa forme. Ce qui est quand même un excellent bilan. Je dois avouer que la survie du projet MidnightBSD fait partie des mystères de la vie informatique 😀

On verra bien ce que le mois d’août nous réservera.

La pyramide de Maslow du sysadmin

Un billet que je dédicace aux amis Skhaen et Cabusar suite à nos discussions à PSES2018.

Mon billet de blog Silence sur ce blog en juin résume assez bien l'état dans lequel je me suis retrouvé et vu les soucis que j'ai rencontrés avec le legacy ces derniers temps j'en ai été à me poser la question de la pyramide de Maslow du Sysadmin. Pour rappel la pyramide de Maslow plus communément appelée pyramide des besoins, hiérarchise le fait que si des besoins essentiels sont à remplir (Besoins physiologiques : faim, soif, sexualité, respiration, sommeil, élimination) avant les besoins de sécurité (environnement stable et prévisible, sans anxiété ni crise), qui passent avant les besoins d'appartenance et d'amour (affection des autres) pour enfin arriver au Besoin d'accomplissement de soi. Dit de façon vulgarisée et simpliste, quand on n'a faim et pas de toit sur la tête, difficile de chercher de l'accomplissement personnel...

Au-delà des critiques du modèle, des biais etc. et de toute l'analyse scientifique du modèle, dans le présent article, je présenterai donc une sorte de pyramide inversée, en commençant par le bas de la pyramide en allant vers le haut, du plus urgent au moins urgent, dans le cadre d'un contexte particulier qu'est celui de l'administrateur système. Pour rappel, je suis un administrateur système assez jeune, je ne commence dans le monde professionnel pour cette partie que depuis quelques mois (même si je suis sysadmin à mes heures perdues par loisir depuis de nombreuses années) et cette pyramide reflète mon expérience personnelle (et est également l'occasion pour moi de faire le point sur moi-même, comme souvent avec les billets de ce blog).

Préservation de l'humain

Toute en bas de la pyramide, je place désormais la préservation de l'humain. Vu l'état dans lequel je me suis retrouvé et je suis actuellement, je pense que c'est là l'essentiel. Dans ma pyramide de Maslow personnelle, j'ai placé trop haut et trop loin le besoin d'accomplissement personnel, menaçant la stabilité de base, en réduisant mon sommeil de façon involontaire (insomnie pendant lesquelles on prend des notes, réfléchit à sa todo, avance son travail de sa journée), en réduisant mon temps de repos… Bref, désormais en bas de cette pyramide je place ma propre préservation. Du fait de mon implication dans un métier passion, implication qui continue encore aujourd'hui, ce ne sera pas facile, mais tant que cette base n'est pas solide, les autres étages de la pyramide n'ont aucun sens et aucune stabilité.

La documentation

Sans documentation, on aura beau avoir le meilleur Système d'information possible, avec des systèmes mis à jour, sauvegarder de façon automatique, avec de l'intégration continue, l'ajout de nouveaux serveurs virtualisés intégrés dans la supervision en quelques minutes, ça ne sert à rien. Car dès lors qu'il faut faire évoluer quelque chose, ou qu'il y a du sable dans les rouages, si quelque chose ne se passe pas bien, sans documentation, tout cet outillage parfaitement rôdé ne sert plus à rien, vu que l'on ne sait pas comment s'en servir...

La documentation, c'est donc la base. Et non ce n'est pas une perte de temps. Après, attention à documenter ce qui est essentiel, à préciser les prérequis (on ne va pas réexpliquer toutes les bases des commandes shell ou le fonctionnement Linux à chaque fois), il faut juste expliquer les choix, les informations pertinentes et nécessaires pour pouvoir faire le travail du quotidien et la gestion des incidents déjà rencontrés (on ne peut bien évidemment pas documenter des incidents jamais rencontrés, mais on peut en anticiper certains ou avoir la documentation nécessaire pour réduire leurs impacts).

La documentation, qui est une forme de traçabilité et de reporting de l'avancement, permet également de pouvoir à tout moment, d'arrêter pour reprendre plus tard, d'être remplacé, de déléguer…

La gestion des sauvegardes

Une fois qu'on se préserve soit et qu'on a documenté, il y a le sujet, vaste, des sauvegardes. Idéalement selon la règle des 3-2-1, en ayant défini ce que l'on doit sauvegarder ? et en ayant vérifié que ses sauvegardes sont bien utilisables (Sauvegarde et restauration).

La gestion des mises à jour

Si on sait et restaurer ses sauvegardes, on peut alors passer à la gestion des mises à jour en ayant un parc le plus à jour possible. Ce qui n'est pas tout le temps possible, il faut composer avec le legacy et toutes ces applications qui ne supportent pas des versions supérieures de PHP (par exemple)... Mais on fera le maximum pour faire les mises à jour et ce de façon régulière, afin d'éviter les failles de sécurité et d'avoir des applications patchées (évitant ainsi de subir des bugs corrigés via les mises à jour).

La sécurité

On a des systèmes à jour, mais quand ils ne sont pas maintenus et se font compromettre, que l'on sait restaurer (vu que l'on a des sauvegardes), on peut alors de poser la question de la sécurisation. Là encore, vaste chantier qui prend du temps et même si les bonnes pratiques et les bases d'hygiène numérique (dont font partie les sauvegardes et les mises à jour) sont appliquées, ça prend du temps. Et d'autant plus que l'on veut une sécurité renforcée et forte... On commencera d'abord par une gestion des mots de passe simple et efficace, puis on renforce la sécurité des connexions… Plein de choses à faire...

La supervision

La supervision, quelque-soit l'outil que l'on utilisera, permettra d'alerter et de surveiller si les sauvegardes se sont bien déroulées, si les serveurs sont bien à jour, si les services fournis par ces derniers sont bien délivrés… La supervision permet de savoir quand quelque chose ne va pas. Et quand ça ne va pas, vaut mieux avoir des sauvegardes, un système à jour, sécurisé, ce qui évite justement une partie des soucis qui font que ça ne va pas (restera les dénis de service par surcharge du serveur, les espaces disques saturés… suffisamment de choses qui permettent de ne pas s'ennuyer...)

L'automatisation

Enfin, quand on a un parc sauvegardé, plus à moins à jour, on peut alors se pencher sur l'automatisation. Beaucoup de sysadmin diront qu'un bon sysadmin est un sysadmin fainéant et que cette automatisation devrait venir beaucoup plus haut dans la pyramide, je ne pense pas. On saupoudrera un peu d'automatisation tout au long des différentes étapes précédentes, on anticipera l'automatisation à venir, ce qui permettra une industrialisation le moment venu : les sauvegardes, les mises à jour, la supervision, le renforcement de la sécurité, tout cela sera intégré dans l'outil de déploiement et de gestion du parc.

Traçabilité et suivi des actions

La traçabilité et le suivi des actions, l'historisation des connexions, l'analyses des logs (qui pourraient entrer en partie dans la supervision) viennent pour moi à ce niveau. On a un système qui ronronne, qui est stable, où tout se passe bien, on peut donc alors s'attaquer à la traçabilité et au suivi. Là encore, en cas d'incident, cela pourra être utile pour comprendre le pourquoi, pour corriger, une fois que l'on aura restauré le service en fonctionnement nominal (en repartant sur une sauvegarde ou sur la création d'une nouvelle machine : facile vu que ce sera automatisé...)

En dehors de la pyramide

La pyramide est mono-dimensionnel, avec une progression vers le haut et dedans, il y a des choses qui sont transverses. J'évoquais l'automatisation qui doit être anticipée et ce dès la mise en place des sauvegardes, il y a également en chantier transverse le fait de pouvoir et devoir organiser les priorités à chaque niveau : on commence par sauvegarder ce qui est le plus critique, à mettre à jour et à sécuriser les serveurs les plus critiques, pour ensuite les superviser...

Les aller-retour au sein de la pyramide seront nombreux et tous les étages sont importants.

Vieux Geek, épisode 130 : l’introduction de la restauration système avec MS-Windows Millenium.

Fin juin 2018, l’une des distributions devenue synonyme de Linux pour le grand public, j’ai nommé LinuxMint a sorti la première série d’images ISO pour sa génération 19.x. Dans l’annonce de distrowatch, on peut lire ceci :

Thanks to Timeshift you can go back in time and restore your computer to the last functional system snapshot. If anything breaks, you can go back to the previous snapshot and it’s as if the problem never happened.

Une traduction rapide donne ceci :

Grâce à Timeshift, vous pouvez remonter dans le temps et restaurer votre ordinateur sur le dernier instantané du système fonctionnel. Si quelque chose se brise, vous pouvez revenir à l’instantané précédent et c’est comme si le problème ne s’était jamais produit.

C’est une grande nouveauté dans le monde des distributions GNU/Linux à destination du public particulier. Mais dans le domaines des OS grand public, c’est une nouveauté plutôt vieille… Son introduction remonte au mois de septembre 2000… Avec la publication de l’ultime MS-Windows basé sur la branche MS-DOS, j’ai nommé le détesté – à tort ou à raison – MS-Windows Millenium Edition alias Me.

En effet, voici qu’on pouvait voir lors du processus d’installation de MS-Windows Me pour les personnes qui ont dû se farcir sa réinstallation à intervalle régulier…

Oui, j’ai réussi tant bien que mal à installer un MS-Windows Millenium dans une machine virtuelle VirtualBox…

J’avais eu la chance en l’an 2000 d’échapper à cette version ayant investi dans une licence du papa de MS-Windows XP, j’ai nommé MS-Windows 2000… Il n’y avait pas la restauration système, mais au moins, il n’y avait pas autant d’écrans bleu de la mort 🙂

Évidemment l’introduction de la restauration système était encore limitée, mais c’était déjà pas mal pour une première version, non ? Cela permet de relativiser les notes de publication après cela 🙂

Silence sur ce blog en juin

En novembre dernier, je donnais pour une première fois ma conférence Du pseudonymat au pseudonyme, où j'expliquais ma démarche personnelle faite il y a deux ans maintenant, revenant sur plus de 20 ans de pseudonymat. J'étais alors assez content, concluant sur le fait que j'avais pas encore de réponse à savoir si cela avait été le bon choix et n'était pas en mesure d'en saisir toutes les conséquences, car c'était encore trop frais, trop récent.

Burn-out

Fin mars dernier, je publiais deux billets d'importance : Le métier passion et Tout intellectualiser qui présentait l'état dans lequel j'étais arrivé. Je ne pensais pas à ce moment là, que trois mois plus tard, je serais encore sous les conséquences de ce que j'abordais dans ces billets... Peu de temps après je redonnais la même conférence actualisée, en terminant sur ce que j'aborde dans les billets cités, à savoir le fait que je m'étais retrouvé de moi-même coincé dans le métier passion... conduisant à un premier signe de burn-out, sous la forme d'une journée difficile durant laquelle m'étais effondré en pleurs devant mon poste de travail, suite à un incident de production. Je constatais que j'avais eu beau avoir anticipé des tas de choses, je ne pouvais avoir le contrôle sur tout.

Cette alarme m'avait fait arrêté le lifehacking extrême, mais j'ai continué à travaillé de trop nombreuses heures, 1/3 de plus que le temps réglementaire, cumulant fatigue nerveuse et physique. J'ai pourtant continuer à passer des heures en coulisse le week-end à travailler, sans qu'on me le demande, juste parce que j'en ai envie... Il y a beaucoup de choses à faire, je ne comptais pas mes heures, personne ne m'arrêtais car ne voyait ce que je faisais en coulisse... La pression personnelle que je me suis mis avait toujours le dessus...

J'ai ralenti un peu en arrêtant peu à peu et en me déconnectant le week-end - moins évident quand on est d'astreinte - car je voyais que je ne tenais plus le rythme. Et j'en suis arrivé, début juin à avoir, chaque semaine, une journée durant laquelle j'avais une phase de mal-être tel que je ne peux désormais plus renier, que oui, je suis en burn-out. Et une conséquence est que depuis début juin je n'ai rien publié sur ce blog que je n'avais écrit avant, je n'ai pas fête les 14 ou 15 ans du blog, je ne sais plus la date...
J'avais depuis longtemps posé des jours pour aller au festival Numérique Passage en Seine, et jusqu'au début de la semaine précédent l'événement, j'hésitais à annuler mes jours de congés pour avancer mon travail, tant j'ai de choses que je voudrais faire... J'ai tenu bon, je suis allé à Passage en Seine, j'ai refait ma conférence Du pseudonymat au pseudonyme en parlant de ce mal-être que je vis.

Du Bore-out au Burn-out

Sans refaire ma conférence et ré-aborder ce que je disais dans mes deux billets de blogs Le métier passion et Tout intellectualiser , celles et ceux qui me suivent depuis quelques années et qui ont suivi mon parcours m'ont vu passé d'une situation de mission placard, avec un bore-out, vers un métier passion et un épanouissement.

Dans les coulisses, il y a eu la reconnaissance de la direction quand à mon travail et mon investissement, en me donnant plus de responsabilités... Mon CV Linkedin parle pour moi. Je me suis alors mis une pression personnelle et un devoir, lié à un sentiment d'être redevable tel que j'en suis arrivé dans une situation où si je devais donner un échelle de 0 à 10, je dirai que 3 correspond à ce que l'on attend réellement de moi quand à mes responsabilités et mon poste, 6 ce que je pense que l'on attend de moi et que j'essaie de donner, 10 ce que je vise pour réussir à améliorer la situation rapidement. Améliorer la situation rapidement... Comme je le dis dans mon billet Devenir SysAdmin d'une PME - Gestion du legacy- Billet n°1 et les autres de la même série, j'ai hérité d'un service qui est ce qu'il est. Et j'ai passé des heures et des heures, par plaisir d'apprendre, par plaisir d'autodidacte et de comprendre, par crainte de ne pas avoir la maîtrise et le contrôle, à travailler encore et encore... pour atteindre le niveau 10. Et quand quelque chose ne marche pas, fatigue moral et physique cumulé aidant, je craque...

Passage en Seine

Passage en Seine, c'est un événement auquel je vais chaque année, depuis quasiment les débuts. J'ai beaucoup appris de mes pairs en suivant leurs conférences, blogs, tutoriaux etc. Avec les années, j'ai appris à connaître les personnes qui viennent, via nos rencontres dans le monde non numérique et nos échanges en ligne.

Depuis longtemps j'avais posé des jours pour aller à Passage en Seine. La semaine précédente je me posais encore la question d'annuler ces congés... Cela montre à quel point je n'étais pas bien... J'ai tenu bon, j'ai maintenu mes jours et j'y suis allé. J'ai rajouté une journée suivant le week-end pour pouvoir souffler un peu et remettre de Passage en Seine. Et alors ? Je vous renvoie vers mes messages sur les réseaux sociaux tagués PSES2018, ils témoignent de l'importance qu'à eu l'événement pour moi. Passage en Seine est pour moi : un moment de retrouvaille avec des personnes que j'ai appris à connaître avec les années, des amitiés d'Internet, des personnes que j'apprécie, qui partagent leurs savoirs... Ma famille des Internet, comme j'aime à les appeler.

Il y a eu beaucoup de moments d'émotions, j'étais à vif, à fleur de peau et j'ai témoigné à quelques-un.e.s d'entre vous des belles choses, je vous ai vu la larme au coin de l'œil, tout comme moi. Mais c'était important pour moi de vous dire ce que je vous ai dit.

Rassurer

Je voudrais rassurer les lecteurs et lectrices que je n'ai pu voir à Passage en Seine. Je me connais bien, je me psychanalyse depuis l'adolescence (je n'ai jamais consulté un professionnel) et j'en suis arrivé à la conclusion, que, entre-autre (car je suis plein de choses comme tout le monde), je suis cyclothymique. Les phases d'euphorie, de joie, cèdent parfois place à des phases de dépression, tel était le cas dans la double personnalité et dualité Genma - Jérôme que j'évoque dans ma conférence. Depuis que j'ai rejoins et fusionner Genma et Jérôme, c'est moins marqué, plus nuancé, et plus dur de voir le problème. Je suis en mode Genma dopé par le travail passion et je me suis fait piégé.

Je veux rassurer car je n'ai jamais porté atteinte à mon intégrité physique, je ne me blesse pas, mon corps me force à manger, à dormir, je ne prends pas de médicament ou autre donc je ne risque pas grand chose. Je suis peut être dans le déni, mais je pense que je peux gérer ça.

Passage en Seine a été une phase de pause, les longs moments de partages, de discussion, de soutien, des uns et des autres, les moments de rigoles, de partage.... Tout ça m'a fait du bien. J'ai appris que c'est partout pareil, que beaucoup des personnes auxquelles je tiens ont vécues ce que je vis, et leurs conseils m'ont aidés et m'aideront.

Conclusion

J'ai pris quelques jours pour souffler, mais je ne peux pas, je ne veux pas prendre deux semaines ou plus d'arrêt maladie, je me sens fors. Je sais que j'ai trois semaines de vacances dans un mois, et ce sera le moment pour reprendre du temps pour moi, de souffler, de ralentir le rythme, de me remettre en question et de comprendre enfin que non je ne peux pas tout régler d'un seul coup, que reprendre et améliorer le S.I. d'une entreprise ça ne se fait pas d'un claquement de doigt mais en plusieurs mois...

Guide d’installation d’Archlinux, version de juillet 2018.

Voici la cinquante-sixième version du tutoriel pour installer une Archlinux, que ce soit avec une machine virtuelle, utilisant un Bios ou un circuit UEFI. Cette version rend obsolète celle de juin 2018.

Note : des versions plus dynamiques sont disponibles sur mes espaces github et framagit.

Attention ! La section pour l’UEFI a été refondue, et je tiens à remercier Kevin Dubrulle pour une commande bien intéressante. Si vous pouviez me faire des retours sur cette section, j’en serai ravi !

De plus, il y a un bug connu entre le noyau linux 4.17 et VirtualBox 5.2.12, ce qui a entraîné l’ajout – temporaire – d’un contournement.

Si vous avez besoin d’une image ISO en 32 bits, le projet archlinux32 vous en proposera une.

Côté environnements : Gnome 3.28.2, Plasma 5.13.x, Xfce 4.12.0 et Mate-Desktop 1.20.3 en gtk3.

NB : si vous voulez faire une installation avec l’UEFI, il faut utiliser cgdisk, gfdisk ou gparted, et créer un partitionnement GPT. Sinon, ça plantera !

Ce n’est pas un tutoriel à suivre au pied de la lettre, mais une base pour se dégrossir. Le fichier au format zip contient :

  • La version odt
  • La version pdf
  • La version ePub
  • La version mobi (pour Kindle)

Le guide en question est sous licence CC-BY-SA 4.0 à compter du mois de mai 2016.

Bonne lecture et n’hésitez pas à me faire des retours en cas de coquilles !