En vrac’ de fin de semaine…

Comme chaque fin de semaine, l’habituel en vrac…

Côté logiciel libre, informatique et internet.

Côté culture ?

Bon week-end 🙂

Annonce concernant le guide d’installation pour Archlinux du mois de juin 2018

Un billet rapide pour prévenir de la mise à jour en cours de mois du guide. En effet, j’ai mis en ligne une version qui intègre une version modernisée du support de l’UEFI.

Vous trouverez ce guide sur l’article d’origine ou encore à cette adresse.

Les versions sur Framagit et Github ont été aussi mises à jour.

Merci pour vos retours.

En vrac’ de fin de semaine…

Comme chaque fin de semaine, l’habituel en vrac…

Côté logiciel libre, informatique et internet.

Côté culture ?

Bon week-end 🙂

Le rachat de Github par Microsoft, signe d’une Microsoftisation rampante du logiciel libre ?

C’est officiel. Depuis la début du mois de juin 2018, Microsoft a racheté Github. Les projets libres hébergés sur l’ancien roi de l’outil git – au point d’en devenir synonyme – commence à connaître des défections : un exemple qui m’est proche, c’est la migration des projets en relation avec Manjaro Linux sur gitlab.

Des projets plus petits comme SwagArch lui a emboité le pas.

Des chiffres assez importants ont été annoncés, comme les 13 000 projets qui auraient changé d’hébergeur dans la journée du 4 juin 2018, dixit Numerama, et jusqu’à 50 000 dans la semaine englobant l’annonce du rachat.

Que Microsoft ait commencé un long jeu d’étouffement des gros projets du libre avec de WSL (Windows Subsystem for Linux) permettant de faire tourner en natif Ubuntu, Debian, SuSE Linux Enterprise Server ou encore Kali Linux depuis MS-Windows 10 16.07, est-il besoin de le prouver plus avant ?

Quand Microsoft aime une technologie qu’il n’a pas développé en interne, ça pue pour la technologie en question…

Mais cette microsoftisation du monde Linux n’est pas une nouveauté. Il faut être honnête : l’apparence générale d’un KDE ou d’un Cinnamon fait penser à l’ergonomie générale d’un MS-Windows en dehors de la période 8.x de l’OS de Redmond.

Combien de distributions propose une barre de tâches avec l’heure en bas à droite, une zone de notification et un menu jaillissant en bas à gauche ? 🙂

Cependant, il n’y a pas que l’apparence qui est recopiée désormais. Je vais commettre un crime de lèse-majesté, pardon, de lèse-Mintité en évoquant les grandes nouveautés de la Linux Mint 19 qui est encore en bêta au moment où je rédige cette article. D’où l’obligation de mettre une image caricaturale avant de continuer cet article.

Maintenant que l’image a été postée, on peut continuer. Si on jette un oeil aux notes de publication de la Linux Mint Tara, la grande nouveauté mise en avant, c’est l’intégration poussée de Timeshift.

C’est quoi Timeshift ? Un outil qui fait furieusement penser à la restauration système introduite par Microsoft à l’époque du peu aimé MS-Windows Millenium.

Il y a aussi un autre point que je considère être casse gueule au possible, c’est la possibilité d’activer l’installation automatique des mises à jour. Je me suis exprimé dans une vidéo qui m’a voulu une volée de bois vert.

Heureusement les développeurs ont eu la conscience de ne pas cocher cette case par défaut. Mais rien que l’idée d’une telle option me fait peur.

Que la reine des distributions GNU/Linux durant des années se décide à rajouter ce duo entre la restaurations système et les mises à jour automatiques me fait dire que le monde du libre dans le domaine des distributions GNU/Linux est vraiment devenu un suiveur. Microsoft a tout le temps devant lui pour tuer le monde du libre. Vu le panurgisme des distributions grand public, le monde linux est loin d’être sorti de l’ornière.

Pour tout dire, le rachat de github m’en touche l’une sans me faire bouger l’autre. C’est cela qui est le plus terrible au final.

Devenir SysAdmin d’une PME – Les sauvegardes- Billet n°4

Ce billet fait partie de la série :
- Devenir SysAdmin d'une PME, retour d'expérience - Billet n°0
- Devenir SysAdmin d'une PME - Gestion du legacy- Billet n°1
- Devenir SysAdmin d'une PME - Mineur de bitcoin- Billet n°2
- Devenir SysAdmin d'une PME - Accepter de ne pas avoir le contrôle sur tout- Billet n°3

Introduction

Les sauvegardes... Ah les sauvegardes... Depuis que j'ai eu mon premier ordinateur et que j'ai perdu des données, j'ai appris très rapidement à faire des sauvegardes. Car il y a deux types d'administrateurs systèmes "celui qui a déjà fait un rm -rf /* et celui qui le fera".

J'ai écrit quelques billets au cours des années sur ce sujet, pour aider à savoir quoi sauvegarder etc. je vous mets la liste des principaux billets ici :
- A.I.2 - Qu'est ce que je dois sauvegarder ?
- Sauvegarde la règle des 3-2-1
- L'importance des sauvegardes...
- Sauvegarde et restauration

Dans ce billet, je voudrais parler de quelques trucs sympa sur les sauvegardes.

Borg pour la sauvegarde des fichiers

Nombreux sont les outils pour les sauvegardes de fichers, des scripts maisons à base de rsync en passant par des outils plus évolués comme Duplicty, Rdiffbackup... Dans un précédent billet, j'évoquais Borg comme outil de sauvegarde. Avec les semaines, je reste persuader et convaincu que Borg est l'outil idéal et permet de faire, d'une façon simple, des sauvegardes des fichiers (on exclue le cas des bases de données qui sera traiter dans un billet ultérieur). Et je ne suis pas le seul à le dire. Cet article Sauvegarder ses machines avec Borg et Backupninja présente par exemple les avantages de Borg Contrairement à rdiff-backup qui a un algorithme basé sur rsync et fonctionne par incrémentation de version en version (ce qui interdit notamment de supprimer une version intermédiaire), BorgBackup utilise une technique de déduplication de morceaux (chunks). Au lieu de travailler par fichiers, il concatène (et compresse) tout ce qu'il y a à sauvegarder, pour le stocker par morceaux de 50Mo. Sans rentrer dans les détails, les intérêts sont multiples...

Le but de cette partie n'est pas de faire un tutoriel sur Borg, mais de parler de mon retour d'expérience sur le sujet en quelques mots. Je l'utilise au quotidien pour mes sauvegardes de mon poste professionnel mais également pour différents serveurs. C'est rapide, simple et efficace, pour gérer des sauvegardes de plusieurs gigas en sauvegarde chaque jour (avec peu de fichiers modifiés), ça prends quelques dizaines de secondes. Pour le cas des serveurs, j'ai mis en place un script shell on ne peut plus basique, qui fait appel à Borg. Un script du type de celui-ci est placé en tâche cron lancé chaque nuit. Si besoin, l'avantage de Borg est que l'on peut même faire une tâche cron qui se lance toutes les heures pour avoir une sauvegarde des fichiers toutes les heures. Ca ne prendra pas beaucoup de place et on aura toutes les sauvegardes dont on pourrait avoir besoin...

# on se place dans le répertoire ou l'on veut sauvegarder, qui est un montage d'un espace de stockage dédié partagé par SSH, monté en SSHFS
cd /Backup
# on lance la sauvegarde par borg qui s'effectue par un incrémental
borg create -v --stats ./::`date +%Y-%m-%d-%H:%m:%S` /le_dossier_a_sauvegarder --show-rc -v >> /tmp/mailreport.txt 2>&1

# Purge des anciennes sauvegardes, on garde sur 7 jours, 1 par semaine pendant 4 semaine, 1 par an
borg prune -v --list --keep-daily=7 --keep-weekly=4 --keep-monthly=-12 .

# Pur avoir la liste des sauvegardes dans le mail de rapport de la sauvegarde
echo -e "Liste des Sauvegardes\n" >> /tmp/mailreport.txt
borg list . >> /tmp/mailreport.txt

# envoie du rapport par courriel
sendemail -f expediteur@domaine.com -u "Sauvegarde du serveur XXXX - Daily Report" -t destinataire@domaine.com -s smtp.domaine.com -o message-file=/tmp/mailreport.txt

Pour répondre à la règle des 3, 2, 1, il faut donc avoir une copie externalisée qui est une copie / réplication de l'espace de stockage qui reçoit toutes les sauvegardes. A voir ce que l'on met en place : disque répliqué à l'identique, service de stockage haute-disponibilité...

Sauvegarde de la configuration

Pour l'instant, ce que je fais, c'est un export via Scp de tout /etc des différents serveurs avec la remontée des fichiers de configuration dans un dossier nommé selon le serveur dans un projet dédié dans un Gitlab. Ca se scripte assez bien pour avoir le scp, un git commit... Je fais au plus facile pour l'instant mais je pense. Pourquoi pas Borg ? Car git permet d'avoir l'historique et de comparer facilement les fichiers là où Borg permet de conserver l'ensemble d'une arborescence à un instant t, une sorte de snapshot, mais il faudrait montrer plusieurs sauvegardes pour faire les comparaisons fichier à fichier..

Je réfléchis à la mise en place d'un outil comme Etckeeper pour avoir une autre automatisation, il faut encore que j'étudie ça.
etckeeper est un système conçu pour suivre la configuration d'une machine (répertoire /etc, d'où le nom) à l'aide d'un gestionnaire de versions(par exemple Git).
Deux tutoriaux sur le sujet :
- Etckeeper sur le site de l'association Grenode
- Etckeeper sur le blog Syloe.com

Sauvegarde des bases de données

Du classique, un script, une tâche cron pour faire un export Dump sur un espace de stockage... Je pense que je développerai ce sujet dans un billet une prochaine fois.

Une sauvegarde complète (un snapshot par exemple pour une VM) et des sauvegardes régulières des éléments changeants

Snapshots

Dans mon billet Devenir SysAdmin d'une PME - Gestion du legacy- Billet n°1, je parlais de machines virtuelles sur des hyperviseurs. Je gère ces machines virtuelles comme des serveurs et j'applique donc au fur et à mesure l'homogénéisation de la sauvegarde en mettant Borg en place partout.
Il est important de pouvoir remonter rapidement un service et avec une V.M., c'est assez simple. Un snapshot régulier (je travaille à scripter l'automatisation et la rotation de ces snapshots sur Xen, je ferai un billet sur le sujet), le delta de la VM correspondant à ce qui est sauvegarder de façon journalière. Je n'ai donc qu'à restaurer la VM, à réappliquer les mises à jours de l'OS, éventuellement restaurer les données et les fichiers de configuration et tout est bon.

A noter que je ne considère pas le snapshot comme une sauvegarde mais comme un complément de sauvegarde. Le snapshot ne suffit pas comme la sauvegarde ne suffit pas. Si il faut réinstaller tout une machine avec tous les services... Quoiqu'avec le tournant qu'apporte le Devops et la gestion en mode PAAS, la création de VM à la demande et l'industrialisation à venir... Bref, encore plein d'autres sujets à aborder dans les prochaines semaines et prochains mois... A suivre.

Faisons quelques mathématiques rigolotes avec le noyau linux :)

Au moment où je rédige cet article, le 4 juin 2018, Linus Torvalds a officialisé la sortie du noyau Linux 4.17.

Il y a un passage très marrant dans l’annonce :

No, I didn’t call it 5.0, even though all the git object count numerology was in place for that. It will happen in the not _too_ distant future, and I’m told all the release scripts on kernel.org are ready for it, but I didn’t feel there was any real reason for it. I suspect that around 4.20 – which is I run out of fingers and toes to keep track of minor releases, and thus start getting mightily confused – I’ll switch over. That was what happened for 4.0, after all.

Une traduction ?

Non, je ne l’ai pas appelé 5.0, même si tous les objets git numérotés étaient en place pour ça. Cela arrivera dans un avenir pas trop lointain, et on m’a dit que tous les scripts de version sur kernel.org sont prêts, mais je n’ai pas senti qu’il y avait une vraie raison à cela. Je soupçonne qu’aux environs du 4.20 – ce qui veut dire que je suis à court de doigts et d’orteils pour garder une trace des versions mineures, et que cela commence ainsi à devenir vraiment confus – je vais basculer. C’est ce qui est arrivé pour 4.0, après tout.

C’est vrai. Faisons un petit peu d’histoire informatique linuxienne. Le noyau Linux 3.0 est sorti après le 2.6.39. C’était en juillet 2011, dixit cet article sur linuxfr.org.

Le cycle de développement est le suivant, à compter du jour du publication.

  1. 2 semaines pour rajouter les nouvelles fonctionnalités, qui donnent la RC1.
  2. 6 à 7 semaines de stabilisation, ce qui nous fait arriver à une RC7 voire un RC8 si nécessaire.
  3. 1 semaine de confirmation pour avoir le noyau suivant en x.y.0

Donc une moyenne de 9 à 10 semaines, ce qui fait 5 révisions mineures du noyau par an.

Linus ayant pris l’habitude de s’arrêter à la 20e révision d’un noyau, la x.19.0, on peut calculer rapidement la date de sortie du noyau linux 4.0. Si on compte 9 semaines, cela fait 180 semaines, soit 45 mois, soit 3 ans et 9 mois.

Juillet 2011 + 3 ans et 9 mois ? Cela nous donne avril 2015… Et en effet, en avril 2015, le noyau linux 4.0 pointa le bout de son nez.

Donc, si on prend la même durée, à savoir les 45 mois en partant d’avril 2015, ça nous donne quoi ? Janvier 2019 ?

Sachant que le noyau 4.17 est sorti début juin 2018, ça nous donne vers la mi-août 2018 pour le noyau 4.18. Le noyau 4.19 ? Courant octobre 2018 ? Ce qui pourrait justifier une sortie du noyau linux 5.0 pour fin décembre 2018, début janvier 2019…

On verra bien, mais j’apprécierai comme cadeau de noël un noyau linux 5.0. Pas vous ? 🙂

Devenir SysAdmin d’une PME – Accepter de ne pas avoir le contrôle sur tout- Billet n°3

Ce billet fait partie de la série :
- Devenir SysAdmin d'une PME, retour d'expérience - Billet n°0
- Devenir SysAdmin d'une PME - Gestion du legacy- Billet n°1
- Devenir SysAdmin d'une PME - Mineur de bitcoin- Billet n°2

Nouveau billet de la série Devenir SysAdmin d'une PME avec cette fois ci un billet de réflexion autour du sujet du contrôle et de la maîtrise et plus exactement sur le fait d'accepter de ne pas avoir le contrôle sur tout.

A la mi-mars, j'écrivais deux billets assez intimistes à savoir Le métier passion et Tout intellectualiser, dans lesquels j'évoquais le travers dans lequel j'étais tombé de part avoir (enfin) un métier que j'aime et la volonté de vouloir toujours plus de contrôle...

Dans les semaines qui ont suivies, j'ai pris du recul, réfléchit et j'apprends peu à peu à accepter qu'on ne peut pas avoir le contrôle sur tout. Comme indiqué avec le début de la série de billet Devenir SysAdmin d'une PME, je suis en pleine restructuration de l'infrastructure en commençant par l'appropriation de cette dernière, la gestion de la documentation pour me permettre l'appropriation des différentes strates et couches accumulées au cours des années par différents administrateurs systèmes. Avant de pouvoir passer à une phase d'homogénéisation permettant alors une industrialisation de le gestion de tout le S.I., il y a la compréhension de ce dernier, la gestion du legacy, la gestion des incidents de sécuritépar méconnaissance de l'existence de ce site Drupal planqué dans un coin)...

Accepter de ne pas avoir le contrôle sur tout, c'est accepter que l'on a encore beaucoup de travail à faire avec la gestion du legacy. Et qu'un incident interviendra forcément sur quelque chose que l'on a pas encore eu le temps de documenter ou de revoir la documentation si celle-ci est déjà existante. Il y aura forcément, dans un coin, le serveur qui marche et que tout le monde a oublié avec un mot de passe que personne ne connaît plus... Jusque ce qu'il y ait un soucis (un disque qui ne répond plus ou autre) et que soudain, cela devienne une priorité.

Idem pour les sauvegardes. Je dois faire un billet dédié sur la mise en place des sauvegardes avec Borg (que je ne peux que conseiller et tous les retours que j'en ai des personnes qui ont suivi ce conseil me conforte dans le fait d'avoir moi-même suivi le conseil d'utiliser Borg. Les sysadmin, une grande famille qui partage les bonnes astuces). Je pars du principe que si je ne sais pas, ça n'existe pas.

Il y a très certainement des sauvegardes automatisées et tout marche. Mais comme dans tout legacy, il y a différents outils, mis en place au fur et à mesure. Je pars du principe que si je ne sais pas (encore) comment ça marche et surtout si je n'ai pas testé la restauration de la sauvegarde, ça n'existe pas. C'est très direct. Mais au moins ça donne un bon aperçu de la réalité : le moment où j'aurai besoin de cette sauvegarde, ce sera forcément dans un moment d'urgence. Si je ne sais pas comment ça marche et comment restaurer, cela revient à ne pas avoir de sauvegarde d'une certaine façon. Accepter de ne pas avoir le contrôle sur tout, c'est accepter que pour l'instant, tout n'est pas industrialiser au niveau des sauvegardes, que tout n'est pas sous contrôle...

De même, dans le cadre de la sécurité et de la gestion des PC des collaborateurs. Beaucoup d'entreprise font le choix de verrouiller au maximum les PC en limitant les droits, les applications installées, en mettant des proxys... Une autre façon de faire et de sécuriser le S.I. et d'accepter le BYOD et de responsabiliser les collaborateur.trice.s. L'entreprise dans laquelle je suis, je l'ai choisi sur de nombreux critères dont le fait que l'on soit Administrateur de sa machine. Le fait que l'on soit sous un O.S. GNU/Linux (distribution de son choix) limite grandement les risques de sécurité classique liés aux postes sous Windows (virus, spyware...) tout comme le fait d'avoir des colloborateur.trice.s geek, utilisateur.trice.s avancé.e.s ayant par conséquence des notions plus élevés que la moyenne des bonnes pratiques de l'hygiène numérique. Un exemple est la facilité que j'ai à imposer l'usage de Keepass vu que beaucoup l'utilisent déjà par défaut.

Toutefois, je sais bien qu'un tas de fichiers sont créés sur lei postes utilisateurs... Et avec la mise en application du RGPD, il y a eu des nouvelles sessions de formation et de sensibilisation de faite et des sessions à faire et refaire, aux nouveaux arrivants, en rappel... De même, trop nombreuses restent encore les personnes qui ignorent que Firefox stocke les données du profil en clair sur le disque, et que l'OS a beau avoir un mot de passe, l'intégralité du contenu du disque est accessible via un live usb. Dans ce cas, seule solution : le chiffrement du poste. Là, encore, accepte-t-on de ne pas avoir la phrase de passe ?

Autre cas, la gestion des tickets, des demandes etc. Là encore, il faut accepter de déléguer, en donnant des consignes strictes sur la qualité de la documentation mise en place, sur l'enrichissement et le maintient de cette dernière. On ne peut pas tout faire et il faut donc accepter de ne pas avoir le contrôle sur tout. Mais ce n'est pas une raison pour que l'on ait le contrôle sur rien ;)

Que sont-elles devenues les distributions GNU/Linux de 2013 ? Deuxième partie.

Après un premier article bien chargé, j’ai décidé de reprendre le cours de l’année 2013 et de me consacrer au mois de juin, histoire d’avoir un billet un peu moins chargé 🙂

Uniquement 5 billets sur 4 distributions. Une est morte, la 0linux, la Bridge étant plutôt à l’abandon… Un bilan assez positif, mais que donnera l’analyse du mois de juillet 2013 ?

Vieux Geek, épisode 127 : Welltris, le successeur oublié de Tetris

S’il y a un jeu qui existe sur toutes les plateformes – et qui a fait le succès de la première GameBoy de Nintendo – c’est bien Tetris. Développé par Alexei Pajitnov, le principe simple d’assembler des formes composées de quatres carrés et regroupées dans des ensembles bizarres a fait passer ce jeu pour un des plus grands classiques du domaine, à côté du casse-brique, de PacMan ou encore de Space Invaders.

En suivant le principe du « il faut battre le fer tant qu’il est chaud », en 1989-1990 sur PC, Mac Amstrad CPC, Amiga, Atari, C64 et Spectrum est sorti la suite de Tetris, Welltris. Au lieu d’un environnement en 2D, on a droit cette fois à une vue en 3D… On doit jongler avec quatre murs au lieu d’un… Ce qui nécessite d’avoir le compas dans l’oeil et surtout un certain sens de la stratégie.

Publié par Infogrames, ce casse-tête est rapidement gavant… Largement plus que le Tetris original. Le problème vient que si une pièce dépasse du fond du puits, le mur qui l’a aidé à descendre est gelé durant plusieurs tours.

Sans oublier une protection basique basé sur la possession du manuel du jeu… Joie ! Pour l’historique de la lutte contre la copie illicite, je vous renvoie à cette excellente vidéo de 2012 publié par Lazy Games Review.

Mais le plus simple est de montrer une vidéo dans laquelle j’essaye de m’en tirer avec les versions pour Amstrad CPC et Atari ST.

Vous avez pu voir que j’ai galéré à mort avec la protection par manuel ou encore avec l’obligation de jongler avec la troisième dimension, ce qui n’est pas des plus évidents pour un jeu à la Tetris.

Pas étonnant que Welltris n’ai pas eu de suite à ma connaissance…

Guide d’installation d’Archlinux, version de juin 2018.

Voici la cinquante-cinquième version du tutoriel pour installer une Archlinux, que ce soit avec une machine virtuelle, utilisant un Bios ou un circuit UEFI. Cette version rend obsolète celle d’avril 2018. Désolé pour le délai depuis la version précédente, j’avais besoin de faire une coupure.

Attention ! La section pour l’UEFI est en cours de refonte, ne serait-ce qu’au niveau du partitionnement. Cela sera fait pour la prochaine version, normalement pour début juillet 2018. Désolé pour les désagréments.

Pour les captures d’écran, je suis parti d’une image ISO intermédiaire créée avec l’outil Archiso. Au moment où j’envoie l’article en ligne, le 1er juin vers 9 h 15 du matin, l’ISO de juin 2018 n’est pas encore disponible.

Si vous avez besoin d’une image ISO en 32 bits, le projet archlinux32 vous en proposera une.

Côté environnements : Gnome 3.28.1, Plasma 5.12.x, Xfce 4.12.0 et Mate-Desktop 1.20.1 en gtk3. J’ai aussi virer la section concernant Yaourt et fait un peu de nettoyage et de correctifs. Merci à Mozzi pour certaines suggestions.

NB : si vous voulez faire une installation avec l’UEFI, il faut utiliser cgdisk, gfdisk ou gparted, et créer un partitionnement GPT. Sinon, ça plantera !

Ce n’est pas un tutoriel à suivre au pied de la lettre, mais une base pour se dégrossir. Le fichier au format zip contient :

  • La version odt
  • La version pdf
  • La version ePub
  • La version mobi (pour Kindle)

Le guide en question est sous licence CC-BY-SA 4.0 à compter du mois de mai 2016.

Bonne lecture et n’hésitez pas à me faire des retours en cas de coquilles !

Lifehacking et todo liste papier

J'ai utilisé différentes formes de todo-liste (de la feuille de tableur avec des colonnes à des listes papiers en passant par des kanban physiques...) et actuellement, j'ai deux types de todo-listes :
- Gitlab et son kanban avec un kanban dédié par projet. Je mets des actions qui seront à faire dans les prochains jours, semaines voir mois, pour chaque projet, chantier ou service que je gère. De temps en temps, je fais du tri, je nettoie, j'anote les tickets du Kanban (en ajoutant des liens vers la documentation du wiki quand elle a été rédigée depuis la saisie du ticket par exemple. Voir mon article Lifehacking - Gitlab, outil idéal ?
- une todo-liste papier, dans un cahier. Je prends des notes, je surligne avec des couleurs, je griffone, je raye. Je n'applique pas le conseil de Makoto pour les todo-listes mais je déchire les pages du cahier régulièrement, je réécrie les actions non encore faites (en en faisant le tri si besoin) sur une nouvelle page et je raye l'action précédente. Une fois que toute la page est raturée, je la jette. J'ai une todo-liste à jour et propre.

Réécrire mes actions dans une sorte de nouvelle todo liste, le fait de refaire une nouvelle todo liste à partir d'une todo existante (au sein de laquelle je raye donc ce qui a déjà été fait ou ce qui a été reporté et qui reste à faire) permet de mémoriser les actions à faire. La réécriture des actions me permet de voir si j'ai bien toutes les informations nécessaires pour faire cette action ultérieurement. Je peux aussi faire l'action dans la foulée, au lieu de la réécrire, appliquant ainsi un des préceptes de GTD Getting Things Done : chaque tache qui prend moins de 5 minutes est réalisée de suite, sinon elle est planifiée ou remise à plus tard, dans une "todo".

Pour les tickets Gitlab, je n'hésite pas à réécrire / renommer les tâches pour qu'elle soient plus explicites, ce qui est une forme de réécriture d'une certaine façon.

Le fait d'avoir une todo à jour, réécrite, me permet de rien oublier, de ne pas avoir à mémoriser et à m'encombrer l'esprit avec tout une série de tâches pour lesquelles je pourrais me pencher dessus le moment venu.

Obarun, le retour de la Archlinux s6isée :)

Étant un lecteur régulier, si on peut le dire ainsi, du blog systemdfree linux community, j’avais pu lire il y a quelques jours – du moins au moment où je rédige cet article – le « couronnement » d’Obarun, à savoir son inclusion dans l’index de Distrowatch.

Éric Vidal, papa du projet m’avait même contacté personnellement pour m’informer de la bonne nouvelle. Depuis l’article que j’avais fait sur sa distribution en novembre 2017, je suis en bon terme avec lui, rapportant même des bugs. Comme quoi, on peut très bien utiliser des distributions utilisant systemd au quotidien et apprécier les distributions qui sont inventives 🙂

En effet, on est loin de la pas franchement très utilisable Artix qui n’a pas sortie d’image ISO renouvellée au 28 mai 2018 pour faire prendre en compte un changement assez important au niveau des miroirs (cf l’actualité du 28 avril 2018), ou de la copieuse sans scrupule (??) Namib GNU/Linux intégrée à Distrowatch aux alentours du 20 mai 2018. Bref, Obarun est quand même un brin plus sérieuse 🙂

Pour mémoire, on peut schématiser Obarun ainsi : base Archlinux + système d’init s6, avec au choix Jwm, Openbox, Plasma et Xfce. Oui, j’ai volontairement simplifié pour faire comprendre que l’on est dans le domaine de la distribution qui n’est pas à mettre dans les mains de la première personne venue…

J’ai donc récupéré l’ISO du mois de juin 2018. En créant une machine virtuelle basée sur Archlinux avec 2 Go de mémoire vive, 2 CPUs virtuel et 128 Go de disque. J’ai – comme pour l’article du mois de novembre 2017 – décidé de montrer l’installation complète.

Oui, on est dans de l’installation à la main. Oui, c’est austère, mais cette distribution prouve – comme pour la void linux même si elle est en mauvaise posture depuis quelques mois – que le monde des systèmes d’init ne se résume pas au duo / duel OpenRC (surcouche de sysVinit) et systemd.

Le projet est vraiment très intéressant, même s’il faut compulser longuement le wiki pour savoir comment utiliser certains outils simplificateurs de l’init s6 développé par Éric Vidal.

Le seul gros bug bloquant ? Pour moi, c’est le coup des répertoires utilisateurs en anglais qui obligent à passer par la ligne de commande pour être dans la langue correcte. J’ai rapporté le bug et j’espère qu’Éric Vidal pourra le corriger facilement. Dommage aussi que j’ai eu du mal à gérer cette enflure de PulseAudio et encore cet étrange décalage horaire que je constate uniquement avec le duo distribution basée sur Archlinux et VirtualBox.

Évidemment, on est dans de la distribution pour barbus. Mais un peu de confort, ça fait jamais de mal 🙂

Je maintiens d’ailleurs qu’OpenRC en dehors de la famille Gentoo qui l’a vu naître, c’est pas la peine d’y penser. Vous pouvez très bien ne pas aimer systemd, mais par pitié, allez dans ce cas sur des distributions digne de ce nom : la famille Gentoo, Obarun ou encore Void Linux. Le reste ne sera que sources d’emmerdements sans fins, même si j’ai galéré avec PulseAudio dans la vidéo.

Mais au moins, la Obarun arrive à s’installer sans trop de problèmes, même si je suppose que mes galères sont liées à ma connaissance trop faible de s6 et des outils simplificateurs rajoutés au-dessus.

Yunohost, Let’s Encrypt – Soucis de renouvellement automatique pour un sous-domaines

J'aime bien avoir des sous-domaines thématiques et une application installé à la racine de sous domaine. Exemple cloud.toto.com avec Nextcloud à la racine (accessible via cloud.toto.com), rss.toto.com... Sur chacun de sous-domaines j'ai activé les certificats Let's Encrypt (fonctionnalité inclue par défaut dans l'interface d'administration des domaines de Yunohost).

J'avais un soucis de renouvellement automatique d'un certificat Let's Encrypt d'un sous-domaine qui arrivait à expiration, signalé par mail via la tâche cron qui gère ce renouvellement.

J'ai tenté via l'interface de renouveler le certificat ( Accueil > Domaines > status.toto.com > Certificat) et j'ai eu l'erreur du type

Wrote file to /tmp/acme-challenge-public/MtjRxzsCW2l5NCj7Y-vfMoIviNHmtxv0eJp1FS9kuaw, but couldn't download http://
status.toto.com/.well-known/acme-challenge/MtjRxzsCW2l5NCj7Y-vfMoIviNHmtxv0eJp1FS9kuaw

L'application installée (Cachet) était à la racine du domaine status.toto.com

Depuis la gestion de l'application dans la partie administration de Yunohost, j'ai migré l'application vers /cachet (Applications > Cachet > Changer l'URL)

J'ai alors relancé le renouvellement du Certificat depuis l'interface d'administration (clic sur le bouton "Renouveler manuellement maintenant).

Ça a marché !

J'ai rechangé l'url de l'application Cachet pour qu'elle soit de nouveau vers /, l'application Cachet est donc à la racine du domaine status.toto.com et la seule application du sous-domaine. Et le certificat pour le domaine status.toto.com est bon pour 89 jours...

A voir si lors de l'arrivée de la prochaine expiration du certificat pour ce sous-domaine je dois faire la même chose...

A noter que pour d'autres sous-domaines plus anciens ayant eux aussi des applications installées à la racine du sous-domaine (du coup une seule application par sous-domaine), je n'ai pas de soucis de renouvellement automatisé. A creuser via les logs à l'occasion.

C’est officiel, je suis enfin devenu un vieux con… Youpi !

Certaines personnes diront que ce n’est pas une nouvelle, et je dois dire que je ne prendrai pas la mouche si cela était affirmé.

Je m’adresse à mes lectrices et mes lecteurs – je préfère éviter la novlangue qu’est l’écriture inclusive – dont l’année de naissance est située entre 1969 et 1978, au moment où je rédige ce billet en mai 2018 . Oui, je parle des personnes dont l’âge s’écrit en deux chiffres, le premier étant un 4.

Replongez-vous dans les années 1989-1998. Quand vous avez atteint l’âge tant rêvé de 20 ans. Vous n’étiez pas des jeunes cons ou de jeunes connes, remplis d’idéaux que la vie a fait disparaître ?

N’avez-vous pas été obligé de déchanter et de « mettre de l’eau dans votre vin » pour pouvoir avancer un tant soit peu ?

C’est suite à un énième viol dénoncé par un mouvement féministe plus proche de la misandrie que de la défense des femmes que je me suis aperçu que j’étais devenu aux yeux de la génération née dans les années 1990 comme un vieux con.

Je vous laisse découvrir le fil. Je dois vous dire que quand je lis de tels propos, je pense que certaines femmes sont des publicités vivantes pour la vasectomie tant leurs propos sont haineux.

On pourrait dire qu’en contrepartie certains connards, euh désolé, je voulais dire masculinistes ne valent pas mieux et sont une publicité vivante pour l’hystérectomie. D’ailleurs, les féministes extrémistes ont besoin des masculinistes pour vivre et inversement.

Mais désolé, je m’emporte. Il ne faut surtout pas faire remarquer à la jeune génération que leur vécu est proche de zéro par rapport à la génération de leurs parents, génération dont je fais partie par l’âge, bien que n’ayant aucune descendance à cause des aléas de la vie.

Oui, je suis devenu un vieux con. Je deviendrai un vieil emmerdeur d’ici une vingtaine d’années, et j’en suis fier. Je m’en délecte. Je dois dire qu’en lisant de tels propos, il y a de quoi devenir misanthrope.

Je sais que j’aurai ma vengeance, quand dans une vingtaine d’années la jeune génération actuelle se fera chier dessus par leur progéniture. Tout vient à point à qui sait attendre.

Allez, trêve de bavardages, le vieux con que je suis va se remettre la musique qui a bercé son enfance et qui ne se résume pas à de la techno diarrhéique – tiens un pléonasme ? – poussée à fond la caisse.

En vrac’ de fin de semaine…

Comme chaque fin de semaine, l’habituel en vrac… Très court, l’actualité informatique étant aussi épaisse qu’une feuille de papier à cigarette. Et la culture, c’est pas mieux, par manque de temps, désolé !

Côté logiciel libre, informatique et internet.

Côté culture ?

Bon week-end 🙂