Spip, un exemple pour le logiciel libre ?

Petit rappel sur Spip

Comme indiqué sur le site du logiciel, SPIP est un système de publication pour l'Internet qui s'attache particulièrement au fonctionnement collectif, au multilinguisme et à la facilité d'emploi. C'est un logiciel libre, distribué sous la licence GNU/GPL. Avec les années, SPIP a grandement évolué mais à toujours garder deux de ses spécificités : sa modularité et extensibilité via tout un écosystème de plugins et son systèmes de templates (les fameux squelettes).

Pourquoi Spip ?

Les premières version de SPIP sont sortie en 2001. Pour information, Dotclear qui était le moteur de référence avec l'avènement des blogs est sorti en 2002, Wodpress, est sorti en 2003. Lorsque j'ai commencé l'informatique, il y a 14 ans, je devais faire un Intranet pour une PME, c'était mon sujet de stage de fin d'année. Ma professeur de TD, libriste convaincue, m'avait conseillé d'utiliser SPIP. Et j'ai donc découvert SPIP à ce moment là ; je l'ai utilisé pour ce qui allait devenir ce blog, et pour différents sites que j'ai fait par la suite. Et je suis resté fidèle à ce logiciel.

Pourquoi est-ce un exemple pour le logiciel libre ?

Je suis donc sous Spip depuis 2004 et depuis le début, je fais le suivi des montées en version. Par montée de version, je parle de la mise à jour vers des versions correctives et de mises à jour (corrections de bugs) et vers des versions majeures (avec ajout de fonctionnalités, modifications de la base de données). Au cours de toutes ces migrations, Je n'ai jamais eu de soucis. J'ai toujours testé sur un site de test, copie / miroir de mon blog pour anticiper les problèmes qu'il pourrait y avoir (plugin non compatible...).

Toutes ces montées en version, qu'elles soient mineures ou majeures se sont déroulées sans soucis.

Chaque nouvelle version mineure apporte son lot de corrections de bugs et de faille de sécurité, chaque version majeur est plus riche en fonctionnalité, mais n'a pas forcément plus de complexité. La logique et les interfaces restent les mêmes, évoluent, se modernisent un peu, mais sans grand bouleversement, on reste dans la continuité.

Spip possède tout un écosystème de plugin. Je n'utilise pas énormément de plugins et tout ceux que j'utilise sont rapidement rendus compatibles par la communauté. La communauté est petite, ne fait pas de bruit, mais est belle et bien là.

Spip est documenter, bien documenter et en français https://programmer.spip.net/ tant pour le système SPIP en lui-même que pour les plugins...

Autant de critères qui en font un logiciel de qualité et de référence pour moi.

Une communauté bien présente ?

En un temps où les réseaux sociaux se sont depuis bien longtemps accaparé le temps de disponibilité des gens, le forum est encore actif avec des messages publiés les jours précédents et même quelques minutes avant au moment de la rédaction du présent billet de blog.

On a un message toutes les quelques semaines sur le blog officiel de SPIP Blog.spip.net

Et le code source (logiciel libre oblige), évolue lentement mais sûrement avec des commits réguliers comme en atteste le dépôt https://core.spip.net/projects/spip/repository

Conclusion

Spip, c'est une petite communauté, le logiciel ne fait pas grand bruit, mais reste efficace. Et par le présent billet, je voulais remercier toutes ces personnes qui ont participé ponctuellement ou qui œuvrent pour SPIP au quotidien.

Que devient SwagArch GNU/Linux, la Manjaro Linux « canada dry » ?

En octobre 2016, je parlais de la SwagArch GNU/Linux qui reprenait les principes de la Manjaro Linux Xfce. Je concluais l’article ainsi :

Je ne condamne nullement le fork, mais il faut savoir l’utiliser à bon escient. Si c’est pour reproduire une Manjaro Linux avec une base Arch, quel est l’intérêt ? Je ne puis que confirmer ce que je disais dans la vidéo d’août 2016 : c’est une DGLFI dans toute sa splendeur. Mais au moins, c’est une DGLFI assez fonctionnelle.

Faut bien voir le verre à moitié plein, non ? 🙂

Un peu plus d’un an est passé et j’ai pu voir que le projet existe toujours. J’ai donc voulu faire un bilan de cette distribution mono-développeur qui semble continuer à tenir le choc.

En passant par Transmission, j’ai récupéré l’image ISO dénommé 18.01.

Mon ami VirtualBox a été mis à contribution…

Après un démarrage rapide, on est accueilli dans une session Xfce retouchée avec un thème sombre et un jeu d’icones maison, SwagArch. Dommage en cas d’indisponibilité temporaire ou définitive du dépôt tiers.

L’installateur est Calamares en version 3.1.11 (ou quelque chose de ce style). Autant dire qu’il fait son boulot et bien.

Au bout d’une dizaine de minutes on peut redémarrer sur la SwagArch fraîchement installée.

Au premier démarrage, après m’être connecté, j’ai forcé la recherche des mises à jour via Pamac. Environ 70 mises à jour ont été détectées.

Une poignée de minutes plus tard, le tout était à jour, et je lançais mon ami SimpleScreenRecorder pour capturer en vidéo cette énième dérivée d’Archlinux.

Comme vous avez pu le voir dans la vidéo, la distribution est assez solide, la logithèque bien pensée, mais elle souffre de plusieurs défauts qui la condamne sur le long terme :

  1. Être mono-développeur… Un accident de la vie est si vite arrivé 🙁
  2. Proposer énormément de paquets sur son dépôt personnel sans avoir un doublon sur AUR…
  3. Avoir forké le Manjaro Settings Manager… En lui otant une des ses options parmi les plus importantes.

Donc en dehors de la curiosité, je ne vous conseille pas de l’installer en dur… Si vous le faîtes, ce sera à vos risques et périls. À vous de voir donc. Mais comme c’est une Archlinux à peine retouchée, n’oubliez pas une règle d’or : le dépannage en cas de pépin, c’est RTFM ou en version plus cultivée, « Aide-toi, le ciel t’aidera. »

Si vous cherchez une Archlinux avec Xfce et des outils simplicateurs, autant aller sur Manjaro Linux, au moins, il y aura moins d’aléas.

Vieux Geek, épisode 108 : AfterStep, l’une des premières interfaces « bling bling » pour X11 :)

Quand j’ai abordé le doucéreux monde du libre, en 1996, les interfaces graphiques étaient assez austères. Au mieux, c’était fvwm avec une apparence générale reprenant l’approche du – alors très évolué – produit phare de Microsoft à l’époque, MS-Windows 95.

En 1997, des développeurs ont eu envie de donner une plus belle apparence à l’interface graphique des distributions GNU/Linux de l’époque. Alors que KDE était encore dans ses langes et que GNOME allait naître, un projet s’inspirant de l’interface de NeXTStep/OpenStep a été développé. AfterStep venait de naître. Il faudra attendre début mai 1998 pour que la version 1.0 ne sorte.

Entre temps, le projet WindowMaker fut lancé, mais ce n’est pas le cadre de cet article. AfterStep est toujours en vie près de 20 ans après la sortie de sa version 1.0, même si sa dernière publication commence à sentir un peu la naphtaline. La version 2.2.12 est en effet sortie en juin 2013.

Le but étant de proposer quelque chose de léger et d’esthétique 🙂

Pour montrer AfterStep en action, je suis parti d’une Anarchy Linux (oui, j’avais la flemme de me taper une installation à la mimine) avec un Openbox minimaliste.

J’ai juste rajouté trizen via git et makepkg.

Pour la compilation d’Afterstep ?


trizen -G afterstep
cd afterstep
makepkg -si

Au bout de 4 minutes, j’avais un AfterStep 2.2.12 disponible à l’utilisation 😉

À la première connexion, j’ai tout de suite vu quelque chose de franchement agréable, qu’il ne me restait plus qu’à personnaliser.

J’ai dû rajouter xeyes, urxvt pour avoir une installation aussi proche que possible de l’originale d’AfterStep.

Comme vous avez pu le voir, l’ensemble est relativement peu gourmand et colle aux canons clinquants des années 1997-2003… J’avoue que j’ai été un peu perdu au départ pour gérer les fenêtres… Y a pas à dire, sur certains plans, AfterStep a très mal vieilli…

En vrac’ de fin de semaine…

Comme chaque fin de semaine, l’habituel en vrac.

Côté logiciel libre, informatique et internet.

Côté culture ?

Bon week-end 🙂

« Eigengrau » des Rise Of Avernus : toujours plus sombre ?

J’avais découvert les Australiens de Rise of Avernus avec leur premier LP, « L’Appel du Vide » sorti en 2014 et que j’avais chroniqué en février 2015.

Le groupe ayant connu un léger changement dans sa composition, un EP intitulé « Dramatis Personæ » était sorti fin avril 2015. On sentait que le groupe s’orientait vers quelque chose de plus sombre, de plus lourd, de plus puissant.

Après avoir précommandé le nouvel opus, j’ai eu le plaisir de le recevoir il y a quelques jours. Pour mémoire, j’écris cet article le 11 janvier 2018 et la date de sortie de l’album est fixée officiellement pour le vendredi 19 janvier 🙂

Commençons par les données purement techniques : 8 pistes pour un peu moins de 47 minutes. On frôle presque les 6 minutes par titre, ce qui est honorable. Et quelques photos pour montrer l’album avant toute chose.

La face avant :

L’intérieur :

Le dos :

Dès la première piste « Terminus », on sent que le groupe n’est pas présent pour faire de la figuration. On est dans du doom metal tout ce qu’il y a de plus canonique. Le growl masculin est lourd à souhait… Porté par des orchestrations metal symphonique du plus bel effet.

Autant dire que le groupe pose ses attributs bien en évidence… Et le premier qui rigole se prend un coup de hache à double tranchant dans la tronche 🙂

« Ad Infinitum » commence à peine plus légèrement. On sent que le groupe aiment à mélanger les influences doom et symphonique. La chanteuse du groupe nous fait un peu de growl… Et le growl féminin, c’est intéressant une fois qu’on s’y est habitué 🙂

Je dois dire que le deuxième album des Aephanemer m’y a initié

Avec des pistes comme « Gehenna », « Eigenlicht » ou encore « Tempest », on est dans du metal symphonique un peu plus classique. Guitares saturées, chant partiellement clair, duo de voix masculine et féminine. Suivi d’une montée en puissance qui explose les décibels pour le plus grand plaisir de faire un petit peu de headbang 🙂

Avec « Forged in Eidolon », premier extrait de l’album, on revient dans ce que le groupe propose de plus lourd. Autant dire que ça décalamine les cages à miel… Avec juste une lichette de douceur au passage 🙂

L’avant-dernière piste « Mimicry » est la plus courte et le groupe y a concentré tout son talent… Ne pas céder au headbang durant l’écoute du titre, c’est difficile…

La dernière piste est aussi la plus longue de l’album avec un peu plus de 8 minutes au compteur… Après une introduction assez longue de près de 2 minutes 30, on a droit à toute la puissance du groupe… Autant dire que l’on arrive dans le vif du sujet de manière abrupte… Est-ce un mal ? Pas vraiment ! Quant à la fin, elle surprend un peu, mais je vous laisse en prendre connaissance 🙂

C’est un album qui n’est pas si facile d’accès, et qui ne s’apprécie vraiment qu’à partir de la troisième voire la quatrième écoute. C’est ce que j’apprécie, car derrière le côté lourd et agressif, on trouve une deuxième couche tout en subtilité. Ce n’est pas cependant l’album que je conseillerai pour une personne voulant découvrir le groupe 🙂

Sauvegarder simplement avec Ubuntu ?

Dans le cadre des sauvegardes, il y a la théorie et les bonnes pratiques... A ce sujet Sauvegarde la règle des 3-2-1 et Qu'est ce que je dois sauvegarder ? Mais généralement les sauvegardes, on sait qu'il faut les faire, on remet toujours ça à plus tard...

Il y a des solutions techniques, efficaces, mais complexes, du script utilisant Grsync à des solutions comme Borg en passant par des BackupPC... Pour le code, il y a les serveurs Git...

Dans le présent article, je voudrais parler d'une solution simple de sauvegarde de document bureautique. Je travaille assez régulièrement à la rédaction de document bureautique (de type documentation à livrer à un client). Et pour faire mes sauvegardes (je travaille sous Ubuntu d'où le titre), j'ai deux façons de faire.

Nextcloud, uns solution simple

J'ai un dossier "De travail" synchronisé avec un Nextcloud. Et je m'efforce de faire tout le travail de rédaction (les documents en cours d'écriture et de modification) dans ce dossier. Ce système de synchronisation n'est pas vraiment une sauvegarde, mais c'est mieux que rien car cela permet d'avoir un double du document et si l'option est bien activée sur le serveur, d'avoir différentes versions du document archivées (on a un historique des versions antérieures). Toutefois cette solution a pour inconvénient de solliciter le réseau à chaque enregistrement du (des) fichiers et on se repose alors sur la confiance que l'on a dans le serveur Nextcloud et les sauvegardes qui en sont faites.

L'outil de sauvegarde intégré dans Ubuntu

Ubuntu est fournie par défaut avec un outil de sauvegarde. Il suffit de chercher "Sauvegarde" tout simplement pour lancer le logiciel. Je dispose d'un disque dur externe que je branche régulièrement et c'est sur ce dernier que sont alors faites les sauvegardes.

Ce logiciel, appelé Deja Dup, a l'avantage d'être assez paramétrable, mais de façon simple :
- dossier à sauvegarder, dossier à ignorer
- sauvegarde tous les jours ou toutes les semaines,
- durée de conservation : 6 mois, un an, indéfiniment...

L'espace disque disponible est pris en compte, on peut protéger les données par un mot de passe (à utiliser pour la restauration des données. Et attention à ne pas oublier ce mot de passe sinon on ne peut plus récupérer ses sauvegardes).

Restauration ?

Sauvegarder, c'est bien. Mais il faut toujours tester les restorations des sauvegardes. Car une bonne sauvegarde est une sauvegarde que l'on peut restaurer. Restaurer ? C'est une autre façon de dire "récupérer des données sauvegardées". Voir à ce sujet Sauvegarde et restauration

Ayant supprimé par mégarde un fichier, j'ai donc eu avoir recours à ma sauvegarde et valider que cet outil faisait bien les restauration de façon correcte.

On appuie sur le bouton, on définie la date, le dossier où rétablir la sauvegarde (le dossier d'origine ou un autre dossier), le mot de passe. On restaure tout le contenu de la dernière sauvegarde. Il faut donc le faire dans un dossier dédié si on ne veut récupérer qu'un fichier et non l'état du dossier sauvegardé à un instant donnée (celui de la sauvegarde). Et c'est là une des limites de cette solution : on ne peut pas restaurer un seul fichier ; on doit restaurer tout une sauvegarde. Pas très pratique. Mais c'est déjà mieux que pas de sauvegarde du tout.

Linspire 7 et Freespire 3 : de la nécrophilie libre comme fond de commerce ?

Oui, je suis d’accord, le titre n’est pas des plus agréables à lire, mais c’est la première impression qui m’est venue quand j’ai appris que l’équipe qui développe BlackLab Linux a relancé le duo Linspire et Freespire. J’avais parlé du Freespire d’origine, racheté par Xandros dans un billet vieux geek de fin novembre 2015.

Cette volonté de surfer sur un projet assez connu et qui a mal fini sa vie, c’est un grand classique dans le monde du libre. Qui a parlé des soeurs ennemies descendantes de la distribution au chapeau magique ? 🙂

Dans l’annonce de publication du projet, on s’aperçoit que les deux produits, dont la version commerciale est vendue 79,99$ la licence sont assez proches. La recette ?

Remplacez :

  • Mozilla Firefox par Google Chrome
  • Geary par Mozilla Thunderbird et les outils complets pour la gestion des agendas
  • le duo Abiword et Gnumeric par LibreOffice
  • Le lecteur multimedia Parole par VLC

Ajoutez (en dehors des deux dernières entrées de la liste) :

  • Wine
  • Rhythmbox
  • Mono (pour avoir le support des technologies .Net)
  • VirtualBox
  • Les outils de support du xfs, jfs, zfs et du btrfs…
  • BleachBit
  • ClamAV avec son interface ClamTk (?)

Difficile de justifier les 80$ demandés, non ? J’ai donc fait récupérer l’image ISO de la version dite gratuite. Pour résumer, c’est une Xubuntu 16.04.x LTS revampée et remastérisée avec l’outil PinguyOS builder ou un outil de ce style.

fred@fredo-arch ~/Téléchargements/ISO à tester % wget -c http://distro.ibiblio.org/blacklab/freespire/freespire-3-x64.iso
–2018-01-08 15:14:16– http://distro.ibiblio.org/blacklab/freespire/freespire-3-x64.iso
Résolution de distro.ibiblio.org… 152.19.134.43
Connexion à distro.ibiblio.org|152.19.134.43|:80… connecté.
requête HTTP transmise, en attente de la réponse… 200 OK
Taille : 1461714944 (1,4G) [application/octet-stream]
Sauvegarde en : « freespire-3-x64.iso »

freespire-3-x64.iso 100%[===================>] 1,36G 522KB/s ds 48m 33s

2018-01-08 16:02:50 (490 KB/s) — « freespire-3-x64.iso » sauvegardé [1461714944/1461714944]

On se retrouve devant une copie de l’interface du projet racheté vers 2006-2007 par feu-Xandros. Et se prendre une claque graphique de 10 ans en pleine tronche, ça fait mal !

Pour éviter de se retrouver devant un plantage classique de l’installateur proposé par l’outil PinguyOS Builder, il faut installer l’ensemble en anglais et après le traduire. Il est vrai que tous les utilisateurs et toutes les utilisatrices des distributions GNU/Linux sont des parfaits anglophones… Ou pas !

Une fois la distribution installée, j’ai lancé mon ami SimpleScreen Recorder pour la franciser et la linspiriser au maximum.

Outre le fait que l’on est dans une distribution qui n’apporte pas grand chose à une Xubuntu classique, on sent une volonté de se faire de l’argent peu justifiée car 90% des bonus de la version payante s’installe en deux clics de souris (ou presque).

Est-ce une DGLFI ? On peut le penser. C’est surtout ce que l’on pourrait qualifier de nécro-distribution. Bref, à oublier de toute urgence.

Yunohost – Usage depuis le réseau local

Configuration du réseau : mon PC portable et mon serveur Yunohost sont branchés tout deux derrière la Freebox, qui crée un réseau locale entre ces deux machines. La Freebox est configuré en routeur, son IP publique est associée au nom de domaine du serveur Yunohost et la configuration NAT fait que toute entrée depuis l'extérieur (via l'IP publique), sur le bon port, est redirigée vers le serveur Yunohost.

Dans son message sur le forum Yunohost, Koantig a une configuration similaire et s'inquiète de l'usage du nom de domaine quand on est en local

Le hic, c'est que tout ça passe par internet, alors que tout est local. J'aimerais faire en sorte que si je suis sur le réseau local, les requêtes ne passent pas par internet.

Et arrive à la conclusion qu'il faut associer l'IP locale de la machine au nom de domaine dans le fichier /etc/hosts.

Sa solution marche, mais dans le cas où on déplace la machine (cas d'un PC portable par exemple), il faut penser à enlever cette ligne.

Est-ce que ça sort vraiment sur Internet ?

Pour le vérifier, si je fais depuis mon réseau local un "traceroute mondomaine.fr", on voit qu'on s'arrête au premier routeur, qui a pour IP l'IP publique de la Freebox. On ne sort donc pas de la Freebox et d'Internet. Certe la Freebox va refaire du transfert NAT et changer les paquets pour les retransferer à la machine Yunohost, ce qui est une étape de plus contrairement à l'usage directement de l'IP locale (dans ce cas les fonctions de routeur et de NAT de la Freebox ne sont pas sollicités)

Sur le réseau local, derrière ma Freebox, ma Freebox sait que si une machine local demande l'IP publique correspondant à Yunohost, elle doit rediriger le trafic vers mon Yunohost. La Freebox fait une redirection NAT en interne, mais ça "ne sort" pas sur Internet.

Est-ce qu'on perd du temps ?
Si je fais
ping IP locale, j'ai :

64 bytes from IP Locale: icmp_seq=1 ttl=64 time=0.303 ms
64 bytes from IP Locale: icmp_seq=2 ttl=64 time=0.314 ms
64 bytes from IP Locale: icmp_seq=3 ttl=64 time=0.306 ms
64 bytes from IP Locale: icmp_seq=4 ttl=64 time=0.273 ms
64 bytes from IP Locale: icmp_seq=5 ttl=64 time=0.269 ms

Soit 289 ms de moyenne.

Si je fais ping IP publique, j'ai :

64 bytes from IP Publique: icmp_seq=1 ttl=64 time=0.253 ms
64 bytes from IP Publique: icmp_seq=2 ttl=64 time=0.488 ms
64 bytes from IP Publique: icmp_seq=3 ttl=64 time=0.488 ms
64 bytes from IP Publique: icmp_seq=4 ttl=64 time=0.253 ms

Soit 370 ms de moyenne.

C'est effectivement "un peu plus lent" (vu qu'on fait le routage et la redirection NAT avec l'IP publique), mais ce n'est pas suffisament sensible.

En vrac’ de fin de semaine…

Comme chaque fin de semaine, l’habituel en vrac. Voici donc le premier billet de 2018 🙂

Côté logiciel libre, informatique et internet.

Côté culture ? Rien cette semaine. J’ai été en vadrouille durant quelques jours, et je n’ai pas eu le temps de me plonger dans les productions culturelles récemment 🙁

Bon week-end et n’abusez pas de galettes à la frangipane 🙂

Guide d’installation d’Archlinux, version de janvier 2018.

Voici la cinquante-et-unième version du tutoriel pour installer une Archlinux, que ce soit avec une machine virtuelle, utilisant un Bios ou un circuit UEFI. Cette version rend obsolète celle de décembre 2017.

Désolé pour le léger délai concernant la publication de cette version du guide !

Si vous avez besoin d’une image ISO en 32 bits, le projet archlinux32 vous en proposera une.

Côté environnements : Gnome 3.26.2, Plasma 5.11.x, Xfce 4.12.0 et Mate-Desktop 1.18.0 en gtk3.

NB : si vous voulez faire une installation avec l’UEFI, il faut utiliser cgdisk, gfdisk ou gparted, et créer un partitionnement GPT. Sinon, ça plantera !

Ce n’est pas un tutoriel à suivre au pied de la lettre, mais une base pour se dégrossir. Le fichier au format zip contient :

  • La version odt
  • La version pdf
  • La version ePub
  • La version mobi (pour Kindle)

Le guide en question est sous licence CC-BY-SA 4.0 à compter du mois de mai 2016.

Bonne lecture et n’hésitez pas à me faire des retours en cas de coquilles !

Meet-Up Yunohost – Présentation du projet et comment contribuer

Meetup le mercredi 17 janvier 2018

Suite à mon appel pour un lieu pour un Meet-up Yunohost, Un Meetup Yunohost ? Appel pour aider ce projet, nous avons un local et une date ! L'entreprise Nbs-system nous accueillera donc le mercredi 17 janvier à 19h00 pour un meet-up de présentation de Yunohost et de comment on peut contribuer au projet.

Je remercie Emmanuel Seyman (Fedora-fr, Parinux...) Au programme : un "meet-up" (pour le buzz word) de présentation de Yunohost et de comment on peut contribuer au projet et l'occasion de se rencontrer autour de ce projet :).

Le lieu : Nbs-system, au 8 Rue Bernard Buffet, Paris 17 ème, Métro Brochant (ligne 13)

Pour s'inscrire, merci de saisir un pseudo sur le Framadate suivant : https://framadate.org/meetupyunohost

Présentation du Meetup

YunoHost est une distribution basée sur Debian GNU/Linux composée, essentiellement, de logiciels libres, ayant pour objectif de faciliter l'auto-hébergement. YunoHost facilite l'installation et l'utilisation d'un serveur personnel. Autrement dit, YunoHost permet d'héberger sur sa machine et chez soi son courrier électronique, son site web, sa messagerie instantanée, son agrégateur de nouvelles (flux RSS), son partage de fichiers, sa seedbox et bien d'autres… Le nom YunoHost vient de l'anglais Y-U-No-Host ("Why you no host ?"), signifiant « Pourquoi ne pas t'héberger ? ». Il s'agit d'un jeu de mot issu du mème internet "Y U NO".

Yunohost c'est le système qui fait tourner la Brique Internet, mais pas que... Framasoft dédie une journée de temps de l'un de ses salariés durant laquelle, chaque semaine, du travail est fait pour packager les applications des différentes applications Degooglisons Internet pour les rendre disponibles au sein de YunoHost.

L'objectif de cette soirée est de faire une présentation du projet Yunohost, de ses objectifs et de pourquoi et comment contribuer au projet.

Cédons à la tradition : le billet bilan de 2017 du blog :)

Il faut savoir respecter les traditions. Chaque ultime billet d’une année est celui où l’on se doit de faire un bilan.

En décembre 2016, en utilisant l’outil de statistiques de WordPress – qui ne fonctionne plus à cause de certaines limitations de mon hébergeur historique – je tournais dans le demi-million de pages vues avec une bonne moitié de robots de moteurs de recherches.

Un an plus tard, j’ai dû utiliser l’outil de statistique de l’hébergeur, donc les chiffres sont à prendre avec des pincettes, surtout que les données du mois de décembre ont été bloquées au… 6 décembre !

Selon les statistiques fournies, mon blog connait dans les 8000 visites quotidiennes… Énorme ! Soit entre le 1er janvier et le 6 décembre quelque 2,78 millions de visites sur l’année… Une multiplication par 4 par rapport à l’année dernière ? C’est un brin excessif, donc je ne m’attarderai pas dessus. Tout ce que je peux dire, c’est que mon blog est visité. Malgré tout, je ne me considère pas un blogueur influent, loin de là !

Ce que je retiendrai de l’année 2017 ? Une année de tension intense. Au point d’avoir la volonté de mettre la clé sous la porte en février 2017… Une crise qui en dit long sur l’ambiance pourrie du monde du libre qui règne actuellement.

Inutile de revenir sur les événements en question. En tout cas, une chose est sûre, je pense que dans les mois qui viennent, entre les annonces catastrophiques sur le plan de la sécurité comme des extrapolations sur l’Intel ME (la route de l’Enfer est pavée de bonnes intentions) ou encore les intégrateurs qui poussent certaines fonctionnalités comme l’Intel SPI qui font que Canonical retire temporairement la dernière version de son Ubuntu, et je pense que l’on fera une overdose de popcorn devant la propagation de FUD dans le seul but de vendre des solutions de sécurité.

D’ailleurs, il faut être réaliste : la seule vraie sécurité en informatique est de couper l’alimentation électrique et réseau d’un ordinateur, le mettre dans un coffre-fort, coulé dans un cube de béton de cinq mètres d’arête, le tout balancé au fin fond de la fosse des Mariannes.

Oui, c’est une exagération volontaire. Protégez sa vie privée, c’est normal. Mais en dehors du chiffrement d’un portable qui doit voyager ou du chiffrement de votre messagerie, quel intérêt de pousser plus loin la recherche de la sécurité ?

La sécurité ultime n’existe pas. Toute technologie de chiffrement sera un jour ou l’autre cassée, même si dans le cas du protocole SHA1, il a fallu un équipement qui n’est pas donné à tout le monde : juste 6500 CPU et 110 GPU durant un an pour arriver à produire deux documents PDF différents avec la même somme de contrôle SHA1… Une paille, non ? 🙂

Il ne faut pas tomber dans le travers du « rien à cacher » : simplement rester raisonnable, et trouver le bon équilibre entre sécurité et utilisabilité. Mais n’étant pas expert en sécurité et ne prétendant pas l’être, ce n’est qu’une simple réflexion d’un internaute qui a connu les connexions en 33,6 Kbps/s et qui essaye de faire fonctionner ce qui lui sert de masse cérébrale 🙂

Pour finir cet article, j’ai eu du mal à choisir une vidéo. J’ai pris donc un titre du très bon deuxième album d’Alwaid « The Machine and The Beast », nommé « Amphisbaena ».

En vrac’ de fin de semaine… Dernière édition de 2017 !

Comme chaque fin de semaine, l’habituel en vrac. L’année 2017 se terminant enfin, voici l’ultime billet en vrac la concernant.

Côté logiciel libre, informatique et internet.

Côté culture ? Pas grand chose, la fin d’année est particulièrement calme…

Deux opérations qui s’arrêtent le 31 décembre à 23h59 :

Bon week-end et en oubliant le blabla habituel hypocrite du 1er janvier 🙂

2017, une année où mon enfance et mon adolescence ont un peu moins souffert ?

Il y a un an à peu de chose près, j’écrivais un billet franchement amer sur l’année 2016 qui avait été une vraie hécatombe en ce qui concernait mon enfance et mon adolescence. À trois jours du nouvel an 2018, j’ai voulu faire un bilan pour voir quelles célébrités m’ayant touché sont parti sur les 12 derniers mois.

Je dois dire que l’année 2017 a été à peine plus douce… Du moins, en ce qui me concerne. J’ai exprimé dans un autre billet l’indifférence que j’éprouve envers la disparition de Jean-Philippe Smet.

Sur le plan cinématographique et télévisuels ? Chronologiquement :

Janvier 2017 : Mike Connors, éternel interpètre de Mannix. Je me souviens d’avoir vu la série lors de sa rediffusion en France. Même si déjà à l’époque la série était datée, elle était toujours agréable à voir. Et révolutionnaire, Gail Fisher étant une des premières actrices afro-américaines avec un rôle régulier dans la série.

Mai 2017 emporta trois acteurs que j’aimais beaucoup. Les Français Victor Lanoux (4 mai 2017) – que j’avais découvert dans le film « La Smala » au côté de Josiane Balasko – et Jean-Marc Thibault (28 mai 2017), éternel « George ! » de la série Maguy mais que je connaissais par ailleurs.

Sans oublier le deuxième interprète de 007, Roger Moore (23 mai 2017) que j’avais largement préféré dans son rôle d’alter-ego de Tony Curtis dans « Amicalement Vôtre ».

Juillet a emporté deux acteurs que j’appréciais beaucoup : Jean-Claude Bouillon, éternel commissaire Valentin des Brigades du Tigre (31 juillet 2017) et Martin Landau (15 juillet 2017) qui avait joué dans les premières saisons de Mission Impossible à la fin des années 1960 ou encore l’inoubliable Commandant Koenig de Cosmos 1999.

Août 2017 : c’est la mort de Mireille Darc qui m’a marqué. Je me souviens de son rôle de femme fatale dans la série des « Grand Blond »… Ou encore ses rôles dans les séries de l’été quand c’était la mode d’en faire.

Octobre 2017 : l’un des plus grands acteurs français restant nous quittait. Je parle de Jean Rochefort (9 octobre 2017) et son humour froid, sans oublier son éternelle moustache. Il serait impossible de résumer sa carrière, mais un des films où je l’adore, c’est « Un éléphant, ça trompe énormément » et les quiproquos sans fins…

L’année dans ce domaine s’est mal terminée… John Hillerman (9 novembre 2017), éternel Higgins de Magnum nous quittait à son tour… Était-il ou pas Robin Masters ? Le saura-t-on jamais ?

Dans d’autre domaines, il y a des morts qui m’ont touché, comme celle de Simone Veil (le 30 juin 2017) ou Jean d’Ormesson (en décembre 2017).

Si l’année 2016 a été pour moi une année de perte musicale, 2017 a été celle des pertes sur le plan cinéma et série… Vu le carnage de l’année 2016, il ne reste plus grand monde que j’apprécie et qui soit encore en vie, du moins, dans les personnes dont la carrière a débuté dans les années 1960-1970. Pourquoi j’ai comme l’impression que 2018 va nous enlever Tony Iommi ? Ou encore France Gall qui a été hospitalisée fin 2017 ?

Bref, je pense que l’article que je ferais en décembre 2018 – si le blog est encore actif, tournera autour des pertes musicales…

Les paquets universels, croque-mort des mainteneurs de logiciels ?

Dans mon billet humoristique – seuls les pisse-froids auront pris au pied de la lettre l’article sur les prédictions de 2018 – je parlais des paquets universels.

Je disais ceci en substance :

Sur le plan des paquets universels, je ne pense pas que leur adoption progresse énormément en 2018, surtout avec un duo/duel comme avec Flatpak (projet développé pour être multiplateforme) et Snap (projet centré sur Ubuntu au départ).

À moins qu’un troisième larron arrive et dise aux deux larrons de fermer leurs grandes gueules ?

Je dois dire que les formats universels, c’est un serpent de mer du monde linuxien. Et depuis 1996, année où j’ai commencé à m’intéresser au libre, il y a eu quelques tentatives plus célèbres que d’autres.  Je pourrais citer 0install ou encore les autopackages.

Pour 0install, on a un projet qui date de 2005 et qui est toujours développé en 2017. Mais qui en parle mis à part quelques blogs obscurs et quelques magazines purement technique ? Pas grand monde.

Pour les autopackages, le projet a fusionné en 2010 avec Linstaller. Qui en entend parler ? Pas grand monde.

Bien entendu, il y a le trio Appimage, Flatpak et Snap qui tient le haut de la scène actuellement. Si je devais parier sur un survivant à terme, je penche pour Flatpak. Pourquoi ? Car c’est un format proposé par le site FreeDesktop.org.

On y trouve aussi des technologies dont les sites officiels y sont hébergés : le pilote nouveau, gstreamer ou encore le diabolique conflictuel systemd.

Donc, dans un de ses derniers articles, Sebastien de Passions GNU/Linux n’a pas tort quand il dit :

IL FAUT que ça soit le standard Freedesktop qui s’impose et rien d’autre, il faut que ça soit une distribution communautaire à la Debian, si ce n’est Debian, qui s’en sorte le mieux avec.

Je pense que la Debian et son impératif historique de stabilité ne soit pas le meilleur choix ici, surtout avec un cycle de sortie relativement long pour le libre, deux ans entre chaque version majeure en moyenne.

Pour moi, et contrairement à l’article reprit par Seb, ce ne sont pas toutes les distributions qui risquent de disparaître à terme, mais seulement celles qui sont redondantes avec l’existant. Ou qui ne survivent que par leur format de paquets spécifique et les outils qui vont avec pour toute justification.

Car pour faire vivre une distribution, il faut des mainteneurs. Qui dit mainteneurs dit souvent empaquetage de logiciels. Si un dépot plus ou moins centralisé proposant des applications universelles finit par s’imposer comme standard, il ne devra plus rester que la base.

Les applications de plus haut niveau, spécialement celle à destinations des utilisateurs finaux s’installant en reproduisant le principe développé peu ou prou depuis le début par Apple et son MacOS.

Même si cela donne des paquets qui sont souvent proche de l’obésité morbide, cela permet d’avoir des logiciels qui ont autour d’eux tout ce qu’il faut pour les faire fonctionner.

On pourrait arriver ainsi à récupérer un paquet universel pour LibreOffice qui pèserait facilement un bon demi-Go, voire plus si on doit rajouter les bibliothèques qui vont bien pour faire fonctionner le logiciel.

Évidemment, cela serait une plaie pour les personnes ayant des connexions limitées, mais qu’est-ce qu’on en a à foutre ? Tout le monde à l’ADSL, non ? Et bientôt tout le monde aura une connexion style fibre, non ?

Euh, comment dire… Quid des pays en voie de développement ? Des zones rurales où tirer la fibre ne serait pas le moins du monde rentable ?

Pour moi, de part le nombre de standards qui s’entretuent pour obtenir cette solution miracle du paquet universel, et surtout de part la dispersion des distributions, les paquets universels auront du mal à s’imposer.

On peut être alarmiste et hurler au loup en disant que l’on va tous crever. C’est vrai, mais cela est un autre problème. Ce qui ressort, c’est souvent que les mainteneurs de paquets pourraient perdre une partie de leurs pouvoirs. Oui, le pouvoir de dire à l’utilisateur de base : tu vois, chose insignifiante, je sais empaqueter ton logiciel. Tu es sous ma coupe !

Désolé, je me suis laissé emporté dans le paragraphe qui précède, mais c’est l’impression que j’en ai.

Empaqueter un logiciel, surtout sur les distributions nées à partir de l’époque de la Gentoo 1.0 (soit à partir de 2002), c’est prendre une recette, la modifier, vérifier si ça compile et vogue la galère.

On est loin des horreurs de complexité que sont les paquets pour debian ou encore le rpm. Du moins, c’est ce que j’en ai retiré en lisant la documentation de génération des paquets.

Je sais que je vais précher pour ma propre paroisse ici, mais quand je vois la simplicité syntaxique d’un PKGBUILD, je me dis que le système de paquets a été pensé pour être facilement applicable.

Ce qui explique le nombre astronomique de recettes disponibles sur le dépôt utilisateur AUR, un peu plus de 43000 au moment où je rédige ce long billet en décembre 2017. Bien sûr, on y trouve tout et n’importe quoi, ce qui est explicable par la simplicité syntaxique des PKGBUILD.

Donc pour conclure cet article, ce qui disparaîtrait au final, en dehors de distributions n’ayant pas réussi à s’imposer sur le marché qu’elles visent, ce serait le pouvoir de certaines personnes qui empaquetent les logiciels. Car il n’y aurait plus besoin que de profils largement plus techniques pour s’occuper des bases comme le noyau, le serveur graphique X ou son successeur Wayland, ou encore l’intégration de l’outil de gestion des paquets universels. Vous imaginez un paquet universel pour le serveur graphique ? Moi, pas  🙂

Vu la dispersion et les guerres intestines constantes entre les communautés qui constituent le monde du libre, je ne pense pas que les paquets universels finissent par s’imposer.

Les utilisateurs classiques ne viendront pas dans le monde du libre tant qu’il y aura plusieurs dizaines de distributions bureautiques dont la seule différence au final n’est que le format de paquets employés pour les logiciels.

Tant qu’il n’y aura pas de ports d’applications non-libres comme des ogres à la Photoshop (pour prendre cet exemple), toutes les guerres intestines du libre ne compteront pas plus qu’une tempête dans un verre d’eau.