Le noyau linux-libre, un cul-de-sac à terme ?

J’ai pu lire sur Phoronix qu’à peine sorti, le noyau linux 4.14 avait été disséqué pour enlever les micrologiciels et bouts de code précompilés nécessaire au fonctionnement de nombre de matériels.

Le projet Linux-libre veut proposer un noyau complètement débarrassé de ces bouts de code. C’est un choix qu’on peut comprendre sur le plan éthique, même si cela peut entraîner soit le non-support soit un support imparfait du matériel que l’on a parfois acheté à des prix qui font mal au fondement.

Cependant, on peut lire sur l’article de Phoronix la phrase suivante qui résume bien le noeud du problème concernant la production du noyau « libéré » :

There were also complications around upstream Linux 4.14 having dropped their in-tree firmware code.

Une traduction rapide :

Il y avait aussi des complications autour de Linux 4.14 en amont ayant abandonné leur branche du code pour les micrologiciels.

Mais il reste un problème de taille… Le noyau 100% libre ne saurait être vraiment utilisable sans problème sans du matériel qui est lui aussi 100% libre…

Cela veut dire proposer entre autre sous licences libres :

  • Un bios / uefi
  • Un microprocesseur
  • Un circuit son
  • Un circuit graphique
  • Un circuit réseau filaire
  • Un circuit réseau pour le wifi

Le tout se branchant sur une carte mère libre… Et si on regarde, cette liste est loin d’être remplie… Sauf erreur de ma part, il y a bien un bios libre, c’est CoreBoot et sa variante LibreBoot.

Pour les microprocesseurs, il y a le projet RiscV avec une création bien avancé, LowRisc. Il y a aussi d’autres projets basés sur l’architecture Sparc, comme OpenSparc par exemple, mais comme c’est sous la coupe d’Oracle…

Pour tout ce qui est audio, graphisme ou encore le réseau, c’est pas franchement la joie. Le projet Open-Source Graphics ayant disparu vers 2010-2012…

Même si un ensemble de composants 100% libre avec pour résultante un ordinateur 100% libre, il faudrait alors se pencher sur les périphériques les plus courants comme les imprimantes… Et quel serait le prix de production et donc de commercialisation de tels produits ?

Sans vouloir jouer les oiseaux de mauvais augures, il est à craindre que les noyaux 100% libre ne soient à terme un cul-de-sac, surtout sur du matériel récent qui contient des parties non libres pour éviter de produits contrefaisants, comme des Core i7 en 2010…

J’espère juste me tromper !

Vieux Geek, épisode 104 : Mozilla Sunbird, l’oiseau oublié…

L’histoire de la Fondation Mozilla a été marqué par de nombreux projets, dont les plus célèbres ont été la Suite Mozilla devenue SeaMonkey, Mozilla Firefox et Mozilla Thunderbird.

Mais il y a eu aussi des projets qui ont été oubliés et Mozilla Sunbird est l’un d’entre eux. Développé entre 2005 et mi-2010, c’était un projet développé par l’équipe en charge de l’agenda. L’équipe en question avait eu l’idée de proposer un logiciel complet basé sur Gecko pour gérer ses agendas.

Il y a eu quelques versions de cet agenda indépendant, l’ultime version publiée étant une version 1.0b1 que l’on peut encore trouver sur le serveur FTP de Mozilla. Disponible pour Linux, MacOS-X et MS-Windows, le logiciel était presque arrivé à sa première version finale quand il a été arrêté.

J’ai eu envie de lui rendre hommage dans cet article et pour des raisons pratiques, je suis parti d’un MS-Windows 7, version contemporaine de l’OS de Microsoft quand l’ultime version de Mozilla Sunbird a été publiée. Quoi de mieux que de le montrer en action même s’il n’est plus trop utilisable de nos jours ?

Bien que Mozilla Sunbird ait été abandonné, le projet d’agenda intégré à Mozilla Thunderbird est devenu une réalité. Au moment où je rédige cet article, la version stable est la 5.4.4. La version que j’utilise dans mon Mozilla Thunderbird, basé sur le code des versions de développement, compilé maison est la 6.0a1 comme le montre la capture d’écran ci-dessous…

Dommage pour Mozilla SunBird, mais il continue de vivre ainsi 🙂

Et si on faisait un bilan au de bout de 5 ans des distributions GNU/Linux ? Avant-dernière partie.

On arrive enfin au mois de novembre 2012. Après un article consacré au mois d’octobre 2012 et sorti le 13 octobre 2017, replongeons-nous dans le mois qui précéda la plus célèbre apocalypse ratée de ce début de 21ième siècle.

Voyons cela.

2 novembre : la Mozillux, une DGLFI avant l’heure…
3 novembre : la Paldo GNU/Linux et son gestionnaire de paquets écrit en mono !
4 novembre : la Crux 2.8, source d’inspiration d’une certaine… Archlinux
5 novembre : l’AtlasX, mélange de Debian et d’Enlightenment
6 novembre : la Slitaz GNU/Linux. Dans le domaine de l’ultra-léger, c’est une référence !

13 novembre : toujours dans le domaine de l’ultra-léger, pourquoi pas l’AntiX 12.5 en alpha ?
16 novembre : l’OS4 OpenDesktop devenu depuis la BlackLab Linux…
21 novembre : ah, la bêta de la Fedora Linux 18 🙂
27 novembre : la Salix 14.0, une slackware simplifiée 🙂

Au final, pour les disparitions :

  1. La Mozillux
  2. L’AtlasX

Autant dire presque rien au niveau de la liste précédente. Est-ce de la chance ou avais-je mis de coté les distributions suspectes que j’allais appeler DGLFI par la suite ? On verra pour le billet de décembre 2012 si la tendance se confirmait ou pas 🙂

En vrac’ de fin de semaine…

Comme chaque fin de semaine, l’habituel en vrac. Quoi de neuf en ce jour du 99ième anniversaire de l’armistice de la première guerre mondiale ?

Côté logiciel libre, informatique et internet.

Côté culture ?

  • Le groupe finlandais de metal atmosphérique et progressif Edge Of Haze annonce la sortie de son nouvel album « Deluge ».
  • https://edgeofhaze.bandcamp.com/album/deluge

  • Un petit de publicité pour mes créations. J’approche petit à petit de la fin de mon projet de petit roman policier, et j’aurai besoin de retours, ne serait-ce que pour m’aider à trouver des incohérences. À vos bons coeurs, merci !

Bon week-end !

Etre autodidacte

Dans le cadre des entretiens professionnels de recrutement que je suis amené à faire, il m'arrive de recevoir des personnes qui se disent autodidacte ou passionnée par les nouvelles technologies. Manque de bol pour elles, j'entre dans ces deux catégories et je suis donc d'autant plus exigeant quand à leur candidature...

En effet, je veux être sûr que le terme d'autodidacte n'est pas usurpé et mis là pour justifier un absence d'étude. Je veux être sûr que la personne est ce qu'elle prétend et a bien les compétences que je recherche, à savoir la capacité et surtout l'envie (la soif) d'apprendre, de progresser, de toujours aller plus loin, de ne jamais se reposer sur ses acquis. Le métier que j'exerce nécessite de sans cesse progresser, suivre les évolutions, faire de la veille... Etre autodidacte, c'est pour moi, une façon de vivre et de progresser, cherchant à atteindre un graal inatteignable.

Etre autodidacte, pour moi, c'est un travail du quotidien pour moi. Chaque jour je passe du temps à faire de la veille via mon agrégateur RSS Lifehacking - Mes astuces pour faire ma veille ciblée et je ne pourrais vivre sans une connexion à Internet à ce jour (Internet un formidable outil pour les autodidactes ?) Car chaque jour, je continue d'apprendre
Je ne me repose pas sur mes acquis, je cherche sans cesse à progresser...

Je parlais de l'exigence. J'ai vis à vis des autres une exigence et une discipline que je m'impose avant tout à moi-même. Par plaisir, mais aussi par envie, par nécessité, je passe des après-midi les week-ends. C'est au détriment d'autres choses, ce sont des sacrifices (voir à ce sujet mon billetPhilosophie de vie), mais heureusement le lifehacking est là pour l'optimisation de mon temps.

Je sais pertinemment la chance que j'ai de connaître (d'avoir pu déterminé) mes limites à mes capacités, d'avoir pu bien définir en quoi j'étais doué et bon (doué à force de travail, non pas par quelque chose d'inné). Je sais pare exemple que je ne suis pas quelqu'un de particulièrement intelligent. Je suis juste quelqu'un de travailleur et de rigoureux. Ryo-Oki est une personne très intelligente, plus que la normale et je sais donc ce qu'est une personne qui sort du lot, qui se démarque. Moi, j'ai juste été un bon élève durant toute ma scolarité jusqu'à l'université om j'ai atteins mes limites (et aussi découvert ma capacité d'autodidaxie pour le domaine de l'informatique, pour certaines branches de l'informatique plus exacteemnt. Je ne suis pas développeur par exemple). J'ai donc travaillé avec le soutien de mes parents qui m'ont donné le goût des études, eux n'en ayant pas fait. Et ce travail, chaque soir et chaque week-end passer à faire mes devoirs, à travailler encore et encore, sans que ce soit facile car je n'avais pas de facilité particulière ont fait que, jusqu'à l'université, j'ai été dans les premiers de la classe. Et ce parce que j'étais studieux, non pas parce que j'étais intelligent.

Ce travail, cet apprentissage continue et sont des qualités pour moi. Et je pense savoir reconnaître cette qualité chez les autres. Donc pas de bol si vous tombez sur moi en entretien en vous disant autodidacte, vous devrez faire face à mon exigence. Mais une fois le cap de l'entretien passé, si les capacités sont belles et bien là, quel plaisir j'ai alors de travailler avec vous. Je conclurai ce billet en le dédiant à Obi-wan et StanSmith qui se reconnaîtront : vous êtes de vrais autodidactes et c'est un plaisir que de travailler avec vous

Rq : le terme vrai n'a aucun jugement de valeur, bien entendu, vu que je me juge encore plus sévèrement que les autres.

Lucy, Racquel and Me : un premier LP éclectique.

J’ai été contacté il y a quelques jours – du moins au moment où je rédige cet article – par le membre masculin du trio « Lucy, Racquel and Me ».

Dans le courrier que j’ai reçu, j’ai pu apprendre que le trio est composé par l’australienne Lucy (qui écrit les textes), Racquel la Californienne qui pose sa voix dessus et Philippe le musicien qui rajoute les mélodies.

Ce principe de groupe créant des titres via le « grand nain ternet » me fait me souvenir d’un autre qui a fait les beaux jours de la plateforme Jamendo qui venait alors de naître. Je parle bien sûr de Tryad, dont on attend toujours le troisième album d’ailleurs.

Comme je l’ai précisé dans le billet en vrac’ du 4 novembre 2017, le trio prend de nombreuses influences, je cite :

C’est un groupe qui mélange la pop de l’époque de Mamas and Papas, le blues, la folk ou encore la soul. Bref, un brin éclectique. Laissez donc traîner une oreille sur leur site officiel.

Leur premier album est disponible un peu partout, si on en croit leur site officiel, mis à part Bandcamp. Un oubli qui sera sûrement corrigé. Il est à noter que l’on peut aussi le télécharger en toute légalité via une section dédiée, l’album étant sous licence Creative Commons. Cependant, je n’ai pas trouvé le contrat en question 🙁

Après avoir récupéré l’album, j’ai lancé mon ami DeadBeef pour l’écouter.

Sur le plan purement technique, nous avons 11 pistes pour environ 41 minutes. Cela fait donc des petits titres qui s’enchainent les uns à la suite des autres. Ce qui n’est pas plus mal.

On commence avec une mélodie pop un peu sucrée, mais pas trop. C’est une piste entraînante. C’est le genre de titre qui vous remonte le moral même après une journée des plus… pourries 🙂

Vers la fin de l’album, on a la piste « Coffee queen » est aussi une piste plus joyeuse qui contraste avec les autres pistes précédentes que j’évoque ci-après.

Le groupe sait aussi proposer des balades comme « Children in bare feet », « Shattered », « Love now » ou encore « What we did do wrong ? ». En poussant dans le blues avec des titres comme « One Day ».

Le groupe flirte aussi avec des mélodies à la Beatles comme avec « Untraceably gone » qui me fait penser à « Let It Be » dans sa composition. On pourrait y rajouter « All true ».

Toujours dans les inspirations beatlesques, la piste « Gone Baby gone » peut difficilement nier la parenté.

L’ultime piste, « Silence for beginners » est une piste très douce, inspirée bossa nova. Histoire de finir l’écoute sur une dernière impression de calme et de détente.

Philippe m’avait précisé dans son courrier que le groupe cherchait l’éclectisme du « White Album » des Beatles. Après l’écoute du premier album éponyme, le contrat est rempli.

Les seuls regrets que j’ai ? Que le groupe n’ai pas pensé à Bandcamp pour se faire connaître et que l’album ne soit disponible qu’en version numérique. Mais faire des versions physiques, ce n’est pas donné… 🙁

Trois ans sur la framasphere*, quel bilan ?

Il y a un peu plus de trois ans, j’écrivais un billet un peu acide sur la relation que j’ai entretenu avec diaspora*, le réseau social décentralisé.

Je concluais l’article ainsi :

Diaspora* est pour moi un réseau complémentaire, et moins généraliste que Google+ et qui me permet d’avoir un contrôle plus fin des échanges. J’ignore combien de temps j’aurais ce compte sur le pod de framasoft. Peut-être que l’aventure s’arrêtera dans une semaine ou dans trois ans. Pour tout dire, je m’en contrefous complètement.

Ce qui compte, c’est d’essayer, loin de projet feu de paille comme ello. Son idée de ne pas dépendre de la publicité est purement hypocrite, car ils devront bien un jour où l’autre monétiser leurs données, seul trésor de guerre des réseaux sociaux classiques.

Je préfère échouer quelque part que de ne pas avoir essayer. Un échec est plus facile à supporter que des remords. Cela me rappelle une scène culte d’un des meilleurs épisodes de l’hexalogie de la Guerre des Etoiles (en anglais, c’est mieux)

J’ignorais qu’en 2017, je serai encore un utilisateur actif de la framasphere*. Sur mon profil, j’ai quelque chose comme 783 contacts (faudrait que je fasse le tri). D’ailleurs, j’ai remarqué que le réseau décentralisé a fini par remplacer mon vieux compte google plus que je maintiens en vie pour des raisons sentimentales 🙂

Le 30 octobre 2017, Framasoft annonçait en fanfare les 3 ans de son pod diaspora*, qui cumule quelques 40 000 comptes. Seul les mainteneurs du pod doivent savoir quelle est la proportion réellement active.

Nombre de blogueurs influents, comme un certain Manuel Dorne y avait ouvert un compte – à moins que ce fut sur un autre pod du réseau diaspora* – pour le laisser moisir comme une vieille chaussette sale. Ce qui n’empêche pas le réseau diaspora* d’exister après tout !

J’ai réussi à me faire ma petite toile de relations sur diaspora* et c’est le principal. Le réseau est sûrement plus petit que le surpuissant Facebook et ses 2 milliards de comptes créés. Mais il ne souffre pas de la pollution des djeunez en pleine période pubère se perdant dans la haine de l’autre à cause de son orientation sexuelle, de sa couleur de peau, ou encore de sa confession. Oui, c’est un peu caricatural, mais c’est souvent le portrait de la génération des « digital natives ».

Il y a un an, j’écrivais un billet sur ma dé-GAFAM-isation, et sur certains plans, cela en est resté au même point. Je n’ai pas vraiment accroché à l’initiative Framagenda. Mon moteur de recherche reste Google, même si je fais des efforts pour m’en passer.

J’ai ouvert récemment un compte sur Mastodon, via framapiaf. Même si les débuts ont été un peu ardus, cela m’évite de tomber sur les mêmes dérives que celle qui contamine Facebook. Même si je n’ai sur Framapiaf en ce 8 novembre 2017 qu’un peu moins d’une centaine d’abonnés et d’abonnements, c’est toujours mieux sur le plan qualitatif par rapport à l’oiseau bleu.

Bref, pour tout dire, si Mastodon et Diaspora* continue à bien se porter ainsi, je pense qu’au moins mon compte twitter pourrait passer l’arme à gauche dans un délai de 18 mois. Pour Google Plus, je verrai à hauteur de deux ans.

Pour finir ce billet, je tiens à tirer mon chapeau à Framasoft qui montre que ni Facebook, ni Twitter ne sont incontournables. Que la Framasphere* ait soufflé sa troisième bougie est la meilleure claque aux personnes médisantes, dont j’ai fait parti en octobre 2014. Donc, mea culpa !

Virtualbox comme outil dans le cadre de formations

Etant amenés à faire des formations à des client sur différents logiciels, je souhaiterai partager ici plusieurs astuces que nous avons mis en place au sein de mon équipe et que nous réutilisons dans le cadre de formation professionnelle que nous sommes amenés à préparer et donner à des clients. Je profiterai de ce retour d'expérience pour partager des astuces, des conseils, des pratiques qui ont été testées et validées en situation sur le terrain hostile des réseaux d'entreprises...

Nous utilisons également ces VM (VM = Virtual Machines ou Machines virtuelles, soit les machines virtualisées, les systèmes invités dans Virtualbox, le système hôte étant la machine physique qui fait tourner le le logiciel Virtualbox) pour nos différents projets dans le cadre de l'appropriation d'une nouvelle technologie (on ne peut pas tout savoir), de veille ou de la réalisation de P.O.C. (Proof of Concept) rapide.

Dans ce billet, quelques éléments / retour d'expérience. Je ne détaille pas, des connaissances sur le fonctionnement de Virtualbox (ou d'un environnement de virtualisation en général) sont un prérequis.

Pourquoi choisir Virtualbox ?

Nous utilisons Virtualbox et ce pour plusieurs raisons :
- Les machines virtuelles sont portables : nous travaillons sous des distributions Linux différentes selon les collaborateurs, les clients sont sous des OS Microsoft (Windows 7 ou 10). Et le transfert d'une VM d'un environnement à un autre se fait sans soucis (juste le temps de la copie). Les VM sont parfaitement compatibles (si les versions de Virtualbox sont bien les mêmes).
- facilité de transfert et de sauvegarde : les VM sont des gros fichiers qui viennent avec des fichiers de configurations XML. Facile à copier d'une machine à l'autre et donc à sauvegarder (on copie tout le fichier).
- parce que je maîtrise cet outil. Oui je connais KVM (et le fait qu'il y ait une interface graphique si besoin etc. mais je reste fidèle à la facilité de Virtualbox ;)

Prérequis à une formation

Avant d'intervenir en formation en présentielle chez un client, nous demandons comme pré-requis :
- que l'on nous mette à disposition des machines disposant d'un processeur Intel coreiX (X étant un nombre de 3 à 7, l'intérêt est d'avoir un processeur 64 bits, supportant les instructions de virtualisation et donc d'avoir une machine virtuelle performante). Intel ou équivalent chez AMD (que j'avoue ne pas connaître).
- qu'idéalement la machine est un SSD : des machines virtuelles de formation ont des petits jeux de données et ne font que quelques gigas (elles tiennent sur des clefs USB), ce n'est pas ça qui va prendre de la place sur le disque. Et comme un SSD c'est toujours plus rapide et plus de confort pour la virtualisation...
L'astuce de Genma : copier les machines virtuelles de formation sur plusieurs clefs USB. Pour qu'on puisse lancer plusieurs copies le jour J.
- à minima 8 go de RAM : j'ai déjà eu des PC de formation sous Windows 7 64 bits avec 4 giga de RAM, même avec une machine virtuelle à laquelle on affecte que 512 Go à 1 Go de RAM (pour un serveur nginx / php / MySQL), c'est lent. 8 giga de RAM permettent d'être confortable (et de faire tourner 2 VM auxquelles on affecte 2 Giga de RAM chacune), 16 Go c'est idéal.

Configuration réseau

Pour la configuration réseau sous Virtualbox, j'ai fait un billet dédié abordant ce sujet Yunohost, Virtualbox, Interfaces réseaux. Le fait que ce soit Yunohost ne change rien à la philosophie, les explications de mon billet restent et sont valables pour n'importe quel système en tant qu'invité.

L'astuce de Genma : attention à bien penser à faire des reset des adresses MAC à l'installation des VM sur chacun des postes de formation pour éviter des soucis d'IP. En effet, dans le cas d'une connexion réseau par pont sur un réseau fournissant une adresse en DHCP, si la carte réseau virtuelle garde la même adresse MAC (cas d'une copie d'une même machine virtuelle invitée sur plusieurs PC hôte), on se retrouve très vite avec des conflits réseaux...

Il faut anticiper le maximum de problème (on aura toujours des imprévus) d'où une seconde astuce :

L'astuce de Genma : penser à faire valider avant par le client la mise à disposition d'une connexion à Internet et la qualité du réseau (pas de proxy nécessitant une authentification, pas de filtrage par adresse MAC ou autre etc.) Et prendre en compte les informations pour adapter la connexion réseau de la machine virtuelle en conséquence.

Utiliser des points de restauration snapshot

Cela permet que si la personne n'a pas réussi l'exercice, qu'elle puisse repartir d'une machine ayant le résultat et de continuer. Si il y a une mauvaise manipulation, on peut repartir d'une version qui était fonctionnelle. De plus, ces points de restauration / snapshot s'exportent très bien à l'export de la VM (pour sa copie sur clef USB puis sur les PC de formation).

L'astuce de Genma : penser à nommer les points de restauration.

Le luxe étant d'avoir une machine virtuelle par grande phase / partie de la formation (qu'on lance et éteint à chaque fin de grande partie). Mais cela fait autant de machine à maintenir...

Les comptes utilisateurs

Avoir un compte utilisateur et un compte administrateur. Mettre des mots de passe simple (le même pour les deux). L'objectif n'est pas d'avoir de la sécurité mais d'avoir des comptes facile à utiliser

L'astuce de Genma : dans le cas de machine Linux, activer un serveur SSH. Si la machine virtuelle a une IP publique (ou sa machine hôte et qu'on a activé la redirection de port sur la configuration NAT de la machine virtuelle), on peut ainsi facilement accéder à n'importe quel VM via SSH (vu que les comptes sont connus) et aider / débloquer un des participants depuis son propre PC.

Avoir une VM template et maintenir sa VM à jour}

J'ai une VM coquille vide de référence : une installation de Debian minimale de laquelle je peux repartir en la clonant pour répondre à des besoins de formation pour lesquels je n'ai pas encore de VM. Je ne repars pas de zéro comme ça. Et je fais le maintiens / mise à jour de cette VM (tout comme celles plus avancées dans lesquelles il y a un ou plusieurs logiciels dédiés aux formations). Comme ça, je suis les évolutions et montées en version.

Aller plus loin ?

J'avais écrit un billet Jouons avec Ansible et Virtualbox dans lequel, comme le nom l'indique,

On peut imaginer d'automatiser certaines choses avec Ansible et un script. En effet, comme Virtualbox est également accessible en ligne de commandes, on peut imaginer un script qui :
- lance une VM via les commandes Virtualbox
- fait un snapshot /point de restauration de la machine virtuelle
- fait une mise à jour de la VM via Ansible (pour éviter la saisie de mot de passe)
- fait un snapshot /point de restauration de la machine virtuelle (pour conserver la version mise à jour)
- éteindre la machine et passe à la suivante

On lance ça un midi ou un soir et on a toutes ses VM maintenues à jour...

Sauvegardes

Bien évidemment, il faut penser à avoir des sauvegardes de toutes ces machines virtuelles vu tout le travail qu'on aura fait pour les mettre en place. Mais les sauvegardes c'est une évidence, non ?.

Conclusion

Que ce soit pour des VM pour des sessions de formation, pour des POC ou pour des projets, Virtualbox répond parfaitement à mes attentes. Le côté rigueur imposé (comptes connus, mises à jour etc.) permet l'interopérabilité et le transfert rapide à d'autres personnes (collaborateurs ou apprenants de la formation) et permet du gain de temps conséquent. Et vous, un avis, d'autres pratiques ou usages, ou des conseils ?

Yunohost, Virtualbox, Interfaces réseaux

J'avais publié rapidement un billet Yunohost, Clonezilla et Virtualbox expliquant que j'avais fait un clone via Clonezilla de ma machine Yunohost et cloner celle-ci au sein d'une machine virtuelle dans VirtualBox. Dans ce billet, je voudrais aller un peu plus loin et aborder l'aspect configuration et paramétrage réseau.

Remarque :
- Par YunohostProd, je désignerai la machine / serveur sur laquelle j'ai mon Yunohost que j'utilise tous les jours ;
- Par YunohostTest, je désignerai le clone / la machine virtuelle dans VirtualBox.

Mon besoin

Mon besoin est donc d'avoir une machine de test, aussi proche que possible de ma machie de production. L'avantage de la machine virtuelle est de pouvoir jouer avec et faire des tests, revenir en arrière très facilement via les snapshots.

VirtualBox - Quelles cartes réseaux ?

Cet environement de test est testé essentiellement sur deux types de réseaux : chez moi, derrière une Freebox. Et sur un réseau d'entreprise.

Sur chacun des machines virtuelles (que j'utilise dans VirtualBox, indépendamment du fait que ce soit une instance Yunohost), je crée à minima deux cartes réseaux :
- une carte eth0 en mode NAT : l'accès Internet de la machine hôte est alors partagé, je peux faire des mises à jour etc. La machine virtuelle voit Internet mais n'est pas vu du réseau local (elle est derrière un NAT qui est géré par VirtualBox).
- une carte eth1 en mode Réseau Privé hôte sur vbonet0 : la machine est visible et voit la machine hôte et réciproquement. Cette interface réseau me sert pour me connecter en SSH depuis ma machine hôte sur la machine virtuelle.

A ces deux interfaces réseaux, j'en ajoute une troisième :
- une carte eth2 en mode Accès par pont (Bridge). Cette interface est uniquement valable dans le cas où le réseau permet à la machine virtuelle d'avoir une IP dédiée (fixe ou via le DHCP). En entreprise (par exemple), là où les IP sont souvent associées aux adresses MAC, il n'est pas possible d'avoir une IP dédiée pour les machines virtuelles de test ; je désactive donc cette interface. De chez moi, quand je suis connecté sur le réseau de la Freebox, j'active cette carte eth2, ma machine virtuelle a donc une IP dédiée sur le réseau local.
Remarque : vu que via cette interface, la machine hôte voit également la machine virtuelle étant donné qu'elles sont sur le même réseau local, je pourrais désactiver l'interface eth1 quand je peux activer eth2.

Qui voit quoi ?
- via la carte en NAT : la VM a accès à Internet pour les mises à jour derrière un NAT. Elle est invisible du réseau local et de la machine hôte, à moins de faire des redirections de port ;
- via la carte Réseau privé : accès à la machine hôte et réciproquement ; la VM est également visible des autres machines virtuelles situées dans le même réseau privé.
- via la carte Réseau Accès par Pont : comme la machine virtuelle a accès au réseau local et sa propre IP sur le réseau, elle est visible des machines du réseau local en accès direct.

Configuration réseau - DHCP par défaut Pour chacune des interfaces réseaux de ma machine virtuelle, je reste en DHCP par défaut. Je pourrais lui affecter des IP fixes, mais je peux savoir facilement (c'est indiqué au lancement de Yunohost) les différentes adresses IP associées aux différentes interfaces réseaux ; le bail DHCP étant assez long - la machine garde toujours les mêmes IP pour les différentes interfaces.

Connexions à la VM Yunohost

Les connexions Yunohost se font de deux façons :
- par un navigateur pour l'accès aux différentes applications dans Yunohost ;
- par SSH

Sur ma machine hôte (un Linux), pour me simplifier la tâche et Yunohost utilisant les noms de domaines qu'ont lui a associé plutôt que les IP, quand je lance ma machine virtuelle, je pense à modifier le fichier /etc/host

monyunohost.fr 192.168.0.100

avec :
- monyunohost.fr : mon domaine yunohost
- 192.168.0.100 : l'IP du réseau privé affecté par VirtualBox à la machine virtuelle (interface eth1).

Et ainsi, en allant sur https://monyunohost.fr, je peux faire ce que j'ai à faire.

Reste à faire

- Du routage avancé Tout le trafic passe par défaut - est routé via l'interface eth0, celle qui est donc Naté. Cela ne pose pas de soucis pour tout ce qui sort. Mais pour ce qui entre, il est nécessaire de passer par la carte eth1.
=> Il faut que je vois les possibilités de ce côté.

- Mise en place d'une synchronisation Prod vers Recette Je peux très facilement cloner la machine virtuelle YunohostTest pour avoir une machine pour les tests et une machine "Sauvegarde".
J'aurai donc une seconde machine virtuelle, YunoBackup, qui aura une interface eth2 avec une IP du réseau sur lequel se trouve la machine YunohostProd. Les deux machines se voient. Mon idée est de mettre en place un système (un script) qui au démarrage de la machine virtuelle de Sauvegarde (YunoBackup) va se connecter en SSH à ma machine de production, et se synchroniser (à base de Rsync) pour récupérer les principaux changements.
Autre possibilité : récupérer les sauvegardes et les restaurer au sein de cette machine YunoBackup (un bon moyen de valider la procédure de sauvegarde / restoration). Toujours via un script.
=> Je note ça dans ma todo liste de projets personnels. A suivre.

En vrac’ de fin de semaine…

Comme chaque fin de semaine, l’habituel en vrac.

Côté logiciel libre, informatique et internet.

Côté culture ?

Bon week-end !

Lifehacking – TinyTask

Ayant à automatiser un certain nombres de tâches faite de façon graphique (des clics divers et variés au sein de différents logiciels en environement Windows), j'ai donc cherché un logiciel qui me permettrait de faire 500 fois la même chose. Et j'ai trouvé. Ce logiciel, c'est TinyTask. Disponible ici gratuitement ici (graticiel, logiciel non libre) https://www.vtaskstudio.com/tinytask.php

Remarque : la tâche nécessitait des actions en mode graphique au sein de différents logiciels, rien qui ne pouvait être automatisé par un script quelconque.

On l'installe, c'est léger. On le lance. On clique sur enregistrer. On exécute la séquence d'action que l'on souhaitera faire de manière répétitive. Cette séquence pouvant être au sein de différentes fenêtres. Et ça enregistre une macro qu'il est possible de rejouer un certain nombre de fois.

Quelques astuces :
- Ça marche bien dans une machine virtuelle (dans laquelle on a un Windows) ce qui permet de continuer à travailler à côté de ça sur la machine hôte. Sans cette astuce, on ne peut pas utiliser sa machine le temps que la tache se déroule. Une VM à lancer sur un second ou troisième écran pour garder un œil dessus. Car...
- Le logiciel plante parfois, donc on lance les répétitions par lot de 20 en gardant un œil dessus.
- Il faut penser à revenir sur la bonne fenêtre de départ à la fin de la séquence (en remettant le focus dessus). Car il semblerait que le logiciel enregistre les clics, la position de la souris et les saisies claviers, mais si on est sur la fenêtre d'un logiciel sans que l'on est le focus dessus, le clic se fait dans le vide et ça décale alors toute la séquence de la macro enregistrée.

Ce logiciel m'ayant bien dépannée (la tâche répétée 500 fois durait une minute à chaque fois une fois la séquence bien optimisée pour être sûre qu'elle marche comme je veux).

Je suis preneur d'un logiciel équivalent et aussi simple sous GNU/Linux Ubuntu. Par aussi simple, je ne veux pas d'un logiciel pour lequel il faut créer un script dans un langage dédié. Je voudrais un logiciel qui fasse la même chose que TinyTask.

Guide d’installation d’Archlinux, version de novembre 2017.

Voici la quarante-neuvième version du tutoriel pour installer une Archlinux, que ce soit avec une machine virtuelle, utilisant un Bios ou un circuit UEFI. Cette version rend obsolète celle d’octobre 2017.

Pour les captures d’écran, je suis parti d’une image ISO intermédiaire créée avec l’outil Archiso. Au moment où j’envoie l’article en ligne, le 1er novembre vers 10 h 00 du matin, l’ISO de novembre 2017 n’est pas encore disponible.

Si vous avez besoin d’une image ISO en 32 bits, le projet archlinux32 vous en proposera une.

Côté environnements : Gnome 3.26.2, Plasma 5.11.x, Xfce 4.12.0 et Mate-Desktop 1.18.0 en gtk3.

NB : si vous voulez faire une installation avec l’UEFI, il faut utiliser cgdisk, gfdisk ou gparted, et créer un partitionnement GPT. Sinon, ça plantera !

Ce n’est pas un tutoriel à suivre au pied de la lettre, mais une base pour se dégrossir. Le fichier au format zip contient :

  • La version odt
  • La version pdf
  • La version ePub
  • La version mobi (pour Kindle)

Le guide en question est sous licence CC-BY-SA 4.0 à compter du mois de mai 2016.

Bonne lecture et n’hésitez pas à me faire des retours en cas de coquilles !

Lifehacking – Mes astuces pour faire ma veille ciblée

Dans le présent billet, je voudrais présenter deux astuces pour faire ma veille ciblée. Un autre billet, en cours de rédaction, abordera plus en détail le cas des fils RSS et l'usage d'un agrégateur. Un précédent billet Le combo gagnant pour optimiser sa veille présentait mon cycle de veille quotidienne : lecture en direct (au sein de l'agrégateur) ou lecture plus tard (via Wallabag), conservation du lien (Shaarli). Cette veille recoupe un tous les domaines qui ont un intérêt pour moi.

Le présent billet se focalise sur une veille ciblée. Par veille ciblée j'entends le fait de faire une recherche sur une thématique donnée, pour avoir un état des lieux ou un état de l'art à un instant t. Cela m'est utile dans le cadre de la préparation de mes projets professionnels, pour me remettre à jour ou au contraire découvrir un nouveau domaine.

Rq : chacune de ces astuces est complémentaire des autres.
Rq2 : ces conseils marchent très bien pour faire une veille ciblée sur un sujet technologique ou un logiciel libre particulier, mais sont probablement efficace dans d'autres cas.

Moteurs de recherche

Je n'évoquerai que brièvement la recherche par mot clef judicieusement choisi au sein de différents moteurs de recherche, avec classement par date pour trouver les publications les plus récentes. Cela semble une évidence. C'est ainsi que font la plupart des personnes qui affirment faire de la veille (et auxquelles je pose la question suivante lors des entretiens de recrutement : "faites vous de la veille et si oui, comment ?".

Journal du Hacker

Je suis abonné via le fil RSS au Journal du Hacker (pas encore à la newsletter - Le Courrier du hacker : le point après (déjà) 5 numéros et les leçons retenues).

Là encore, je profite de la fonctionnalité de moteur de recherche incluse sur le site et je fais une recherche par mots clefs, que je trie par date. Cela me permet de retrouver des liens vers différents billets de blog au sein desquels le sujet d'intérêt a été abordé. Et je profite donc du présent billet pour remercier tous les membres de la communauté qui prennent le temps de saisir des articles d'intérêt et d'ajouter des tags pertinents.

Attention toutefois : le Journal du Hacker ne référencie (par choix éditorial, cf https://www.journalduhacker.net/about) que des articles en langue française, et exclue donc de facto toute la richesse du monde anglophone (dont on pourra profiter via les moteurs de recherche).

Rq : les articles les plus pertinents des gros blogs et sites comme Linuxfr.org sont généralement ajoutés dans le journal du Hacker, cela me fait gagner un temps certain en n'ayant pas à chercher sur ces sites (vu que si un article correspond à ma thématique d'intérêt, il ressortira dans le résultat de recherche du Journal du Hacker).

Slideshare

Slideshare est le site où l'on retrouve bon nombre de supports divers et variés de présentation, de conférences... Là encore, le site dispose d'un moteur de recherche interne, je fais une recherche par mots clefs. Et je peux ainsi retrouver des supports qui me permettent d'avoir des retour d'expériences, des états des lieux, des introductions sur différents sujets d'intérêts.

Là encore, la date est importante, ainsi que le numéro de version pour les logiciels présentés (il faut bien avoir en tête quelle est la dernière version d'un logiciel avant d'étudier 80 slides sur une API d'un logiciel qui est désormais dépréciée avec la dernière version en date...)

Youtube

Complémentaire de Slideshare, YouTube permet d'avoir les conférences et le discours autour du support mais aussi de trouver des tutoriels, des vidéos de démonstration et de fonctionnement des logiciels. YouTube étant le site incontournable pour la vidéo, la mode étant à ne plus faire de l'écrit mais des vidéos, YouTube peut être une bonne source pour avoir un aperçu d'un sujet (par chance les logiciels sont un sujet moins polémique et moins soumis à controverse que d'autres, mais il ne faut toutefois pas en oublier son esprit critique).

Les réseaux sociaux

Il m'arrive également de poser une question précise et ciblée, généralement en anglais pour faciliter la visibilité (les personnes susceptibles de répondre techniquement sachant l'anglais, même dans le cercle francophone). Là encore, je regarde qui me répond (est-ce une personne que je connais, de confiance ou un expert du sujet qui intervient suite à la diffusion au sein du réseau social de mon message).

Faire appel à sa mémoire

Je fais également appel à mémoire. J'essaie de me rappeler si je n'ai pas récemment lu ou passé tel ou tel sujet sur tel ou tel site que je suis (et je recherche dans mon Shaarli), si je ne connais pas une personne spécialiste de la dite technologie et avec laquelle je serai en relation via les réseaux sociaux (je lui demande alors quelques conseils et ressources pour bien démarrer sur le sujet).

Autres

Je pourrais également chercher sur des sites comme Medium ou autre, mais je pars du principe que si l'information se trouve sur ces derniers et est accessible librement, elle aura été référencée et donc trouvée via l'astuce du moteur de recherche.

Conclusion

N'hésitez pas vous aussi à partager en commentaire vos astuces pour faire votre veille sur le logiciel libre, je suis preneur d'autres astuces qui pourraient m'aider à être encore plus efficace sur le sujet, lifehacking oblige.

Archlinux, en passe de devenir la nouvelle base à « massacrer » ?

Dans un article du mois de septembre 2017, je parlais d’un début de folie furieuse du monde archlinux qui partait dans tous les sens.

Mais il y a une tendance que j’ai noté et qui date en gros du début de l’année 2017 de voir que de plus en plus de projets ont tendance à partir d’une base Archlinux pour proposer des distributions qui sont en réalité le plus souvent des respins qui se limitent à la personnalisation d’une environnement donné.

Je vous renvoie à cette vidéo de ma série Dis Tonton Fred où j’évoque la différence entre une distribution et une respin…

Il y a plusieurs exemples récents qui me viennent à l’esprit. Il y a bien des projets un peu anciens comme la SwagArch GNU/Linux, Arch-Anywhere devenu Anarchy Linux ou encore la célèbre Manjaro Linux (qui a fini par développer ses propres dépôts) ou la difficilement installable Artix Linux.

Il y a cependant deux autres projets plus récents dont je vais parler dans cet article : ArchMan et la Namib GNU/Linux.

Le premier projet est d’origine turque. On retrouve une Archlinux avec les environnements de bureaux classique : Xfce (pour la version 17.10), Budgie et Plasma (pour les 17.08), Mate et LXQt (pour les 17.06).

Si on va sur le github du projet Archman, on voit que le projet est né cette année.

Le deuxième projet est la Namib GNU/Linux dont j’ai appris l’existence via une vidéo d’Adrien Linuxtricks.

On est dans un projet très récent, qui semble dater de l’été 2017. Sur le site du projet, on constate que pour le moment le projet n’a sorti que deux images ISO.

Si on regarde sur le github du projet, on constate que ce dernier n’est pas très actif, mais cela doit être lié à la vie privée du créateur. Après tout, on ne peut pas être 100% du temps derrière son projet 🙂

Vous avez pu le voir, les deux projets – dont je me demande quelle sera leur durée de vie – proposent toutes deux un dépôt tiers, mais font l’erreur de ne pas se limiter à pré-empaqueter des recettes disponibles sur AUR.

Si le projet en question disparaît et qu’une personne l’a installée, elle pourra toujours continuer à utiliser la distribution, mais une partie seulement. Ce qui restera à terme une installation qui explosera en vol. Encore une fois, la force du logiciel libre qui est de pouvoir forker à l’envie des logiciels en fait une énorme faiblesse 🙁

Le blog kanjian.fr

Dans ce billet je souhaiterai mettre en avant le blog https://www.kanjian.fr/

Alexandre J. Blog sur la sécurité informatique et la sensibilisation des TPE/PME

Sa propre présentation en dit un peu plus

Expert en sécurité web

Une casquette que j'ai toujours, car j'interviens en licence à l'université Jules Vernes qui se trouve à Saint-Quentin dans l'Aisne. J'oriente mon cours sur la sécurité des applications web, mais comme j'aime le dire sur ce qui entoure cette sécurité. "La sécurité est un tout" pour me citer. Grosse passion, mais aussi fonction indispensable au final dans nos métiers.

Découvert via le journal du Hacker, parle de différents sujets qui m'intérese et je suis donc abonné pour suivre les prochaines parutions, qui se font de façon régulière en dehors de la pause estivale de l'été. Comme tout bon site qui se respecte, celui-ci met à disposisition un fil RSS https://www.kanjian.fr/feed (Et pour les autres il y a RSS-Bridge.

A lire et pour se donner une idée du contenu du site, je vous recommande son billet Comment préparer son PC pour la Nuit du Hack.