
La justesse au lieu de l’exactitude
par Ploum le 2025-10-14
Où je parle de hockey sous-marin, d’avions militaires et du pourrissement des oranges punks.
L’arbitraire de l’arbitrage
C’est un fait historique peu connu, mais j’ai, brièvement, été arbitre sportif. J’ai en effet arbitré des matchs de première division belge de hockey subaquatique (si, c’est un sport qui existe). Bon, en réalité, j’ai été arbitre parce que chaque équipe de division 2 devait envoyer des joueurs arbitrer des matchs de division 1. Mais, au final, je l’ai quand même fait.
Je me souviens d’un match particulièrement important entre les deux meilleures équipes de Belgique qui s’affrontaient pour le titre de champion de Belgique.
En hockey subaquatique, il y a normalement deux arbitres dans l’eau. Mais, lors de ce match, le second arbitre s’avéra dépassé et, à chaque action, me faisait le geste signifiant "je n’ai pas vu l’action" (étant équipés de masque et de tubas, les arbitres communiquent par gestes codifiés).
Je me suis donc retrouvé à arbitrer presque seul ce qui était probablement le match le plus important du championnat. Malgré mon manque d’expérience, j’ai très vite compris que la seule manière de garder le contrôle d’un match très engagé était de prendre des décisions fermes avec assurance. Le palet était sorti après une mêlée confuse ? Pas le temps d’analyser au millimètre qui était le dernier joueur à l’avoir touché : je devais simplement prendre une décision. Quoi que je décide, l’autre équipe allait réclamer. C’est d’ailleurs arrivé très vite. En hockey subaquatique, seul le capitaine peut, en théorie, s’adresser à l’arbitre. Un joueur est venu, en se plaignant. J’ai fait le geste de demander s’il était capitaine et, comme ce n’était pas le cas, je l’ai exclu pour 3 minutes. Il s’est mis à hurler, J’ai rajouté 2 minutes d’exclusion. C’était particulièrement sévère. Mais, à partir de ce moment, plus aucune de mes décisions n’a été contestée.
J’ai essayé de les rendre les plus justes possible et le match s’est très bien déroulé.
J’ai appris une chose importante : l’arbitrage n’est pas une discipline scientifique. Est-il physiquement possible de déterminer exactement quelle a été la dernière crosse à toucher le palet avant qu’il sorte ? À partir de quand exactement un shoot est-il considéré comme dangereux ? Même la frontière entre un goal et un sauvetage de justesse sur la ligne possède un certain degré d’arbitraire.
Pour prendre une décision juste, l’arbitre peut utiliser son intuition humaine. Si un défenseur a foncé vers un attaquant et que le palet est sorti, on peut, dans le doute, estimer que la sortie est la faute du défenseur. L’arbitre peut également « sentir » l’aspect volontaire ou non d’une faute.
Mais tout cela n’était possible que parce que, contrairement au football, le hockey subaquatique n’est pas équipé de caméras qui scrutent tout au ralenti. Le football qui est devenu un sport que je trouve absolument impossible à apprécier : après avoir marqué un goal, les joueurs se tournent désormais vers l’arbitre et attendent pour savoir s’il n’y avait pas eu un hors-jeu millimétré 5 minutes plus tôt. Le tout est analysé en coulisse par un type devant un ordinateur qui transmet ses décisions dans l’oreillette de l’arbitre. Ou plutôt les décisions prises par un ordinateur.
L’aspect humain du jeu a complètement disparu et prend les attributs d’une décision pseudoscientifique, tentant de découvrir une « vérité ». Or, scientifiquement, il n’y a pas de vérité possible. Le hors-jeu se déclare au moment où le ballon quitte le pied du passeur. Ce moment n’existe pas. Le ballon se déformant, je mets au défi quiconque de déterminer la milliseconde exacte de cet événement. Il en est de même pour décider si une ligne à été franchie ou non. À partir de quel millimètre peut-on dire qu’une sphère a franchi une ligne tracée sur des brins d’herbe ? Rien que le placement des caméras et l’éclairage du stade vont influencer la décision. Même en cyclisme il est parfois incroyablement difficile de déterminer quel vélo a franchi la ligne en premier. Et la décision est alors prise sans appel possible.
Scientifiquement, c’est très compliqué de tracer une limite exacte. Un de mes profs de polytechnique disait que les appareils à aiguille sont toujours plus précis que les afficheurs numériques, car on peut voir la mesure « réelle » … quitte à bouger un peu la tête pour qu’elle corresponde à ce que l’on veut !
Pour mesurer scientifiquement, il faut poser des hypothèses, discuter, prendre plusieurs mesures, répéter une expérience. Humainement, au contraire, il est possible de prendre la décision qui parait la plus juste possible sur le moment même. La décision pourra toujours être discutée par après, mais, dans le feu de l’action, c’est celle qui a été prise.
Et même si les décisions ne sont pas parfaites, le fait qu’elles paraissent justes à première vue va créer une relation de confiance envers l’arbitre. L’arbitre se sentira responsable et utilisera son intuition pour préserver sa réputation. Lorsque j’ai arbitré ce fameux match de hockey, je n’ai jamais cherché à prendre la décision la plus exacte, mais toujours la plus juste.
Mais la machine ne permet plus la justesse. La justesse s’efface au profit d’une arbitraire exactitude. L’arbitre obéit désormais à des instructions qui lui sont soufflées dans l’oreillette. Il ne peut plus prendre de décisions. Il ne peut plus prendre de décisions, mais, paradoxalement, il en reste responsable.
De la complexité comme justification de la non-décision
Il n’y a pas que les arbitres de sport. Les pilotes de chasse sont désormais confrontés au même problème.
Le F-35 est un avion tellement complexe qu’il est devenu tout bonnement inpilotable. Le 27 août 2025, un appareil s’est écrasé. Le train d’atterrissage était bloqué en position semi-ouverte et le pilote a tenté une série de « touch down », une procédure vieille comme l’aviation et que Buck Danny utilise notamment dans Prototype FX-13, un album de 1961, pour résoudre le même problème.
Buck Danny n’avait pas un ordinateur hyper complexe à son bord et il sauve finalement l’avion. En 2025, l’ordinateur a considéré que la procédure était un atterrissage classique. L’avion s’est mis en mode « roulage au sol » alors qu’il était en train de redécoller. En mode roulage à plusieurs centaines de mètres d’altitude, l’engin était bien entendu ingouvernable, forçant l’éjection du pilote.
Un problème mécanique prévisible et « classique » s’est transformé, grâce aux ordinateurs en catastrophe.
Comme ce prof d’électronique qui, pour justifier l’importance de l’électronique moderne, nous avait expliqué que grâce à l’électronique, sa voiture avait pu être réparée en moins d’une heure le jour même de son départ en vacances. La panne en question ? Un défaut du capteur électronique qui inventait de fausses pannes.
Plus besoin d’avoir un problème réel. Désormais, tout est automatisé ! En 2024, un pilote s’est éjecté de son F-35, car, malgré plusieurs reboot, son casque connecté indiquait des erreurs critiques.
Problème : après l’éjection du pilote, l’avion a continué à voler correctement pendant de très longues minutes. Il semblerait que son casque avait un simple bug informatique.
La subtilité de l’histoire c’est que le pilote en question voit désormais sa carrière mise entre parenthèses et est poursuivi pour abandon d’avion fonctionnel. Sauf qu’il a suivi à la lettre la procédure relative aux messages d’erreur affichés dans son casque.
Non seulement la complexité crée artificiellement des problèmes, mais elle empêche les humains d’acquérir de l’expérience et de prendre des décisions. Nous n’avons plus des pilotes qui « sentent » leur avion, mais des opérateurs suivants des procédures informatisées. C’est pareil quand mon garagiste me dit que l’erreur 550 de mon véhicule force à un retour chez le concessionnaire. Lequel n’a, au final, fait que remplacer une durite, ce que mon garagiste indépendant aurait pu faire directement si le logiciel ne l’en avait pas empêché.
Le prix de l’espionnage permanent
Si vous lisez ce blog, vous avez conscience de l’espionnage permanent dont nous sommes victimes. Et l’une des conséquences directes de cet espionnage, c’est que tout peut désormais être scruté même longtemps après. Toutes les décisions peuvent être discutées pour savoir si, scientifiquement, c’était bien la bonne décision.
Le foot, encore lui, est l’exemple parfait : après 90 minutes de match suivent des heures voire, dans certains cas, des journées entières de discussions entre des types qui regardent chaque image au ralenti pour conclure que l’arbitre, l’entraîneur ou les joueurs ont prix de mauvaises décisions.
Qu’on soit arbitre, pilote de chasse ou simple citoyen, la seule stratégie possible pour un humain raisonnable est donc de ne plus prendre de décisions (ce qui est déjà une décision en soi).
Nous nous sommes fait avoir. Nous servons la machine aveuglément, n’en tirant aucun bénéfice lorsque tout va bien et en nous faisant taper sur les doigts lorsque tout va mal. Ce qui sert d’excuses à mettre encore plus de machines dans l’histoire.
Nous sommes devenus cet assemblage biologiquement mécanique absurde et contre nature qu’Anthony Burgess appelle « L’orange mécanique » (la signification du titre est en effet parfaitement explicite dans le livre, bien plus que dans le film).
Et si vous pensez que l’IA peut vous dépasser, c’est parce que, justement, vous agissez comme une IA, comme une orange mécanique. Par définition, ChatGPT surpassera toujours en intelligence celleux qui font confiance à ChatGPT.
Comme le disait l’inénarrable Yann Kerninon en 2017, il faut juste arrêter de nous prendre pour des machines. Redevenir des humains. Des oranges biologiques qui pourrissent et crèvent, mais qui sont, juste avant, pleines de saveurs et de vitamines.
Andreas raconte son expérience avec un de ses collègues incapable de résoudre un problème particulier (ce qui arrive à tout le monde, surtout quand on a le nez dans le guidon). Mais la particularité, c’est que le collègue en question n’a jamais cherché à résoudre le problème. Il cherchait à ce que ChatGPT lui donne la réponse.
Lorsqu’Andreas a compris la cause du problème en question, il a tenté de l’expliquer à son collègue, mais ce n’est que lorsque ce dernier a donné l’explication à ChatGPT et que ChatGPT a acquiescé qu’ils ont pu enfin avancer.
Andreas conclut avec le fait que le cerveau est un muscle. Moins on l’utilise, plus il s’atrophie et plus l’acte de penser devient douloureux et moins on a envie de l’utiliser (et donc plus il s’atrophie).
J’en profite pour rappeler que ChatGPT et consorts sont littéralement des machines à reformuler vos questions, à acquiescer à tous vos biais cognitifs. Mais Olivier Ertzscheid l’explique mieux que moi dans ce court billet « 3 minutes chrono »
Mais là où Andrea est trop optimiste est lorsqu’il imagine que savoir penser va devenir une qualité rare et enviable sur le marché du travail.
Rare, oui.
Enviable, certainement pas. Car penser, c’est remettre en question. Le capitalisme actuel me fait penser à la guerre 14-18. Les travailleurs sont la chair à canon. Les intellectuels sont les pacifistes, les objecteurs de conscience. En tentant de remettre en question l’épouvantable boucherie dont ils étaient témoins, ils n’ont gagné que le droit de se faire fusiller.
Questionner, se rebeller, c’est être un perdant !
Comme je le disais : on ne reçoit pas de médailles pour résister. C’est même plutôt le contraire : les médailles sont là pour récompenser ceux qui perpétuent le système sans poser de questions.
Refuser de devenir une orange mécanique, c’est accepter de pourrir. C’est même le célébrer en s’enfonçant des clous de girofle dans la chair pour que ce pourrissement sente bon.
En plus, ça donne un look punk, vous ne trouvez pas ?
Je suis Ploum et je viens de publier Bikepunk, une fable écolo-cycliste entièrement tapée sur une machine à écrire mécanique. Pour me soutenir, achetez mes livres (si possible chez votre libraire) !
Recevez directement par mail mes écrits en français et en anglais. Votre adresse ne sera jamais partagée. Vous pouvez également utiliser mon flux RSS francophone ou le flux RSS complet.