Archives de catégorie : Numérique

Montage / sabotage

Cette devise énigmatique portée sur une barque échouée à Arecife m’a interrogé. La photo est une tentative de réponse.

 

IMG_5230-LR1

 

Le montage (esthétiquement inspiré des films « Heimat » et « 300 » ) met en exergue une couleur intruse, le rouge, au milieu du Noir et Blanc (dans le genre, voir aussi Le mystère de Bezons). Est-il pour autant un sabotage?

En vérité, le sabotage n’est pas dans cette marque rouge qui nous semble incongrue, il est dans le Noir et Blanc, qui sabote la réalité, en désaturant complètement les couleurs vraies. Le N&B truque outrageusement le réel à des fins de transfiguration (pseudo?)artistiques.

Le rouge est la seule couleur authentique sur cette photo, et le reste n’est que sabotage. (surtout que, trucage dans le trucage, le Noir et Blanc n’en est pas un – il est plutôt sépia!).

Ainsi est mis en évidence ce paradoxe maintes fois observé: ce qui nous paraît naturel car majoritaire est profondément artificiel, alors que ce qui est authentique mais minoritaire nous paraît faux.

Joyeux Noël!

Test de la Poolmate HR

J’ai eu la chance d’être sélectionné pour tester la montre Poolmate HR, de Swimovate et voici donc un petit retour d’expérience.

Avertissement liminaire: je possède un cardiofréquencemètre Polar S725X, et donc c’est un peu ma référence. Je me base pas mal sur mon expérience de cette montre, que j’utilise avec le logiciel Polar Pro Trainer, pour faire ce retour d’expérience.

 

La montre Poolmate HR

La première fonction de cette montre est le contrôle de la fréquence cardiaque, et pour ça, le système est au point, même dans l’eau – ce qui est loin d’être le cas de tous les cardiofréquencemètres. Par contre, il faut bien serrer la ceinture pour qu’elle ne glisse pas sur la poitrine lorsque l’on pousse au mur. Pas grand chose à dire sur le sujet, j’ai juste essayé un jour pour voir si ça marchait, mais je n’aime pas la sensation de la ceinture en nageant, et je ne m’entraîne pas au cardio en natation.

Une seconde fonctionnalité importante de la montre est la détection automatique des coups de bras et des virages, ce qui permet de compter le nombre de longueurs et la distance parcourus, ainsi que le nombre de coups de bras par longueur, qui est un critère clé pour optimiser sa technique de nage.

La montre calcule également l’efficacité de nage (efficiency): plus on est efficace, plus elle est basse (ce qui est un peu contre-intuitif). L’efficacité est calculée en ajoutant le nombre de secondes par 25m au nombre de coups de bras (comptage de type golf: « swolf »). Un bon objectif de séance est de minimiser son score d’efficacité: ça oblige à nager en amplitude sans pour autant sacrifier la vitesse, défaut que l’on constate souvent chez les nageurs qui cherchent à optimiser leur « glisse » à tout prix.

La surveillance du nombre de CDB et de l’efficacité de nage permet une évaluation de sa technique de nage et de son évolution dans le temps, au cours d’un entraînement comme dans la saison. C’est vraiment là que se trouve le vrai point fort de la montre.

J’avais il y a une dizaine d’années déjà eu une montre avec cette fonction (le Speedo Stroke Monitor de Bill Geiser), mais elle présentait des problèmes de fiabilité, la détection de l’entrée de la main dans l’eau se faisant au moyen de 2 électrodes qui avaient tendance à s’encrasser. Le système de la Poolmate, basé sur un accéléromètre semble beaucoup plus fiable et précis.

Cependant, un tel système ne peut marcher évidemment qu’en crawl. Les longueurs de jambes en planche par exemple ne sont pas décomptées, et les nages autres que le crawl sont mal reconnues. Ce qui est dommage c’est que non seulement le système ne compte pas les CDB, ce qui est logique, mais il ne détecte pas non plus les longueurs nagées, ce qui l’est moins.

Une critique ergonomique: le bouton qui sert tout le temps lors de l’entraînement, c’est celui en bas à gauche (start/pause/stop). C’est celui qu’il faut presser lorsque l’on a terminé une distance (un 100m ou un 200m par exemple), ou lorsque l’on en démarre une autre. Or celui-ci n’est pas très atteignable, surtout si on porte la montre à gauche comme la plupart des gens, et que l’on a des plaquettes aux mains. On le rate facilement dans le feu de l’action. Un gros bouton start/stop central façon Polar me semble une option bien préférable.

Par ailleurs, le décompte de la distance et du nombre de longueurs est d’un intérêt moyen en ce qui me concerne. Ça fait longtemps que je fais ça simplement en regardant mon chrono. Tout nageur expérimenté connait instinctivement sa vitesse de nage au 100m à 2 ou 3s près, et il lui suffit donc de regarder le chrono au vol lors d’un virage pour savoir exactement où il en est de son 400m ou de son 800m.

A ce sujet, un gros défaut pour moi est le format d’affichage, et deux points en particulier: l’affichage des secondes et l’absence de double affichage chronométrique.

Quand je nage, le nombre le plus important est le nombre des secondes. De toute façon, je sais parfaitement dans quelle minute et dans quelle heure je suis. Le nombre de secondes est donc le nombre le plus important, le seul nombre important même, mais il est malheureusement écrit en tout petit sur l’affichage, plus petit que les heures et les minutes,   pourtant beaucoup moins importantes. On voit le préjugé de l’ingénieur qui pense que parce qu’une minute ou une heure c’est plus long qu’une seconde, il faut l’écrire en plus gros ! Très gênant lorsque l’on tente de lire son temps de passage à la volée lors d’un virage, en un quart de seconde, avec de la buée dans les lunettes. Un affichage au 10ème de seconde (et non à la seconde) serait aussi un plus, surtout sur les séries courtes.

L’autre point noir est l’absence de double affichage chronométrique. Je m’explique.

Avec ma Polar, je la configure toujours en nage de façon à avoir en haut l’affichage du chrono écoulé depuis le début de la séance, et en bas l’affichage du dernier set en cours (temps écoulé depuis que j’ai appuyé sur start/stop).

Ce double affichage est essentiel, parce que l’essentiel de mes séries se fait sous la forme « n fois x mètres départ toutes les y minutes/z secondes »).

Prenons un 10x100m D1’40. Je pars par exemple lorsque le chrono total est à 36’00 », et je sais que mon prochain départ sera à 37’40 », le prochain à 39’20 », le prochain à la minute (41’00 »), puis on recommence: 40″ / 20″ / 0″ / 40″ / 20″ /0″… Et à chaque départ et arrivée de 100m je clique sur start/stop pour afficher en bas (et enregistrer) le temps de mon dernier 100m, et je regarde en haut le chrono total pour me donner le prochain départ. Très utile pour donner les départs lorsque l’on n’a pas de chrono mural.

On n’a par contre pas cette fonction sur la Poolmate, on a seulement le temps du set en cours, ce qui oblige à se donner des récup en temps absolu (Récup 15″ par exemple) au lieu de pouvoir donner un départ toutes les… Encore un net point d’amélioration, donc.

Egalement, les unités sont un peu contre-intuitive, même si ce n’est pas rédhibitoire.

Par exemple, l’indicateur de vitesse (speed): plus il est petit, plus on va vite! C’est qu’en fait ce n’est pas une vitesse qui est indiquée, mais un nombre de secondes par 100m, soit l’inverse d’un vitesse. De même pour l’efficacité de nage, mentionnée plus haut: plus elle est basse, plus on est efficace.

De ce fait, quand on regarde ses courbes d’évolution technique avec le logiciel, il vaut mieux voir ces courbes baisser que monter (alors que l’on a plutôt intérêt à voir monter le stroke length). Le tout est de le savoir.

 

Le logiciel Polmate Pro

L’installation du logiciel peut parfois poser problème. Heureusement la consultation de l’aide du site de swimovate permets de trouver la procédure d’installation manuelle du driver, l’installation automatique ayant échoué (sous Windows 7).

L’affichage est bâti sur un système d’onglets en haut à gauche: Summary, Logs, Sets, Laps, Pool.

Ce qui n’est pas évident à comprendre (et qui est d’ailleurs contraire aux règles d’ergonomie d’utilisation des onglets), c’est que certains de ces onglets ont une relation hiérarchique entre eux. L’onglet Logs montre les Logs (traces d’une session) d’une journée donnée. Il faut sélectionner un des logs (une des sessions) en cliquant quelque part dans la longue liste des informations du Log pour le sélectionner, et alors, en cliquant sur l’onglet Sets, on a les sets du log en question. De même, lorsque l’on clique l’un des sets dans l’onglet Sets, on peut alors cliquer sur l’onglet Laps pour voir les laps (longueurs) du set sélectionné.

Un défaut du logiciel est de n’afficher que les temps des distances qu’il a reconnu en tant que telles (pas les distances nagées en jambe par ex), et de ne pas afficher la durée des récup dans les séries ou entre les séries, information pourtant disponible puisqu’on peut la retrouver sur le graphisme montrant l’évolution de la fréquence cardiaque (quand cette fonction est activée).

Un des avantages de l’utilisation d’un tel logiciel est qu’il peut avantageusement remplacer le carnet d’entraînement, dans lequel on est censé noter soigneusement ses entraînements.

Néanmoins, pour remplacer un carnet d’entrainement, il faudrait un logiciel qui fasse preuve d’un peu d’intelligence, et qui soit capable de reconstituer la structure de l’entraînement. Au lieu de mettre une suite de distance nagées, par exemple:

400m 6’05

200m 4’45

200m 2’55

200m 2’57

…ce dont je rêve, c’est d’un logiciel un peu plus intelligent, qui me donnerait l’entraînement tel qu’il est structuré, tel qu’on le noterait sur un carnet d’entraînement, c’est à dire qui soit capable de reconstruire les séries, ce qui ne doit pas être très compliqué. Par exemple, il donnerait:

400m Free 6’05

200m Jambes 4’45

8x200m Free D 3’20 (s’il a détecté un top de départ à peu près constant toutes les 3’20), ou R20″ (s’il a détecté une récup à peu près constante de 20″ entre les 200m).

Evidemment, il ne s’agirait que d’une proposition du logiciel, que l’on pourrait reprendre manuellement.

Pour chaque set, on pourrait aussi ajouter des commentaires et indiquer le type de nage (pull, pull plaq, éduc, jambes, 4N, rattrapé, water-polo…).

Ensuite, en cliquant sur une série, par exemple le 8×200, on pourrait avoir le détail: temps sur chaque 200 de la série, efficacité, nombre de CDB etc).

Avec un peu plus de sophistication, on doit même pouvoir gérer les pyramides.

En résumé

Un excellent outil pour mesurer ses progrès techniques en natation, grâce au comptage des coups de bras et de l’efficacité / swolf. Mais encore des progrès à faire sur l’ergonomie de la montre pour égaler des modèles plus aboutis, et je n’ai toujours pas trouvé le logiciel idéal du nageur, celui qui peut reconstituer automatiquement la logique des entraînements à partir des mesures, et donner des interprétation et indications de progression.

 

Lutter contre le vent (et la gravité du monde)

Le cycliste averti sait qu’on a intérêt à augmenter la puissance dans les montées et à se relâcher dans les descentes pour optimiser sa vitesse moyenne, mais ceci reste-t-il vrai lorsque l’on affronte un vent de face?

Quand on affronte un fort vent de face, vaut-il mieux faire le gros dos, continuer à exercer la même puissance, et attendre que ça passe, ou au contraire, appuyer plus fort, quitte à se relâcher un peu lorsque l’on aura le vent dans le dos?

La réponse est: oui, il faut appuyer plus fort, mais pas tant que ça… Démonstration.

D’abord, il convient de reformuler scientifiquement le problème.

Dans le cas général, la puissance à fournir en vélo peut se décomposer en 3 termes:

P = P_Air + P_Mécanique + P_Pente

avec

P_Air = puissance utilisée pour vaincre la résistance de l’air

P_Mécanique = puissance nécessaire pour vaincre les frottements mécaniques (organes de transmission du vélo et frottements des pneus sur la route)

P_Pente = puissance nécessaire pour gravir la pente

 

On a:

 

P_Air = 1/2 . ro . S . Cx . V . (V-Vent)^2

avec

ro = masse spécifique de l’air = 1,205 kg/m^3 (à 21°C et 1 bar de pression)
S = surface frontale (de l’ensemble cycliste + vélo)
Cx = coeff aérodynamique (de l’ensemble cycliste + vélo)
V = vitesse du cycliste (en m/s)
Vent = vitesse du vent (en m/s, positive si dans le sens du cycliste, négative sinon)

Le coeff S.CX dépend du profil du vélo, plus ou moins aérodynamique, mais surtout de la position de cycliste. Un cycliste amateur peut avoir un S.Cx de 0,43 m², un pro de 0,36 m².

Nous avons retenu à titre d’exemple un S.Cx de 0,38m².

 

P_Frottements = m.g.V.K

avec

m = masse du cycliste + vélo
g = constante gravitationnelle
K = paramètre dépendant du vélo et du revêtement de la route

C’est ici que s’exprime la différence entre les vélos. Pour un vélo bas de gamme, K est de l’ordre de 0,01. Pour un vélo haut de gamme, K est inférieur à 0,008. C’est cette valeur que nous avons retenu dans notre modélisation.

Si l’on veut aller dans les détails, la puissance due au frottement peut être décomposée en différentes composantes, dont la principale est la résistance au roulement. Cette dernière dépend essentiellement de la nature du revêtement et du pneu (ou boyau utilisé).

La résistance au roulement est égale à:

Crr.m.g.V

avec Crr = Coefficient de résistance au roulement. Crr varie entre 0,0038 et 0,0080.

 

P_Pente = m.g.V.p

avec

p = pente (en %)

Soit au total:

P = 1/2 . ro . S . Cx . V . (V-Vent)^2 + m.g.V.K + m.g.V.p

 

Dans ce qui suit, on va considérer un trajet aller-retour. L’aller se fera avec un vent de vitesse Vent, et le retour se fera avec un vent de vitesse -Vent.

A l’aller:

vitesse cycliste = V1
vitesse vent = Vent
puissance développée = P1
distance parcourue = d

Au retour:

vitesse cycliste = V2
vitesse vent = -Vent
puissance développée = P2
distance parcourue = d

 

Ce que l’on cherche à optimiser, c’est la vitesse moyenne sur le parcours, soit:

V = 2.V1.V2/(V1+V2) – voir http://silberblog.graphz.fr/horreur-mathematique-durete-du-velo

 

La contrainte que l’on a, c’est de le faire à « coût physiologique » constant.

Là, il y a là une petite subtilité.

On pourrait se dire que l’on va essayer d’optimiser sa course à coût énergétique constant. Dans ce cas, sa reviendrait à dire que l’on essaierait de garder une puissance moyenne constante, et que l’on essaierait ensuite de déterminer l’allocation optimale de puissance entre l’aller et le retour pour maximiser la vitesse moyenne.

Mais les choses ne sont pas si simples. Il est plus éprouvant pour l’organisme de faire 10′ @150W + 10’@250W, ou de faire 10x(1’@300W + 1’@100W), que de faire 20’@200W, même si tous ces exercices ont une durée et une puissance moyenne équivalentes.

Ceci a été traduit par Andrew Coggan par la notion de Normalized Power (NP), qui représente à peu près le coût physiologique d’une séance où la puissance varie. Sur la notion de NP, voir http://home.trainingpeaks.com/articles/cycling/normalized-power,-intensity-factor,-training-stress-score.aspx

Si vous faîtes une séance d’1H à 200W de NP, ça revient à peu près à avoir roulé pendant 1h à puissance constante de 200W – même si en réalité votre puissance a beaucoup varié au cours de la séance, et si votre puissance moyenne a été bien inférieure à 200W. Typiquement, sur une course vélo, avec de nombreuses accélérations et démarrages, on aura une puissance moyenne faible, mais une NP élevée, qui traduira bien mieux la sollicitation réelle de l’organisme que la puissance moyenne.

L’algorithme du calcul de la NP est donné par Andrew Coggan lui-même ici:

http://forum.slowtwitch.com/cgi-bin/gforum.cgi?post=3097774br

C’est assez compliqué (il faut lisser le calcul de la puissance en calculant une moyenne mobile sur 30s, puis faire la racine 4ème de la moyenne des puissances 4ème des moyennes ainsi obtenues…) mais ça se simplifie pas mal lorsque l’on suppose que l’on n’a que 2 sections sur lesquelles on roule à puissance constante.

Si on roule une durée t1 à puissance P1 et vitesse V1 et une durée t2 à P2 et V2, on a:

NP = ((t1.P1^4 + t2.P2^4)/(t1+t2))^(1/4)

soit vu que d=V1.t1 = V2.t2:

NP = ((V2.P1^4 + V1.P2^4)/(V1+V2))^(1/4)

 

Au total, le problème peut donc être ainsi reformulé:

« Quelle est l’allocation optimale de puissance entre l’aller et le retour qui maximise la vitesse moyenne tout en maintenant une NP constante? »

A priori, le problème n’est pas simple à résoudre, car la puissance et le NP résultent de calculs complexes – ils sont le résultat d’un calcul, et non les paramètres d’entrée, comme la vitesse! On peut visualiser ça en imaginant un plan dans lequel on fait varier V1 sur l’axe des X, et V2 sur l’axe des Y. A chaque point de coordonnées ( V1, V2), on fait correspondre sur l’axe Z la vitesse moyenne V = 2.V1.V2/(V1+V2). On obtient ainsi une surface S.

La surface S: vitesse moyenne en fonction de V1 et V2

La surface S: vitesse moyenne en fonction de V1 et V2

Trouver la répartition de vitesse (V1, V2) optimale revient à chercher sur cette surface le point le plus haut, tout en restant sur la ligne vérifiant la contrainte NP = constante (ligne de l’intersection de S avec la surface vérifiant NP = constante).

Heureusement, Excel vient nous aider à résoudre ça, grâce à la puissante fonction Solver. Solver utilise la méthode Generalized Reduced Gradient (GRG2) – nonlinear optimization code, qui a été développée par Leon Lasdon (University of Texas, Austin), et Alan Waren (Cleveland State University) – autrement dit, ça a l’air sérieux!

En fait il suffit de donner à Solver les cellules à faire varier (en l’occurrence V1 et V2), la cellule à maximiser (ici, la vitesse moyenne), et les contraintes à respecter (ici: NP = constante, par exemple 200W), et il déterminera les vitesses optimales V1 et V2 (et donc les puissances résultantes P1 et P2) pour maximiser la vitesse moyenne V.

J’ai rentré tout ça dans un tableur Excel, et il en ressort que oui, il faut appuyer plus fort quand on est face au vent – mais pas tant que ça.

Par exemple, un athlète ayant un NP de 200W et qui doit affronter un vent de face de 20 km/h a intérêt pour maximiser sa vitesse moyenne à produire 208,5W contre le vent (ce qui donne une vitesse de 20,9 km/h – planté face à un vent apparent de 40,9 km/h), et 178,5 W vent dans le dos (ce qui donne une vitesse de 42,4 km/h – vent apparent de 22,4 km/h).

Tant qu’à faire, j’ai aussi calculé ce que ça donnait pour une bosse, sans vent.

Un athlète ayant un NP de 200W et qui doit affronter une pente de 2,5% a intérêt pour maximiser sa vitesse moyenne à produire 215,9 W en montée (soit 22,4 km/h), et 156 W en descente  (soit 39,5 km/h).

Ce que montre aussi ce calcul, c’est qu’il faut forcer face au vent, mais moins qu’en montée, car c’est moins rentable. Dans cet exemple, on ralentit plus face au vent que dans la bosse, et pourtant on a intérêt à mettre moins de puissance face au vent que dans la bosse. Ne pas trop regarder son compteur de vitesse mais écouter ses sensations (ou son capteur de puissance pour ceux qui en ont un).

J’ai mis la feuille Excel avec les calculs ici.

Optimiser sa puissance face au vent et aux bosses

Voilà, maintenant qu’on sait ce qu’il faut faire, il n’y a plus qu’à rouler.

Attention: un bug dans tout ça n’est jamais à exclure, donc si qqu’un se sent de relire et contrôler, welcome!

 

 

Bogue

Le bug est l’essence même de l’Informatique.

Le bug est le lapsus linguae du langage des machines, en ce qu’il révèle l’humanité profonde et cachée de la chose programmée. De même que dans la cathédrale, où tout tend à nous élever vers Dieu, la gargouille est là pour rappeler la part profondément profane et humaine du tailleur de pierre, de même dans ces cathédrales modernes que sont les grands programmes informatiques, le bug est l’acte manqué mais profondément voulu qui porte la part d’humanité qui résiste en toute création, et lézarde la façade granitique de la rationalité triomphante.

Si le caractère proprement démoniaque du bug peut légitimement exaspérer l’utilisateur profane, le sage en acceptera avec joie le présage, signe de la prééminence des forces naturelles, et de la suprématie ultime du terrestre sur le céleste, de l’humain sur le divin. La Création de l’Homme ne peut que porter, en son programme (génétique), la marque de son géniteur : elle ne saurait donc se soustraire à son humaine origine, et nous devons nous en réjouir.

Et puis sans les bugs, si tout marchait sans difficulté, ça fait longtemps que nous autres informaticiens serions au chômage. Et puis si on ne savait pas expliquer aux clients pourquoi ça beugue, on serait carrément mal…

 

Promesse gâchée du numérique? Ça se discute…

J’avais inconsciemment posté mon texte sur La promesse gâchée du numérique sur le groupe de discussion dédié aux fanatiques de la photographie numérique (fr.rec.photo.numérique).

 

S’en est suivi une volée de bois vert et de réactions outrées!

Plus de 800 messages, qui abordent un peu tous les sujets: avantages comparés des disques RAID0 et RAID1, « transmission sociale qui ne se dissocie pas par construction dialectique arbitraire de la construction de l’individu et se satisfait et se complète aussi de l’appréhension du narcissisme des autres », avantages comparés de la diffusion des chaînes de la TNT en analogique par satellite et en numérique hertzien, vie et oeuvre de Jean-Louis Brau, bague de Rachida Dati et bourrelets de Sarkozy, chaussettes inusables, radio numérique vs. streaming en MP3, « Le numérique, ce n’est pas un idéal que l’on trahit, c’est une pratique de compromis », pouvoir d’achat comparé en France et en Suisse, traits normands et chevaux  sauteurs qui ont des sabots larges, pour la réception, chevaux galopeurs qui ont souvent des sabots plus petits…

 

Si vous avez du temps, tout est là:

Promesse gâchée du numérique – une discussion sur frpn

– il y a quelques perles dans la masse!
 

La promesse gâchée du numérique

 Qui pourra jamais exprimer l’immense tristesse, le goût amer, qu’inspire le formidable gâchis de ces 20 dernières années? Vingt années qui ont vu le grand dévoiement du numérique, et le reniement de sa promesse originelle.

———

Début des années 80…  Jeunes ingénieurs, nous voyions bien que le numérique allait irréversiblement envahir notre univers, mettant fin à des millénaires de règne de l’analogique. Nous étions véritablement à l’aube d’une ère nouvelle, celle qui verrait l’Homme conserver et transmettre l’ensemble des signaux non plus sous leur forme analogique traditionnelle, comme il le faisait depuis les premiers hiéroglyphes et papyrus, mais sous forme numérique.

Quel espoir alors! Le numérique promettait le stockage, le transport, et la reproduction à l’infini d’une information rigoureusement fidèle à son modèle original.

Nous nous pressions dans les amphis de Traitement du Signal Numérique, y voyant les prémices d’un monde meilleur, où la qualité du numérique finirait par s’imposer partout, percolant notre civilisation, du laboratoire du chercheur jusqu’aux foyers des citoyens de tous les continents.

Le théorème de Shannon était la plus miraculeuse des révélations, qui prédisait qu’il suffisait d’échantillonner un signal à une fréquence deux fois plus élevée que la bande passante humainement audible pour n’en perdre aucune information perceptible.

C’est ainsi que naquirent les CD, première concrétisation pour le grand public de la promesse du numérique: une qualité technique irréprochable, loin au dessus du vinyl, diffusable et reproductible, sans perte, à l’infini, pour un coût qui ne pouvait tendre que vers le dérisoire.

Le CD était encore dans les labos que déjà l’on travaillait sur la télévision du futur, la TV HD et sa version intermédiaire, le D2 Mac Paquet, qui seraient à la télévision ce que le CD était au vinyl, tandis que d’autres inventaient la radio numérique (la DAB), avec une qualité audio égale à celle du CD.

Et puis, insensiblement, inéluctablement, tout s’est effondré.

—–

L’enthousiasme des chercheurs du monde entier dut rapidement céder devant le réalisme des opérateurs commerciaux.

Très vite, ceux-ci comprirent que la génération de nouveaux revenus se ferait bien plus par la multiplication quantitative des contenus que par leur amélioration technique. Il fut très vite évident qu’il était bien plus rentable de multiplier la quantité de tuyaux que d’améliorer une qualité que personne n’était prêt à payer.

Fort de ce constat, toute la puissance du numérique, tous ces subtils algorithmes de traitement et de transmission du signal, issus des cerveaux les plus brillants d’une génération de chercheurs, n’eurent plus qu’un objectif unique: multiplier la quantité, à l’infini, en dégradant leur qualité, à l’extrême.

Et c’est ainsi que fut dévoyée la Grande Promesse du Numérique.

Aujourd’hui, nous sombrons sous l’avalanche de la médiocrité numérique. Une médiocrité technique reproduite – sans perte! – à l’infini, à la vitesse du net. Et qui progressivement contamine la qualité des contenus.

Le phénomène est général, et touche aujourd’hui tous les moyens de communication, aussi bien la vidéo que l’audio, l’image ou l’écrit.

—–

En vidéo, les box des opérateurs ADSL nous submergent de centaines de canaux hyper-compressés à la qualité indigente. Le paradoxe est que nous avons jamais eu d’aussi grands écrans, qui rendent cette médiocrité technique encore plus flagrante: images qui se figent ou qui se pixellisent dès que ça bouge un peu, blocs de pixels oubliés, posterisation insoutenable, résolutions asthéniques, perte de synchronisation image / son… Et tout le monde trouve normal aujourd’hui de regarder une télévision techniquement et visuellement bien inférieure à celle que nous regardions il y a 20 ans grâce à nos bonnes vieilles antennes hertziennes.

Encore, ceci n’est rien comparé aux nouveaux modes de consommation des flux vidéo, qui enfoncent toujours plus bas le plancher de la médiocrité visuelle. Car si la télévision tombe heureusement aujourd’hui en déshérence, les vidéos sont désormais consommées sur YouTube ou DailyMotion. Toujours plus de quantité, toujours moins de qualité: ce ne sont plus des centaines de chaînes, mais des millions de clips vidéos qui sont disponibles, au prix d’une dégradation de leur qualité technique qui ferait passer les installations des frères Lumière (et même l’ADSL) pour le nec plus ultra en qualité vidéo!

Et la course à la médiocrité continue, car il existe pire que YouTube. Les opérateurs cellulaires s’en mêlent, et pour faire consommer de la 3G, ils nous font regarder des matches de foot ou Ben Hur en 320 x 240, sur l’écran d’un téléphone portable…

Et le comble, mais aussi de plus en plus populaire : les vidéos filmées au téléphone portable et téléchargées sur YouTube. Le comble de la médiocrité en vidéo. Toujours plus de choix, entre des flux toujours plus médiocres…

—–

En audio ce n’est pas mieux. Au début de l’Ere Numérique est sorti le CD, porteur des plus grandes promesses. Un son clair, pas de compression, une amélioration significative et continue de générations en générations, des rouleaux de cire à la platine tourne-disque en passant par les bandes magnétiques.

Mais ici aussi, tout s’est dégradé. Il s’est vite agit de faire passer le plus de son possible sur les réseaux, sur les médias, de compresser le plus de chansons possibles sur les cartes flash des baladeurs MP3, ou sur les web radio. Là encore, course à la médiocrité et à la surabondance quantitative. Nous pouvons mettre 6000 morceaux sur un iPod, nous pouvons pirater 2 millions de morceaux de musique sur Internet, mais on ne peut plus écouter une seule chanson avec la qualité des CD que nous achetions il y a 25 ans!

A cette époque, on achetait sa chaine HiFi par composant (ampli, tuner, CD, enceintes…) en choisissant soigneusement les éléments, en comparant taux de distorsion et puissance nominale… Aujourd’hui, la notion de HiFi a disparu. Passons à la FNAC: on n’y trouve plus que des casques qui rendent sourd et autiste, des baladeurs MP3 victimes de la compression sauvage des médias, et des microchaînes qui gèrent les CD audio, les CD ROM, les DVD, le Blu Ray, les Super audio CD, le DivX, le XVid, le WMA, le WAV, le MP3, les ports USB et les cartes CF ou SD… mais qui sont incapables de rendre un son correct avec leurs micro-enceintes neurasthéniques, et qui tombent systématiquement en panne au bout de 13 mois. Noyés sous la médiocrité nous sommes – encore et toujours.

—–

En photo, pareil.

L’amateur de belles images n’a plus le choix. Tout d’abord, il faut bien passer au numérique : la filière argentique est morte, et plus personne n’a envie de faire une séance de diapo ou même de voir un album. On envoie ses images par mail, on les partage sur la télé ou sur l’ordinateur familial, sur son blog ou son site web… Quant au professionnel, ça fait longtemps que ses clients exigent du numérique.

Il y a 30 ans, on pouvait faire de très belles photos avec un appareil réflex à 1000 Francs et un objectif 50 mm.

Aujourd’hui, une fois accepté le passage au numérique, l’amateur est confronté à un vrai dilemme : soit il veut aller vers le qualitatif, et il lui faut un réflex numérique, qui va lui revenir à 1000 euros avec ses objectifs, et beaucoup plus (4000 euros) s’il veut retrouver le même degré de qualité qu’un réflex argentique à 150 euros (capteur « full frame » 24×36, permettant de retrouver la même profondeur de champ qu’un réflex argentique, objectif lumineux), et encore sans compter l’informatique qui va avec, soit il reste dans le bas de gamme, il va prendre un compact survitaminé en pixel, qui sait détecter les sourires (et si je veux photographier la tristesse, comment je fais?), mais dont les images seront invariablement médiocres, cramées dans les lumières, bruitées dans les pénombres, au bokeh minable, sans compter l’inévitable flash qui donnera à ses innocentes victimes l’apparence de lapins myxomatosés.

Même en supposant qu’il casse sa tirelire et qu’il prenne un reflex haut de gamme, que fera notre amateur de ses milliers d’images à 12 mégapixels ?

Soit, après les avoir comprimées, il les enverra à un site qui assurera les tirages pour un résultat aléatoire (aucun contrôle sur les espaces colorimétriques et la balance des blancs), soit il les enverra sans compression à ses amis, mais leur taille gigantesque ne franchira pas les boîtes e-mail de ses destinataires, soit il les comprimera sauvagement, ce qui donnera un effet de pixels en mosaïque improbable mais esthétiquement douteux… Ou alors il passera ses longues soirées d’hiver sur Photoshop pour avoir un résultat exploitable – autant sire que tirer ses photos dans les cuvettes de révélateur et de fixateur était une formalité rapide à côté!

La course à la médiocrité technique continue, vers une image toujours plus mauvaise, avec le déferlement des photos comprimées à la hache, prises au compact, imprimées avec l’imprimante maison non calibrée sur un papier minable, envoyées sur un site de tirage discount au rendu aléatoire, affichées sur un blog en web colors. Mais le pire reste à venir, avec la généralisation du téléphone portable en tant qu’appareil photo. Car si pour les nouvelles générations, le standard de la vidéo c’est YouTube, le standard des photos c’est Nokia – comble de l’abomination pour l’amateur de belles images.

—–

Le pire est que le syndrome de la médiocrité numérique est en train par contagion de contaminer toute notre industrie, tout notre environnement mental et culturel. Car la corruption de la forme contamine le fond.

On le sent bien, l’exigence morale et artistique ne saurait s’accommoder de la médiocrité des supports. On devine la profonde alchimie existant entre la forme d’une œuvre et son support: imagine-t-on voir Casablanca sur YouTube? Cartier-Bresson, Ansel Adams auraient-ils fait leurs photos sur un Nokia? Van Gogh aurait-il pu créer sur un écran XVGA? Comment un consommateur intoxiqué à l’image de son téléphone portable ou aux vidéos sur YouTube pourrait-il développer une appétence pour des contenus qualitativement ambitieux?

L’abaissement du niveau d’exigence sur la forme induit immanquablement l’abaissement des attentes sur le fond. La consommation culturelle passe d’un plaisir de gourmet, consommation occasionnelle de quelques oeuvres de grande qualité, à une boulimie de contenus médiocres. Noyé sous la médiocrité et la multiplicité des contenus, le consommateur succombe, devient victime d’une véritable addiction à la junk-food culturelle – généralisation de l’esthétique du clip et de la publicité, orgie des mauvaises graisses de l’ère numérique, blogs écrits en langage SMS, clips vidéo tournés au portable…

Si la multiplication quantitative des oeuvres abaisse durablement le niveau qualitatif de la demande, elle n’est pas non plus sans effet sur l’offre. La multiplication des oeuvres et des médias induit nécessairement le morcellement des audiences, et donc du financement de la production. Seule la production d’émissions dites de « flux » permet d’alimenter la boulimie: télé-réalité sur toutes les chaines, matches de foot ad nauseam, séries produites au kilomètre… Produire beaucoup, à bas coût.

Le web 2.0, en désintermédiant la diffusion des contenus, et en mettant tout consommateur en position d créateur, présente au spectateur une offre incommensurable mais plate, sans la mise en relief, la prioritisation qui étaient l’apanage des médias traditionnels et des strates filtrantes journaslitico-artistiques. Comment déceler la pépite au milieu des millions de tonnes de minerai sans intérêt? Le mode d’accession à la notoriété, basé essentiellement sur la propagation virale, fait qu’un clip vidéo montrant un chat qui attaque son maître aura forcément plus de succès qu’un Potemkine ou qu’un Casablanca, dont le format ne se prête de toute façon pas aux nouveaux modes de diffusion des médias.

Pire, la production populaire est elle-même en danger. Au temps de l’argentique, on réfléchissait avant d’appuyer sur le déclencheur. Une photo prise devait être développée, et souvent tirée. Tout cela avait un coût, qui incitait à réfléchir avant de déclencher.

En numérique, déclencher ne coûte rien. Et donc, on mitraille. Et là encore la forme technique de l’acte ruine le fond.

Là où avant on aurait fait 12 photos – dont 3 ou 4 bonnes – aujourd’hui on en fait 150, dont aucune bonne, puisqu’on shoote sans réfléchir, en toute impunité : de toute façon si c’est mauvais on effacera. Et ce sentiment consternant, déjà ressenti, en voyant ses photos sur l’ordinateur: noyés sous la médiocrité numérique – encore et toujours.

Autre facteur, la reproductibilité et la transmission par réseau, sans perte et à coût marginal nul, entraînent inéluctablement la disparition des supports physiques (disques, livres, journaux…). La conséquence inéluctable de la disparition des contenants est la gratuité des contenus, car la grande escroquerie de l’art est alors exposée: le consommateur croyait acheter du papier ou du vinyle, quand il payait des journalistes ou des artistes. Et la gratuité, qui impose in fine la publicité ou la prestation « live » comme seule source viable de financement, contribue encore à la dégradation qualitative des contenus.

 

On voit bien la tendance actuelle pour les artistes, sous couvert de modernité, de se tourner vers ces moyens techniquement rustiques, cette mode agaçante des films tournés à la caméra DV, à l’épaule ou au poing, la récupération par Gondry et quelques autres de l’esthétique YouTube dans leur clips, les artistes qui exposent leurs œuvres sur écran… Mais quelle misère, quelle pauvreté affligeante. Quelle tristesse de voir artistes et spectateurs accepter une telle dégradation! En vérité, la médiocrité profonde de leurs supports fait qu’artistes et créateurs délaissent toute ambition créative, renoncent au souffle, à l’ambition… qui fondent les grandes œuvres. Nous sommes à l’époque de l’esthétique du clip à 20000 euros, tourné à la caméra DV et diffusé sur YouTube – pauvre idéal esthétique d’une génération culturellement sacrifiée.

—–

Aujourd’hui, quand je veux reprendre contact avec le beau, voir, sentir, toucher un bel objet, je vais faire du vélo.

Un vélo reste un objet relativement simple. Pour quelques milliers d’euros il est possible d’atteindre l’excellence: qualité des composants, performance, durabilité, esthétique. Cadre, tige de selle, prolongateur, pédalier et fourche en carbone tressé haut module, roue à jante haute carbone alvéolé, profils aérodynamique étudié en soufflerie, roulements à bille en céramique, boyaux fabriqués à la main en Italie, cassette et attaches rapides en titane, compteur de cadence et de vitesse sans fil… Des éléments sélectionnés composant par composant, façonnés en petite série par des artisans passionnés. Et de bon matin, je pars dans les vallons de Chevreuse, profitant du plaisir d’esthète de chevaucher cet objet unique, oxymore technico-industriel, qui a su fièrement résister au marasme esthétique ambiant et au grand naufrage de la massification et de la désacralisation des cultures et des pratiques.

Rejetons le dévoiement du numérique! Il n’y a plus rien à attendre des médias de masse, submergés par l’avalanche de la médiocrité numérique. Que chacun cultive son jardin, selon ses moyens et ses goûts, et trouve son salut et l’émotion esthétique dans l’amour du beau, loin des canons des productions de masse contemporaines!