Published On : 23 avril 2013 |Last Updated : 14 octobre 2016 |1295 words|5,4 min read|0 Commentaire|

Je suis assez stupéfait de constater à quel point les étudiants en génie boudent la métrologie, pour qui elle se résume à des sommes de dérivées partielles sales et imbuvables. Et pourtant, je comprends un peu mes collègues… Mais ce n’est pas une raison.

Il faut bien reconnaître que la métrologie est souvent (très) mal enseignée, par des professeurs d’université pour qui la pureté d’une équation mathématique ne doit jamais être entachée par une page de texte qui détaillerait les concepts. Ce travers bien français n’est heureusement pas une fatalité, puisqu’il est possible de trouver dans la littérature scientifique québecoise d’excellents ouvrages de génie où les formules n’apparaissent pas parachutées ex nihilo.

Mais passons sur les méthodes pédagogiques, puisque la France se contrefiche de mes considérations sur ce sujet, et que l’Éducation Nationale n’est pas réformable à cause de son personnel.

La métrologie est à la mesure ce que la démonstration mathématique est au théorème : une justification rationnelle de sa validité.

Lorsqu’un ingénieur dessine une pièce et en commande la fabrication, il indique sur son plan les tolérances sur les cotes, c’est à dire les erreurs de dimension qu’il peut accepter lors de la fabrication pour que sa pièce soit tout de même jugée conforme. On sent bien, en perçant un trou à la perceuse par exemple, que la précision de l’opération est assez aléatoire. Il est physiquement impossible de fabriquer exactement la pièce décrite sur le plan, on ne pourra que s’en rapprocher. Suivant les tolérances demandées, les techniciens choisiront donc les outils d’usinage adaptés.

Lors d’une mesure, c’est exactement pareil. Pour commencer, l’outil de mesure n’est pas parfait : il a été fabriqué et assemblé, ce qui induit des tolérances sur ses différentes propriétés physiques (dimensions, résistivité, par exemple).  Ces tolérances, bien que faibles, sont néanmoins bien réelles et doivent être prises en compte.

Ensuite, l’appareil de mesure doit être étalonné. Or l’étalon à partir duquel on réalise l’étalonnage a été lui-même réalisé à partir d’un étalon international via une succession d’étalon intermédiaires. Pour donner un exemple simple, l’étalon international du kilogramme ne sort pas du pavillon de Sèvres (BIPM). Des étalons nationaux ont été réalisés à partir de cet étalon international, et sont conservés dans chaque pays. À partir de ces étalons nationaux, eux aussi soigneusement conservés, on a réalisé des étalons primaires, secondaires, puis enfin les étalons de travail qui serviront réellement à étalonner votre balance.

Cependant, à chaque nouvel étalonnage, on créé une erreur sur la valeur de l’étalon, car encore une fois, rien n’est parfait. L’étalon de travail ne pèse donc pas exactement 1 kg, mais (1 ± ε) kg. Même si cette erreur est très limitée, et que notre ε est très petit, il existe et doit être pris en compte dans notre étalonnage, en particulier lorsqu’on étalonne du matériel de précision.

Enfin, notre instrument de mesure ne fonctionnera pas dans le vide à l’écart des perturbations. Il va opérer dans un milieu non neutre qui risque d’interagir avec lui : la température va faire varier les dimensions de ses composants par dilatation, ainsi que la résistivité de ses circuits électriques, les courants électriques à proximité vont générer des perturbations électro-magnétiques, les vibrations de son support peuvent entraîner des petites variations de la grandeur à mesurer… Tout ceci va fausser notre mesure, en générant des parasites, dans des proportions plus ou moins importantes.

De plus, dans le cas où l’instrument de mesure est manipulé directement par un opérateur, il faut prendre en compte que celui-ci n’est pas parfait non plus, que ce soit lorsqu’il manipule ou lorsqu’il lit une graduation.

Bref, ce que vous mesurez n’est jamais la réalité, mais juste une estimation entachée d’erreur. Or cette erreur, on a besoin de la connaître, au minimum pour savoir si elle est suffisamment faible (et souvent parce que la loi l’impose).

Imaginez une seconde que vous mesuriez une tension avec un bon vieux voltmètre, et que la valeur retournée soit 125 mV. Vous pourriez très bien vous arrêter là, recopier la valeur sur votre cahier, et rentrez chez vous avec le sentiment du devoir accompli. Mais que se passe-t-il si votre appareil de mesure présente une incertitude de ± 200 mV ? Vous avez trouvé une valeur inférieure à votre incertitude, c’est à dire que la valeur vraie de ce que vous mesurez se trouve quelque part dans l’intervalle

[-75 ; 325 ] mV au seuil de confiance de 98 % sous la loi normale, soit une erreur relative maximale de 61 %, croyez-vous que votre mesure de tension soit fiable ? Et comment le savoir sans rentrer dans la métrologie ?

Dès lors que vous réalisez une mesure pour quelqu’un d’autre, vous devez être capable de prouver que votre procédé de mesure est fiable, et de donner son incertitude. Sans son incertitude, une mesure n’a aucune valeur, car il est entendu qu’elle est toujours fausse. La seule vraie question est : à combien est-elle fausse ?

Et même lorsque vous la réalisez pour vous, une mesure non fiable donne un résultat inexploitable que vous finirez par payer quelque part si vous l’utilisez tout de même.

La métrologie a pour objectif principal d’estimer l’incertitude existant sur un procédé de mesure. Mais elle ne s’arrête pas là.

En effet, elle cherche aussi à étudier les causes d’erreur, et à les limiter. Lorsque c’est possible, elle donne des outils mathématiques pour corriger les valeurs, notamment en prenant en compte les conditions de fonctionnement.

Et il y a bien d’autres paramètres à prendre en compte. Par exemple, lors de l’exploitation informatique d’un signal extrait d’un capteur, il est nécessaire de numériser ce signal, car un ordinateur ne comprend que le binaire. Cela consiste à transformer un signal analogique continu en signal numérique échantillonné et discret, c’est à dire à prendre un instantané (appelé échantillon) du signal toute les Δt millisecondes. Si le signal analogique — donc la grandeur mesurée —subit une variation fugace moins étalée dans le temps que ce Δt, c’est à dire si cette variation se produit entre deux échantillons, elle ne sera pas « vue » sur le signal numérique et l’opérateur peut passer à côté de certaines informations importantes.

Pour résumer, faire une mesure sans faire de métrologie derrière, c’est comme tirer une flèche dans une cible et considérer le tir réussi sans vérifier que la cible a bien été atteinte. Un industriel ne peut pas se permettre de mettre un cierge à Saint Isidore en priant pour que sa pièce soit conforme.

Et ce n’est pas parce qu’un résultat de mesure donne la valeur attendue que cette valeur est vraie. Un capteur faux, mal étalonné, mais soumis ponctuellement à une perturbation adéquate, peut très bien donner un résultat proche de la réalité, tout comme il peut vous donner la valeur qui vous arrange sans que celle-ci soit exacte.

La métrologie, c’est donc à la fois une quête quasi philosophique de la vérité et une application concrête du doute cartésien. C’est la discipline qui sert à éviter de se faire prendre pour un imbécile par un capteur. Et par un sous-traitant.

On ne vous l’avait jamais dit, n’est-ce pas ?

Et pour aller plus loin, je vous recommande mon livre :

Abrégé de Mesure Physique

Crédits illustration : Fotolia

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.