La métrologie dimensionnelle est définie par convention à 20 °C (ISO 1:2016). Cette température de référence, rarement atteinte en atelier, génère des erreurs systématiques que tout métrologue doit savoir quantifier et compenser.
Le coefficient de dilatation thermique linéaire
Chaque matériau se dilate proportionnellement à sa température selon son coefficient de dilatation thermique linéaire (α). Pour l'acier courant : α ≈ 11,7 × 10⁻⁶ /°C. Pour l'aluminium : α ≈ 23,1 × 10⁻⁶ /°C. Pour l'invar (utilisé pour les étalons de référence) : α ≈ 1,2 × 10⁻⁶ /°C.
Calcul de l'erreur thermique
L'erreur de dilatation se calcule par : ΔL = L × α × ΔT. Pour une pièce acier de 500 mm mesurée à 28 °C au lieu de 20 °C (ΔT = 8 °C) : ΔL = 500 × 11,7 × 10⁻⁶ × 8 = 0,047 mm. Cette erreur de 47 µm est largement supérieure à la tolérance H7 de 25 µm sur un diamètre de 50 mm. La mesure est invalide sans correction thermique.
Stratégies de compensation
Plusieurs stratégies permettent de maîtriser l'effet thermique : la mise en température des pièces avant mesure (stabilisation 2h minimum pour des pièces massives), la correction mathématique si les températures de la pièce et de l'instrument sont connues, la réalisation des mesures critiques dans une salle de métrologie climatisée à 20±1 °C, et l'utilisation d'instruments et de pièces en matériaux de même coefficient de dilatation.
En pratique
Equiper les postes de contrôle de sondes de température raccordées permet de documenter les conditions de mesure et d'appliquer des corrections si nécessaire. La méthode OPERET intègre d'ailleurs la température comme critère environnemental pondérant les intervalles d'étalonnage des instruments exposés à des variations thermiques importantes.