(Continuación) Dejamos el siglo XIX les decía, con una definición de ‘metro’ proveniente nada menos que de
la Primera Conferencia General de Pesos y
Medidas (1889) y según la cual el ‘metro’ es la “distancia que existe entre
dos líneas en una barra de platino e iridio, medida a cero grados Celsius (0
ºC), es decir el punto de fusión (PF) del hielo”.
Y nos adentramos en el pasado siglo XX.
Definición
de metro, 1927
Lo hacemos también merced a una nueva conferencia que precisamente, fue la
que abrió por una oportunista cuestión de coincidencia temporal, esta serie de
entradas metrológicas. Fue en la Séptima
Conferencia General de Pesas y Medidas (CGPM), cuando se abordó de nuevo el
‘metro’ como unidad para la magnitud
longitud.
Se hizo a partir de la anterior de 1899 pero, para aumentar su precisión,
se especificó que dicha barra debía estar apoyada en dos cilindros de menos de
un centímetro (1 cm) de diámetro, colocados simétricamente y separados
quinientos setenta y un milímetros (571 mm).
No obstante junto a la de la precisión, con el nuevo siglo vino una nueva
inquietud. La posibilidad más que real de que ese patrón material pudiese ser
destruido o sufrir cambios físico-químicos con el paso del tiempo.
Se empieza entonces a germinar la idea de que la unidad ‘metro’ tuviese como
referencia una constante universal,
lo que la haría indestructible por razones obvias, a la vez que, con muchas
probabilidades, le conferiría una mayor precisión.
Dicho y hecho, si bien hubo que esperar treinta y tres años, como quien
dice la edad de Cristo.
Definición
de metro, 1960
En la Undécima Conferencia General de
Pesos y Medidas (1960) se decide adoptar una nueva definición del metro,
sería “1 650 763,73 veces la longitud de onda en el vacío de la radiación
naranja del átomo del isótopo ochenta y seis del criptón, Kr- 86”.
En puridad ésa es la “longitud de onda de la radiación emitida por el salto
cuántico entre los niveles 2p10 y 5d5 del citado isótopo”,
es lo que se conoce como una transición atómica hiperfina y para muchos mola mucho más.
De hecho, para algunos, es una definición propia de la serie televisiva The Big Bang Theory, y puesta en boca de
cualquiera de sus científicos frikis,
por poner un ejemplo el inefable Sheldon
Cooper. Además con ella su exactitud y precisión aumentan.
Ahora su error o incertidumbre absoluta está comprendida
entre cero coma cero uno y cero coma cero cero cinco micromilímetros (0,01 - 0,005
µm), y la relativa es de cero coma, cero, cero, cero, cero,
cero, cero, uno por ciento (0,000 000 01 %). (Continuará)
No hay comentarios :
Publicar un comentario