Vivimos en la era de la información. Quizá, el ejemplo más evidente es el desarrollo de internet, una inmensa red que conecta a miles de millones de personas en todo el mundo. Según Javier Aracil, ingeniero industrial y miembro de la Real Acadmia de Ingeniería, el estudio de los problemas técnicos asociados a la transmisión, medición y procesamiento de enormes flujos de información resulta fundamental en todos los ámbitos de la sociedad, desde los sectores económicos a militares, científicos y recreativos.
En este contexto, la Teoría de la Información de Claude Shannon ha sido uno de los avances científicos más importantes del siglo XX. En ella se refiere al grado de incertidumbre de un generador de información, un concepto que será asimilado al de entropía, la tendencia natural hacia el desorden.
El concepto de entropía tuvo su origen en el s. XIX, con la máquina de vapor. El ingeniero francés, Sidi Carnot, trató de medir su eficacia, dando inicio a una nueva rama de la física: la termodinámica. La noción de entropía fue generalizada a finales del XIX por el físico austríaco Ludwig Boltzmann. 50 años después, se comprobó que la entropía de la cantidad de información de Shannon tenía la misma expresión matemática que la entropía de Boltzman.
Entropía e información son magnitudes intangibles. Hay quien piensa que ambos conceptos son lo mismo y proponen un término, "neguentropía", en el sentido de que la entropía decrece cuando la información aumenta y viceversa. Y hay quienes piensan como Javier Aracil, que la información es una magnitud básica como la materia y la energía.
Esto es ingeniería
Entropía e información
27/07/2021
05:49