Borrar información produce calor


Llevaba tiempo sin aportar al blog. Y me meto con un concepto peliagudo, la entropía. Me acabo de encontrar con una noticia que relaciona la termodinámica con la teoría de la información. Se ha publicado en Nature un trabajo que mide el calor que se genera al borrar un bit de información (“Experimental verification of Landauer’s principle linking information and thermodynamics”, Nature 483, 8 de marzo de 2012. Doi:10.1038/nature10872). Concretamente, la energía que genera el borrado de un bit de información ha resultado ser de tan solo unos 3×10-21 julios a temperatura ambiente.

Y es que telecos y termodinámicos compartimos el concepto de entropía, pero sin entendernos muy bien unos a otros. Para un teleco, un bit es la unidad mínima de información. Llaman entropía a la incertidumbre de una fuente de información. El matemático Claude Shannon fue quien propuso este concepto, en 1948. Landauer plateó que el borrado de información es un proceso disipativo, y predijo la cantidad mínima de energía disipada en ese proceso. Más información en wikipedia.

Los termodinámicos vemos la entropía desde dos planteamientos diferentes, que coinciden en el resultado; el primero es macroscópico, y lo inventó el profesor alemán Rudolf Clausius en la década de 1850: la entropía es la suma (integral) del calor que intercambia un sistema (o sea una cierta cantidad de materia) dividida por la temperatura de su superficie, en un proceso reversible:

S_2-S_1=\int_1^2 \left( \frac{\delta Q}{T} \right)_{reversible}

Significa qué parte de la energía de un material no puede utilizarse para producir trabajo.

La otra definición de entropía es microscópica; la propuso Ludwig Boltzmann, y es la famosa ecuación

\Large S=k \ln W

Esta se considera una de las tres ecuaciones fundamentales de la física, junto con la de Einstein y la de Schrödinger. Está grabada como epitafio en la tumba de Boltzmann. k es la constante de Boltzmann, que vale R (la constante de los gases) dividida por el número de Avogadro. Y W es el número de microestados posibles de un sistema. De esta manera, la entropía es una medida del orden (o mejor, del desorden): cuantas más posibilidades hay de organizar algo (o de desordenarlo), mayor es el valor de la entropía.

Lo del número de microestados no es fácil de explicar. Es una manera de medir el desorden. Trato de explicarlo con un ejemplo de libros. Supongamos que tenemos 100 huecos en una estantería, y 100 libros para colocar; pero muchos de los libros están repetidos, son idénticos e indistinguibles. Si los 100 libros son idénticos, sólo hay un microestado, es decir, una manera de colocarlos. Si hay 2 tipos de libros (A y B), el número de posibilidades crece; el número de microestados depende de cuántos libros A y cuántos B. Y así sucesivamente.

Espero haber ayudado a aclarar un poco esto de la entropía.

Actualización: buena explicación en este link.

Acerca de Tomás Gómez-Acebo

Soy vicerrector de Alumnos de la Universidad de Navarra, profesor de Termodinámica de Tecnun-Universidad de Navarra, e investigador en el departamento de Materiales del CEIT-ik4.
Esta entrada fue publicada en Ciencia, Ingeniería, Termodinámica y etiquetada , , , , , . Guarda el enlace permanente.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s