Informando sobre la información

Naukas

info i

En los últimos tiempos la palabra información ha subido muchos puestos entre los vocablos más empleados en física. El problema aquí estriba en que en la mayoría de las ocasiones no está nada claro el significado de dicho término. Podríamos decir que la palabra información contiene poca información. Este problema no es exclusivo de la divulgación o popularización de la ciencia, es un mal extendido a todos los ámbitos de la comunicación científica desde los más prosaicos a los más formales.

La información es difícil de definir porque está enraizada de una manera muy retorcida con otra magnitud física de las que podemos afirmar que no podemos afirmar mucho en primera instancia, la entropía. Hablando en plata, y con la seguridad que proporciona una introducción a una entrada en la que me puedo mantener en la más absoluta de las ambigüedades, las expresiones matemáticas de la información y de la entropía son sospechosamente idénticas.

Desafortunadamente, ese hecho, la similitud gemelar de las fórmulas para la información y la entropía, no nos permiten afirmar de primeras que ambas cosas sean idénticas. A poco que lo pensemos que dos cosas se describan en los mismos términos matemáticos no implica que sean exactamente lo mismo.

Si has llegado hasta aquí lo usual, a no ser que seas una experta o experto en el tema, es que tengas el sentimiento de que he dicho muchas cosas, que he transmitido mucha información pero que tú no has podido meterla en tu sesera. Es ese sentimiento que nos dice que hay cosas escritas en un lenguaje más o menos llano, con ciertos giros de acercamiento al lector, del que no nos hemos enterado prácticamente de nada. No te preocupes, está escrito con esa intención y en no pocas ocasiones todos nos encontramos con esta situación. No es tu culpa, en realidad no he dicho absolutamente nada.

Bueno, en realidad sí he dicho y tal vez sea mejor que lo precise en este mismo momento. De lo que vamos a hablar en esta entrada es de estas cosas:

  • Información.
  • Entropía.
  • Información como algo físico.

Todo lo demás solo ha sido un largo e innecesario blablableteo (que me perdone la RAE).

Vamos a meternos de lleno en el tema intentando introducir los ingredientes mínimos para entender de qué va todo esto.

BIT

El bit, los bytes, los teras, los megas, etc, son cosas de las que hablamos profusamente en nuestra vida diaria. Lo que tal vez no quede tan claro es a qué diantres nos referimos con esos palabros. Dichos términos hace referencia a unidades de medida de contenido de información y generalmente los usamos en la tarifa de datos que tenemos o en la capacidad de almacenaje de nuestros dispositivos de memoria. Lo que tenemos que tener claro es que son justamente eso, unidades de la medida del contenido de información, ya sea para transmitir, descargar o almacenar. Por lo tanto, la información es algo que se puede medir y se puede cuantificar.

Desde los años 20 del pasado siglo se han ido definiendo y formalizando matemáticamente los conceptos de información y sus unidades de medida. Es algo que tiene una importancia vital en un mundo en el que los trasiegos de información y de contenido son piedra angular de su funcionamiento. ¿Pero qué es eso de la información?

La respuesta no es nada fácil y a poco que busquéis podréis encontrar distintas variantes cuando hablamos desde el punto de vista de la computación, las matemáticas, la física, la biología, etc. Aquí vamos a reducir al mínimo las expresiones matemáticas y los argumentos técnicos y nos decantaremos por una definición operacional.

Lo que sí ha de quedar claro es que el contenido de información, o información para abreviar, no tiene nada que ver con significados o significantes. Aquí no nos preocupamos del “significado” de un mensajes o un sistema. Cuando hablamos de información nos referimos a una magnitud que tiene unas determinadas propiedades que vamos a establecer brevemente en lo que sigue.

Información:

Supongamos que disponemos de un sistema, ya sea un conjunto de moléculas, un mensaje escrito en algún alfabeto, una baraja de cartas, etc. ¿Cuál es el contenido de información en dicho sistema?

La idea es simple, imaginemos que tenemos una compañera que no tiene ni idea del sistema que nos traemos entre manos. El contenido en información del sistema se define como el número mínimo de instrucciones que hemos de darle para que ella pueda reconstruir el sistema en el estado en el que se encuentra. Dicho de otro modo, es el número mínimo de preguntas que ella puede formularnos para poder conocer todo el sistema y el estado en el que este se encuentra.

Así de primeras parece que no hemos avanzado mucho, pero en realidad sí que hemos dado algún paso. Ahora sabemos que la información, o el contenido de información, es un número, ni más ni menos. Y es un número mínimo de instrucciones o de mensajes o de preguntas. El caso es que las preguntas o las instrucciones pueden ser todo lo alambicadas que queramos. Estoy seguro de que todos tenemos la experiencia de un alguien que hace las preguntas más enrevesadas del mundo o da las respuestas más retorcidas y oscuras posibles. Así que vamos a afinar un poco más la definición.

Llamaremos información contenida en un sistema al conjunto mínimo de preguntas o respuestas a preguntas de sí/no. Por ejemplo:

1.- ¿El sistema está compuesto por moléculas?

2.- ¿El sistema es un gas?

3.- …

Cada una de esas preguntas se puede contestar con un sí o un no, con un 1 o con un 0. Y a eso lo llamamos un bit de información.

Unos cuantos ejemplos, la sorpresa

Clara y Juan se disponen a intercambiar mensajes. Estos mensajes se construyen como cadenas de símbolos tomados de algún alfabeto y acuerdan que los mensajes tendrán una longitud de 10 símbolos cada uno. Estudiemos algunos casos.

Un alfabeto con una sola letra

Si Clara y Juan acuerdan intercambiar un mensaje de 10 símbolos contruídos con un alfabeto de una única letra, A pongamos por caso, todo será bastante aburrido. Si la que envía el mensaje es Clara, Juan podrá predecir el mensaje antes de que le llegue, no es adivino es que la cosa es muy simple. Todos los posibles mensajes serán:

A A A A A A A A A A

¿Tiene Clara que mandar los diez símbolos a Juan para hacerle llegar el mensaje? La verdad es que no, ellos pueden acordar que cuando Clara le haga una llamada perdida a Juan este entenderá que le ha enviado el mensaje que él podrá reconstruir como A A A A A A A A A A.

Así un mensaje que para reconstruirlo en principio necesitamos responder 10 preguntas como mínimo del tipo -¿Es una A?- en realidad no necesita ninguna pregunta para poder ser construido. La información que aporta un mensaje en estas condiciones es nula.

¿Cómo es eso? Eso es porque Juan no se sorprende nunca con los mensajes de Clara en estas condiciones. El sabe la longitud del mismo y de qué letra está compuesto siempre. Así que basta 0 bits de información para codificar toda la cadena del mensaje. Aquí la clave está en la sorpresa. No hay sorpresa, no hay información.

Este ejemplo extremo es interesante por dos cosas. En primer lugar, la información obtenida en estas condiciones es nula y por lo tanto, como podemos deducir, podemos comprimir el mensaje tanto como queramos. Otra cuestión es que si Clara se empeña en enviar el mensaje pero hay pérdidas por interferencias o ruídos en el canal que hayan elegido para intercambiarlo, Juan no tendrá ningún problema en adivinar qué símbolos faltan del mismo.

Así, la información está relacionada con la capacidad que tenemos de comprimir un mensaje y con la capacidad que tenemos de reconstruirlo aún cuando su transmisión no sea perfecta.

Un alfabeto de dos letras, A y B

Nos echamos la manta a la cabeza y complicamos el asunto. Ahora Clara y Juan van a intercambiar mensajes de diez símbolos de longitud formados por dos letras A y B. Pero para poder establecer la información de los mensajes nos hace falta un ingrediente más. Ese ingrediente es la probabilidad con la que aparecen A y B en los mensajes que es algo que se establece de antemano.

No es lo mismo que la probabilidad de aparición de A y B sean del 90% y del 10% respectivamente que esas probabilidades sean del 50% cada una. En el primer caso, la aparición de la B será mucho más sorprendente que la aparición de una A. En el segundo caso, cada vez que recibimos un símbolo del mensaje nuestra sorpresa es máxima porque hay una probabilidad idéntica de que sea A o B. En ese tipo de mensajes la información es la máxima posible.

Un mensaje formado por diez símbolos tomados del alfabeto A y B con probabilidades de aparición del 50% no se puede comprimir. Evidentemente, cualquier fallo de transmisión será desastroso porque no sabremos si hemos perdido una A o una B.

En el caso de que A aparezca el 90% de las veces y B el 10% de las veces, la compresión se puede hacer indicando únicamente cuando aparece B y en qué posición del mensaje. Este tipo de mensaje, con estas condiciones, es más robusto a los problemas de transmisión porque es mucho más probable que hayamos perdido una A que una B. Así que será más fácil reconstruir el mensaje a pesar de que existan pérdidas o ruído.

¿Información? ¿Entropía?

¿Por qué hay tanto revuelo con la relación entre la entropía y la información? Como hemos comentado de pasada las expresiones matemáticas que empleamos para calcular la entropía y la información son formalmente idénticas. Creedme o buscadlas.

Dado que aquí no hemos utilizado fórmulas de ningún tipo es un poco estúpido basar la relación, supuesta relación, entre la información y la entropía en la similitud de las expresiones matemáticas que las definen. Lo mejor será comparar las definiciones.

Entropía: La entropía es el número de posibles valores de las posiciones y velocidades de todos los constituyentes microscópicos de un sistema, átomos o moléculas, compatibles con unos valores dados de las propiedades macroscópicas como la presión, la temperatura, etc.

Información: La información es el número de posibles mensajes de una determinada longitud que se pueden formar con un alfabeto en el que cada símbolo tiene una probabilidad de aparición.

Estas dos definiciones son análogas. Para acercarnos a esa analogía supongamos que estamos estudiando un gas en una habitación. ¿Sería posible que todo el gas estuviera concentrado en una de las esquinas inferiores de la habitación? ¿Por qué no lo está? Sin dejarnos la vida en ello podemos pensar que hay pocas configuraciones de posiciones y velocidades de las moléculas del gas que sean compatibles con estar en una esquina comparado con el gran número de posiciones y velocidades de las moléculas distribuidas por toda la habitación. Es decir, la opción de estar en una esquina tiene una probabilidad mucho menor que la opción en la que el gas está distribuido por todo el volumen disponible. Con lo que entropía e información son números que se obtienen de probabilidades.

Digamos que información y entropía tienen un espíritu común, una misma esencia pero como hemos dicho que algo se parezca mucho no significa que sea totalmente lo mismo. Al fin y al cabo, la entropía es una magnitud físicas que se aplica a sistemas compuestos por átomos, moléculas, etc. Es una variable termodinámica. La información es algo relativo a ordenamientos, probabilidades de aparición de símbolos, etc. Un concepto más ingenieril que otra cosa.

Desde que la información se puso sobre la mesa con los trabajos de Shannon en la década de los 60 del pasado siglo las opiniones acerca de la relación entre la entropía y la información se polarizaron en dos grandes grupos. Estaban los que decían que esos conceptos no tenían ninguna relación entre sí y estaban los que decían que entropía e información era la misma cosa, una magnitud muy general fundamentada en ideas muy básicas como la probabilidad o el número de elementos de un conjunto con unas propiedades dadas.

¿Quién se llevó el gato al agua? La respuesta solo pudo ser resuelta, y aún no hay un consenso generalizado, cuando se pudo demostrar que la información y su manejo involucraba intercambios de energía y cambios en la entropía física de los sistemas.

Información física

La discusión acerca de si la información es algo físico como la energía o la entropía empezó a dirimirse con los trabajos de Rolf Landauer. Landauer fue un físico de origen alemán, nació en Stuttgart en 1927, que desarrolló su carrera fundamentalmente en Estados Unidos. En 1961 se encontraba trabajando en los laboratorios de IBM y se concentró en encontrar cuál era el mínimo de energía que se debería de poner en juego para borrar información de un dispositivo.

Lo que encontró supuso un terremoto poco conocido en nuestro entendimiento de la información y su relación con la entropía. Landauer dedujo teóricamente que eliminar un bit de información de un dispositivo siempre consume como mínimo una energía que corresponde a KT ln(2). En esta expresión K es la constante de Boltzmann, T es la temperatura a la que se encuentra el dispositivo del que se borra la información y ln(2) procede del hecho de que un bit puede tomar, clásicamente, dos valores 0 y 1. Esta energía se emite al entorno en forma de calor. Es decir, borrar energía supone un coste energético.

En termodinámica podemos definir la entropía que tiene un sistema como la energía intercambiada en forma de calor (KTln2, en este caso) dividida por la temperatura a la que se produce este intercambio. Así, en un proceso de borrado de un bit de información, como mínimo, la entropía del conjunto formado por el sistema o dispositivo y su entorno, aumenta en un factor Kln2. Es decir, borrar información aumenta la entropía física. Por lo tanto, como conclusión, la información y la entropía son dos aspectos de una mismo concepto. Y esto, queridos lectores y lectoras, es uno de las ideas más fundamentales con las que se ha enfrentado la física en el siglo XX y su influencia en el siglo XXI será ineludible. Pero se ve que este hecho no ha sido merecedor de grandes titulares ni de excelsos tratados en la divulgación de la física. Este resultado, conocido como el principio de Landauer, es uno de los grandes desconocidos de la física de nuestro tiempo, tanto para expertos como para aficionados.

Este post ha sido realizado por Enrique F. Borja (@Cuent_Cuanticos) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *