Loading...

EL TRIUNFO DE LA INFORMACIóN

César Hidalgo

0


Fragmento



Índice

El triunfo de la información

Prólogo: La guerra eterna

Introducción: De los átomos a las personas y a las economías

PRIMERA PARTE. Bits en átomos

1. El secreto de viajar en el tiempo

2. El cuerpo del sinsentido

3. La anomalía eterna

SEGUNDA PARTE. Imaginación cristalizada

4. ¡Más allá de la mente!

5. Amplificadores

TERCERA PARTE. La cuantización del knowhow

6. Esta vez es personal

7. Los vínculos no son gratis

8. En los vínculos confiamos

CUARTA PARTE. La complejidad de la economía

9. La evolución de la complejidad económica

10. La sexta sustancia

11. El matrimonio entre conocimiento, knowhow e información

QUINTA PARTE. Epílogo

12. La evolución del orden físico: de los átomos a las economías

Agradecimientos: Sangrando palabras

Sobre este libro

Sobre César Hidalgo

Créditos

Notas

Para Iris, Anna y Mridu

Recibe antes que nadie historias como ésta

PRÓLOGO

La guerra eterna

El universo está compuesto de energía, materia e información, pero es esta última la que lo hace interesante. Sin ella, el universo sería una sopa amorfa. Carecería de las formas, las estructuras, los órdenes aperiódicos y las disposiciones fractales que le dotan tanto de su belleza como de su complejidad.

Pero la información escasea. Se oculta en rincones desde donde combate el inexorable avance del universo hacia el desorden: el aumento de la entropía. Este libro trata del crecimiento de la información y de los mecanismos que le permiten crecer a pesar de la entropía. Entre estos se cuentan los procesos naturales que hacen que se origine, así como los mecanismos sociales y económicos que contribuyen a su crecimiento acelerado en la sociedad. Esta obra trata pues del crecimiento de la información —el crecimiento del orden físico— que hace que nuestro planeta sea excepcional, rico y dispar, de los átomos a las economías.

Buena parte del libro se centrará en nuestro planeta y en nuestra especie. El motivo para ello es que, desde una perspectiva cósmica, la Tierra es un lugar especial. Sabemos de muchos lugares en el universo que concentran más materia y energía que nuestro planeta, pero no conocemos ninguno con una mayor concentración de información. Las estrellas de neutrones son tan densas que una cucharada de ellas pesa más que el Empire State. Los agujeros negros son tan masivos que retuercen la geometría del espacio. La energía también es extraordinariamente abundante en los miles de millones de estrellas que iluminan nuestra galaxia, pero no lo es tanto en nuestro planeta. Así pues, lo que hace que la Tierra sea especial no es una singularidad de materia o energía, sino una singularidad de información: ella es a la información lo que un agujero negro es a la materia y una estrella a la energía. Nuestro planeta es el lugar donde la información se concentra, crece y se oculta en un universo que por lo demás es inhóspito.

Pero ¿de dónde proviene la información? ¿Por qué se concentra en nuestro planeta, y cómo la vida favorece su crecimiento? ¿Cuáles son los mecanismos sociales y económicos que facilitan el crecimiento de la información en la sociedad? ¿Por qué nuestra capacidad de acumular información depende de la información que ya hemos acumulado? ¿Y cómo el crecimiento de la información afecta nuestras disparidades económicas y sociales?

En las páginas siguientes aprenderemos qué es la información, de dónde procede y por qué crece. Aprenderemos sobre los mecanismos naturales, sociales y económicos que contribuyen a que la información se rebele contra la entropía. Aprenderemos sobre los mecanismos que ayudan a que la información triunfe en pequeñas batallas, imponiéndose, estoica, en la única verdadera guerra que se libra en el universo: la que enfrenta al orden contra el desorden, la entropía contra la información.

INTRODUCCIÓN

De los átomos a las personas y a las economías

Ludwig era un hombre triste. ¿Fue la muerte de su hijo la gota que colmó el vaso? ¿O fueron las críticas de sus colegas? ¿Quizá amaba demasiado a los átomos?

Durante sus vacaciones estivales, Ludwig se suicidó. Elsa, su hija menor, lo encontró colgando de una soga. Se negó a hablar de este episodio durante el resto de su vida.

Por supuesto, el Ludwig del que hablo es Ludwig Boltzmann. Ludwig era un científico de renombre, y también un hombre inseguro. En su vida, hizo importantes contribuciones a nuestra comprensión de la naturaleza. Contribuciones que, sin embargo, fueron controvertidas.

Ludwig creía en los átomos en una época en que muchos de sus colegas no los consideraban más que una analogía práctica. El escepticismo de sus colegas lo incomodaba. Por una parte, sabía que iba por buen camino: había demostrado que el comportamiento empírico de los gases podía atribuirse al movimiento colectivo de las moléculas o de los átomos. Este resultado le proporcionó evidencia indirecta de la existencia de los átomos, pero ninguna manera de observarlos directamente.

La falta de evidencia directa dejó a Ludwig a merced de las críticas de sus colegas. Su némesis, el físico reconvertido en filósofo Ernst Mach, sostenía que la ciencia debía concentrarse solo en objetos que fueran observables directamente. Constructos teóricos adicionales, como los átomos de Boltzmann, no estaban permitidos.

Los problemas de Ludwig no solo eran sociales. Durante décadas había intentado explicar los orígenes del orden físico. Sus intentos, aunque fructíferos desde el punto de vista científico, también fracasaron. La teoría de Ludwig predecía lo contrario de lo que él pretendía demostrar. Su experiencia cotidiana indicaba que el orden aumentaba a su alrededor: las flores florecían, los árboles brotaban y la sociedad industrial producía nuevos aparatos cada día. Sin embargo, la teoría de Ludwig predecía la desaparición, no el crecimiento del orden. La teoría explicaba por qué el calor fluye de los objetos calientes a los fríos, por qué las espirales de leche desaparecen en el café, y por qué los susurros se desvanecen en el viento. Aunque Ludwig demostró que las microestructuras del universo desgastan el orden, haciendo que este sea efímero, era consciente de que esa no era la historia completa. Faltaban los mecanismos que contribuían a la perseverancia de la información.

El crecimiento del orden lo incomodaba. Lo incomodaba de una forma que solo un científico puede entender. Sabía que a su teoría le faltaba algo, pero no era capaz de identificar qué. En el ocaso de su vida, cansado de luchar contra las personas y la naturaleza, Ludwig tomó una soga. Lo que quedó fue un armazón de átomos que comenzó una progresiva e indudable descomposición, tal y como su teoría predecía.

En 1906 Ludwig puso fin a su vida, pero no a los problemas filosóficos que lo atormentaban. Para explicar los orígenes del orden físico, relacionó fenómenos que ocurrían en distintas escalas espaciales, en particular en átomos y gases.[1] Aunque hoy en día tiene sentido, en la época de Ludwig operar en distintas escalas espaciales era una práctica que violaba un contrato implícito entre científicos. Muchos de sus colegas veían la ciencia como una jerarquía de muñecas rusas, en la que nuevas estructuras surgían en cada nivel. Consideraban innecesario transgredir las fronteras de dicha jerarquía. La economía no necesitaba de la psicología, así como esta no necesitaba de la biología; y la biología no necesitaba de la química ni la química de la física. Explicar los gases en función de los átomos, aunque no era tan descabellado como explicar el comportamiento humano a partir de la biología, se veía como una traición a este acuerdo implícito. Boltzmann había «pecado» al tratar de explicar las propiedades macroscópicas de la materia a partir del movimiento de los átomos.

El siglo XX reivindicó los átomos de Ludwig y, en menor medida, su pasión por traspasar las fronteras académicas. La mecánica cuántica permitió conectar los átomos de Ludwig con la química y la ciencia de materiales. La biología molecular y la bioquímica contribuyeron a establecer un vínculo entre la biología de la célula y las propiedades químicas de las proteínas que existen en su interior. En paralelo, la biología coqueteó con la psicología, cuando la teoría de Darwin se asentó como una explicación básica del comportamiento humano.[2] Pero no toda esta polinización se produjo en las fronteras ya conocidas. Entre estas danzas multidisciplinares emergió un concepto lo suficientemente promiscuo para llegar a todos los rincones: la idea de la «información».

La información era lo que fascinaba a Ludwig. Era lo que no lograba aprehender y también aquello que trató infatigablemente de explicar: ¿Por qué podía degradarse el orden en el universo mientras crecía en la Tierra?

Con el crecimiento de la información en el siglo XX, también crecieron los intentos por explicarla. Pero lo que ahora motivaba el estudio de la información no era la belleza de la naturaleza, sino los horrores de la guerra. Durante la Segunda Guerra Mundial, sobrevino la necesidad de comunicarse en códigos secretos. Dichos códigos dieron lugar a intentos de descifrar los mensajes interceptados, lo que inició el estudio matemático de la información.

El cifrado y descifrado de mensajes era un problema matemático demasiado interesante para abandonarlo cuando terminó la guerra. Los matemáticos continuaron formalizando la idea de información, y tras dejar de lado los intentos de descifrar los mensajes interceptados, enmarcaron sus esfuerzos en el contexto de las comunicaciones. Quienes lo hicieron con éxito se dieron a conocer ante el mundo como los primeros teóricos de la información o cibernéticos. Entre estos pioneros se encontraban Claude Shannon, Warren Weaver, Alan Turing y Norbert Wiener.

En los años cincuenta y sesenta, la idea de información conquistó el mundo científico. Todas las disciplinas acogieron la información como un poderoso concepto que trascendía las separaciones entre ellas. La información no era ni microscópica ni macroscópica.[3] Podía aparecer grabada de forma rala en tablillas de arcilla o bien densamente empaquetada en una hélice de ADN. Por lo general, a efectos prácticos, la escala a la que se plasmase la información no era algo crucial. Esta libertad de escala hizo que la idea de la información resultase atractiva para los académicos de todos los campos, que hicieron suyo el concepto y le añadieron el toque de sus disciplinas respectivas.

Los biólogos usaron la idea de información para explorar cómo los genes codificaban la herencia. Los ingenieros, fijándose en el trabajo de Shannon, crearon transmisores y receptores y cablearon el mundo con redes analógicas y digitales. Informáticos, psicólogos y lingüistas trataron de modelar la mente construyendo máquinas electrónicas pensantes, dando origen al estudio de la inteligencia artificial. A medida que el siglo XX dejaba atrás la era atómica, la información se convirtió en la carta que todos querían jugar.

La idea de información también se incrustó en las ciencias sociales, en particular en la economía. Friedrich Hayek, un economista austriaco contemporáneo de Shannon, argumentó que los precios transmitían información sobre la oferta y la demanda de bienes, lo que permitió identificar cuál era la información necesaria para que operase la «mano invisible» de Smith. En palabras de Hayek: «En un sistema en el que el conocimiento de los hechos relevantes está distribuido entre muchas personas, los precios pueden servir para coordinar las acciones individuales de distintas personas».[4]

La idea de información también permitió que los economistas comprendiesen algunas fallas de mercado importantes. George Akerlof se hizo famoso al demostrar que los mercados podían dejar de funcionar cuando las personas poseían información asimétrica sobre la calidad de los bienes que querían intercambiar.[5] En paralelo, Herbert Simon, un polímata que hizo contribuciones a la economía, las ciencias de la organización y la inteligencia artificial, introdujo el concepto de racionalidad limitada, que se centraba en el comportamiento de actores económicos con información limitada sobre el mundo.

Con el transcurso del siglo XX, el estatus del concepto de información ascendió hasta alcanzar una importancia global. Pero, a medida que aumentaba su popularidad, lentamente empezamos a olvidarnos del carácter físico de la información que había perturbado y fascinado a Boltzmann. La palabra «información» se convirtió en sinónimo de lo etéreo, lo no físico, lo digital, lo ingrávido, lo inmaterial. Pero la información es física. Tan física como los átomos de Boltzmann o la energía que transportan al moverse. La información no es tangible: no es un sólido ni un fluido. Tampoco tiene su correspondiente partícula, pero es tan física como el movimiento y la temperatura, que tampoco poseen partículas propias. La información no es una cosa, sino el orden de las cosas. Es orden físico, como lo que distingue distintas permutaciones de una baraja de cartas. Lo sorprendente para la mayoría de la gente es que la información está libre de significado, aunque esta característica, como sucede con su carácter físico, suele malinterpretarse.

En 1949, Claude Shannon y Warren Weaver publicaron un librito titulado Teoría matemática de la comunicación. En la primera parte, Weaver describía los aspectos conceptuales de la información; en la segunda, Shannon explicaba la base matemática de lo que ahora conocemos como teoría de la información.

Para que la teoría de la información se entendiese correctamente, Shannon y Weaver necesitaban desligar la palabra «información» de su significado coloquial. Weaver estableció esta distinción al principio de su parte: «La palabra “información”, en esta teoría, se utiliza en un sentido particular que no debe confundirse con su uso habitual. En particular, no debe confundirse información con significado».[6]

Shannon también dejó claro esta idea al principio de su texto, aunque para ello recurrió a argumentos técnicos en lugar de a distinciones semánticas: «El problema fundamental de las comunicaciones es el de reproducir en un punto, de manera exacta o aproximada, un mensaje elegido en otro punto. Con frecuencia, los mensajes tienen significado [...]. Estos aspectos semánticos de la comunicación [los que se refieren al significado de un mensaje] son irrelevantes para el problema técnico».[7]

Pero ¿por qué Shannon y Weaver tenían tanto interés en disociar información y significado? Sus motivos eran tanto técnicos como filosóficos. En la vertiente técnica, Shannon estaba interesado en la construcción de máquinas capaces de comunicar información de forma independiente del significado del mensaje. Mezclar información y significado oscurecía el problema técnico. En cuanto a los aspectos filosóficos, Shannon y Weaver entendían que, en el uso que hacían de ellas, las palabras «información» y «significado» remitían a conceptos fundamentalmente diferentes. Los humanos, y algunas máquinas, poseen la capacidad de interpretar los mensajes y atribuirles significado. Pero lo que viaja a través de los cables o de las ondas electromagnéticas no es ese significado, sino algo más simple: es solo información.

No es fácil para los humanos separar información de significado porque no podemos evitar interpretar los mensajes: les atribuimos significado automáticamente, y nos convencemos de que el significado está en el mensaje. Pero no es así. El significado se deriva del contexto y del conocimiento previo: es la interpretación que un agente inteligente, por ejemplo un humano, le asigna a un mensaje, pero esto es algo distinto del orden físico que dicho mensaje transporta consigo, y distinto también del mensaje en sí. El significado surge cuando un mensaje llega hasta un ser vivo, o una máquina, con la capacidad de procesar información. El significado no está en las manchas de tinta, ondas sonoras, haces de luz o pulsos eléctricos que transmiten la información.

Pensemos en la frase «11 de septiembre». Cuando la pronuncio, la mayoría de los estadounidenses piensan automáticamente en el ataque contra las Torres Gemelas en 2001, mientras que a muchos chilenos les viene a la memoria el golpe de Estado de 1973. Pero puede que, cuando digo «11 de septiembre», solo esté informando a mis alumnos de que volveré al MIT en esa fecha. Como podemos ver, el significado del mensaje es algo que creamos; no forma parte del mensaje, aunque lo parezca. El significado es algo que les asociamos a los mensajes sin apenas darnos cuenta cuando los interpretamos, porque los humanos no podemos evitar interpretar las ráfagas de orden físico que nos llegan. Pero el hecho de que lo hagamos sin apenas ser conscientes de ello no quiere decir que significado e información sean lo mismo.

Para crear máquinas capaces de transmitir información de forma independiente del significado del mensaje, Shannon necesitaba una fórmula para estimar el número mínimo de caracteres necesarios para codificar un mensaje. Basándose en el trabajo de Harry Nyquist y Ralph Hartley, Shannon calculó cuánta información se necesitaba para transmitir un mensaje en un canal limpio o ruidoso. También estimó el ahorro en la comunicación debido a las correlaciones existentes en la estructura de los mensajes (como el hecho de que en inglés es más probable que la letra t preceda a una h que a una q). Las excursiones filosóficas de Shannon lo llevaron por un camino matemático similar al que recorrió Boltzmann, al final del cual Shannon encontró una fórmula para codificar un mensaje arbitrario con máxima eficiencia. Dicha fórmula permitía que cualquiera representase información en un disco magnético, en ondas electromagnéticas o en papel y tinta, y era idéntica a la fórmula que Boltzmann había propuesto casi cincuenta años antes.[8] Esta coincidencia no era casual.

La convergencia de la fórmula de Shannon con la de Boltzmann nos habla de la naturaleza física de la información. Esa realidad física es esencial para entender cómo el estudio de los átomos puede ayudarnos a comprender la economía. Por lo general, las ciencias naturales se han limitado a describir el universo, de los átomos a las personas, estableciendo conexiones entre la simplicidad de esos átomos y la complejidad de la vida.[*] Las ciencias sociales se han centrado en los vínculos entre las personas, la sociedad y las economías, partiendo del ser humano como la unidad fundamental: una especie de átomo social y económico. Pero este divorcio tiene su precio, ya que los mecanismos que permiten que la información crezca trascienden las barreras que separan lo inerte de lo vivo, lo vivo de lo social y lo social de lo económico.

Es por eso por lo que dedicaré las páginas siguientes a una exploración de los mecanismos que contribuyen al crecimiento de la información a todas las escalas: de la escala atómica a la económica, y no por separado de los átomos a las personas o de las personas a las economías, como suele ser lo habitual. Esto nos ayudará a tender puentes entre los factores físicos, biológicos, sociales y económicos que contribuyen al crecimiento de la información y que limitan nuestra capacidad de procesarla. Dicha capacidad de procesamiento implica computación, lo cual a escala humana requiere el «software» que conocemos coloquialmente como «conocimiento». El resultado será un libro sobre la historia del universo, que no se centrará en la flecha del tiempo, sino que en la de la complejidad.

Y es la flecha de la complejidad —el crecimiento de la información— la que marca la historia del universo y la de nuestra especie. Hace miles de millones de años, poco después del Big Bang, nuestro universo carecía de la capacidad de generar el orden que maravilló a Boltzmann y que nosotros damos por descontado. Desde entonces, el universo ha evolucionado hacia el desorden, tal y como Boltzmann predijo, pero también se ha dedicado a producir burbujas en las que se concentran enormes cantidades de orden físico, o información. Nuestro planeta es un ejemplo paradigmático de estas burbujas.

La oleada de estrellas que precedió a la formación de nuestro sistema solar sintetizó los elementos atómicos necesarios para la aparición de la vida. Entre estos estaban el carbono, el oxígeno, el calcio, el nitrógeno y el hierro. Una nueva generación de estrellas se formó a partir de los despojos de estos antepasados estelares. En esta ocasión, los planetas que orbitaban a su alrededor poseían la riqueza química necesaria para la evolución de la vida. Desde entonces la Tierra, que tiene entre cuatro y cinco mil millones de años de antigüedad, ha sabido sacar provecho de su riqueza química para convertirse en una singularidad de complejidad. Durante miles de millones de años, la información ha ido creciendo en nuestro planeta: primero en su química, luego en formas de vida simples y más reciente en nosotros. En un universo constituido mayormente por espacio vacío, nuestro planeta es un oasis donde la información y el conocimiento continúan aumentando, impulsados por el Sol, y también por los mecanismos autocatalíticos que llamamos vida.

No obstante, la línea que une la física de las estrellas con las formas de vida que pueblan el planeta incluye dos paradas a lo largo de la evolución temporal de la complejidad y la información. La evolución de la información trasciende cualquier línea de separación, y se extiende incluso hasta la información generada por la economía y la sociedad. Información, entendida en su acepción más amplia como configuraciones físicas, es lo que produce la economía. Es lo único que generamos, tanto si somos células biológicas como fábricas industriales. La razón es que la información no se limita a los mensajes, sino que es inherente a todos los objetos físicos que producimos: las bicicletas, los edificios, las lámparas, las batidoras, los secadores de pelo, los zapatos, los candelabros o las máquinas cosechadoras. Todos ellos están hechos de información. Nuestro mundo está preñado de información. No es una sopa amorfa de átomos, sino una colección organizada de estructuras, formas, colores y correlaciones. Dichas estructuras son manifestaciones de la información, aun cuando esos pedazos de orden físico carezcan de significado.

Pero engendrar información no es fácil. Al universo le cuesta hacerlo. Nuestra capacidad para generarla, y para producir los objetos, infraestructuras e instituciones que asociamos con la prosperidad, nos obliga a combatir el continuo avance hacia la homogeneidad que caracteriza al universo y que tanto desazonaba a Boltzmann. Para luchar contra el desorden y hacer posible que la información crezca, el universo se guarda varios trucos en la manga, como los sistemas fuera del equilibrio, la acumulación de información en los sólidos y la capacidad de computar de la materia. En conjunto, estos tres mecanismos contribuyen al incremento de la información en pequeñas islas o burbujas donde esta puede crecer y ocultarse, como por ejemplo nuestro cuerpo o nuestro planeta.

Así pues, la acumulación de información y nuestra capacidad para procesarla definen una flecha de crecimiento que engloba lo físico, lo biológico, lo social y lo económico, y que se extiende desde el origen del universo hasta nuestra economía moderna. El crecimiento de la información es lo que unifica la aparición de la vida con el crecimiento de las economías, y el advenimiento de la complejidad con los orígenes de la riqueza.

Pero el crecimiento de la información no es uniforme, no solo en el universo sino también en la Tierra. Se produce en burbujas dotadas con la capacidad de generarla y acumularla. Las ciudades, las empresas y los equipos son la encarnación de las burbujas donde nuestra especie acumula la capacidad de producir información. Evidentemente, la capacidad de estas ciudades, empresas y equipos de generar información es dispar. Algunos pueden producir paquetes de información que representan conceptos propios de la ciencia ficción, otros aún no han llegado a tanto.

De manera que, al preguntarnos qué es la información y por qué crece, exploraremos no solo la evolución del orden físico sino también la del orden económico. Conectaremos principios físicos básicos con la teoría de la información, así como con teorías del capital social, la sociología económica, teorías del conocimiento y la ciencia empírica de la diversificación industrial y el desarrollo. Al preguntarnos por qué crece la información, estaremos preguntándonos sobre la evolución de la prosperidad, sobre los países ricos y los pobres, sobre los equipos muy o poco productivos, sobre el papel de las instituciones en nuestra capacidad de acumular conocimiento y sobre los mecanismos que limitan la capacidad de las personas de producir paquetes de información plasmada físicamente. Tomaremos una cierta distancia respecto a las maneras tradicionales de entender los fenómenos económicos y sociales, y desarrollaremos una descripción que busca integrar mecanismos físicos, biológicos, sociales y económicos, para ayudar a explicar el crecimiento continuo de algo que no es una «cosa». Ese algo, que nos fascina a usted y a mí, tanto como sedujo a Boltzmann, es el orden físico —la información—, la elevada co ...