Fusión nuclear: próxima Revolución Tecnológica

A pesar de que los recursos están limitados y son escasos, ello es porque el límite de los mismos radica en el propio conocimiento. Y éste frutece en condiciones de necesidad. La Segunda Guerra Mundial trajo consigo innumerables innovaciones técnicas en multitud de campos, por ejemplo. Asimismo, el crecimiento acelerado de la población mundial, la creciente demanda individual de energía y recursos y el agotamiento y desbordamiento de los mismos crean condiciones de necesidad, agudizando el ingenio. Como ya afirmó el Premio Nobel de Economía, F. A. Hayek, «debemos optar entre ser muchos y ricos o pocos y pobres».

La energía de fusión, por tanto, es un caso particular de lo antedicho en el párrafo anterior. Es necesaria una fuente energética segura, limpia y que ofrezca una energía suficiente para una población que no para de crecer. Así, en 1986, tras las dos crisis del petróleo, China, India, UE, EEUU, Rusia, Japón y Corea del Sur han aunado sus fuerzas para crear el ITER, con el fin de lograr la fusión nuclear.

La energía, a lo largo de la historia, ha permitido elevar el nivel de vida del ser humano. La energía es la base de todo sistema económico, de ella depende el coste de todos los productos, desde un chicle a una limusina: a más escasez de energía, más cuesta ganarse la vida. El carbón, en primer lugar, posibilitó la extinción de la servidumbre; el petróleo, mientras fue abudante, logró que la economía mundial viviese su época dorada durante 1950-1973; la energía de fisión actual se presenta, a veces, como única alternativa. Sin embargo, todas estas energías tienen un vicio común: o son escasas o contaminan.

Sin embargo, la fusión nuclear -aún en proceso de supervisión- desencadenará una revolución tecnológica sui géneris. Comprobándose, una vez más, que el límite de la riqueza mundial hunde sus raíces en el conocimiento. El día en que esta tecnología termine de implementarse (aproximadamente para 2035), el precio de la energía se reducirá ipso facto a un nivel irrisorio, ya que podremos producir, sin apenas coste, cuanta de ella queramos. En consecuencia, al disminuir los costes, los precios (que no los salarios) bajarán muchísimo. Conclusión: daremos un paso de gigante al implementar la fusión, pues el nivel de vida aumentará ostensiblemente.

El ITER ya está dando resultados. La ciencia de la fusión nuclear ya está dilucidada. Las leyes físico-químicas hacen que la susodicha sea factible. Así como en la enegía de fisión hacían falta átomos muy pesados (como el Uranio) para su repulsión, en la fusión se necesitan átomos muy ligeros (y, por tanto, más estables como el hidrógeno) para su unión. En concreto, para esta tecnología, se utilizan dos isótopos del hidrógeno (deuterio y tritio).

La idea consiste en unir el deuterio (compuesto por un protón y un neutrón) junto al tritio (compuesto por un protón y dos neutrones). Como resultado obtendremos dos protones y dos neutrones unidos entre sí o, lo que es igual, un átomo de helio, elemento inodoro e incoloro. Por otra parte, se liberará un neutrón y, por supuesto, una inusitada cantidad de energía (que analizaremos más tarde).

 

 

El único problema de la energía nuclear de fusión es tecnológico. Para fusionar dos átomos con carga parecida hacen falta temperaturas atronómicas (superiores a las del Sol; parecidas a las de una supernova), pues la repulsión electroestática establece que los polos iguales se repelen, mientras que los contrarios se igualan. Así, para unir el deuterio y el tritio, hace falta aislar las desmesuradas temperaturas del resto del mundo. No obstante, las últimas inveciones están apunto de lograrlo definitivamente.

Plasma rodeado por campos magnéticos

Las temperaturas tan elevadas cambian la materia de estado y la convierten en plasma (muy parecido a los relámpagos). Este plasma, si es rodeado convenientemente por una serie de campos magnéticos, se conseguiría separar la temperatura del interior del reactor, culminando definitivamente el sueño de la fusión. Si bien, algunas particulas de rayos X escaparían de los campos magnéticos calentando el entorno. Para esto, en torno a la reacción, se han construido unas paredes de acero de varios metros de grosos, con tuberias llenas de agua fría. Esto permite que el calor residual sea convertido rápidamente en vapor de agua y, a su vez, el vapor sirva para mover unas turbinas y generar la energía suficiente para mantener encendida la fusión. La reacción de fusión se mantiente, por tanto, por sí misma.

Los guarismos son lapidarios. Con un kilogramo de hidrógeno lograríamos en una hora, mediante fusión, más del triple de la energía producida por fisión en el mismo tiempo. Y lo que es más asombroso: la fusión lograría 28 veces más energía que la que se obtiene de forma solar y eólica. Es más, una única central de fusión doblaría la actual producción de energía total, como pueden observar en el gráfico de abajo.

*Los datos correspondientes al Carbón, Petróleo, G.Natural, Hidráulica, Fisión y Eólica y solar han sido extraídos del INE, y son la media de la producción de energía que se ha producido en una hora desde el año 1991 hasta el 2008 en España. Los datos correspondientes a la energía de fusión han sido estimados por ecuaciones concluyendo que: 1kg de H -> 70.000.000 KW/h; 1gr. de H -> 173.000 KW/h.

La certidumbre de la incertidumbre

Pirámide de Maslow

Una de las necesidades relacionadas con la supervivencia humana es la seguridad. El psicólogo Abraham Maslow la colocó en segunda posición, en la escala de necesidades humanas ordenada de más necesaria a menos, por encima incluso de las necesidades sociales. Es comprensible. El ser humano se distingue de las demás especies porque nace para aprender, sin comportamientos adquiridos. El hecho de que seamos animales culturales implica que tengamos la seguridad de que tales conocimientos son ciertos. Jamás aquiriremos voluntariamente ideas que consideremos falsos o comportamientos que consideremos erróneos.

La naturaleza humana, concretamente el cerebro, obliga, por así decirlo, al hombre a valorar constantemente sus conocimientos por su grado de certeza o, si se prefiere, seguridad. De lo contrario, la humanidad no hubiera progresado hacia el conocimiento científico y filosófico y, por ende, nos hubiéramos quedado estancados en la mitología, religión o magia. Como sabemos, el método científico se caracteriza por la falsación: una afirmación es cierta cuando presenta pruebas fehacientes para ello y, si se demuestra falaz, se rechaza. El método que más hace progresar a la ciencia, sin duda alguna, se trada de la humildad o, dicho de otro modo, la falsación. El mejor ejemplo es la teoría de la relatividad de Einstein que sustituyó al universo explicado por Newton.

Sin embargo, la Naturaleza, en este caso la humana, puede resultar, a veces, paradójica e ir en contra de sí misma. La incansable búsqueda de la seguridad o la verdad desemboca, a menudo, en el descubrimiento de una gran incertidumbre. Verbigracia, el paradigmático caso de Sócrates: «Sólo sé que no sé nada y, sin embargo, soy el más sabio de los ciudadanos». O, por otro lado, el caso de Popper: «No solamente me percaté de cuán ignorante era, sino de la finitud de mi ignorancia»

La búsqueda de la verdad, para engendrar seguridad es una necesidad biológica, pero que puede, tanto en su exceso como en su defecto, aflorar inseguridad e incertidumbre y, a la postre, dudas hasta en la forma de comportarse. Descartes intentando descubrir una certeza radical, se topó con una incertidumbre quintaesenciada: solipsismo. Y únicamente pudo escapar de la incertidumbre recurriendo a Dios, cuya existencia, con toda probabilidad, nunca podrá demostrarse, pese a los esfuerzos de Hawking.

El número pi

Alguien podrá decir: «Mire usted, es que Descartes puso en duda lo indudable: la matemática». Para nuestro disgusto, las matemáticas fallan; la lógica también. Bertrand Rusell demostró, mediante la paradoja del barbero, que las matemáticas tienen «agujeros». Esto provocó una grave crisis matemática. Y posteriormente, se demostró que todas las ramas matemáticas presentan algunos errores. Sin embargo, a pesar de todo, no hay modo de conocimiento más exacto, aún errando, que las ciencias formales -lógica y matemática. Esto implica que el hombre jamás podrá conocerlo todo, como pretende con ansia, pues así se lo dicta su subconsciente.

Con toda seguridad, el ser humano nunca conocerá el cosmos. Pero, no solamente eso, sino que, aún conociendo un 4% del cosmos, los conocimientos están impregnados del razonamiento humano, tergiversando, inevitablemente, la realidad. Por ejemplo, cuando vamos de excursión al campo nos maravillamos de lo floreciente y colorida que es la primavera. No obstante, el color no existe en sí, tampoco el olor. Por tanto, nos maravillamos, en parte, por nuestras propias sensaciones subjetivas. Cuando vemos el color, el ojo humano detecta una determinada onda que emite el objeto y, dependiento de la frecuencia y amplitud de la onda, el cerebro genera un determinado color. La sensaciones, la mejor forma de observar la Naturaleza, nos dan datos impregnados por nuestra sensibilidad, no aportan datos reales. Además, el 96% del universo (materia y energía oscuras) es totalmente desconocido para los científicos, imperceptible para el hombre.

El principio de incertidumbre, que ya nombré en otra ocasión, de Heisenberg hace referencia también a la cuestión que nos ocupa: es imposible conocer con exactitud la posición y velocidad de una partícula subatómica. ¡Quién lo diría, la física impregnada por la estadística! A todos estos hechos, sumése el de los agujeros negros, el de la variable desconocida o la teoría de caos.

En primer lugar, los agujeros negros absorben tal cantidad de materia y energía que es imposible conocer la totalidad de su naturaleza, porque no dejan pasar la luz.

En segundo lugar, la teoría de la variable desconocida, postula que, de todas las variables que podemos observar o demostrar, sólo podemos trabajar con una fracción de ellas, pues desbordaría la capacidad humana. Por ejemplo, el lanzamiento de un dado, aunque conozcamos todas las variables que intervienen, jamás podríamos utilizarlas. Esta cuestión ya fue tratada en este artículo.

Por último, la teoría del caos está vinculada a la matemática, que hace referencia a que una pequeñísima variación en un dato implica una variación en miríadas en otra variable. Por poner un ejemplo pedestre, imaginemos que nuestro profesor nos califica con un 4,99 y nos dice que estamos suspensos. Por una centésima, no podemos superar el curso; es decir, un pequeño cambio originaría un giro en nuestra vida. Esto tiene todavía más importancia cuando hablamos de números irracionales, pues sabemos que las cifras decimales de un número irracional son infinitas y siempre acumularemos un pequeño error. Este pequeño error, por ejemplo en el número pi, desencadenaría un caos en la meteorología, sistema sensible a minúsculas variaciones. El sistema como el metereológico siempre será inexacto, ya que nunca podremos conocer la totalidad de las cifras decimales de pi o de e. De ahí que sea tan importante hallar la cifra 2 billones del número pi. Como vemos, las predictividad irá en aumento, pero se trata de una búsqueda sin término.

En definitiva, la búsqueda de la verdad, como necesidad biológica, también necesita un término medio, pues indagando en exceso llegamos a una conclusión aún más escéptica que la del propio Descartes: sólo sé que no se nada. Por tanto, hay que diferenciar la búsqueda de la verdad como necesidad biológica de la búsqueda de la verdad en sí misma. Como individuos de la especie humana, necesitamos atenernos a cosas que, siendo irracionales o, en su defecto, inciertas, nos aporten la seguridad necesaria para subsistir. No obstante, si alguien pretende conocer la verdad, por muy triste que sea, está en su pleno derecho: El que pretende buscar la verdad, tiene el riesgo de encontrarla. Por otra parte, como investigadores, científicos o revolucionarios tenemos que buscar la verdad, por encima de las necesidades subjetivas.

Racionalización de la ignorancia o exuberancia quimérica.

La ciencia de lo inseguro –vaya oxímoron– se ha convertido en la distribuidora más importante del conocimiento del siglo XXI. Hoy no hay ninguna afirmación que contenga un porcentaje de probabilidad, hablemos de física cuántica o de juegos de cartas; el azar reina: lo inseguro es lo más seguro. Pero lo más grave de todo es que toda la estadística parte de una soberbia premisa, aceptada por casi todo el mundo: el azar existe en sí. Pero, realmente, esto es incierto. Por eso, en primer lugar, hablaré, en términos teóricos, de la imposibilidad de la independencia del azar al hombre.

Propongo el siguiente ejercicio: imaginemos dos cajas de zapatos volcadas en el suelo. Una de ellas está vacía y, la otra, oculta un balón. Podría decirse que hay un 50% de posibilidades de que la caja A contenga el balón y un 50% de que la caja B contenga el balón. Pero, ¿es realmente así? ¿No sería más cierto decir que en una caja hay un 100% de que contenga la bola y, en la otra, un 0%? En sí lo cierto es lo último, pero el ser humano no conoce dónde está la bola y, por tanto, debe trabajar con lo que conoce (o, mejor dicho, con lo que desconoce). Por tanto, hay un gran error al considerar que el azar está en la Naturaleza misma cuando no es así.

"Dios no juega a los dados"

Para explicar esto con más rigor es necesario que nos adentremos en el mundo de la física cuántica. Los defensores del azar se escudan en esta ciencia, para demostrar que el azar es natural. El principio de incertidumbre de Heisenberg establece que es imposible conocer con exactitud la posición y la velocidad de una partícula subatómica. Además, que cuanto más se conozca de la velocidad, menos se conocerá de la posición y viceversa. ¿Por qué? Porque el observador, mientras estudia la partícula, esta interfiriendo y la distorsiona, con lo que su trayectoria cambia. Por eso, la probabilidad está en la física cuántica: el hombre no puede conocer con exactitud una parte de la realidad. Ahora bien, el observador es independiente al elemento observado y, por tanto, el azar se da en el hombre y no en otra cosa. Sin embargo, hay todavía personas (y periódicos) que tienen la actitud recalcitrante de intentar contradecir a Einstein.

Por consiguiente, en rigor, la probabilidad nos permite conocer, de antemano, los resultados de un experimento del cual desconocemos alguna variable. Ésta es la teoría de la variable desconocida. Resulta imposible determinar, de forma segura, resultados como el lanzamiento de una moneda, un dado, predecir la primera carta que hay en una baraja. Porque en nuestros estudios siempre nos faltarán demasiados datos como, por ejemplo, la velocidad, el peso, el efecto, la velocidad del aire, la dirección y un indescifrable etcétera. En definitiva, la estadística juega con el desconocimiento del hombre, no con la incertidumbre de la Naturaleza.  El que no crea esto, es demasiado arrogante como para considerar inferior la Naturaleza al hombre. La conclusión lógica es que el azar no existe en sí, sino en nuestro entendimiento o, si se prefiere, en nuestra intuición. Ma las probabilidad es la racionalización de la ignorancia humana.

Decía Nietzsche que todos los grandes genios son aquellos que no creen en el azar, y no le falta razón. En efecto, una gran cantidad de insignes personalidades del conocimiento han tenido sus reticencias a la hora de creerse la jerga probabilística. Si hacemos caso a sus palabras, la actual sociedad presenta una decadencia misérrima: el mundo gira –y cada vez más- en torno al azar. La estadística está in crescendo cuando debería ser, naturalmente, todo lo contrario. En realidad, las cosas –independientes a la opinión– siguen un único camino. Einstein estaba convencido de ello y por eso ha sido –y sigue siendo– muy criticado por no aceptar el azar como algo existente en la Naturaleza. Hasta el empalago ha sido repetida la frase “Dios no juega a los dados”.

El parecido con la realidad es coincidencia

Todo se ha contaminado de un tufillo estadístico. El INE y el CIS nutren de información, cocinada a veces, a todos los periódicos, revistas e informativos. Encuestas, estudios, inferencias. Veamos lo que permanece oculto tras una afirmación del siguiente tipo: “El 55% de la población es partidaria de la abolición de la tauromaquia”. Ante todo, hay que decir que aquí hay una peligrosa generalización: a partir de una muestra del número deseado de individuos (generalmente, en España, no suelen superar el millar) se elabora una información que se aplica el resto de la población. Ojo al dato: lo que piensan mil personas es idéntico a lo que piensan más de cuarenta y cinco millones. ¡Qué eficiencia! Ahora bien, todo esto suponiendo que esas mil personas han contestado verazmente. Porque es bien conocido que una proporción bastante notoria de los encuestados miente. Si ya estos dos hechos echan por tierra la credibilidad de la inferencia, añadamos otro hecho: el de la estacionalidad. Los estudios estadísticos sociológicos tienen como objeto –casi siempre– conocer la opinión de la población acerca de algo; pero –como sabrán los neurocientíficos– nuestro cerebro está preparado para cambiar de opinión constantemente, así que lo que hoy se piensa, mañana puede no pensarse. Por ejemplo, en las encuestas acerca de la situación económica, cuando se realizan en verano, suelen dar índices de credibilidad más altos.  No porque la situación realmente mejore, sino porque en verano aumentan los niveles de dopamina y se cobra el salario extra. Sin embargo, la inferencia estadística sigue reinando en todos los ámbitos, dándose por veraces sus afirmaciones, cuando perfectamente pueden ser contrarias a la realidad.

No solamente son inexactas e inciertas las afirmaciones estadísticas, sino que influyen en la población, cambiando la opinión de toda ella. Por ejemplo, es habitual en la publicidad oír: “El 90% de las familias recomiendan el producto”. Esto, que necesariamente es inexacto en miríadas, hace que los receptores se lo crean y –posiblemente–  compren el producto. Asimismo, sucede con las encuestas relativas a la política y no es de extrañar que más de un gobierno haya manipulado las encuestas con tal de obtener réditos electorales.

Aquí también toma partida la mercadotecnia. Siempre se busca la forma de hacer el estudio, los encuestados adecuados, la formulación a la pregunta adecuada para que el estudio salga muy parecido a lo que la empresa quiere. Además, la forma de informar sobre el estudio también influye: una empresa nunca dirá: «3 de cada 8 personas están descontentas»; «siempre dirá: 5 de cada 8 personas afirman estar muy felices con este maravilloso producto».

En resolución, aceptando que el azar es creado por el hombre para que sus predicciones sobre algo desconocido sean más exactas caben dos posturas. La primera consiste en intentar descubrir todas las variables posibles, como el principio de incertidumbre. La segunda son los estudios de la estadística inferencial que se realizan por falta de tiempo o por que, de incluirse todas las variables, el estudio sería muy costoso. No obstante, la última postura se le da una credibilidad muy superior a la que, en realidad, tiene. El conocimiento con la probabilidad ya no es lo que era: la probabilidad ha pasado de ser la racionalización de la ignorancia invencible a la racionalización de la ignorancia vencible. Y esto ha supuesto una defensa tácita de la ignorancia. Algo inexacto pasa por algo exacto, estudiado y racionalizado. Esto va desgastando poco a poco la veracidad hasta el punto de que estemos sumergidos en un mundo muy diferente al que realmente es: el mito de la caverna.

El todo y la nada.

   Para comprender la realidad física al más alto nivel hay que saber distinguir entre el vacío y la nada. El vacío es un espacio donde no hay espacio, valga la redundancia, pero que realmente existe. La nada es un no-espacio donde no hay espacio y no existe realmente.

   Todos estamos compuestos de vacío, el 99,99 por ciento de nuestra materia es vacío. Este vacío es el espacio que existe entre los electrones de un átomo y el núcleo. Este vacío es del 99,99 por ciento, pero si hay tanto vacío, ¿por qué cuando tocamos algo no lo atravesamos?. En realidad, nunca tocamos nada siempre existe un espacio mínimo de separación entre los distintos átomos. Los electrones cuando entran en contacto con otro átomo distinto actúan por electromagnetismo para separase. Por esto, nunca podemos llegar a tocar nada y, en consecuencia, nunca podremos atravesarlo. Ahora parece que también nos engaña el tacto…

   Ahora hablemos del espacio. Sea este infinito o finito, con límites o sin límites o las diferentes combinaciones, el universo es isótropo, es decir, si nos alejamos varios millones de años luz y vemos el universo a gran escala nos daremos perfecta cuente de que está organizado de la misma forma. Esta misma isotropía se caracteriza a nivel atómico. Los átomos nos recuerdan a los sitemas solares con los electrones girando en trono al núclero. Además la organización atómica es igual de isótropa que la organización del cosmos a gran escala. Vemos que en el universo los extremos se «juntan».

El ordenador cuántico

Quizá sea este uno de los grandes avanzes que nos esperan en el futuro. La materalización realista de esta idea, sería sin duda la nueva revolución en la vida de los humanos y en el mundo de la tecnología.

El ordenador cuántico es una idea totalmente novedosa y grandiosa. No funciona por sistema binario, el funcionamiento es muchísimo más complejo por lo que el desarrollo de este no estará hasta dentro de 30 ó 40 años.

El ordenador cuántico estaría compuesto de qubits en vez de bits. Un qubit, es la unidad mínima de información cuántica y que puede tener cuatro estados a la vez. Se puede representar así:

Los qubits permitirían algoritmos (ordenes, e instrucciones y procesos) nuevos, de mayor calidad y muchísimo más rápidos. Una empresa canadiense presentó el 13 de Febrero de 2007 el primer ordenador cuántico de 6-qubits.

Origen

La computación cuántica tiene su origen en las limitaciones de la computación actual.

La computación actual ha ido mejorando progresivamente gracias a que se podían construir chips cada vez más pequeños. Estos chips se podían reducir bastante, pero no de forma ilimitada ya que cuando son inferiores a los 10 nanómetros dejan de funcionar. Por tanto, la computación actual es limitada y llegaría un momento en que no mejoraría.

Cuando se descubrió este problema, surgió una respuesta: un científico relacionó la computación con las leyes cuánticas y Eureka: surgió así la computación cuántica que permite que un qubit tenga 4 estados al mismo tiempo (puede ser 01, 00, 11, 10 al mismo tiempo) en vez de un solo estado. Esto aceleraría el ordenador exponecialmente. Por ejemplo, un ordenador de 16-qubits multiplicaría por 10 al mejor superordenador normal del mundo actual. Imagínese un ordenador de 1 gigaqubits (1 millón de qubits), realmente impresionante ¿verdad?

Problemas del ordenador cuántico

Esto de tener cuatro estados al mismo tiempo, es muy beneficioso pero también está causando algunos problemas ya que los estados cambian contínuamente y se podría perder información con un mínimo fallo. La probabilidad de este fallo es pequeña (1/10000) pero esto causaría que en determinados algoritmos no se pudiera volver atrás. Actualmente, se están estudiando nuevas formas de solucionar estos problemas. Una de las soluciones es utilizar un corrector de qubits.