En sus inicios la filosofía se trataba de una especie de especulación científica para explicar el mundo. Los babilonios pensaban que la Tierra flotaba sobre el agua. Muchos griegos formulaban diversas teorías para explicar el mundo. Anaximandro dice que el principio de los entes es la «Physis», que no se explica fácilmente. Heráclito hablaba en cambio de un ser desconocido, «porque la naturaleza ama ocultarse». Sólo por citar algunos ejemplos. Desde hace algún tiempo la ciencia y filosofía se han parecido un poco. Desde Aristóteles y su lógica, que después se usó y se transformó para ocuparse en la creación de computadores (lógica simbólica). El caso de Stephen Hawking es ejemplar porque el ya especuló sobre ciertas cosas que pasarían en el futuro por ejemplo en el supuesto de una nave con mucha velocidad viajara de vuelta a la Tierra (viajaría al futuro). Las distintas teorías de la física especulan por ejemplo sobre distintas dimensiones, en cierta forma no han probado nada porque desde el punto de vista empírico nadie la
s puede observar. Es la tecnología la que debería llegar a demostrar que existan mediante el método experimental. Finalmente quiero decir que algunas teorías matemáticas nisiquiera tienen aplicación en la realidad… y a como no tienen error en lo absoluto se sabe que estas teorías podrían tener aplicación en el futuro (así como la lógica deA.). Si bien es cierto que algunas de estas teorías no tienen aplicación en ningún campo humano, y tampoco se sabe bien como se relacionan estas con la realidad (independiente que sean ciertas) se dice que entran en el terreno de la especulación.
A pesar de que los recursos están limitados y son escasos, ello es porque el límite de los mismos radica en el propio conocimiento. Y éste frutece en condiciones de necesidad. La Segunda Guerra Mundial trajo consigo innumerables innovaciones técnicas en multitud de campos, por ejemplo. Asimismo, el crecimiento acelerado de la población mundial, la creciente demanda individual de energía y recursos y el agotamiento y desbordamiento de los mismos crean condiciones de necesidad, agudizando el ingenio. Como ya afirmó el Premio Nobel de Economía, F. A. Hayek, «debemos optar entre ser muchos y ricos o pocos y pobres».
La energía de fusión, por tanto, es un caso particular de lo antedicho en el párrafo anterior. Es necesaria una fuente energética segura, limpia y que ofrezca una energía suficiente para una población que no para de crecer. Así, en 1986, tras las dos crisis del petróleo, China, India, UE, EEUU, Rusia, Japón y Corea del Sur han aunado sus fuerzas para crear el ITER, con el fin de lograr la fusión nuclear.
La energía, a lo largo de la historia, ha permitido elevar el nivel de vida del ser humano. La energía es la base de todo sistema económico, de ella depende el coste de todos los productos, desde un chicle a una limusina: a más escasez de energía, más cuesta ganarse la vida. El carbón, en primer lugar, posibilitó la extinción de la servidumbre; el petróleo, mientras fue abudante, logró que la economía mundial viviese su época dorada durante 1950-1973; la energía de fisión actual se presenta, a veces, como única alternativa. Sin embargo, todas estas energías tienen un vicio común: o son escasas o contaminan.
Sin embargo, la fusión nuclear -aún en proceso de supervisión- desencadenará una revolución tecnológica sui géneris. Comprobándose, una vez más, que el límite de la riqueza mundial hunde sus raíces en el conocimiento. El día en que esta tecnología termine de implementarse (aproximadamente para 2035), el precio de la energía se reducirá ipso facto a un nivel irrisorio, ya que podremos producir, sin apenas coste, cuanta de ella queramos. En consecuencia, al disminuir los costes, los precios (que no los salarios) bajarán muchísimo. Conclusión: daremos un paso de gigante al implementar la fusión, pues el nivel de vida aumentará ostensiblemente.
El ITER ya está dando resultados. La ciencia de la fusión nuclear ya está dilucidada. Las leyes físico-químicas hacen que la susodicha sea factible. Así como en la enegía de fisión hacían falta átomos muy pesados (como el Uranio) para su repulsión, en la fusión se necesitan átomos muy ligeros (y, por tanto, más estables como el hidrógeno) para su unión. En concreto, para esta tecnología, se utilizan dos isótopos del hidrógeno (deuterio y tritio).
La idea consiste en unir el deuterio (compuesto por un protón y un neutrón) junto al tritio (compuesto por un protón y dos neutrones). Como resultado obtendremos dos protones y dos neutrones unidos entre sí o, lo que es igual, un átomo de helio, elemento inodoro e incoloro. Por otra parte, se liberará un neutrón y, por supuesto, una inusitada cantidad de energía (que analizaremos más tarde).
El único problema de la energía nuclear de fusión es tecnológico. Para fusionar dos átomos con carga parecida hacen falta temperaturas atronómicas (superiores a las del Sol; parecidas a las de una supernova), pues la repulsión electroestática establece que los polos iguales se repelen, mientras que los contrarios se igualan. Así, para unir el deuterio y el tritio, hace falta aislar las desmesuradas temperaturas del resto del mundo. No obstante, las últimas inveciones están apunto de lograrlo definitivamente.
Plasma rodeado por campos magnéticos
Las temperaturas tan elevadas cambian la materia de estado y la convierten en plasma (muy parecido a los relámpagos). Este plasma, si es rodeado convenientemente por una serie de campos magnéticos, se conseguiría separar la temperatura del interior del reactor, culminando definitivamente el sueño de la fusión. Si bien, algunas particulas de rayos X escaparían de los campos magnéticos calentando el entorno. Para esto, en torno a la reacción, se han construido unas paredes de acero de varios metros de grosos, con tuberias llenas de agua fría. Esto permite que el calor residual sea convertido rápidamente en vapor de agua y, a su vez, el vapor sirva para mover unas turbinas y generar la energía suficiente para mantener encendida la fusión. La reacción de fusión se mantiente, por tanto, por sí misma.
Los guarismos son lapidarios. Con un kilogramo de hidrógeno lograríamos en una hora, mediante fusión, más del triple de la energía producida por fisión en el mismo tiempo. Y lo que es más asombroso: la fusión lograría 28 veces más energía que la que se obtiene de forma solar y eólica. Es más, una única central de fusión doblaría la actual producción de energía total, como pueden observar en el gráfico de abajo.
*Los datos correspondientes al Carbón, Petróleo, G.Natural, Hidráulica, Fisión y Eólica y solar han sido extraídos del INE, y son la media de la producción de energía que se ha producido en una hora desde el año 1991 hasta el 2008 en España. Los datos correspondientes a la energía de fusión han sido estimados por ecuaciones concluyendo que: 1kg de H -> 70.000.000 KW/h; 1gr. de H -> 173.000 KW/h.
Para entender mejor ciertas ideas que tengo sobre este asunto presento una comparación entre mis ideas y dos postulados básicos de la lógica aristotélica.
1er postulado de la lógica de Aristóteles: cualquier cosa que es pensada puede ser
2do postulado de la lógica de Aristóteles: cualquier cosa que es puede ser pensada
El primer axioma que presento en esta entrada es cualquier cosa puede ser cierta, dentro de lo posible. Para poder entender esto solo hace falta estudiar física contemporánea, y ya que las probabilidades de que ocurra un evento nunca son 0% y el espacio es «infinito» siempre existe la posibilidad de que ocurra un evento siempre y cuando no vaya en contra de las leyes de la física imperantes en este universo. También es cierto que existen ciertas excepciones a las reglas, pero se desconoce si existen leyes sin excepciones, y por otra parte las excepciones solo se aplican a un número determinado de eventos u objetos.
El segundo axioma que presento es cualquier cosa puede ser pensada pero no siempre entendida. En este punto quisiera hacer una especulación y decir que es posible que quizás en algún momento de la evolución el ser humano conozca casi todo el universo, pero antes de eso, en el presente, el ser humano no comprende bien todas las leyes que rigen el universo, además el conocimiento del ser humano casi siempre se ha visto limitado y hay cosas que quizás la ciencia nunca explique. Sin embargo lo mas probable es que se puede especular sobre eso.
Y el tercer axioma es la palabra imposible tiene significado, pero solo dentro de un determinado campo referencial. La palabra «imposible» como contrario de «posible» significa para mí que algo tiene 0% de probabilidades de ocurrir, sencillamente porque las relaciones entre los objetos y las leyes que los regulan, impiden necesariamente que tengan un comportamiento distinto dentro de un marco referencial. Pero yendo mas lejos existe la posibilidad de que los objetos en un marco distinto se comporten de manera distinta. Por ejemplo el sentido común dice que «las cosas no se caen hacia arriba» pero un una nave interestelar existe la posibilidad de que un objeto salga disparado, por falta de gravedad.
No obstante, alguien me podría decir: ¿suena posible que 2+2 sea 3? Evidentemente que si: existe la posibilidad de que en un mundo paralelo le digan “3″ al “4″ y “4″ al “3″. Esto puede ser verdad. Sin embargo si se refiere al concepto yo podría decir que el referente en este caso es la verdad lógica que radica en su propia mente. Por tanto, el nombre o apariencia del concepto es superfluo, mientras que el concepto en sí o esencia es lo verdaderamente importante, y a lo que yo he hecho referencia en ese post.
Hace unas semanas me compré el nuevo libro, publicado hace un mes, en España, de Stephen Hawking, titulado El gran diseño. Anteriormente, ya había leído algo de este insigne autor, pero he de reconocer que éste último libro me ha parecido mucho más simple, ameno y divulgativo. Desde su primer libro, Breve historia del tiempo, Stephen ha sufrifo una evolución, de más complejidad (al principio se iba un poco por las ramas) a más simple (de querer explicarlo todo como si a su abuela fuese).
Centrándonos en el libro que comento, consta de unos 9 capítulos, los cuales, presentan una estructura lineal (es decir, que parten de un conocimiento básico x que se va ampliando por capítulos: x+1, x+2, etc.), lo que quiere decir que si te lees el último al principio, no entenderás nada. Comienza con un pequeño repaso de la historia del pensamiento (Descartes, Ptolomeo, Maxwel, Einstein, etc.), en la que no duda en afirmar que «la filosofía ha muerto y su sucedánea es la ciencia».
A medida que avanzamos, los conceptos se van haciendo más abstractos (que no el lenguaje). Realiza un análisis filosófico del conocimiento y las teorías científicas, concluyendo que: 1) no hay realidad independiente al observador y 2) diversas teorías se unen entre sí para explicar el funcionamiento del universo, lo que ocurre es que cada teoría es válida en un ámbito particular.
Posteriormente, ya impregnados de la filosofía de Hawking y la historia de la ciencia, inicia otro capítulo en el que explica extraordinariamente bien la mecánica cuántica; teoría según la cual una partícula puede estar en todos los lugares del universo al mismo tiempo, muy novedosa, demostrada en observaciones y muy prometedora en el futuro. Luego se centra en los problemas de la teoría M y las 11 dimensiones, así como el problema del origen del universo (según los experimentos, en los inicios del universo, éste creció a una velocidad mayor a la de la luz -etapa de inflación-, lo que contradice a la teoría einsteniana de la relatividad, por eso se dice que Einstein no tuvo razón en todo el universo).
Por último, concluye con un cierto misticismo al intentar responder a, no cómo funciona el universo, sino por qué funciona así. Hawking, aunque no lo deja del todo claro, afirma que el universo no ha sido creado, pues hay 10^500 universos, que se destruyen y crean rápidamente e, incluso, cabe la posibilidad de que sean cíclicos. Además, afirma que para crear un objeto hace falta muchísima energía. Lo que significa que la materia no puede surgir de la nada, sino del propio universo. Hay que decir, que el revuelo formado días antes de la publicación de la obra no se corresponde, al menos en cierta medida, con el libro. Aunque, si hace alusiones constantes a la religión, para avergonzarla.
En definitiva, un buen libro del divulgación, pero no de ensayo profundo, pues realiza un recorrido por múltiples conceptos (supregravedad, multiverso, quarks, mecánica cuántica, etc.) sin profundizar demasiado en ninguno.
Los sentidos, las emociones, nos embargan. Nuestra consciencia se alimenta de inconsciencia. El corazón tiene razones que la razón no entiende. Las primeras impresiones, aunque no lo queramos reconocer, son las únicas.
Queda muy bien formalizar, despojarnos de la subjetividad, de nuestra individualidad. Pero, ¿debemos callar de nosotros, debemos objetivizar, como Kant quería?
Digo esto, porque en el ser humano las emociones irradian a borbollones en cualquier ámbito que pueda imaginarse y, póngase como se ponga, somos un animal. Y, como todo animal, somos marionetas a manos de nuestros instintos, de las emociones. Y el instinto de supervivencia es el que subyace tras la dinámica del resto de comportamientos inherentes (amor, rabia, búsqueda de la felicidad, diversión, …).
Por ejemplo, en las disciplinas que se caracterizan por la objetividad, por la búsqueda de la verdad, (historia, filosofía, física, química, economía, etc.)aunque aparentemente estén libres de toda inconsciencia, de toda subjetividad, eso es, sencillamente imposible. Por ejemplo, la física: en física, no sólo se tiene en cuenta el mundo en si (que, dicho sea de paso, es imposible observar), sino el sujeto que recibe las impresiones del mundo; es decir, no estudia los fenómenos tal y como son, sino tal y como los vemos, que es muy diferente. Y, fíjense, que he puesto como ejemplo una de las disciplinas más objetivas que existen actualmente (física): con los demás campos, mucho más de lo mismo.
Pero aquí es donde radica el aspecto fundamental del ser humano, la intersección entre objetividad y subjetividad: el gregarismo. En los sentimientos, el hombre necesita del hombre mismo: he aquí el instinto de relación social, de búsqueda del ser amado, instinto paternal, querer a la familia, etc. Bien, pues en cualquier otro estadio de la historia, momento de la vida, intersticio o ámbito de conocimiento, acontecerá exactamente lo mismo: necesidad de apoyo, complicidad, parecerse a los demás, mimetismo, etc.
Volvamos a las ciencias, al saber objetivo. Un conocimiento científico, no es aceptado hasta que una gran parte de la comunidad (científica y pública) lo acepta. La verdad, por tanto, se sustenta en lo público, jamás en lo privado. Ahora bien, y esta es una de las paradojas más dolorosas, la certeza de una afirmación no implica, necesariamente, el reconocimiento de ésta. ¡Cuántas teorías habrán sido demonizadas, siendo ciertas! Personalmente, éste es el epicentro del ser humano: la dialéctica entre la verdad en sí y la verdad reconocida, la que es pública, pues, además, la verdad que es publicada no implica, necesariamente, que sea cierta. ¡Cuántas afirmaciones se darán por apodícticas (necesariamente ciertas), cuando, en realidad, son falaces!
Por tanto, para que en el conocimiento se produzca justicia se tienen que cumplir dos condiciones (una objetiva y otra subjetiva), independientes entre sí; debe de producirse la susodicha intersección. La primera que la afirmación sea cierta y, la segunda, que la afirmación sea conocida, reconocida y compartida por los demás. Da igual que hayas pasado toda una vida aprendiendo que «dos más dos igual cuatro» y que lo tengas demostrado en inumerables páginas, que si, por desgracia, un gran número de personas se empecina en que «dos más dos igual uno», habrás perdido y la verdad, se convertirá en falacia. Entonces, en caso de que se produzcan disonancias entre verdad en sí y verdad pública ¿hay que defender la verdad o hay que sumarse al incosciente colectivo, cumplir uno de los instintos más arraigados en la especie humana: la intersubjetividad? O, dicho de otro modo ¿hay que someterse a los instintos como animal que somos o, por el contrario, debemos de utilizar nuestra capacidad para inhibirlos y defender nuestra verdad, por muy egregia que resulte?
La ciencia de lo inseguro –vaya oxímoron– se ha convertido en la distribuidora más importante del conocimiento del siglo XXI. Hoy no hay ninguna afirmación que contenga un porcentaje de probabilidad, hablemos de física cuántica o de juegos de cartas; el azar reina: lo inseguro es lo más seguro. Pero lo más grave de todo es que toda la estadística parte de una soberbia premisa, aceptada por casi todo el mundo: el azar existe en sí. Pero, realmente, esto es incierto. Por eso, en primer lugar, hablaré, en términos teóricos, de la imposibilidad de la independencia del azar al hombre.
Propongo el siguiente ejercicio: imaginemos dos cajas de zapatos volcadas en el suelo. Una de ellas está vacía y, la otra, oculta un balón. Podría decirse que hay un 50% de posibilidades de que la caja A contenga el balón y un 50% de que la caja B contenga el balón. Pero, ¿es realmente así? ¿No sería más cierto decir que en una caja hay un 100% de que contenga la bola y, en la otra, un 0%? En sí lo cierto es lo último, pero el ser humano no conoce dónde está la bola y, por tanto, debe trabajar con lo que conoce (o, mejor dicho, con lo que desconoce). Por tanto, hay un gran error al considerar que el azar está en la Naturaleza misma cuando no es así.
"Dios no juega a los dados"
Para explicar esto con más rigor es necesario que nos adentremos en el mundo de la física cuántica. Los defensores del azar se escudan en esta ciencia, para demostrar que el azar es natural. El principio de incertidumbre de Heisenberg establece que es imposible conocer con exactitud la posición y la velocidad de una partícula subatómica. Además, que cuanto más se conozca de la velocidad, menos se conocerá de la posición y viceversa. ¿Por qué? Porque el observador, mientras estudia la partícula, esta interfiriendo y la distorsiona, con lo que su trayectoria cambia. Por eso, la probabilidad está en la física cuántica: el hombre no puede conocer con exactitud una parte de la realidad. Ahora bien, el observador es independiente al elemento observado y, por tanto, el azar se da en el hombre y no en otra cosa. Sin embargo, hay todavía personas (y periódicos) que tienen la actitud recalcitrante de intentar contradecir a Einstein.
Por consiguiente, en rigor, la probabilidad nos permite conocer, de antemano, los resultados de un experimento del cual desconocemos alguna variable. Ésta es la teoría de la variable desconocida. Resulta imposible determinar, de forma segura, resultados como el lanzamiento de una moneda, un dado, predecir la primera carta que hay en una baraja. Porque en nuestros estudios siempre nos faltarán demasiados datos como, por ejemplo, la velocidad, el peso, el efecto, la velocidad del aire, la dirección y un indescifrable etcétera. En definitiva, la estadística juega con el desconocimiento del hombre, no con la incertidumbre de la Naturaleza. El que no crea esto, es demasiado arrogante como para considerar inferior la Naturaleza al hombre. La conclusión lógica es que el azar no existe en sí, sino en nuestro entendimiento o, si se prefiere, en nuestra intuición. Ma las probabilidad es la racionalización de la ignorancia humana.
Decía Nietzsche que todos los grandes genios son aquellos que no creen en el azar, y no le falta razón. En efecto, una gran cantidad de insignes personalidades del conocimiento han tenido sus reticencias a la hora de creerse la jerga probabilística. Si hacemos caso a sus palabras, la actual sociedad presenta una decadencia misérrima: el mundo gira –y cada vez más- en torno al azar. La estadística está in crescendo cuando debería ser, naturalmente, todo lo contrario. En realidad, las cosas –independientes a la opinión– siguen un único camino. Einstein estaba convencido de ello y por eso ha sido –y sigue siendo– muy criticado por no aceptar el azar como algo existente en la Naturaleza. Hasta el empalago ha sido repetida la frase “Dios no juega a los dados”.
El parecido con la realidad es coincidencia
Todo se ha contaminado de un tufillo estadístico. El INE y el CIS nutren de información, cocinada a veces, a todos los periódicos, revistas e informativos. Encuestas, estudios, inferencias. Veamos lo que permanece oculto tras una afirmación del siguiente tipo: “El 55% de la población es partidaria de la abolición de la tauromaquia”. Ante todo, hay que decir que aquí hay una peligrosa generalización: a partir de una muestra del número deseado de individuos (generalmente, en España, no suelen superar el millar) se elabora una información que se aplica el resto de la población. Ojo al dato: lo que piensan mil personas es idéntico a lo que piensan más de cuarenta y cinco millones. ¡Qué eficiencia! Ahora bien, todo esto suponiendo que esas mil personas han contestado verazmente. Porque es bien conocido que una proporción bastante notoria de los encuestados miente. Si ya estos dos hechos echan por tierra la credibilidad de la inferencia, añadamos otro hecho: el de la estacionalidad. Los estudios estadísticos sociológicos tienen como objeto –casi siempre– conocer la opinión de la población acerca de algo; pero –como sabrán los neurocientíficos– nuestro cerebro está preparado para cambiar de opinión constantemente, así que lo que hoy se piensa, mañana puede no pensarse. Por ejemplo, en las encuestas acerca de la situación económica, cuando se realizan en verano, suelen dar índices de credibilidad más altos. No porque la situación realmente mejore, sino porque en verano aumentan los niveles de dopamina y se cobra el salario extra. Sin embargo, la inferencia estadística sigue reinando en todos los ámbitos, dándose por veraces sus afirmaciones, cuando perfectamente pueden ser contrarias a la realidad.
No solamente son inexactas e inciertas las afirmaciones estadísticas, sino que influyen en la población, cambiando la opinión de toda ella. Por ejemplo, es habitual en la publicidad oír: “El 90% de las familias recomiendan el producto”. Esto, que necesariamente es inexacto en miríadas, hace que los receptores se lo crean y –posiblemente– compren el producto. Asimismo, sucede con las encuestas relativas a la política y no es de extrañar que más de un gobierno haya manipulado las encuestas con tal de obtener réditos electorales.
Aquí también toma partida la mercadotecnia. Siempre se busca la forma de hacer el estudio, los encuestados adecuados, la formulación a la pregunta adecuada para que el estudio salga muy parecido a lo que la empresa quiere. Además, la forma de informar sobre el estudio también influye: una empresa nunca dirá: «3 de cada 8 personas están descontentas»; «siempre dirá: 5 de cada 8 personas afirman estar muy felices con este maravilloso producto».
En resolución, aceptando que el azar es creado por el hombre para que sus predicciones sobre algo desconocido sean más exactas caben dos posturas. La primera consiste en intentar descubrir todas las variables posibles, como el principio de incertidumbre. La segunda son los estudios de la estadística inferencial que se realizan por falta de tiempo o por que, de incluirse todas las variables, el estudio sería muy costoso. No obstante, la última postura se le da una credibilidad muy superior a la que, en realidad, tiene. El conocimiento con la probabilidad ya no es lo que era: la probabilidad ha pasado de ser la racionalización de la ignorancia invencible a la racionalización de la ignorancia vencible. Y esto ha supuesto una defensa tácita de la ignorancia. Algo inexacto pasa por algo exacto, estudiado y racionalizado. Esto va desgastando poco a poco la veracidad hasta el punto de que estemos sumergidos en un mundo muy diferente al que realmente es: el mito de la caverna.
Para comprender la realidad física al más alto nivel hay que saber distinguir entre el vacío y la nada. El vacío es un espacio donde no hay espacio, valga la redundancia, pero que realmente existe. La nada es un no-espacio donde no hay espacio y no existe realmente.
Todos estamos compuestos de vacío, el 99,99 por ciento de nuestra materia es vacío. Este vacío es el espacio que existe entre los electrones de un átomo y el núcleo. Este vacío es del 99,99 por ciento, pero si hay tanto vacío, ¿por qué cuando tocamos algo no lo atravesamos?. En realidad, nunca tocamos nada siempre existe un espacio mínimo de separación entre los distintos átomos. Los electrones cuando entran en contacto con otro átomo distinto actúan por electromagnetismo para separase. Por esto, nunca podemos llegar a tocar nada y, en consecuencia, nunca podremos atravesarlo. Ahora parece que también nos engaña el tacto…
Ahora hablemos del espacio. Sea este infinito o finito, con límites o sin límites o las diferentes combinaciones, el universo es isótropo, es decir, si nos alejamos varios millones de años luz y vemos el universo a gran escala nos daremos perfecta cuente de que está organizado de la misma forma. Esta misma isotropía se caracteriza a nivel atómico. Los átomos nos recuerdan a los sitemas solares con los electrones girando en trono al núclero. Además la organización atómica es igual de isótropa que la organización del cosmos a gran escala. Vemos que en el universo los extremos se «juntan».
Quizá sea este uno de los grandes avanzes que nos esperan en el futuro. La materalización realista de esta idea, sería sin duda la nueva revolución en la vida de los humanos y en el mundo de la tecnología.
El ordenador cuántico es una idea totalmente novedosa y grandiosa. No funciona por sistema binario, el funcionamiento es muchísimo más complejo por lo que el desarrollo de este no estará hasta dentro de 30 ó 40 años.
El ordenador cuántico estaría compuesto de qubits en vez de bits. Un qubit, es la unidad mínima de información cuántica y que puede tener cuatro estados a la vez. Se puede representar así:
Los qubits permitirían algoritmos (ordenes, e instrucciones y procesos) nuevos, de mayor calidad y muchísimo más rápidos. Una empresa canadiense presentó el 13 de Febrero de 2007 el primer ordenador cuántico de 6-qubits.
Origen
La computación cuántica tiene su origen en las limitaciones de la computación actual.
La computación actual ha ido mejorando progresivamente gracias a que se podían construir chips cada vez más pequeños. Estos chips se podían reducir bastante, pero no de forma ilimitada ya que cuando son inferiores a los 10 nanómetros dejan de funcionar. Por tanto, la computación actual es limitada y llegaría un momento en que no mejoraría.
Cuando se descubrió este problema, surgió una respuesta: un científico relacionó la computación con las leyes cuánticas y Eureka: surgió así la computación cuántica que permite que un qubit tenga 4 estados al mismo tiempo (puede ser 01, 00, 11, 10 al mismo tiempo) en vez de un solo estado. Esto aceleraría el ordenador exponecialmente. Por ejemplo, un ordenador de 16-qubits multiplicaría por 10 al mejor superordenador normal del mundo actual. Imagínese un ordenador de 1 gigaqubits (1 millón de qubits), realmente impresionante ¿verdad?
Problemas del ordenador cuántico
Esto de tener cuatro estados al mismo tiempo, es muy beneficioso pero también está causando algunos problemas ya que los estados cambian contínuamente y se podría perder información con un mínimo fallo. La probabilidad de este fallo es pequeña (1/10000) pero esto causaría que en determinados algoritmos no se pudiera volver atrás. Actualmente, se están estudiando nuevas formas de solucionar estos problemas. Una de las soluciones es utilizar un corrector de qubits.
Estoy tremendamente agradecido por esas 5000 visitas y porque nuestro blog no para de crecer. Asimismo, añadir que lo mismo que visitáis la página principal y las mejores entradas, que visitéis las secciones donde se encuentran los mejores entradad seleccionadas para que las leáis.
Para agradeceros esto, os voy a obsequiar con una lista de las próximas novedades que incluiré en el blog de aquí a Mayo:
Posibilidad de acceso a nuevos escritores: sí, todo el que quiera puede escribir en el blog
Creación de un programa de radio tipo podcast donde se opinará de los temas de actualidad. También será conjunto con einoo y se colgará en ambos blogs.
Nuevas y prometedoras descargas
Asimismo, quiero también nombrar las próximas entradas que tengo pendientes para escribir (solo pongo una parte de las que pienso, para hacer esto más interesante):
Crítica a la política y justicia española en profundidad así como una exposición de las reformas que yo pondría en marcha
Exposición de una teoría físico-filosófica sobre la materia y las personas
Nuevos gráficos de estadísticas de España. Próximamente paro
Una mente maravillosa: esta es la película que más me ha gustado de todas las que he visto a lo largo de mi vida, con difierencia. Creo que es la única que me provocó alguna lágrima.
Se trata de la biografía sobre John Nash, uno de los grandes genios modernos, estupenda que nos muestra la gran habilidad que tuvo John para curarse él solo, sin ninguna ayuda, de esquizofrenia. Trata sobre las aspiraciones, desencuetros, encuentros de este gran genio real que tuvo un gran impacto en la economía actual, creando la teoría de juegos económicos. En mi opinión, creo que es la película más íntegra que he visto en mi vida además cuenta con una gran visión global ya que hace referencia a casi todos los aspectos de la persona y las personas.
Recomiendo, muy encarecidamente, que el que no la haya visto todavía la vea y me comente que tal le ha parecido.