El dia que deje de Creer en el CERN.

En 1989, entre en mi primer Laboratorio profesional.

En 1992, presente mi primera solicitud de Patente (Estaba llena de ecuaciones, datos físicos, justo lo que no hay que hacer, así te lo copian todo, luego lo supe).

En 1995, recibí mi primera concesión de Patente internacional en la multinacional en que trabajaba, no me lo podia creer.

En 2005, recibí el ultimo notable de los últimos créditos de mi doctorado (las antiguas ingenierías superiores, antes de Bolonia), tras varias matriculas de honor en temas de matemáticas y procesado de señales en los anteriores créditos.

……………………….

He detectado gente en ‘la ciencia’ que miente sabiéndolo (Por ocupar puestos de gran poder en proyectos internacionales de mucho dinero, total, ¿Quien les va a ir en contra?, ellos son ‘los gurus’), miente sin saberlo (Seguramente, por temas personales de megalomania o afán de notoriedad internacional).

Pero lo que mas me ha llamado la atención siempre, no son los casos individuales (A sabiendas, egos, o mentiras autocreidas), sino los ‘mainstreaming’.

Mentiras creadas desde la máxima cúpula de poder, diseminadas como ‘verdad’ o ‘dogma’ a toda la ‘comunidad científica’,  y aceptadas , a sabiendas de su falsedad, por esa ‘comunidad científica’.

No solo ‘aceptada’, sino que los mismos que saben que 2 y 2 son 4, te dicen que son ‘5’.

Es como en la obra de 1984 de George Orwell:

‘¿Cuantos dedos ves?’, ‘4 , decía Whinston Smith, sus ojos veían 4’.

‘Whinston, estas enfermo, debes ver 5, hay 5 dedos’  le decía su ‘educador’.

‘Tras semanas de torturas, sus ojos le daban 5 dedos’.

Y , delante de ti, se niegan a sacar los dedos de su mano y contar.

………………..

Disculpad la introducción pesada, pero lo del CERN y los neutrinos hiperluminicos, me ha provocado una profunda decepción, yo creía en el CERN.

Y creía en los profesores de Física, en los licenciados, que no han conseguido sus títulos por ‘gracia divina’,  sino luchando contra los principios y ecuaciones, como yo.

Este post, va a ser largo, ahora solo pongo el inicio, esta breve introducción.

Espero  vuestra ayuda. Es un tema MUY importante.

El autentico tesoro de la humanidad, es el conocimiento.

Y su prostitución, su robo, simple y llano, en las mas altas instancias, es por eso , para mi, vital.

Mas que todas las primas de riesgo, mas que los ratings que da  S&P, que el mismo papel dinero de todo el planeta.

En mi opinión profesional, lo del CERN ha sido un golpe de estado, son mentiras de un nivel de Burdez similar a las películas de Steven Spielberg, ajenas a todo nivel profesional.

Es muy largo de explicar, sobre todo si no se sabe nada de comunicaciones (Entre otras, ópticas).

Saludos.

······························································

For what a man had rather were true he more readily believes. 

Therefore he rejects :

  • difficult things from impatience of research;
  • sober things, because they narrow hope;
  • the deeper things of nature, from superstition;
  • the light of experience, from arrogance and pride;
  • things not commonly believed, out of deference to the opinion of the vulgar.

Numberless in short are the ways, and some sometimes imperceptible, in which the affections color and infect the understanding.  [Francis Bacon]

______________________________________________________________

La obra de cine Koyaanisqatsi, de 1982 dirigida por Godfrey Reggio, forma parte de un conjunto dedicado a este mundo nuestro , lleno de poder.

El precioso problema de las definiciones.

Desde 1982, cuando por primera vez lei en un viejo numero de ‘La Recherche’ al que entonces estaba subscrito, sobre los experimentos de Orly, con fotones emparejados, esa idea no se ha ido de mi mente.

¿que une a dos partículas o sistemas emparejados?.

La definición ortodoxa de la interpretación de Copenhaguen, es clara, un sistema es un sistema mientras nadie lo observe, o no interactue con otro sistema (De-coherencia).

Pero claro, entonces sale la paradoja E.P.R., y lo que es ‘peor’, luego salio John Bell, y ,,,,,,,,,

Por eso he decidido llamar a esta categoría, ‘Mecánica Cuántica, El vértigo’.

Porque sus predicciones, comprobadas al mil por mil experimentalmente, dan vértigo.

Y por eso el titulo del actual post.

Son las definiciones axiomáticas de Copenagüe, las que llevan a cosas , simplemente, maravillosas.

Y experimentalmente, Einstein estaba equivocado.

Es patético leer a un relativista (Es algo parecido a una religión, al menos en el modo en que este tipo de ‘científicos’  reacciona en temas que le puede tocar su ‘fe’) cuando se le habla de estos temas, desde el estricto rigor de la QM, diciendo que ‘eso no invalida a Einstein’.

No voy a entrar en esa batalla.

Uno de los últimos trabajos en esta linea,  el último (19-10-2011) por mi conocido (Soy poca cosa en esto de ‘estar en la ola’)  es un trabajo teórico, pero de gran carga de profundidad.

El trabajo tiene por titulo:

Quantum nonlocality based on finite-speed causal influences leads to superluminal signaling

Sus autores son:

  • Jean-Daniel Bancal,1 Stefano Pironio,2 Antonio Acín,3, 4 Yeong-Cherng Liang,1 Valerio Scarani,5, 6 and Nicolas Gisin1

Esta en arxis:

———————————————————————————–

Bien, ¿Que tiene de especial este trabajo?.

Por un lado, uno de sus autores (Nicolas Gisin) ha sido de los pocos que ha abordado este tema (El emparejamiento) de un modo, yo diría, de buena ciencia.

Experimental.

Él ha medido cotas mínimas a una hipotética velocidad de información cuántica entre pares.

Ya lo hizo en el año 2004 con su majo trabajo :

“¿How come the correlations?”

En donde presentaba los resultados de medidas hechas con medios muy modestos (10 kilómetros de fibra óptica cedida por swistelecom).

Entre 10.000 y 10.000.000 veces ‘c’ eran las cotas mínimas de la hipotética ‘velocidad de transferencia de información cuántica entre pares entrelazados.

Tremendo.

Simplemente, salia de los errores máximos en la medida del tiempo en ambos extremos (5 picosegundos) y de la distancia (10 kilómetros).

Este hombre, terminaba ese majo trabajo con una frase que , sinceramente, encajo con lo que desde 1982 he sentido:

“The question “How come the Correlation?” is not part of mainstream physics. But I  strongly believe that it is one of the most – possibly the most – important for physics today.”

Si, el vértigo de lo que dice la mecánica cuántica sobre lo que es la realidad.

Pues bien, el presente trabajo va en esa linea, pero a nivel teórico.

Parte de la hipótesis de que existe una comunicación entre pares entrelazados, a velocidad finita, aunque sea superluminica.

Como bien se sabe, los relativistas , tras ver caer a su ídolo al fallar la paradoja EPR, dijeron:

No, Einstein sigue valiendo, solo que ahora solo aceptamos informacion como algo entre humanos, no entre partículas’.

Bien, patética escapatoria.

Pues este trabajo apunta a esa linea de flotación.

Plantea un protocolo de medidas entre pares entrelazados, de tal modo que, si lo que une a las partículas entrelazadas, es una comunicación causal, con velocidad finita, aunque sea mayor que ‘c’, pero finita, entonces, PUEDE crearse un sistema de transmisión de señales hiperluminica, de uso humano.

Dicho por ellos mismos:

Conclusion:

We have shown that if the non-local ef ects that we observe in Bell experiments were due to hidden influences propagating at any finite speed, then non-locality could be exploited for superluminal communication”

Obviamente, si ello es imposible (Por la relatividad general) la alternativa es que el espacio y el tiempo, no existen, o hay algo fuera de ellos, que une a las partículas entrelazadas.

Como ellos mismos dicen al final:

“This work illustrates the dificulty to modify quantum
physics while maintaining no-signaling. If we want to
keep no-signalling, it shows that quantum non-locality
must necessarily relate discontinuously parts of the uni-
verse that are arbitrarily distant. This gives further
weight to the idea that quantum correlations somehow
arise from outside spacetime, in the sense that no story
in space and time can describe how they occur.”

Este es el vertigo.

En mas de 30 años, no he visto ningún trabajo que mida si esas correlaciones varían, experimentalmente, con algo conocido (Campos electromagnéticos, fuerza nuclear, etc).

Teóricamente (Y a día de hoy comprobado), nada les afecta.

El vértigo.

Saludos.

Tangerine Dream.

Estudios Experimentales de Fusion Fria en Bhabha Atomic Research Centre (BARC), 1990.

Este tema se que es una frontera divisoria.

Hace décadas que ‘se asume’ que es ‘ciencia patológica’ todo lo relacionado con la ‘fusión fria’.

Sin embargo, es  aceptado como ‘ciencia sana’ ciertos procesos capaces de disparar la fusión de hidrógeno, incluso de producir neutrones, siempre que no suponga una fuente de energía:

Por ejemplo, en cristales con piroelectricidad:

Observation of nuclear fusion driven by a pyroelectric crystal
(Nature, 30-3-2005).

O  en base a calentamiento ultra-alto (Millones de grados) mediante corriente de alta frecuencia, aprovechando el efecto pelicular del metal (La famosa maquina Z de los laboratorios Sandia) :

Para aprender más sobre la máquina-Z:

http://www.jp-petit.org/Site_Anglais/Z_machine/Z_machine.htm

Y recomiendo encarecidamente, el libro:

ITER:  Crónica de un desastre anunciado

Autor:        Jean-Pierre Petit
Ex-director de investigaciones en el CNRS
Físico de plasmas, especialista en MHD

————————-

Pero hay multitud de trabajos que, desde 1990, han estado saliendo en este tema.

Vamos a tratar de traer, solo los que ofrezcan un mínimo de credibilidad, por razones obvias.

Y el primero, es un resumen de ponencias experimentales desarrolladas en el año 1990 en el principal centro de investigación nuclear Indio.

El Bhabha Atomic Research Centre (BARC), fundado por Homi Jehangir Bhabha en India, en Marzo de 1944.

El informe, con titulo:    OVERVIEW OF BARC STUDIES IN COLD FUSION,   recoge dos tipos de experimentos.

  1. PART A: ELECTROLYTIC STUDIES
  2. PART B: D2 GAS LOADING EXPERIMENTS

Las conclusiones, las podéis leer:

“CONCLUSIONS
Experiments carried out by a number of totally independent groups employing diverse experimental set ups have unambiguously confirmed the production of neutrons and tritium both in electrolytically loaded and gas loaded Pd/Ti lattices.”

————————————————-

Saludos:

OVERVIEW OF BARC STUDIES IN COLD FUSION
P. K. Iyengar .  Atomic Energy Commission CSM Marg, Bombay 400 039, India
and
M. Srinivasan.   Neutron Physics Division
Bhabha Atomic Research Centre
Trombay, Bombay 400 085, India


Millones de planetas y tierras ahí fuera. La grandeza de la velocidad radial.

La noticia la acabo de ver, lo reconozco (No estoy en ‘la onda’ de ciencia), primero, en un simple medio normal:

http://www.elmundo.es/elmundo/2012/03/28/ciencia/1332929232.html

Después, directamente, del servidor del ESO ( European Southern Observatory ).

http://www.eso.org/public/news/eso1214/

Es prodigioso.

Billones de planetas rocosos en zonas habitables (Las órbitas que no están tan lejos como para que el agua no pueda estar en estado liquido, pero no demasiado cerca como para entrar a ser un planeta tipo Venus, con un efecto invernadero tremendo), alrededor de ‘estrellas  rojas débiles’  (Enanas rojas).

El observatorio real esta en Chile , y el instrumento usado ha sido el HARPS, es decir,’High Accuracy Radial velocity Planet Searcher’.

Es un medidor de velocidad radial de los planetas, de gran precisión.

Como recordamos de física elemental, de un objeto que gira alrededor de otro, pueden expresarse dos magnitudes:

.- Velocidad Tangencial.

  • La velocidad (En metros/segundo en el sistema M.K.S.) perpendicular al radio de giro. En el caso elemental de un tiovivo, serian los metros/segundo que un niño quieto en un caballito, recorre por el giro del tiovivo.

.- Velocidad Radial.

  • Es la debida al alejamiento/acercamiento entre el objeto que gira, y el centro de giro.  En el caso del Tiovivo, si el niño se aleja/acerca al centro, tiene velocidad radial.

Ese tipo de movimiento del planeta, altera el espectro de emisión de la estrella, no solo en intensidad (Que ya es una vieja técnica de detección de planetas, eso también lo hace la velocidad tangencial, tapando la luz de la estrella), sino en frecuencia (Basado en el efecto Doppler, a fin de cuentas, la luz de la estrella, reflejada en el planeta que se mueve alejándose/acercándose a la estrella, es velocidad radial, nos envía  un espectro que va variando en frecuencia, como si tuviéramos una sirena de frecuencia constante, y a su alrededor, un camión que gira y se aleja/acerca a la sirena, nos llegaría un espectro fundamental, de la sirena, mas uno que ciclicamente, varia en frecuencia.

  1.  Su variación en frecuencia nos informa del periodo de giro.
  2. Su intensidad relativa, la superficie eficaz (Tamaño y reflectividad) del objeto, es decir, del planeta.

————————————————————————————

La verdad es que las características de este equipo , el HARPS, son impresionantes:

.- Es una parábola de rango óptico tipo Cassegrain  (3.6 metros, en rango óptico, una grandisima ganancia, del orden de área/landa^2), cuyo foco va a dos  fibras ópticas, que acaban  en dos detectores CCD (4000x4000x 15 micras de pixels, unos 16 Megapixels, cada uno de 15 micras de tamaño).

.- La espectrometria, la realiza en la banda de 378nm a  691nm  (Banda óptica y violeta, no es infrarrojo, supongo, para no ser ‘cegados’ por la  intensidad en infrarrojo de la estrella).

.- Es capaz de detectar velocidades radiales de 1 metro/segundo.

Supongo que la clave es enviar el espectro que nos llega SOLO de la zona de la estrella y su sistema solar (De ahí la pequeña apertura, de solo un segundo de arco, del HARPS , “The two HARPS fibres (object + sky or Th-Ar) have an aperture on the sky of 1”) a un sistema de interferencia con fuentes de frecuencia patron (One of the two fibres collects the star light, while the second is used to either record simultaneously a Th-Ar reference spectrum or the background sky) y de su interferencia (Batido, correlación cruzada de espectros) sacar la diferencia ‘doppler’ causada por el alejamiento/acercamiento del planeta.

Ese batido (De Ghz a Hz de frecuencia, la clave es la estabilidad de la frecuencia patrón,  fuente de Torio-Argon, Th-Ar),  nos da la ‘velocidad radial’, y por tanto, el planeta.

Este articulo lo estoy sacando rápidamente, y lamento los posibles errores (Seguros) que estoy incluyendo, pero os pongo un enlace a lo mas importante, como es ese instrumento, y lo que consigue:

http://www.eso.org/sci/facilities/lasilla/instruments/harps/overview.html

Saludos, y sueño con disponer de una nave donde poder visitarlos.

Algo elemental a propósito de ello.

Brian Eno, Stars.

Claude Elwood Shannon, y Konrad Zuse.

Hay un campo de la ciencia, que esta por encima de nuestra normal percepción del mundo.

Es el campo que estudia la información.

La información, no pertenece al espacio, no pertenece al tiempo, aunque, a día de hoy, necesitamos propiedades de lo que conocemos como materia, para ‘asociar’, ‘fijar’ , ese bit, a ciertos parámetros ‘materiales’.

Energía, polarización, carga eléctrica (Energía a fin de cuentas).

Hoy traigo dos hombres que fueron absolutos creadores en este campo, que, creo, es la autentica promesa del conocimiento humano (Es al que realmente apunta la teoría mas poderosa que tenemos, la Mecánica Cuántica).

Uno de ellos es muy conocido , el otro , no tanto.

El trabajo que traigo es muy breve, pues no dispongo de mucho tiempo, pero son personajes, y documentos, absolutamente históricos.

Claude Elwood Shannon (April 30, 1916 – February 24, 2001) creo, que yo sepa, las primeras bases teóricas de la teoría de la información.

Corrian los años de la WWII, y había multitud de equipos de Radio (A base de las viejas lamparas) con viejos sistemas de modulación como la Amplitud Modulada (A.M., como las actuales radios de R.N.E. en 585 Khz en España, u otras, aun, en Onda corta, por todo el mundo).

Era un sistema simple (Mas potencia, mas señal, la amplitud de la emisión es linealmente proporcional a la señal a transmitir) conceptualmente, fácil de realizar con la tecnología de entonces, fácil de detectar  (Las viejas radios de Galena usaban esa modulación, solo un simple diodo se precisaba como elemento activo) y la calidad de sonido no era mala.

También acababa de ponerse en marcha una nueva idea, modular no la amplitud, sino la frecuencia (Frecuencia modulada).

Fue Edwin H. Armstrong (1936) quien registro la patente del sistema.

La principal ventaja era la muy superior calidad de sonido, a costa de mucho mayor ancho de banda usado.

Pero Claude E. Shannon, miraba mas allá.

Ya se sabia (Era simple cuestión de transformadas de Laplace, matemática de siglos pasados, que mira por donde, venían genial ahora),que si  la señal original usaba cierto ancho de banda (BW_original), con A.M. (Amplitud modulada) lo que salia a antena, usaba el doble (2·BW_original).

En F.M., dependiendo de la calidad de sonido deseada, se podía llegar a 10 veces

Obviamente, ‘parecía’ haber una relación entre calidad y ancho de banda, intrínseca a la naturaleza.

¿Porqué?.

Las ecuaciones básicas, Laplace, correlaciones, etc. estaban claras, pero ¿Porque?.

Y entonces, empezaron a usarse los canales recién descubiertos (Modulacion AM, modulacion FM), para enviar, no voz, sino bits.

Y Ahí se dio de lleno con uno de los núcleos de la Teoría de la Información.

¿Cuantos bits como máximo se podían enviar por un canal lineal (Sin distorsiones no lineales) caracterizado por cierta relacion Señal/Ruido, y cierto Ancho de Banda?.

Fue Claude Elwood Shannon, quien dio con ello.

Absolutamente a nivel teórico, dando igual el tipo de modulación que se usara, Claude Elwood Shannon, supo demostrar cuantos bits, como máximo, podrían ir por ese ‘canal de información clásico’ (Lo de clasico lo indico para diferenciarlo de los modernos Quanticos, que otro día tratare de traer).

Aquí os traigo un documento histórico, la Tesis que Claude Elwood Shannon, como Estudiante del Massachusetts Institute of Technology, en 1940, fue presentada para conseguir el Grado de Master en Ciencias.

https://cienciaytiempo.files.wordpress.com/2012/03/shannon_thesis.pdf

Es grande (72 paginas) y creo que es mejor dejarlo como link.

Su tesis, (Tenia entonces 24 años, estaba en la plenitud del comienzo de la creación), no era su posterior trabajo, pero ya apuntaba.

Su titulo era: A SYMBOLIC ANALISIS OF RELAY AND SWITCHING CIRCUITS.

A Claude le gustaba la abstracción, estaba claro, era el aire en el que le gustaba volar.

Vamos con el otro hombre, un gran hombre.

Konrad Zuse (22 de junio de 1910 – 18 de diciembre de 1995).

Fue un Ingeniero Aleman, y un tremendo pionero de la Computación.

Supongo que todos habréis oído hablar del ENIAC, de la Maquina de Turing, etc.

De las arquitecturas Von Newmman, Harvad, etc.

Dudo que hayáis oído hablar de las maquinas de este hombre.

Este hombre, a base de Reles, construyo maquinas de palabras de 32 bits, en punto flotante, en los años previos y durante la WWII.

Con tamaños desde unas  30 hasta, mas adelante,  1000 ‘posiciones de memoria’.

32 Bits (Computador Z4), punto flotante (Computador Z3).

Algo simplemente impresionante, con Reles, tremendo.

Debo recordar que los primeros microporcesadores, de Punto FIJO, de 8 bits, salieron por el año 1970.

El Plankalkül, era un lenguaje algorítmico, desarrollado por Zuse, para independizar el lenguaje, del Hardware.

Lo creo entre 1945 y 1946.

El concepto de lenguaje, independiente de Hardware (Hasta entonces se había ‘programado’ a base de cablear los reles).

Lamento de momento no traer mas información sobre él, no dispongo de mucho tiempo.

Aquí lo tenéis mas recogido por otra persona (De la escuela universitaria de Informática U.P.M., madrid), al que agradezco su trabajo:

http://www.dma.eui.upm.es/historia_informatica/Doc/Personajes/KonradZuse.htm

Y de la Virginia Tech/Norfolk State University

http://ei.cs.vt.edu/~history/Zuse.html

Saludos.

______________________________________________________________

Computador Z2, Konrad Zise, 1939.

Frecuencia de Reloj 5 Hertz
Unidad Aritmética Logia Punto fijo de 16 Bits. (1 Word).
Tiempo de Calculo de A.L.U.
0.8 segundos para sumar 2 Words
Numero de Reles. 600
Memoria 64 palabras (16 Bits, 1 Word).
Consumo de Energía.
1 KiloWatt (Lo que una lavadora de hoy).
Peso 300 Kilogramos.

Computador Z3 ,  Konrad Zise, 1941.

Frecuencia de Reloj  De 5 a 10 Hertz
Unidad Aritmética Logia Punto Flotante de 22 Bits.Operaciones: Suma, resta, multiplicación, división, sacar la raíz cuadrada.
Tiempo de Calculo de A.L.U.
0.8 segundos para sumar 2 Words3 Segundos para multiplicación (Punto flotante).
Numero de Reles. 2000
Memoria 64 palabras (de 22 Bits).
Consumo de Energía.
4 KiloWatt.
Peso 1.000 Kilogramos.

El programa, y los datos, estaban en tiras de celuloide perforado, ¿Suena Familiar?.

Tenia un teclado de entrada y una matriz de lamparas de salida, para entrar -sacar los datos de punto flotante.

Ello permitia NO RECABLEAR nada para cambiar el programa.

Debo decir que aún hoy, 2012, en la Red ferroviaria de Europa, se instalan los llamados ‘grupos de reles’, que no son sino pequeñas maquinas tipo Z1, cuyo programa depende del cableado.

………………………………………………………………………………………..

Konrad Zuse, creo sus primeros equipos, en la casa de sus padres.

Es increible que un hombre asi, no nos lo hayan enseñado en la Universidad en los años 1980.

El experimento de Roland De Witte.

Roland de Witte fue un hombre que , allá por finales del siglo XX,  por razón de su trabajo, desarollo unas medidas que, bien analizadas, suponen un punto experimental mas en una vieja lista de medidas experimentales, que dicen muy poco a favor de una de las principales teorías oficiales, la teoría de la relatividad.

En este momento, solo se va a recoger su trabajo, que no pudo ser publicado en su vida, pues ninguna revista quiso publicarlo, no por falta de rigor desde luego.

Creo que lo mejor es  recoger, de momento, su trabajo, tal como fue publicado post-morten, por otro físico (Reginald T. Cahill, School of Chemistry, Physics and Earth Sciences, Flinders University, Adelaide 5001, Australia), seguramente, como tributo a Roland .

http://www.ptep-online.com/index_files/2006/PP-06-11.PDF

Solo decir que su experimento, muy simple , que prácticamente cualquier laboratorio mediano podría hacer, revelo, durante 178 días, con unas señales de 5 Mhz, y un cable coaxial de unos kilómetros, entre Bruselas y una población cercana, una variación de fase en el final del coaxial, con un patrón de periodicidad de 23 horas, 56 minutos.

Es decir, el tiempo sideral de giro de nuestro planeta.

La introducción de este ‘paper’ ( Preface of the Editor-in-Chief),  asegura que:

“Therefore the anisotropy of the observed value of the velocity of light does not contradict Einstein’s Principle of Relativity. On
the contrary, such an experimental result can be viewed as a new verification of Einstein’s theory.”

Bien, tenemos un sistema aislado, girando en el espacio, moviéndose (El centro de giro) de modo cuasi-uniforme (Giro anual de la tierra, desplazamiento de todo el sistema solar alrededor de la galaxia), y detectamos como varia la velocidad de propagación en función de si nuestro medio de propagación esta a favor o en contra de ese movimiento, y eso, ‘no solo no contradice la relatividad, sino que es una nueva verificación de ella’.

‘Cosas veredes amigo sancho’ dijo Don Quijote.

En fin,  no voy a entrar en polemicas, lo principal, en ciencia, son los datos.

Espero ampliar los detalles técnicos del experimento, como bien sabéis, es la clave de su validez.

Saludos.

http://adsabs.harvard.edu/abs/2006physics…8205C     (The Smithsonian/NASA Astrophysics Data System)

http://arxiv.org/abs/physics/0608205                                 Presentación en arxis.

http://arxiv.org/pdf/physics/0608205v1.pdf                    Enlace directo.