Paul Dirac (1979) - Does the Gravitational Constant Vary?

Paul Dirac attended the first 10 physics meetings organised in Lindau and gave talks at all except one. In 1979 he choose to talk about a subject based on a more than 40-year old love of his, the so-called Large Numbers Hypothesis from 1937

I am very happy to be here in Lindau again and to have this opportunity of talking to you about scientific questions that interest me. Today I want to talk about the possibility that quantities which are usually considered to be constants of nature, are really not constant but are varying slowly with the time. It may be that they do vary and that this variation is so slow that it does not show up in ordinary laboratory experiments. This idea, that maybe constants of nature are really varying, was first introduced by Milne 50 years ago. It’s not a new idea. Now, Milne supported his arguments with philosophical considerations, which I believe are not very reliable, but still he introduced a new idea into physics. An idea which has excited many people since then, and which is being very actively studied at the present time. Now, if we are going to think about constants of nature, we must first of all make sure that the quantities which we are interested in are dimensionless. That is to say that they don’t depend on what units we use. If we have a quantity which depends on whether we use centimetres or inches, then such a quantity will not be very fundamental in nature. It will depend on our choice of units. So we have to make sure that we discuss only quantities which are independent of the units, dimensionless quantities. Now, many people who write about this question rather forget this. You see printed papers now, where people discuss, can it be that the velocity of light varies. Now, the velocity or light depends on your unit very much. A unit of distance and a unit of time and the question whether the velocity of light varies or not will depend on how these units are defined and it is not a fundamental question, not a fundamental problem. One usually in theoretical work takes one’s units of space and time to make the velocity of light equal to 1. Then of course there is no question, it has to be a constant. Let us now focus our attention on dimensionless quantities. There are some which are well-known in physics. One of them is the fine structureconstant, whose reciprocal is e2 over... the reciprocal is hc, Planck´s constant, over 2 Pi, c the velocity of light over e2. A very famous constant in atomic theory and its value is approximately 137. Another constant of nature which will immediately spring to your mind is the ratio of the mass of the proton to the mass of the electron. mp over me: and that is something like 1840. Then there is another constant which suggests itself at once. If you consider a hydrogen atom where there is an electron and a proton, they attract each other with a force inversely proportional to the square of the distance, an electric force. There is also a gravitational force between them inversely proportional to the square of the distance. The ratio of these 2 forces is a constant. It is a dimensionless constant, it has the value e2 over G me mp. G here, capital G is the gravitational constant. If you work this out you get roughly 7 times 10 to the power of 39, an extremely large number. Now, physicists believe that ultimately they will find an explanation for all the natural numbers that turn up. There ought to be some explanation for these numbers. If we had a better theory of electrodynamics it would presumably enable us to calculate this number 137. If we understood elementary particles better, there ought to be a way of calculating this ratio of the masses and getting this number here. These calculations would just involve mathematical quantities for Pis and similar factors like that. So we should imagine these numbers constructed from these simple mathematical numbers. But what about this number here? This enormous number here? How can that ever be explained? You can’t hope to explain it in terms just of for Pis and things like that. Maybe this number should not be explained by itself, but should be connected with another large number which is provided by the age of the universe. It seems that the age of the universe had a very definite beginning - a Big Bang as it is called – that is pretty well universally accepted so that there is a definite age of the universe. That age is provided by Hubble’sconstant, which gives the ratio of the speed of recession of distant matter with its distance. We get in that way an age of the universe somewhere around 18.000 million years. It’s not very well-known, there might possibly be an error of a factor as much as 2 in it, but still it is somewhere of that order, let us say 18 times 10 to the 9th years. Well, this involves the unit years and we ought to have something more fundamental in our theory. Let us take a unit of time provided by electronic constants, e2 over mc3, let us say. This is a unit of time. If we express this age of the universe in terms of this unit time we get the number 2 times 10 to the 39. We get a number just about as big as this number here. Now, you might say that is a remarkable coincidence. Well, I don’t believe it is a coincidence, I believe there is some reason behind it, a reason which we do not know at the present time, but which we shall know at some time in the future, when we know more about atomic theory and about cosmology. And we shall then have a basis for connecting these 2 numbers. These 2 numbers should be expressed, one of them as some simple numerical factor times the other. Now, I’m assuming that there is such a connection and that it is not just a coincidence, that is the whole basis of the theory which I am now going to give you. Now, this number here is not a constant, it is continually increasing as the universe gets older, and if these 2 numbers are connected it means that this number here must also not be a constant and must be continually increasing as the universe gets older. We see that this number must be increasing proportionally to the time t, the age of the universe. These things on the left here are usually considered as constant. Now we can no longer consider all of these things as constant. It is usual to suppose that the atomic ones are constant, e, m, the two m´s, and then we have G varying proportionally to t to the minus 1. To express this result accurately, one should say the gravitational constant in atomic units is decreasing according to the law t to the minus 1. You mustn’t just say generally that the gravitational constant is decreasing, because by itself it is a quantity with dimensions and one must avoid talking about quantities with dimensions, one must say that, one must specify it by G in atomic units varying according to this law. Another way of looking at it is like this, the gravitational constant is, the gravitational force is very weak compared with the other forces known in physics, very weak in particular, in comparison with the electric force. Why is it so weak? Well, we might suppose that when the universe was started off these forces were roughly equally strong and that the gravitational force has been getting weaker and weaker according to this law. It’s had a long time in which to get weaker and that is why it is now so weak we get quite a unified principle in that way. Now the question arises, how are we to fit in this assumption of G varying with our standard physical ideas? That is one question. Another question is: Is there any experimental evidence in favour of it? These are the 2 questions which I shall want to be discussing at length. First of all there is the serious question of how we are to fit this in with Einstein’s theory on gravitation. Einstein’s theory on gravitation has been extremely successful, we can’t just throw it overboard. We have to amend our theory in such a way as to preserve all the successes of the Einstein theory and for that purpose the obvious thing to do, in fact the only suggestion that has been put forward is that we have 2 different metrics which are important in physics, one metric which one has to use for the Einstein theory and then a different metric provided by the atomic constants. So that will be a basic idea of this new theory, these 2 metrics, which are both of importance in physics. The idea of 2 metrics was first introduced by Milne 50 years ago, but his relationship between the 2 metrics is not in agreement with the relationship which I’m going to propose now. I would like to say a little bit more about this connection of a universal constant with the time. We are here making a new assumption and we should make this assumption quite generally and say that all the fundamental constants of nature which are extremely large are connected with the time. Not just this one, any other constant which is extremely large should also be connected with the time, otherwise it’s a very artificial assumption. Now, there is one other constant which immediately springs to mind, namely the total mass of the universe. Now, it could be that the universe is of infinite extent and then the total mass is infinite but in that case we must modify our number and make it precise in this way. Let us talk just about that part of the universe which is receding from us with a velocity less than half the velocity of light. I take this fraction, half-arbitrarily but it would not affect the argument if we used another fraction, 2/3 or 3/4, the argument would run the same. It is just to have some definite quantity which we can use even if the universe is infinite. Now let us consider the total mass which is receding from us with a velocity less than half the velocity of light, express this mass in, let us say proton units. We get a very large number, a large number which is not very easy to measure because we don’t know how much dark matter there is, intergalactic gas or black holes or things like that. But it seems that this number is somewhere around 10 to the power of 78, I will call this number N, number of proton masses in that part of the universe which is receding from us with a velocity less than half the velocity of light. And it is roughly 10 to the 78, and according to this assumption that we are making about the large numbers, the Large Numbers Hypothesis I call it, this must vary according to the law t2. This assumption is just as necessary as this one if we are to have a consistent picture. Now, how can we understand this continual increase in the amount of matter which is in the observable part of the universe? People for a long time supposed that there was continuous creation of new matter, I made this assumption myself but I feel now that it’s a bad assumption, it’s very hard to develop this theory in any consistent way and there are also observational grounds for disbelieving in it. So I want to keep to the assumption that matter is conserved, the usual old fashioned conservation of mass. Then this continual increase in N is to be understood in this way. We suppose that the galaxies are not receding from us uniformly but are continually slowing up so that the number of galaxies included within this sphere of radius recession velocity less than half the velocity of light is continually increasing. We can then easily arrange it to have this number N increasing proportionally to t2, and at the same time keep conservation of mass. We have now quite a definite cosmology where we have the galaxies always moving apart from each other but their velocity is decelerating all the time so that there are always more and more galaxies being included within this sphere v less than a half c. Now, these ideas which I have been talking to you about immediately give us some definite results concerning the model of the universe which is consistent with them. We get a model of the universe when we imagine all the local irregularities to be smoothed out, all the stars and galaxies to be replaced by an equivalent continuous distribution of matter. What model of the universe must we adopt? People have often supposed a model of the universe which increases up to a certain maximum size and then collapses again. Very many models have been worked out consistent with Einstein’s equations. But we can now assert that all those models in which the universe increases to a maximum size and collapses again, are wrong, because such a model would provide a large number, namely the maximum size before the collapse starts, this large number, expressed in atomic units, would be a constant. It won’t be something that can change as the universe gets older. Now, any constant large number is ruled out by our general hypothesis that all these very large numbers must be connected with the age of the universe. So that means that a large number of models are immediately ruled out. For quite a while people were working with a steady state model of the universe but that must also be ruled out because a steady state model cannot have G varying like this. There are many models which do get ruled out and one finds that there is only one model which is left which is in agreement with this Large Numbers Hypothesis. This was a model which was proposed in 1932, jointly by Einstein and de Sitter, let us call it the Einstein-de Sitter model, it´s not very much heard about but I think that it should receive much more importance and I believe that this is the correct model. This model involves a metric ds2 equal to etau2, I’m using tau for the Einstein time, minus tau to the power of 4/3 , vx2 plus dy2 plus ez2. Now you may wonder why we have this strange power over time occurring here, with any such model, with any function of the time here we would get uniform density and a uniform pressure, the pressure is caused just by electro magnetic radiation or similar radiation and in our actual universe the pressure is very small, very much smaller than the effects produced by the static matter. This particular power of the time occurring here is the one which we have to choose in order to have zero pressure, that is the reason why there is this rather strange factor. Now, this model of the universe gives an average density roughly in agreement with the observed density that was pointed out by Einstein and de Sitter when they introduced the model in 1932. This model I would like to propose to you as the correct model for describing our universe, it is the only model which fits in with the Large Numbers Hypothesis. What is the law according to which the galaxies separate from us, what is the law of expansion of the universe. If we take the distance of a galaxy and consider it as a function of the time, let's say a galaxy corresponding to the velocity of recession half the velocity of light, then the distance of this galaxy varies according to the time or is proportional to t to the power of 1/3. That is quite a big change from our usual ideas that the galaxies are receding from us roughly uniformly. It means that the distance, although it always continues to increase, increases according to a slower and slower law as time goes on. The galaxies never stop receding but they continue to recede from us more and more slowly. This is a consequence of this model which we are using here. Now, I talked earlier about the 2 metrics which we have to use, an Einstein metric, ds, I put the suffix E here to say that this is referring to the Einstein unit of distance and then there is a dsA, atomic distance. What is the relationship between them? That relationship is very easily worked out just from the requirement that G is proportionate to t to the minus 1. From a purely dimensional arguments one finds that dsE equals tdsA. That is the relationship between these 2 metrics. And the argument is simple, definite and just involves discussion of the dimensions of quantities. We may take this ds to refer to a time interval and then if we use variable tau to stand for time in the Einstein picture and use t to stand for time referred to atomic units as I have been using all the time, up to the present, we have dtau equals tdt, tau is proportional to t2, in fact tau equals a half t2. We have then these 2 times which should come into physics, a time which one has to use in connection with the Einstein theory, the time tau and a time which is measured by atomic clocks and things like that, time t. Perhaps I better pass on to the discussion of whether this theory is going to lead to any effects which one can check by observation. Our usual application of the Einstein theory is concerned with the Schwarzschild solution of the field equations of Einstein. This Schwarzschild solution was worked out on the assumption that at great distances from the singularity where the masses, at great distances space becomes flat, like Minkowski space. But according to our present picture that must be modified by the requirement that at great distances space goes over to the space of the Einstein-de Sitter metric described by this equation here. One can work out how one has to modify the Schwarzschild solution. I’ve done that in a paper which was published recently. Then one gets the results that if you take a planetary orbit which is roughly circular, even in the new theory, that planet will continue to circulate around the sun with constant velocity and with a constant radius for its orbit. These results are not changed by the new theory, however there are some results which are changed, these results that the velocity remains constant and the radius of the orbit is constant refer to the Einstein units. If we pass to atomic units then the velocity will still remain constant, the velocity is the same in all units because we are keeping the velocity of light unity and any velocity is just a certain fraction of that, independent of what units we use. But the radius of the orbit will be affected by this transformation and it means that the radius of the orbit of a planet expressed in atomic units is continually getting less, the radius is proportional to t to the minus 1. The planets are all spiralling inwards, that is a cosmological effect which is to be superposed on all other physical effects. That is an effect which one should be able to observe if one makes sufficiently accurate observations of the planets. Then another effect which one should be able to observe is in connection with this formula which gives a difference between dtau and dt. dtau, the time which one uses in the Einstein equations is the same as the time which is marked out by the motion of the earth around the sun. That time is what astronomers call ephemeris time and they’ve been using ephemeris time for centuries in order to express the results of their observations. This ephemeris time, according to this theory, should not be the same as time measured by atomic clocks. Well, there is an effect which one should be able to observe and the inward spiralling is another effect. I would like to discuss what the experimental information is about these subjects. If you want to compare the 2 time scales, the best way is to study the motion of the moon. The moon’s motion through the sky can be observed very accurately but it is subject to very many perturbations, perturbations caused by the tide, perturbations caused by other planets, these perturbations are not negligible for the accuracy which we need in this work. This study of the motion of the moon has been considered for a good many years by Van Flandern who works at the Naval observatory in Washington. I have put down here a summary of the results: N is the symbol used for the angular velocity of the moon, the units it is expressed in are seconds per century, cy means century. The acceleration, N dot is in seconds per century squared. This acceleration is negative, it means a deceleration and here are figures which have been obtained recently. Can you see it or is the light too strong, can you perhaps reduce the lights? There’s a whole set of figures which have been worked out by different investigators. There’s a result given by Osterwinter and Cohen in 1972, where the figure is 38 plus or minus 8, I have ignored the still earlier estimates which are not so good. There’s a figure given by Morrison and Ward in 1975 just from observing the transits of Mercury, the time when Mercury passes in front of the sun. Then there’s a figure given by Muller from studying ancient eclipses. There are records of eclipses going back to before the time of Christ. Now, you might say that observations made so long ago will not be useful to us because their methods of observation were very primitive, they had no accurate instruments. But still if you see an eclipse, a total eclipse at a certain place on the earth, that is a very definite piece of information, you’ll know just when the eclipse took place, it took place when the earth sun and moon were all in a line. And if you're told that at a certain place on the earth surface the eclipse was total, that is a very definite piece of information. Now, Muller has been studying the records in monasteries about eclipses going back to more than 2000 years and you have to get a suitable understanding of the language used by the people recording eclipses in those days. These observations have the advantage that they are made over a very long time base. Well, the result that Muller gets is 30 plus or minus 3. Now there are some recent observations which were made with the help of lunar models and also of parameters which were obtained from satellite observations and 2 different workers have given the result 30.6 and 27.4. Well, Van Flandern has considered all of these figures for the acceleration of the moon and he considered the weighted average of the above to be 28 plus or minus 1.2. These are all observations with ephemeris time. There are observations with atomic time which have been made since 1955. Since 1955 people have been observing the moon with atomic clocks. The result, the most recent result of Van Flandern of the atomic time figure is 21.5. Van Flandern in previous years had given results differing quite a lot from that figure. But he finds that there were systematic errors in his earlier results and the systematic errors have been, he hopes, eliminated by new calculations and also by new recent observations. Now, a different kind of observation has been made by people working at the Jet Propulsion Laboratory using the Lunar Laser Ranging technique. They send light to the moon and observe the reflected light and see how long it took for the journey and get very accurate estimates of the distance of the moon and Calame and Mulholland have been working on that and they got the figure 24.6. Now I just heard a few weeks ago from Van Flandern that these people think that there was an error in their calculation and with a new correction that should come down to 20.7. Now, Williams and others also usingLunar Laser Ranging get the figure 23.8. Now, Van Flandern has considered all the results and gives as the weighted mean 22.6. Now there is a difference between this figure and the one above, this figure referring to atomic time and the figure relating to ephemeris time. And that difference provides evidence for the correctness of this theory. If G was not varying, if one just stuck to the old ideas then one should get the same lunar acceleration whether one uses ephemeris time or atomic time. And the observations do seem to support the idea that there is a difference. Now, there’s another way of checking on this effect by seeing whether there is this inward spiralling of the planets. That has been worked on by Shapiro and his assistants some years ago, in 1975, they published some figures. Their method is to send radar waves to a planet on the far side of the sun and then observe the reflected radar waves. These reflected waves are extremely weak but still they can be observed and one can measure the time required for the to and fro journey and that gives us accurate information about the distance of the planet, one measures this time in atomic units. Those were some figures that were published by Shapiro and his assistants in 1975 N dot, lunar acceleration, they divided by N, the velocity, and those figures are given for the 3 inner planets, Mercury, Venus and Mars. Well, you notice that the results are all plus, a plus result there means that the planet is spiralling inward, if the planet was spiralling outward it would be minus. These results are all in favour of inward spiralling but you see that the errors, the probable errors are quite large, as big as the effect that you are measuring. Shapiro rather emphasizes that he has really no evidence for inward spiralling, his results would be consistent with the old theory of constant G. Still there is perhaps some weak evidence for inward spiralling. Now, at the present time one can make very accurate observations on the distance of Mars with the Viking lander, which was put on to Mars in 1975. And Shapiro is working on the results of this lunar lander. He says that just the time since the lander was put on Mars is not a sufficiently large time base in order to be able to work out this effect. One has to combine these Viking observations with the earlier Mariner observations on Mars. I met Shapiro last March and he told me that he is now working on this problem of combining the recent Viking observations with the Mariner observations and it will be 6 months before he has a definite answer. Shapiro, I might say, is a very careful observer and won’t publish anything until he is pretty certain that it is right. So we have to wait a few more months and then we will have definite results on this question of whether there is this inward spiralling of the planets or not and that would probably make it pretty certain whether this new theory is right or not. I wonder how much more time I have, can I go on another 5 or 10 minutes or should I cut it short? Another question which I might refer to is concerned with the microwave radiation, there is this microwave radiation, just a few centimetres wavelength, which is observed to be coming out of the sky in all directions and falling on the earth, it is a very cold radiation, it is a black body radiation so far as it can be observed corresponding to a temperature of about 2.8 absolute, people have explained this radiation by saying that it is the result of a big fireball which was in existence in the early stages of the universe. Extremely hot to begin with but it has been cooling all the time because of the expansion of the universe and that this very cold radiation, 2.8 degrees is what is left of this original fireball. Now, I would just like to show you howthis microwave radiation gives a strong support for the ideas I’ve been presenting here, in particular for the Large Numbers Hypothesis. Let us consider this radiation temperature 2.8 degrees. That provides us with a large number, kT,Boltzmann constant, kT, the energy, sort of average energy of this microwave spectrum divided by, let us say the rest mass of the proton mpc2. If you work this out you get a number somewhere around 2.5 times 10 to the minus 13. You may consider that 10 to the minus 13 is the reciprocal of a large number and that this should therefore be varying with the time, varying according to the law t to the minus 1/3 as being roughly the cube root of 10 to the 39. That means that the temperature of this microwave radiation should be decreasing according to the law t to the minus 1/3. Now that fits in with the law of expansion which we had previously. We had the expansion with the distance of a galaxy as proportionate to t to the 1/3, the wavelength of each of the components in the black body radiation should also be increasing in proportion to t to the 1/3, frequency t to the minus 1/3 and the temperature of the black body radiation should therefore be decreasing according to the law t to the minus 1/3. We do get consistency in that way, these figures are quite different from the old theory, according to the old theory we had the galaxies receding with a roughly constant velocity and the microwave radiation having its temperature going down according to the law t to the minus 1. Well, the t to the minus 1/3 law is provided by the Large Numbers Hypothesis and it fits in with the law of expansion. I feel that this is quite a strong confirmation of our ideas, we might easily have had things going wrong. It means that the fireball has been decreasing according to this law since the time, very close to the Big Bang. According to the older ideas, this law for the cooling of the black body radiation only started at a certain time when the fireball got decoupled from matter, this idea of a sort of decoupling taking place at a certain stage in the evolution of the universe is of course quite foreign to the idea of a Large Numbers Hypothesis, according to which there must not be any time coming in in an important sense into the theory, in such a way as to provide a large number which is a constant. There is a lot of further work to do in connection with the development of the theory and several people have been studying the question. Also unfortunately a good many people have been writing papers about it who have not correctly understood the basic ideas of the theory and who have come to wrong conclusions. People have said that this theory is untenable because it would mean that in the geological past the temperature of the earth would have been much too hot to allow life at a time when life is known to have existed. Well, they haven’t taken into account the inward spiralling effect, in fact I think inward spiralling was only worked out about a little over a year ago and that is going to help quite a lot with thistemperature of the earth because it means that at these times in the past the earth was quite a bit further away from what it is now. I better conclude here and I would like to say that there are many people working on this subject. In particular there’s a whole school which is run by Canuto at the Space Research Center in New York, and the result of a lot of calculations that he has made is that up to the present there is no irreconcilable discrepancy which has showed up. Thank you.

Ich bin sehr froh, wieder hier in Lindau sein zu dürfen und die Gelegenheit zu haben, mit Ihnen über wissenschaftliche Fragen zu sprechen, die mich interessieren. Heute möchte ich über die Möglichkeit sprechen, dass Größen, die normalerweise als Naturkonstanten betrachtet werden, in Wirklichkeit nicht konstant sind, sondern sich mit der Zeit langsam ändern. Möglicherweise ändern sie sich und diese Änderung ist so langsam, dass sie sich in normalen Laborexperimenten nicht zeigt. Diese Idee, dass Naturkonstanten sich vielleicht in Wirklichkeit ändern, wurde zuerst vor 50 Jahren von Milne eingeführt. Das ist keine neue Idee. Nun, Milne unterstützte seine Argumente durch philosophische Überlegungen, die, wie ich glaube, nicht sehr zuverlässig sind, aber er hat dennoch eine neue Idee in die Physik eingeführt. Eine Idee, die seit damals viele Leute erregt hat, und die heute sehr aktiv untersucht wird. Nun, wenn wir über Naturkonstanten nachdenken, müssen wir erst einmal sicherstellen, dass die Größen, an denen wir Interesse haben, dimensionslos sind. In anderen Worten, dass sie nicht davon abhängen, welche Einheiten wir verwenden. Wenn wir eine Größe haben, die davon abhängt, ob wir Zentimeter oder Zoll verwenden, dann wird eine solche Größe ihrer Natur nach nicht sehr fundamental sein. Sie wird davon abhängen, welche Einheiten wir wählen. Wir müssen daher sicherstellen, dass wir nur Größen diskutieren, die unabhängig von Einheiten sind, dimensionslose Größen. Nun, viele Leute, die etwas über diese Frage schreiben, vergessen dies eher. Man kann jetzt gedruckte Arbeiten sehen, wo Leute diskutieren, ob es möglich sein kann, dass die Lichtgeschwindigkeit variiert. Die Lichtgeschwindigkeit hängt sehr stark von den Einheiten ab. Eine Längeneinheit und eine Zeiteinheit, und die Frage, ob die Lichtgeschwindigkeit sich ändert oder nicht, wird davon abhängen, wie diese Einheiten definiert sind und ist keine grundsätzliche Frage, kein fundamentales Problem. In theoretischen Arbeiten wählt man normalerweise die Einheiten von Länge und Zeit so, dass die Lichtgeschwindigkeit gleich 1 wird. Dann ist es natürliche keine Frage, dass sie konstant sein muss. Fokussieren wir also unsere Aufmerksamkeit auf dimensionslose Größen. Da gibt es solche, die in der Physik sehr bekannt sind. Eine von ihnen ist die Feinstrukturkonstante, deren Kehrwert ist e2 geteilt durch... der Kehrwert ist h, die Plancksche Konstante, geteilt durch 2 pi, c die Lichtgeschwindigkeit geteilt durch e2. Eine sehr berühmte Konstante in der Theorie der Atome und ihr Wert ist ungefähr 137. Eine andere Naturkonstante, die einem sofort in den Sinn kommt, ist das Verhältnis zwischen der Protonen- und der Elektronenmasse. mp geteilt durch me: und das ist ungefähr 1840. Und dann gibt es da eine andere Konstante, die sich sofort aufdrängt. Wenn man ein Wasserstoffatom betrachtet mit einem Elektron und einem Proton, dann ziehen sie sich mit einer Kraft an, die umgekehrt proportional zum Quadrat der Entfernung ist, eine elektrische Kraft. Es gibt ebenfalls eine Gravitationskraft zwischen ihnen, die umgekehrt proportional zum Quadrat der Entfernung ist. Das Verhältnis dieser beiden Kräfte ist eine Konstante. Es ist eine dimensionslose Konstante und hat den Wert e2 geteilt durch G me mp. Hier ist G, großes G, die Gravitationskonstante. Wenn man dies ausrechnet, bekommt man ungefähr 7 mal 10 hoch 39 heraus, eine extrem große Zahl. Nun, Physiker glauben, dass sie am Ende für all die natürlichen Zahlen, die da auftauchen, eine Erklärung finden werden. Es sollte für diese Zahlen eine Erklärung geben. Wenn wir eine bessere Theorie der Elektrodynamik hätten, würde es uns vermutlich erlauben, diese Zahl 137 zu errechnen. Wenn wir Elementarteilchen besser verstehen würden, dann sollte es einen Weg geben, dieses Massenverhältnis zu berechnen und diese Nummer hier zu erhalten. Diese Berechnungen würden nur mathematische Größen enthalten, vier pi und so ähnliche Faktoren. Wir sollten uns daher vorstellen, dass diese Zahlen aus diesen einfachen mathematischen Zahlen konstruiert sind. Aber was ist mit dieser Zahl hier? Diese enorme Zahl hier? Wie kann man das jemals erklären? Man kann nicht darauf hoffen, sie mit Hilfe von vier pi und solchen Dingen zu erklären. Vielleicht sollte man diese Zahl nicht für sich allein erklären, sondern sie sollte mit einer anderen großen Zahl verbunden werden, die durch das Alter des Universums geliefert wird. Es scheint, dass das Alter des Universums einen gut definierten Anfang hat - einen Urknall, wie es genannt wird – das ist ziemlich allgemein akzeptiert, so dass es ein definiertes Alter des Universums gibt. Das Alter wird durch die Hubble-Konstante geliefert, die durch das Verhältnis der Fluchtgeschwindigkeit von entfernter Materie zu ihrer Entfernung gegeben ist. So erhalten wir ungefähr 18 Milliarden Jahre als das Alter des Universums. Es ist nicht wirklich bekannt, da existiert möglicherweise ein Fehler von einem Faktor von bis zu zwei in der Berechnung, aber es ist etwas von dieser Größenordnung, sagen wir 18 mal 10 hoch 9 Jahre. Nun, das beinhaltet die Einheit Jahre und wir sollten etwas Grundsätzlicheres in unserer Theorie haben. Also nehmen wir eine Zeiteinheit, die durch elektronische Konstanten gegeben ist, e² geteilt durch mc3, zum Beispiel. Das ist eine Zeiteinheit. Wenn wir dieses Alter des Universums in dieser Zeiteinheit ausdrücken, erhalten wir die Zahl 2 mal 10 hoch 39. Wir erhalten eine Zahl, die ungefähr so groß ist, wie diese Zahl hier. Nun könnte man sagen, das ist ein unglaublicher Zufall. Ich glaube nicht, dass es ein Zufall ist, ich glaube, dafür gibt es einen Grund, den wir zum gegenwärtigen Zeitpunkt nicht kennen, aber den wir irgendwann in der Zukunft kennen werden, wenn wir mehr über die Theorie der Atome und Kosmologie wissen. Und dann werden wir eine Basis haben, um diese zwei Zahlen zu verbinden. Diese zwei Zahlen sollten ausgedrückt werden, dass eine der Zahlen gleich dem Produkt eines einfachen numerischen Faktors und der anderen Zahl ist. Nun, ich nehme an, dass es eine solche Verbindung gibt und dass es nicht nur Zufall ist. Das ist die ganze Basis der Theorie, die ich nun vorstellen werde. Diese Zahl hier ist nicht konstant, sie erhöht sich kontinuierlich in dem Maße, in dem das Universum älter wird, und wenn diese zwei Zahlen miteinander verbunden sind, dann heißt das, dass diese Zahl hier auch nicht konstant sein darf und sich kontinuierlich in dem Maß vergrößert, in dem das Universum älter wird. Wir sehen, dass diese Zahl proportional zur Zeit t, dem Alter des Universums, größer werden muss. Normalerweise werden diese Dinge hier auf der linken Seite als konstant angenommen. Nun, wir können nicht länger alle diese Dinge als konstant annehmen. Man nimmt üblicherweise an, dass die atomaren Größen konstant sind, e, m, die zwei m, und dann haben wir G, das proportional zu t hoch minus eins variiert. Um dieses Ergebnis zutreffend auszudrücken, sollte man sagen, dass die Gravitationskonstante in atomaren Einheiten nach dem Gesetz t hoch minus 1 abnimmt. Man darf nicht generell sagen, dass die Gravitationskonstante abnimmt, weil sie für sich genommen eine Größe mit einer Dimension ist, und man muss es vermeiden über Größen, die eine Einheit haben, zu sprechen. Man muss sagen, dass, man muss es so ausdrücken, dass G in atomaren Einheiten sich diesem Gesetz folgend ändert. Es gibt noch einen anderen Weg, dies zu betrachten: die Gravitationskonstante ist, die Gravitationskraft ist verglichen mit den anderen in der Physik bekannten Kräften sehr schwach, sehr schwach insbesondere im Vergleich zu der elektrischen Kraft. Warum ist sie so schwach? Wir könnten annehmen, dass diese Kräfte ungefähr gleich stark waren, als das Universum geboren wurde, und dass die Gravitationskraft diesem Gesetz folgend immer schwächer geworden ist. Sie hatte sehr viel Zeit, um schwächer zu werden, und das ist der Grund, dass sie jetzt so schwach ist, wir bekommen so ein vereinheitlichtes Prinzip. Es entsteht die Frage, wie wir diese Annahme, dass G sich ändert, mit unseren standardmäßigen physikalischen Ideen in Übereinstimmung bringen können? Das ist eine Frage. Eine andere Frage ist: Gibt es irgendeinen experimentellen Beweis dafür? Dies sind die zwei Fragen, die ich hier ausführlich diskutieren will. Zunächst stellt sich die schwierige Frage, wie wir dies mit Einsteins Theorie der Gravitation in Übereinstimmung bringen. Einsteins Theorie der Schwerkraft ist sehr erfolgreich, wir können sie nicht einfach über Bord werfen. Wir müssen die Theorie so verändern, dass wir alle die Erfolge von Einsteins Theorie erhalten, und dafür ist es offensichtlich, es ist in der Tat der einzige Vorschlag, der gemacht worden ist, dass man zwei unterschiedliche Metriken hat, die wichtig in der Physik sind; eine Metrik, die man für Einsteins Theorie benutzen muss, und dann eine andere Metrik, die durch die atomaren Konstanten gegeben ist. Das wird die Grundidee dieser neuen Theorie sein, diese zwei Metriken, die beide in der Physik wichtig sind. Die Idee der zwei Metriken wurde vor 50 Jahren zuerst durch Milne eingeführt, aber seine Beziehung zwischen den zwei Metriken stimmt nicht mit der Beziehung überein, die ich jetzt vorschlagen werde. Ich möchte ein wenig mehr über diese Verbindung einer Naturkonstanten und der Zeit sagen. Wir machen hier eine neue Annahme und wir sollten diese Annahme ganz generell machen und sagen, dass alle Grundkonstanten der Natur, die extrem groß sind, mit der Zeit in Verbindung stehen. Nicht nur diese eine hier, jede andere Konstante, die extrem groß ist, sollte auch mit der Zeit verbunden sein, sonst ist es eine sehr künstliche Annahme. Nun, da gibt es eine andere Konstante, an die man sofort denken muss, das ist die Gesamtmasse des Universums. Es könnte sein, dass das Universum eine unendliche Ausdehnung hat und dass dann die Gesamtmasse unendlich ist, aber in dem Fall müssen wir unsere Zahl modifizieren und sie auf diesem Weg präzisieren. Lassen Sie uns über den Teil des Universums sprechen, der sich mit einer Geschwindigkeit von weniger als der halben Lichtgeschwindigkeit von uns entfernt. Ich nehme diesen Bruchteil teils willkürlich, aber es würde das Argument nicht beeinflussen, wenn wir einen anderen Bruchteil benutzen würden, 2/3 oder 3/4, das Argument würde gleich verlaufen. Das ist nur, damit wir eine definierte Größe haben, die wir benutzen können, sogar wenn das Universum unendlich ist. Lassen Sie uns die Gesamtmasse in Betracht ziehen, die sich mit einer Geschwindigkeit von weniger als der halben Lichtgeschwindigkeit von uns entfernt, und wir drücken diese Masse in Protonenmassen aus, zum Beispiel. Wir bekommen eine sehr große Zahl, eine große Zahl, die nicht leicht zu messen ist, weil wir nicht wissen, wie viel dunkle Materie, intergalaktisches Gas oder Schwarze Löcher oder solche Dinge es gibt. Aber es scheint so zu sein, dass diese Zahl irgendwo bei 10 hoch 78 liegt, ich nenne diese Zahl N, die Zahl der Protonenmassen in dem Teil des Universums, der sich mit einer Geschwindigkeit von weniger als der halben Lichtgeschwindigkeit von uns entfernt. Und es ist ungefähr 10 hoch 78, und im Einklang mit dieser Annahme, die wir über die großen Zahlen machen, ich nenne sie die Große-Zahlen-Hypothese, muss sie sich nach dem t2 Gesetz ändern. Diese Annahme ist genauso notwendig wie diese dort, wenn wir ein konsistentes Bild haben sollen. Nun, wie kann ich diesen kontinuierlichen Anstieg in der Materiemenge verstehen, die im beobachtbaren Teil des Universums ist? Über eine lange Zeit hat man angenommen, dass es eine kontinuierliche Erzeugung neuer Materie gibt, ich habe diese Annahme auch selbst gemacht, aber jetzt meine ich, das ist eine schlechte Annahme; es ist sehr schwer, diese Theorie in irgendeiner konsistenten Weise zu entwickeln und es gibt Gründe aus der Beobachtung, es nicht zu glauben. Ich will also an der Annahme festhalten, dass Materie erhalten bleibt, die gewöhnliche, altmodische Massenerhaltung. Dann muss dieser kontinuierliche Anstieg in N folgendermaßen verstanden werden: Wir nehmen an, dass die Galaxien sich von uns nicht gleichförmig entfernen, sondern kontinuierlich langsamer werden, so dass sich die Zahl von Galaxien, die sich in dieser Kugel mit dem Radius der Fluchtgeschwindigkeit von weniger als der halben Lichtgeschwindigkeit befinden, kontinuierlich erhöht. Es ist dann leicht es so zu arrangieren, dass die Zahl N proportional zu t2 wächst, und gleichzeitig die Masse erhalten bleibt. Wir haben nun eine recht definierte Kosmologie, wo die Galaxien sich immer voneinander wegbewegen, aber ihre Geschwindigkeit verringert sich immer, so dass immer mehr Galaxien innerhalb dieser Kugel, wo v weniger ist als die halbe Lichtgeschwindigkeit, einbezogen werden. Nun, diese Idee, über die ich gerade geredet habe, gibt uns sofort einige definitive Resultate in Bezug auf das Modell des Universums, das mit ihnen konsistent ist. Wir bekommen ein Modell des Universums, wenn wir annehmen, dass alle lokalen Unregelmäßigkeiten ausgeschmiert sind, all die Sterne und Galaxien müssen durch eine äquivalente, kontinuierliche Verteilung von Masse ersetzt werden. Welches Modell des Universums müssen wir übernehmen? Oft wurde ein Modell des Universums vorgeschlagen, das bis zu einem bestimmten Größtmaß anwächst und dann wieder kollabiert. Es sind sehr viele Modelle ausgearbeitet worden, die mit Einsteins Gleichungen konsistent sind. Aber wir können jetzt erklären, dass all diese Modelle, in denen das Universum bis zu einer maximalen Größe anwächst und dann wieder kollabiert, falsch sind, weil ein solches Modell eine große Zahl liefern würde, d.h. die maximale Größe, bevor der Kollaps anfängt; diese große Zahl wäre, ausgedrückt in atomaren Einheiten, eine Konstante. Es wäre nicht etwas, das sich ändern kann, wenn das Universum älter wird. Nun, jede konstante große Zahl wird durch unsere generelle Hypothese ausgeschlossen, dass diese sehr großen Zahlen mit dem Alter des Universums verbunden sein müssen. Das heißt also, dass eine große Zahl von Modellen sofort ausgeschlossen werden muss. Eine Zeit lang hat man mit einem Steady-State-Modell des Universums gearbeitet, aber das muss auch ausgeschlossen werden, weil G in einem Steady-State-Modell nicht so variieren kann. Es gibt viele Modelle, die ausgeschlossen werden, und man findet, dass nur ein Modell übrig bleibt, das sich in Übereinstimmung mit dieser Große-Zahlen-Hypothese befindet. Das ist ein Modell, dass in 1932 vorgeschlagen wurde, gemeinsam von Einstein und de Sitter, lassen Sie uns es Einstein-de Sitter Modell nennen; man hört nicht viel darüber, aber ich denke, es sollte mehr Aufmerksamkeit erhalten, und ich glaube, es ist das richtige Modell. Dieses Modell beinhaltet eine Metrik ds2 gleich etau2, ich benutze tau für die Einstein-Zeit, minus tau hoch 4/3, vx2 plus dy2 plus ez2. Nun fragen Sie sich vielleicht, warum hier diese merkwürdige Potenz der Zeit auftaucht, bei irgendeinem solchen Modell, mit irgendeiner Funktion der Zeit hier würden wir eine gleichförmige Dichte und gleichförmigen Druck erhalten, der Druck wird nur durch elektromagnetische Strahlung oder ähnliche Strahlung verursacht, und in unserem aktuellen Universum ist der Druck sehr klein, sehr viel kleiner als die Effekte, die durch die statische Materie verursacht werden. Diese spezielle Potenz der Zeit, die hier vorkommt, ist diejenige, die wir wählen mussten, um den Druck null zu erhalten, das ist der Grund, warum da dieser recht merkwürdige Faktor ist. Nun, dieses Modell des Universums gibt uns eine durchschnittliche Dichte, die grob übereinstimmt mit der beobachteten Dichte, die durch Einstein und de Sitter aufgezeigt wurde, als sie das Modell in 1932 eingeführt haben. Dieses Modell, das ich Ihnen als das richtige für die Beschreibung unseres Universums vorschlagen möchte, es ist das einzige Modell, das mit der Große-Zahlen-Hypothese in Einklang ist. Was ist das Gesetz, nach dem sich die Galaxien von uns entfernen, was ist das Gesetz der Expansion des Universums? Wenn wir die Entfernung einer Galaxie nehmen und annehmen, es ist eine Funktion der Zeit, sagen wir eine Galaxie, die der Fluchtgeschwindigkeit von der halben Lichtgeschwindigkeit entspricht, dann ändert sich die Entfernung dieser Galaxie in der Zeit oder ist proportional zu t hoch 1/3. Dies ist eine große Abkehr von unseren üblichen Ideen, dass die Galaxien sich von uns ungefähr gleichmäßig entfernen. Es bedeutet, dass die Entfernung, obwohl sie sich immer weiter vergrößert, sich im Laufe der Zeit immer langsamer vergrößert. Die Galaxien hören niemals auf sich zu entfernen, aber sie entfernen sich immer langsamer. Dies ist eine Konsequenz aus dem Modell, das wir hier benutzen. Nun, ich hatte vorher von den zwei Metriken erzählt, die wir benutzen müssen, einer Einstein-Metrik, ds, ich benutze das Suffix E hier um anzudeuten, dass es sich auf die Einsteinsche Einheit der Länge handelt, und dann ist da dsA, die atomare Entfernung. Was ist die Beziehung zwischen ihnen? Die Beziehung kann man einfach herausbekommen von der Bedingung, dass G proportional zu t hoch minus 1 ist. Durch ein reines Dimensions-Argument findet man also, dass dsE gleich tdsA ist. Das ist die Beziehung zwischen diesen zwei Metriken. Und das Argument ist einfach, definitiv und beinhaltet nur Diskussionen über die Dimensionen von Größen. Wir können annehmen, dass dieses ds sich auf ein Zeitintervall bezieht, und wenn wir dann die Variable tau benutzen, um für Zeit im Einsteinbild zu stehen, und t benutzen als Zeit bezogen auf atomare Einheiten, wie ich es bis jetzt immer benutzt habe, dann ist dtau gleich tdt, tau ist proportional zu t2, tatsächlich ist tau gleich ein halb t2. Wir haben dann diese zwei Zeiten, die in die Physik eingebracht werden sollten, eine Zeit, die in Verbindung mit Einsteins Theorie benutzt werden muss, die Zeit tau, und eine Zeit, die durch Atomuhren und solche Dinge gemessen wird, die Zeit t. Vielleicht wäre es besser, wenn ich nun in die Diskussion übergehe, ob diese Theorie zu irgendwelchen Auswirkungen führt, die man durch Beobachtung überprüfen kann. Unsere übliche Anwendung von Einsteins Theorie beschäftigt sich mit der Schwarzschild-Lösung der Einsteinschen Feldgleichungen. Diese Schwarzschild-Lösung wurde unter der Annahme ausgearbeitet, dass bei großen Entfernungen von der Singularität, wo die Massen, bei großen Entfernungen wird der Raum eben, wie der Minkowski-Raum. Aber nach unserem jetzigen Bild muss das mit der Bedingung modifiziert werden, dass in großer Entfernung der Raum in den Raum der Einstein-de Sitter Metrik übergeht, die durch diese Gleichung hier beschrieben wird. Man kann ausarbeiten, wie man die Schwarzschild-Lösung modifizieren muss. Ich habe dies in einer Veröffentlichung gemacht, die vor Kurzem publiziert wurde. Dann bekommt man die Resultate, dass, wenn man eine Planetenbahn nimmt, die ungefähr rund ist, sogar unter der neuen Theorie dieser Planet immer weiter mit konstanter Geschwindigkeit und mit einem konstanten Radius seiner Bahn um die Sonne kreist. Diese Ergebnisse werden nicht durch die neue Theorie geändert, aber es gibt einige Ergebnisse, die sich ändern; diese Ergebnisse, dass die Geschwindigkeit konstant bleibt und der Radius der Bahn konstant ist, beziehen sich auf Einstein-Einheiten. Wenn wir zu atomaren Einheiten übergehen, dann bleibt die Geschwindigkeit immer noch konstant, die Geschwindigkeit ist dieselbe in allen Einheiten, weil wir die Lichtgeschwindigkeit bei eins halten und jede Geschwindigkeit nur einen gewissen Bruchteil davon darstellt, unabhängig davon, welche Einheiten wir verwenden. Der Radius der Bahn wird aber durch diese Transformation beeinflusst, und das bedeutet, dass der Bahnradius eines Planeten ausgedrückt in atomaren Einheiten kontinuierlich abnimmt, der Radius ist proportional zu t hoch minus 1. Die Planeten beschreiben alle eine nach innen laufende Spirale; das ist ein kosmologischer Effekt, der allen anderen physikalischen Effekten überlagert werden muss. Dies ist ein Effekt, den man beobachten können sollte, wenn man genügend genaue Beobachtungen der Planeten durchführt. Dann gibt es einen anderen Effekt, den man beobachten können sollte: der ist in Verbindung mit dieser Gleichung, die die Differenz zwischen dtau und dt angibt. dtau, die Zeit, die man in den Einsteinschen Gleichungen benutzt, ist dasselbe wie die Zeit, die durch die Bewegung der Erde um die Sonne beschrieben wird. Dies ist die Zeit, die Astronomen Ephemeridenzeit nennen, und sie haben diese Ephemeridenzeit seit Jahrhunderten benutzt, um die Ergebnisse ihrer Beobachtungen auszudrücken. Diese Ephemeridenzeit sollte, der Theorie nach, nicht dasselbe sein wie die Zeit, die durch Atomuhren gemessen wird. Nun, dies ist ein Effekt, den man beobachten können sollte, und die einwärts drehende spiralförmige Bewegung ist ein anderer. Ich möchte nun diskutieren, welche experimentellen Informationen es zu diesen Themen gibt. Wenn man diese zwei Zeitskalen vergleichen will, dann ist der beste Weg die Mondbewegung zu untersuchen. Die Mondbewegung am Himmel kann sehr genau beobachtet werden, ist aber vielen Störungen unterworfen, Störungen durch die Gezeiten, Störungen, die durch andere Planeten verursacht werden; diese Störungen sind für die Genauigkeit, die wir in dieser Arbeit benötigen, nicht vernachlässigbar. Diese Studie über die Mondbewegung wurde durch Van Flandern, der im Marineobservatorium in Washington arbeitet, über viele Jahre untersucht. Ich habe hier eine Zusammenfassung der Resultate hingeschrieben: N ist das Symbol, das für die Winkelgeschwindigkeit des Monds benutzt wurde, die Einheiten sind in Sekunden pro Jahrhundert ausgedrückt, cy bedeutet Jahrhundert. Die Beschleunigung N Punkt ist in Sekunden pro Jahrhundert zum Quadrat. Die Beschleunigung ist negativ, das bedeutet eine Verzögerung und hier sind Werte, die vor Kurzem erhalten wurden. Können Sie es sehen oder ist das Licht zu stark, können Sie vielleicht das Licht reduzieren? Es gibt da einen ganzen Satz von Zahlen, die von verschiedenen Forschern erhalten worden sind. Es gibt ein Ergebnis von Osterwinter und Cohen aus dem Jahr 1972, wo der Wert 38 plus oder minus 8 angegeben wird; ich habe noch frühere Schätzungen ausgelassen, die nicht so gut sind. Dann gibt es da einen Wert von Morrison und Ward aus dem Jahr 1975, erhalten nur durch die Beobachtung der Merkurtransite, d.h. die Zeit, die es dauert, bis Merkur vor der Sonne vorbeigezogen ist. Dann gibt es einen Wert von Muller aus der Untersuchung von antiken Eklipsen. Es gibt Aufzeichnungen von Eklipsen, die bis zu einer Zeit vor Christi Geburt zurückgehen. Nun, man könnte sagen, dass Beobachtungen, die vor so langer Zeit gemacht wurden, nicht für uns nützlich sein werden, weil deren Beobachtungsmethoden sehr primitiv waren, sie hatten keine präzisen Instrumente. Aber dennoch, wenn man eine Eklipse sehen kann, eine totale Eklipse an einem bestimmten Ort auf der Erde, dann ist das eine sehr eindeutige Information, man weiß, wann die Eklipse stattfand. Sie fand statt, als die Erde, die Sonne und der Mond alle aufgereiht waren. Und wenn man weiß, dass es an einem bestimmten Ort auf der Erdoberfläche eine totale Eklipse gab, dann ist dies eine sehr eindeutige Information. Nun, Muller hat die Aufzeichnungen in Klöstern von Eklipsen, die mehr als 2000 Jahre zurückgehen, studiert und man muss ein brauchbares Verständnis für die Sprache entwickeln, die die Leute benutzten, die diese Eklipsen aufzeichneten. Diese Beobachtungen haben den Vorteil, dass sie über eine sehr lange Zeitbasis gemacht sind. Nun, Muller bekommt als Ergebnis 30 plus oder minus 3. Es gibt einige jüngere Beobachtungen, die mithilfe von Mondmodellen gemacht wurden, und auch die Parameter, die durch Satellitenbeobachtungen gemacht wurden, und zwei unterschiedliche Forscher haben die Werte 30,6 und 27,4 erhalten. Nun, Van Flandern betrachtete all diese Werte für die Beschleunigung des Mondes und er fand als gewichteten Mittelwert der oben genannten Werte den Wert 28 plus oder minus 1,2. Dieses sind alle Beobachtungen mit der Ephemeridenzeit. Es gibt Beobachtungen mit der Atomzeit, die seit 1955 gemacht wurden. Seit 1955 wurde der Mond mit Atomuhren beobachtet. Das Ergebnis, das neueste Ergebnis des Atomzeitwertes von Van Flandern ist 21,5. Van Flandern hatte in zurückliegenden Jahren auch Resultate angegeben, die sich ganz maßgeblich von diesem Wert unterschieden. Er fand aber, dass es systematische Fehler in seinen früheren Ergebnissen gab, und diese systematischen Fehler sind, so hofft er, durch neue Berechnungen ausgemerzt und auch durch neue Beobachtungen jüngeren Datums. Nun, eine unterschiedliche Art der Beobachtung wurde mithilfe einer Laserentfernungsmessung des Mondes durch Leute gemacht, die am Jet Propulsion Laboratory arbeiten. Sie senden Licht zum Mond und beobachten das reflektierte Licht, und messen, wie lange die Reise dauerte und bekommen dann sehr genaue Schätzungen für die Mondentfernung; Calame und Mulholland haben daran gearbeitet und erhielten den Wert 24,6. Nun, ich habe gerade vor ein paar Wochen von Van Flandern gehört, dass diese Leute denken, dass es einen Fehler in der Berechnung gab, und mit einer neuen Korrektur sollte das auf 20,7 herunterkommen. Nun, Williams und andere benutzten auch die Laserentfernungsmessung des Mondes und bekamen den Wert 23,8. Nun, Van Flandern hat alle die Resultate berücksichtigt und gibt 22,6 als gewichteten Wert an. Nun, da ist eine Differenz zwischen diesem Wert und dem oben genannten, dieser Wert bezieht sich auf Atomzeit und der andere auf Ephemeridenzeit. Und diese Differenz gibt einen Hinweis auf die Richtigkeit dieser Theorie. Würde sich G nicht verändern, wenn man also an den alten Ideen festhält, dann sollte man dieselbe Beschleunigung des Mondes bekommen, ob man Ephemeridenzeit benutzt oder Atomzeit. Und die Beobachtungen scheinen die Idee zu unterstützen, dass es da einen Unterschied gibt. Nun, es gibt eine andere Methode, um diesen Effekt zu überprüfen, indem man schaut ob die Planeten eine Spirale nach innen beschreiben. Shapiro und seine Assistenten haben vor einigen Jahren daran gearbeitet und im Jahr 1975 einige Werte veröffentlicht. Ihre Methode war es, Radarwellen zu einem Planeten auf der Sonnenrückseite zu schicken und die reflektierten Radarwellen zu beobachten. Diese reflektierten Wellen sind extrem schwach, können aber dennoch beobachtet werden und man kann die Zeit messen, die sie für die Hin- und Rückreise benötigen, und dies gibt uns eine genaue Information über die Entfernung des Planeten; diese Zeit wird in Atomzeit gemessen. Da gab es einige Werte, die von Shapiro und seinen Assistenten in 1975 veröffentlicht wurden; N Punkt, die Mondbeschleunigung, die sie durch N teilten, die Geschwindigkeit, und diese Werte werden für die drei inneren Planeten angegeben, Merkur, Venus und Mars. Nun, man sieht, dass die Ergebnisse alle positiv sind, ein positives Resultat dort bedeutet, dass die Planeten sich spiralförmig nach innen bewegen, wenn der Planet sich spiralförmig nach außen bewegte, wäre es minus. Diese Resultate befürworten alle die Bewegung nach innen, aber man kann sehen, dass die Fehler, die wahrscheinlichen Fehler sehr groß sind, so groß wie der Effekt, den man misst. Shapiro betont dagegen, dass er eigentlich keinen Hinweis für eine Spirale nach innen gefunden hat, seine Ergebnisse wären mit der alten Theorie eines konstanten G konsistent. Da ist aber vielleicht doch ein schwacher Hinweis für die Spiralbewegung nach innen. Nun, zurzeit kann man sehr genaue Beobachtungen der Marsentfernung mit der Viking-Mondfähre machen, die im Jahr 1975 auf den Mars gebracht wurde. Auch Shapiro arbeitet an den Ergebnissen dieser Fähre. Er sagt, dass nur die Zeit, seitdem die Fähre auf den Mars gebracht wurde, keine genügend große Zeitbasis ergäbe, um diesen Effekt herausarbeiten zu können. Man muss diese Viking-Beobachtungen mit den früheren Mariner-Beobachtungen auf dem Mars kombinieren. Ich traf Shapiro letzten März und er sagte mir, dass er nun an dem Problem arbeitet, die Viking-Beobachtungen vor kurzem mit den Mariner-Beobachtungen zu kombinieren, und es wird sechs Monate dauern, bevor er eine endgültige Antwort hat. Shapiro, sollte ich sagen, ist ein sehr vorsichtiger Beobachter und publiziert nichts, bevor er nicht ziemlich sicher ist, dass es richtig ist. Also müssen wir ein paar weitere Monate warten und dann haben wir endgültige Resultate zu der Frage, ob es die Spiralbewegung der Planeten nach innen gibt oder nicht, und das würde es vermutlich sehr sicher machen, ob diese neue Theorie richtig ist oder nicht. Ich frage mich, wie viel Zeit ich noch habe, kann ich noch 5 oder 10 Minuten fortfahren oder soll ich es abkürzen? Eine andere Frage, auf die ich mich beziehen könnte, hat zu tun mit der Mikrowellenstrahlung, da gibt es diese Mikrowellenstrahlung, eine Wellenlänge von nur ein paar Zentimetern, die beobachtet wird und aus allen Himmelsrichtungen kommt und auf die Erde fällt; es ist eine sehr kalte Strahlung, es ist eine Schwarzkörperstrahlung, die, soweit man beobachten kann, einer absoluten Temperatur von 2.8 Grad entspricht; man hat die Strahlung erklärt indem man sagt, dass sie das Resultat eines großen Feuerballs ist, der in den früheren Stadien des Universums existierte. Er war am Anfang extrem heiß, hat sich aber durch die Expansion des Universums während des gesamten Zeitraums abgekühlt und diese sehr kalte Strahlung, 2,8 Grad, ist alles was von dem ursprünglichen Feuerball übrig geblieben ist. Nun würde ich Ihnen gerne zeigen, wie diese Mikrowellenstrahlung die Ideen, die ich hier präsentiert habe, stark unterstützt, besonders die Große-Zahlen-Hypothese. Betrachten wir diese Strahlungstemperatur von 2,8 Grad. Das liefert uns eine große Zahl, kT, Boltzmann Konstante, kT, die Energie, sozusagen die durchschnittliche Energie dieses Mikrowellenspektrums geteilt durch, sagen wir, die Protonenruhemasse mpc2. Wenn man dies ausrechnet, bekommt man einen Wert heraus von ungefähr 2.5 mal 10 hoch minus 13. Man kann 10 hoch minus 13 als das Reziproke einer sehr großen Zahl betrachten, und dass es daher sich ändern sollte nach dem t hoch minus 1/3 Gesetz als ungefähr der Kubikwurzel von 10 hoch 39. Das bedeutet, dass die Temperatur dieser Mikrowellenstrahlung sich nach dem t hoch minus 1/3 Gesetz verringern sollte. Nun, das passt zusammen mit dem Ausdehnungsgesetz, das wir vorher hatten. Wir hatten die Ausdehnung als Funktion der Entfernung der Galaxie also proportional zu t hoch 1/3, die Wellenlänge jeder der Komponenten in der Schwarzkörperstrahlung sollte sich also mit t hoch 1/3 erhöhen, die Frequenz mit t hoch minus 1/3 und die Temperatur der Schwarzkörperstrahlung sollte sich daher nach dem t hoch minus 1/3 Gesetz verringern. Wir bekommen also eine Konsistenz auf diesem Weg, diese Zahlen sind ganz anders als die der alten Theorie; nach der alten Theorie sollten die Galaxien sich mit einer ungefähr konstanten Geschwindigkeit entfernen, und die Temperatur der Mikrowellenstrahlung sollte sich nach dem t hoch minus 1 Gesetz verringern. Nun, das t hoch minus 1/3 Gesetz ist von dem Große-Zahlen-Gesetz abgeleitet und es passt zu dem Expansionsgesetz. Ich glaube, dass dies eine recht starke Bestätigung unserer Idee ist, es wäre auch möglich gewesen, dass Dinge falsch gegangen wären. Das bedeutet, dass der Feuerball sich seit der Zeit sehr kurz nach dem Urknall nach diesem Gesetz verringert hat. Nach den älteren Ideen startete dieses Gesetz für die Abkühlung der Schwarzkörperstrahlung erst zu einer bestimmten Zeit, als der Feuerball sich von der Materie abkoppelte; diese Idee einer Art von Abkopplung, die auf einer bestimmten Stufe in der Entwicklung des Universums stattfindet, ist natürlich der Idee der Große-Zahlen-Hypothese ganz fremd, nach der keine Zeit in die Theorie in einer wichtigen Bedeutung auf einem Weg hineinkommen darf, die eine große Zahl liefert, die eine Konstante ist. Es muss noch viel zusätzliche Arbeit in Verbindung mit der Entwicklung der Theorie gemacht werden und mehrere Leute haben die Frage untersucht. Unglücklicherweise haben eine ganze Reihe von Leuten Veröffentlichungen darüber geschrieben, die die fundamentalen Ideen der Theorie nicht richtig verstanden und die falsche Schlüsse gezogen haben. Man hat gesagt, dass diese Theorie unhaltbar ist, weil es bedeuten würde, dass in der geologischen Vergangenheit die Temperaturen auf der Erde viel zu heiß gewesen wären, um Leben auf der Erde zu einer Zeit zu erlauben, als Leben auf der Erde bekanntermaßen existiert hat. Nun, sie haben den Effekt der Spiralbewegung nach innen nicht mit einbezogen, tatsächlich wurde die Spiralbewegung erst vor etwas mehr als vor einem Jahr ausgearbeitet, und das hilft sehr viel mit dieser Erdtemperatur, weil es bedeutet, dass zu dieser Zeit in der Vergangenheit die Erde ein gutes Stück weiter weg war als sie heute ist. Ich höre hier besser auf und möchte sagen, dass viele Leute an diesem Thema arbeiten. Insbesondere gibt es eine ganze Schule, die durch Canuto beim Space Research Center in New York geleitet wird, und das Resultat einer Menge von Berechnungen, die er bis heute durchgeführt hat, ist, dass es keine unvereinbare Differenz gibt, die sich gezeigt hat. Danke sehr.

Paul Dirac (1979)

Does the Gravitational Constant Vary?

Paul Dirac (1979)

Does the Gravitational Constant Vary?

Comment

Paul Dirac attended the first 10 physics meetings organised in Lindau and gave talks at all except one. In 1979 he choose to talk about a subject based on a more than 40-year old love of his, the so-called Large Numbers Hypothesis from 1937. This hypothesis emanated from the fact that the strength of the electric force today is about 40 orders of magnitude larger than the gravitational force and that this is of the same order of magnitude as the age of the universe (in atomic time units). In his lecture Dirac assumes that the two numbers always have been proportional to each other. From this he draws a number of interesting conclusions. One of them is that the gravitational constant varies with the age of the universe and is decreasing. Another conclusion is that the only viable model of the universe is based on the one that Albert Einstein and Willem de Sitter published in 1932. Dirac’s assumptions lead to effects that should be observable. One of them is a difference between time as measured by an atomic clock and time as measured by the motion of the earth. Another effect is a very slow spiralling of the planetary orbits towards the sun. Due to a revival of interest in cosmology in the 1950’s, observational techniques for high-precision measurements of astrophysical effects had been developed. Irwin Shapiro had bounced radar signals on the planets and measured different parameters and the Apollo collaboration had bounced laser pulses from the moon. At the end of his lecture, Dirac discusses the status of the observations and concludes that they cannot yet confirm or rule out his theory.

Anders Bárány

Cite


Specify width: px

Share

COPYRIGHT

Cite


Specify width: px

Share

COPYRIGHT