by Anders Bárány

Cosmology is the science of the structure of the Universe. Today cosmology also includes the study of the birth and development of the Universe, which earlier was termed cosmogony. When Albert Einstein worked out the general theory of relativity in the beginning of the 20th Century, he invented a formidable mathematical tool. This tool can be used to create a large set of mathematical models of hypothetical universes. By studying their properties and comparing with various observations, one hopes to reach a better understanding of the particular universe that we call “the Universe”.

Nobel Laureate George Smoot Lecturing on Cosmology in Lindau (2010)
Nobel Laureate George Smoot Lecturing on Cosmology in Lindau (2010)

However, as is well known, Albert Einstein did not receive his 1921 Nobel Prize for his relativity theories, but mainly “for his discovery of the law of the photoelectric effect”. Hence, one might argue that the first Nobel Prize in the field of cosmology was given to Victor Hess in 1936 “for his discovery of cosmic radiation”. One can also argue about the classification of some other prizes, but it is quite clear that the 1978 Nobel Prize, given to Arno Penzias and Robert Wilson “for their discovery of cosmic microwave background radiation”, belongs to the true cosmology prizes. Interestingly enough, the satellite project COBE, that was started to study the background radiation discovered by Penzias and Wilson, made two discoveries that – yet again – resulted in a Nobel Prize: in 2006, John Mather and George Smoot were honoured “for their discovery of the blackbody form and anisotropy of the cosmic microwave background radiation”.

Just five years later, in 2011, Saul Permutter, Brian Schmidt and Adam Riess received the Nobel Prize “for the discovery of the accelerating expansion of the Universe through observations of distant supernovae”. The three scientists are representatives of two research teams who were using the red shift of the light from distant supernovae to study the expansion of the Universe. The idea was to measure the decrease of the expansion rate with high precision. But both teams discovered that the expansion of the Universe seems to be accelerating rather than deccelerating. Later studies have corroborated this interpretation of the results and today most astrophysicists (and the Royal Swedish Academy of Sciences) agree on the existence of the accelerated expansion of the Universe.

Historic Lindau Lectures (1951-2003) and Cosmology
Cosmology has for long been a science with a dominance of theoretical models and rather few observations. This has attracted some of the sharpest minds and there is no surprise that many of the Nobel Laureates lecturing at the Lindau Meetings have been interested in the history and science of cosmology, even if their own prize motivations were not related to cosmology. Albert Einstein himself lived until 1955, so he could in principle have attended some of the very first Lindau Meetings. But after leaving Europe in 1933, he never came back, so his voice is not present among the many historic lecture recordings.

But Einstein’s voice can be heard through the astrophysicist Subrahmanyan Chandrasekhar, who received the Nobel Prize in Physics in 1983 “for his theoretical studies of the physical processes of importance to the structure and evolution of the stars”, since he quotes Einstein in his first lecture at the Lindau Meetings in 1988. Its title was “The Founding of General Relativity and its Excellence” and the lecture first gives a pedagogical account of the way that Albert Einstein initially realized the need to enlarge the special theory of relativity so that it would include gravitational forces, which took him ten years of hard work. In the second part of his lecture, Chandrasekhar discusses why physicists at the time of the lecture believed in the theory of general relativity. He argues that this belief is not based on experimental evidence but rather comes more from the internal consistency of the theory and the fact that it does not contradict other physical theories.

Subrahmanyan Chandrasekhar (1988) - The Founding of General Relativity and Its Excellence

Ladies and gentlemen, Einstein is by all criteria the most distinguished physicist of this century. No physicist in this century has been accorded a greater acclaim. But it is an ironic comment that even though most histories of 20th century physics starts with the proforma statement that this century began with two great revolutions of thought – the general theory of relativity and the quantum theory. The general theory of relativity has not been a stable part of the education of a physicist, certainly not to the extent quantum theory has been. Perhaps on this account a great deal of my ethology has created an own Einstein’s name and the theory of relativity which he founded seventy years ago. Even great physicists are not exempt from making statements which, if not downright wrong, are at least misleading. Let me quote for example a statement by Dirac made in 1979 and on occasion celebrating Einstein’s 100th birthday. This is what he said: he was not claimed to account for some results of observation, far from it. His entire procedure was to search for a beautiful theory, a theory of a type that nature will choose. He was guided only by considerations of the beauty of his equations.” Now this contradicts statements made by Einstein himself on more than one occasion. Let me read what he said in 1922 in a lecture he gave titled “How I Came to Discover the General Theory of Relativity”. I read Einstein’s statement: could be discussed within the framework of the special theory of relativity. I wanted to find out the reason for this but I could not attain this goal easily. The most unsatisfactory point was the following: although the relationship between inertia and energy was explicitly given by the special theory of relativity, the relationship between inertia and weight or the energy of the gravitational field was not clearly elucidated. I felt that this problem could not be resolved within the framework of the special theory of relativity. The breakthrough came suddenly, one day I was sitting on a chair in a patent office in Bern, suddenly a thought struck me. If a man falls freely, he would not feel his weight. I was taken aback, this simple thought experiment made a deep impression on me. This led me to the theory of gravity. I continued my thought: A falling man is accelerated, then what he feels and judges is happening in the accelerated frame of reference. I decided to extend the theory of relativity to the reference frame with acceleration. I felt that in doing so I could solve the problem of gravity at the same time. A falling man does not feel his weight because in his reference frame there is a new gravitational field which cancels the gravitational field due to the earth. In the accelerated frame of reference we need a new gravitational field. Perhaps it is not quite clear from what I have read precisely what he had in mind. But two things are clear. First, he was guided principally by the equality of the inertial and gravitational mass, an empirical fact which has been really accurately determined and in fact probably the most well established experimental fact. The second point is that this equality of the inertial and the gravitational mass led him to formulate a principle which he states very briefly and which has now come to be called ‘the principle of equivalence’. Let me try to explain more clearly what is involved in these statements I have just made. The first point in order to do that I have to go back in time, in fact I have to go back 300 years to the time when Newton wrote the Principia. The fact that the publication of the Principia is 300 years old was celebrated last year in many places. Now,Newton notices already within the first few pages of the Principia that the notion of mass and weight are two distinct concepts based upon two different notions. The notion of mass follows from his second law of motion which states that if the subject is a body till it falls, then it experiences an acceleration in such a way that the quantity, which we call the mass of the body, times the acceleration is equal to the force. Precisely, if you apply a force to one cubic centimetre of water and measure the acceleration which it experiences and then you find that another piece of water, when subjected to the same force, experiences ten times the acceleration, then you can conclude that the mass of the liquid you have used is one tenth cubic centimetre. In other words then, the notion of mass is a consequence of his law of motion, it is a consequence of proportionality in the relation that the force is equal to the mass times the acceleration. But the notion of weight comes in a different way. If you take a piece of matter and it is subject to the gravitational field, say of the earth, then you find that the attraction which it experiences in a given gravitational field is proportional to what one calls the weight. For example, if you take a piece of liquid, say water, and you find that the earth attracts it by force, which you measure and you find that another piece of the same matter experiences gravitational attraction which is, say ten times more, then you say the rate is ten times greater. In other words the notion of weight and the notion of mass are derived from two entirely different sets of ideas. And Newton goes on to say that the two are the same and in fact, as he says, as I have found experiments with pendula made accurately. The way he determined the quality of the inertial and the gravitational mass was simply to show that a period of a pendulum, a certain pendulum, depends only on its length and not upon the weight or the mass or the body or the constitution of it. And he established the equality of the inertial and gravitational mass to a few parts in a thousand. Essentially later Wentzel improved the accuracy to a few parts in several tens of thousands. Earlier in this century yet was shown the equality to one part at ten to the eleven. And more recently the experiments of Dicke and Braginskii have shown that they are equal to one part at ten to the minus thirteen. Now this is a very remarkable fact, the notion of mass and weight are fundamental in physics. And when one equates them by the fact of experience and this of course is basic to the Newtonian theory. Herman Wilde called it an element of magic in the Newtonian theory. And one of the objects of Einstein’s theory is to illuminate this magic. But the question of course is, you want to illuminate the magic, but how? For this Einstein developed what one might call today the principle of equivalence. Now let me illustrate his ideas here. Here is the famous experiment with an elevator or a lift, which Einstein contemplated. Now the experiment is following, here is a lift with a rocket booster. Let us imagine that this lift is taken to a region of space which is far from any other external body. If this elevator is accelerated by a value equal to the acceleration of gravity, then the observer will find that if he drops a piece of apple or a ball, it will fall down towards the bottom with a certain acceleration. On the other hand, if the rockets are shut off and the rocket simply cools, then if he leaves the same body, then it remains where it was. Now you perform the experiment now on the same elevator shaft on the earth and you find that if he leaves the body, then it falls down to the ground in the same way as it did when this was accelerated and not subject to gravity. Now suppose this elevator is put in a shaft and falls freely towards the centre of the earth. Then,when you leave the body there, it remains exactly as it was. In other words, in this case the action of gravity and the action of acceleration are the same. On the other hand you cannot conclude from this that action of gravity and the action of uniform acceleration are the same. Let us now perform the same experiment in which the observer has two pieces of bodies instead of just one. Then if the rocket is accelerated, then he will find that both of them fall along parallel lines. And again, if the acceleration is stopped, then the two bodies will remain at the same point. Now if you go to the earth and similarly you have these two things, then the two will fall but not exactly in parallel lines, if the curvature of the earth is taken into account. The two lines in which they will drop will intersect at the centre of the earth. Now if the same experiment is performed with a lift which is falling freely, then as the lift approaches the centre of the earth, the two objects will come close together. And this is how Einstein showed the equivalence locally of a gravitational field, of a uniform gravitational field, with a uniform acceleration, but showed nevertheless that if the gravitational field is not uniform, then you can no longer make that equivalence. Now, in order to show how from this point Einstein derived his principle of equivalence in a form in which he could use it to find gravity, I should make a little calculation. Now, everyone knows that if you describe the equations of motion in, say Cartesian coordinates, then the inertial mass times the acceleration is given by the gravitational mass times the gradient of the potential, gravitational potential. There are similar equations for X and Y. Suppose we want to realign this equation in a coordinate system which is not XYZ, but a general curvilinear coordinates. That is, instead of XYZ you change to coordinates Q1, Q2, Q3. And you can associate with the general curvilinear system in metric in the following way: The distance between two neighbouring points in Cartesian framework is the DX2 and DZ2. On the other hand, if you find the corresponding distance for general curvilinear coordinates, it will be a certain quantity each alpha beta with the two index quantity which will be functions of the coordinates times DQ Alpha, DQ Beta. For example in spherical polar coordinates it will be DR2 + R2 D Theta2 + R2Psi2Theta D Phi2. But more generally that will be the kind of equation you will have. Now let us suppose you write this equation down and ask what the gravitational equations become, then you find that M inertial times this quantity Q.Beta that is the Q..Beta, the acceleration in the coordinate beta times this quantity contracted is equal to the minus the inertial mass times a certain quantity Gamma, Alpha, Beta, Gamma, called the Christoffel symbols, but it doesn’t matter what they are, they are functions of the coordinate, functions of the geometry, times Q.Beta, Q.Gamma, and then minus the same gravitational mass times the gradient of the potential. You see, the main point of this equation is to show that the acceleration in the coordinate, which is corresponding to that, when you write it down in general curvilinear coordinates, the acceleration consists of two terms. A term which is geometrical in origin which is a co-efficient the inertial mass in a term from the gravitational field. And if you accept the equality between the inertial mass and the gravitational mass, then the geometrical part of the acceleration and the gravitational part are the same. And this is Einstein’s remark, he said And that is the starting point of his work. He wanted to abolish the distinction between the geometrical part of the acceleration and the gravitational part by saying that all acceleration is metrical in origin. Einstein’s conclusion that in the context of gravity all accelerations are metrical in origin is as staggering in its own way as rather for its conclusion when Geiger and Marsden first showed him the result of the experiments on the large angle scattering of alpha-rays, another remark was it was as though you had fired a fifteen inch shell at a piece of tissue paper and it had bounced back and hit you. In the case of Rutherford, he was able to derive his scattering over night but it took Einstein many years, in fact ten years almost, to obtain his final field equations. The transition from the statement that all acceleration is metrical in origin to the equations of the field in terms of the Riemann tensor is a giant leap. And the fact that it took Einstein three or four years to make the transition is understandable, indeed it is astonishing that he made the transition at all. Of course, one can claim that mathematical insight was needed to go from his statement about the metrical origin of gravitational forces to formulating those ideas in terms of Riemannian geometry. But Einstein was not particularly well disposed to mathematical treatments and particularly geometrical way of thinking in his earlier years. For example, when Minkowski wrote, a few years after Einstein had formulated his special theory of relativity by describing the special relativity in terms of what we now call Minkowski geometry, in which we associate geometric in spacetime, which is DT2– DX2- DY 2- DC2. And he showed that rotations in a spacetime with this metric is equivalent to a special relativity. Einstein’s remark on Minkowski’s paper was first that, well, we physicists show how to formulate the laws of physics, and mathematicians will come along and say how much better they can do it. And indeed he made the remark that Minkowski’s work was “überflüssige Gelehrsamkeit” -“unnecessary learnedness”. But it was only in 1911 or 1912 that he realised the importance of this geometrical way of thinking and particularly with the aide and assistance of his friend Marcel Grossmann, he learned sufficient differential geometry to come to his triumph and conclusion with regard to his field equations in 1915. But even at that time Einstein’s familiarity with Riemannian geometry was not sufficiently adequate. He did not realise that the general co-variants of his theory required that the field equations must leave four arbitrary functions free. Because of his misunderstanding here, he first formulated his field equations by equating the rigid tensor with the energy-momentum tensor. But then he realised that the energy-momentum tensor must have its co-variant divergence zero, but the covariant divergence of the digitants is not zero and he had to modify it to introduce what is the Einstein tensor. Now I do not wish to go into the details more, but only to emphasise that the principle motive of the theory was a physical insight and it was the strength of this physical insight that led him to the beauty of the formulation of the field equations in terms of Riemannian geometry. Now I want to turn around and say that why is it that we believe in the general theory of relativity. Of course there has been a great deal of effort during the past two decades to confirm the predictions of general relativity. But these predictions relate to very, very small departures from the predictions of the Newtonian theory. And in no case more than a few parts in a millionth, the confirmation comes from the reflection of light, as light traverses a gravitational field and the consequent time delay. The procession of the perihelion of Mercury and the changing period of double stars, the close double stars as pulsars, due to the emission of gravitational radiation. But in no instance is the effect predicted more than a few parts in a million departures from Newtonian theory. And in all instances it is no more than verifying the values of one or two or three parameters in expression of the equations of general relativity, in what one calls the post-Newtonian approximation. But one does not believe in a theory in which only the approximations have been confirmed. For example, if you take the Dirac theory of the electron and the only confirmation you had was the fine structure of ionised helium in partial experiments, a conviction would not have been as great. And suppose there had been no possibility in the laboratory of obtaining energies of a million electron volts, then the real experiment, the real verification of Dirac’s ideas, prediction of anti-matter, the creation of electron-positron-paths would not have been possible. And of a conviction in the theory would not have been as great. But it must be stated that in the realm of general relativity no phenomenon which requires the full non-linear aspects of general relativity have been confirmed, why then do we believe in it? I think of a belief in general relativity comes far more from its internal consistency and from the fact that, whenever general relativity has an interface with other parts of physics it does not contradict any of them. Let me illustrate these two things in the following way. We all know that the equations of physics must be causal. Essentially what it means is that if you make a disturbance at one point, the disturbance cannot be followed on another point for a time light will take it from one point to another. Technically one says that the equations of physics must allow an initial value formulation. That is to say you give the initial data on a space like surface and you show that the only part of the spacetime in which the future can be predicted is that which is determined by sending out light rays from the boundary of the spacetime region to the point. In other words, if for example, suppose you have a space like slice, then you send a light ray here and you light a region here, it is in that region that the future is defined. Now, when Einstein formulated the general theory of relativity, he does not seem to have been concerned whether his equations allowed an initial value formulation. And in fact to prove, in spite of the non-numerity of the equations, the initial value formulation is possible in general relativity, was proved only in the early ‘40s by Lichnerowicz in France. So that even though, when formulating the general theory of relativity, the requirement that satisfied the laws of causality was not included. In fact it was consistent with it. Or let us take the notion of energy. In physics, the notion of energy is of course central, we define it locally and it is globally concerned. In general relativity for a variety of reasons I cannot go into you cannot define a local energy. On the other hand you should expect on physical grounds that you have an isolated matter and even if it really emits energy, then globally you ought to be able to define a quantity which you could call the energy of the system. And that, if the energy varies it can only be because gravitational waves cross the boundary at a sufficiently large distance. There’s a second point, of course the energy of a gravitating system must include the potential energy of the field itself, but the potential energy in the Newtonian theory has no lower bound. By bringing two points sufficiently close together you can have an infinite negative energy. But in general relativity you must expect that there is a lower bar to the energy of any gravitating system. And if you take a reference with this lower bar as the origin of measuring the energy, then the energy must always be positive. In other words, if general relativity is to be consistent with other laws of physics, you ought to be able to define for an isolated system, yet global meaning for its energy and you must also be able to show that the energy is positive. But actually this has been the so-called positive energy conjecture for more than sixty years. And only a few years ago it was proved rigorously by Ed Witten and Yau. Now, in other words then that, even though Einstein formulated the theory from very simple considerations, like all accelerations must be metrical in origin, and putting it in the mathematical framework of Riemannian geometry, it nevertheless is consistent in a way in which its originator could not have contemplated. But what is even more remarkable is that general relativity does have interfaces with other branches of physics. I cannot go into the details but one can show that if you take a black hole and have the Dirac waves reflected and scattered by a black hole, then there are some requirements of the nature of scattering which the quantum theory requires. But even though in formulating this problem in general relativity no aspect of quantum theory is included, the results one gets are entirely consistent with the requirements of the quantum theory. In exactly the same way general relativity has interfaces with thermodynamics and it is possible to introduce the notion of entropy, for example in the context of what one generally calls Hawking radiation. Now, certainly thermodynamics must not be incorporated in founding general relativity, but one finds that when you find the need to include concepts from other branches of physics in consequences of general relativity, then all these consequences do not contradict branches of other parts of physics. And it is this consistency with physical requirements, this lack of contradiction with other branches of physics, which was not contemplated in its founding, and it´s these which gives one confidence in the theory. Now, I'm afraid I do not have too much time to go into the other aspect of my talk namely why is the general theory an excellent theory. Well, let me just make one comment. If you take a new physical theory, then it is characteristic of a good physical theory, that it isolates a physical problem which incorporates the essential features of that theory and for which the theory gives an exact solution. For the Newtonian theory of gravitation you have the solution to the Kepler problem. For quantum mechanics, relativistic or non-relativistic, you have the predictions of the energy of the hydrogen atom. And in the case of the Dirac theory, I suppose the creation of formula and the pair production. Now, in the case of the general theory of relativity you get asked, is there a problem which incorporates the basic concepts of general relativity in its purest form. In its purest form, the general theory of relativity is a theory of space and time. Now, a black hole is one whose construction is based only on the notion of space and time. The black hole is an object which divides the three dimensional space into two parts, an interior part and an exterior part, bound by a certain surface which one calls a horizon. And the reason for calling it that “the horizon” is that no person, no observer in the interior of the horizon can communicate with the space outside. So your black hole is defined as a solution of Einstein’s vacuum equations which has a horizon, which his convex and which is asymptotically flat, in the sense that this spacetime is minkowskian at sufficiently large distances. It is a remarkable fact that these two simple requirements provide, in the basis of general relativity, a unique solution to the problem. A solution which has just two parameters, the mass and the angular momentum. This is a solution discovered in 1962. The point is that if you ask what a black hole solution consistent to general relativity is, you find that there’s only one simple solution, its two parameters and all black holes which occur in nature must belong to it. One can say the following: If you see macroscopic objects, then you see microscopic objects all around us, if you want to understand them it depends upon a variety of physical theories, a variety of approximations and you understand it approximately. There is no example in macroscopic physics of an object which is described exactly and with only two parameters. In other words one could say that almost by definition the black holes are the most perfect objects in the universe, because their construction requires only the notions of space and time. It is not vulgarised by any other part of physics with which we are mostly dealing with. And one can go on and point out the exceptional mathematical perfectness of the theory of black holes. Einstein, when he wrote his last paper, his first paper announcing his field equations stated, that anyone, scarcely anyone who understands my theory can escape its magic. For one practitioner at least, the magic of the general theory of relativity is in its harmonious mathematical character and the harmonious structure of its consequences. Thank you.

Sehr geehrte Damen und Herren, Einstein ist nach allen Maßstäben der herausragendste Physiker dieses Jahrhunderts. Kein Physiker dieses Jahrhunderts hat jemals mehr Anerkennung erhalten. Es ist aber ein ironischer Kommentar, dass gleichwohl die meisten Geschichtsbeschreibungen der Physik des 20. Jahrhunderts mit der Proforma-Aussage beginnen, dieses Jahrhundert finge mit den beiden großen Gedankenrevolutionen an – der allgemeinen Relativitätstheorie und der Quantentheorie. Die allgemeine Relativitätstheorie war kein fester Bestandteil der Ausbildung eines Physikers, sicher nicht in dem Ausmaß, wie die Quantentheorie es war. Vielleicht hat aus diesem Grund ein großer Teil meiner Ethologie einen eigenen Einstein-Namen geschaffen und die Relativitätstheorie, die er vor siebzig Jahren begründete. Auch große Physiker sind nicht davon befreit, Behauptungen aufzustellen, die vielleicht nicht regelrecht falsch, aber zumindest irreführend sind. Als Beispiel möchte ich eine Aussage von Dirac zitieren, die er 1979 anlässlich Einsteins 100. Geburtstag machte. Er sagte: versuchte er nicht, einige Beobachtungsergebnisse zu erklären, er war weit davon entfernt. Seine gesamte Prozedur bestand darin, eine schöne Theorie zu suchen, eine Theorie der Art, wie sie die Natur wählen wird. Er wurde allein von Überlegungen der Schönheit dieser Gleichungen geleitet.“ Das steht nun im Widerspruch zu den Aussagen, die Einstein selber mehr als einmal getätigt hat. Ich möchte Ihnen vorlesen, was er 1922 in einer Vorlesung sagte, die den Titel hatte „Wie ich dazu kam, die allgemeine Relativitätstheorie zu entdecken“. Ich lese Einsteins Aussage vor: im Rahmen der speziellen Relativitätstheorie diskutiert werden konnten. Ich wollte den Grund dafür herausfinden, aber das Ziel war nicht einfach zu erreichen. Der Punkt, der am unbefriedigendsten war, war der Folgende: Obwohl die Beziehung zwischen Masse und Energie ausdrücklich durch die spezielle Relativitätstheorie beschrieben wurde, war die Beziehung zwischen Masse und Gewicht oder Energie des Gravitationsfelds nicht deutlich erklärt. Ich merkte, dass dieses Problem nicht im Rahmen der speziellen Relativitätstheorie gelöst werden konnte. Der Durchbruch kam plötzlich eines Tages. Ich saß auf meinem Stuhl im Patentamt in Bern und hatte plötzlichen einen Einfall: Wenn sich eine Person im freien Fall befindet, würde sie ihr eigenes Gewicht nicht spüren. Ich war erstaunt, dieses einfache Gedankenexperiment hatte mich stark beeindruckt. Dies führte mich zur Gravitationstheorie. Ich führte meinen Gedanken fort: Eine Person im freien Fall wird beschleunigt, was sie dann fühlt und urteilt, passiert im beschleunigten Bezugssystem. Ich beschloss, die Relativitätstheorie hin zum beschleunigten Bezugssystem zu erweitern. Ich merkte, dass ich dadurch das Problem der Gravitation gleichzeitig lösen konnte. Eine Person im freien Fall spürt ihr Gewicht nicht, da es in ihrem Bezugssystem ein neues Gravitationsfeld gibt, das das Gravitationsfeld der Erde aufhebt. Im beschleunigten Bezugssystem benötigen wir ein neues Gravitationsfeld. Vielleicht geht aus dem Text, den ich vorgelesen habe, nicht ganz deutlich hervor, an was er dachte. Aber zwei Dinge sind klar. Erstens wurde er grundsätzlich von der Gleichheit der trägen und der schweren Masse geleitet, ein empirischer Fakt, der sehr genau ermittelt wurde und in der Tat wahrscheinlich die am besten bewiesene experimentelle Tatsache ist. Zweitens führte ihn diese Gleichheit der trägen und schweren Masse zu der Formulierung eines Prinzips, das er sehr kurz schildert und das mittlerweile Äquivalenzprinzip genannt wird. Lassen Sie mich genauer erklären, worauf sich diese Aussagen beziehen, die ich gerade gemacht habe. Zunächst muss ich dafür einen Zeitsprung machen, nämlich 300 Jahre zurück, in die Zeit als Newton die Principia verfasste. Die Tatsache, dass die Veröffentlichung der Principia 300 Jahre her ist, wurde letztes Jahr vielerorts gefeiert. Newton erwähnt bereits auf den ersten Seiten der Principia, dass der Begriff von Masse und Gewicht zwei unterschiedliche Konzepte sind, die auf unterschiedlichen Auffassungen basieren. Die Auffassung von Masse folgt aus seinem zweiten Bewegungsgesetz, das besagt, dass, wenn man einen Körper einem Fall unterwirft, so beschleunigt er so, dass die Größe, die wir die Masse des Körpers nennen, mal Beschleunigung gleich der Kraft ist. Konkret heißt das, wenn eine Kraft auf einen Kubikzentimeter Wasser einwirkt und man die Geschwindigkeit misst, die darauf wirkt, und man dann ein anderes Teil Wasser findet, das der selben Kraft unterliegt und 10 Mal schneller ist, schließen wir daraus, dass die Masse der Flüssigkeit, die man verwendet hat, ein Zehntel Kubikzentimeter ist. Anders gesagt, ist die Auffassung von Masse eine Konsequenz seines Bewegungsgesetzes, sie ist eine Konsequenz aus dem Verhältnis, dass die Kraft gleich Masse mal Beschleunigung ist. Aber die Auffassung von Gewicht ist anders. Wenn man eine Materie hat, die dem Gravitationsfeld, z. B. der Erde unterliegt, findet man, dass die Anziehung, die auf sie wirkt, in einem vorgegebenen Gravitationsfeld proportional zum sogenannten Gewicht ist. Wenn man zum Beispiel eine Flüssigkeit wie Wasser nimmt und feststellt, dass die Erde sie durch ihre Kraft anzieht, was man misst und wenn man herausfindet, dass auf ein anderes Stück derselben Materie Gravitationsanziehung wirkt, die zehn Mal so hoch ist, sagt man, dass die Rate das Zehnfache beträgt. Anders gesagt, die Auffassung von Gewicht und die Auffassung von Masse gehen von zwei ganz unterschiedlichen Überlegungen aus. Und Newton geht noch weiter und sagt, dass beide identisch sind und in der Tat wie er sagt, hat er es mit Versuchen mit Pendeln herausgefunden, die genau hergestellt wurden. Die Art und Weise, wie er die Gleichheit von träger und schwerer Masse bestimmte, war einfach zu zeigen, dass die Schwingungsdauer eines Pendels allein von seiner Länge und nicht von Gewicht oder Masse des Körpers oder Materialien des Pendels abhängt. Die Genauigkeit, mit der Newton die Gleichheit der trägen und schweren Masse maß, lag bei ein paar Teilen in tausend. Wesentlich später konnte Wentzel die Genauigkeit von Newton um viele Zehnerpotenzen übertreffen. Eine weitere deutliche Steigerung gelang Anfang dieses Jahrhunderts mit einer Genauigkeit von 1:10 hoch 11. Und erst in jüngerer Vergangenheit erzielten Dicke und Bragisnkii eine Genauigkeit von 1:10 hoch -13. Das ist eine bemerkenswerte Tatsache, das Verhältnis von Masse und Gewicht ist ein wesentlicher Bestandteil der Physik. Und man setzt sie gleich durch die Tatsache aus der Erfahrung, und dies ist natürlich die Grundlage für die Newtonsche Theorie. Herman Wilde bezeichnete dies als ein Element der Magie in der Newtonschen Theorie. Und ein Ziel von Einsteins Theorie ist es, diese Magie zu beleuchten. Die Frage ist jetzt aber, wie man diese Magie aufklären will. Zu diesem Zwecke entwickelte Einstein das heute bekannte Äquivalenzprinzip. Seine Ideen möchte ich veranschaulichen. Da ist das bekannte Fahrstuhlexperiment, das Einstein sich überlegte. Das Experiment sieht so aus, wir haben einen Fahrstuhl, mit einem Raketentriebwerk. Nehmen wir an, dass sich dieser Fahrstuhl im Weltraum fernab von allen externen Massen befindet. Wenn dieser Fahrstuhl mit einem Wert, der gleich dem Wert der Gravitationsbeschleunigung ist, beschleunigt wird, wird der Beobachter feststellen, dass ein Gegenstand wie ein Apfelstück oder ein Ball, den er fallen lässt, mit einer gewissen Beschleunigung auf den Boden fällt. Wenn das Raketentriebwerk aber andererseits ausgeschaltet ist und die Rakete nur treibt, dann bleibt derselbe Körper, wo er war, wenn er ihn loslässt. Wenn man das Experiment nun mit dem gleichen Fahrstuhlschacht auf der Erde durchführt, wird man feststellen, wenn er den Körper loslässt, fällt er genauso zu Boden, wie in dem Fall, in dem er beschleunigt wurde und nicht der Gravitation unterliegt. Nehmen wir nun an, dass der Fahrstuhl in einem Schacht ist und frei in Richtung Erdboden fällt. Wenn man den Körper dort loslässt, bleibt er genau dort, wo er war. Anders ausgedrückt: Die Wirkung der Gravitation und die Wirkung der Beschleunigung sind in diesem Fall identisch. Andererseits kann man daraus nicht folgern, dass die Wirkung der Gravitation und die der konstanten Beschleunigung identisch sind. Jetzt führen wir dasselbe Experiment durch, in dem der Beobachter zwei Körper statt einem hat. Wenn die Rakete nun beschleunigt wird, wird er feststellen, dass beide Körper parallel zueinander hinunterfallen. Und wenn die Beschleunigung beendet ist, bleiben beide Körper am selben Punkt. Wenn man jetzt auf dem Erdboden den Versuch mit diesen beiden Körpern macht, fallen sie nicht genau parallel zueinander, wenn man die Erdkrümmung in Betracht zieht. Die beiden Linien, an denen sie hinunterfallen, werden sich auf dem Erdboden kreuzen. Wenn man dasselbe Experiment mit einem Fahrstuhl im freien Fall durchführt, werden sich die beiden Objekte annähern, wenn sich der Fahrstuhl dem Erdboden nähert. Und so zeigte Einstein, dass die Äquivalenz lokal für ein Gravitationsfeld gilt, ein konstantes Gravitationsfeld mit gleichförmiger Beschleunigung, und zeigte nichtsdestotrotz, dass keine Äquivalenz gegeben ist, wenn das Gravitationsfeld nicht gleichförmig ist. Jetzt müsste ich eine kleine Berechnung vornehmen, um zu zeigen, wie Einstein hiervon ausgehend sein Äquivalenzprinzip herleitete, in einer Weise, um die Gravitation zu definieren. Es ist allgemein bekannt, dass, wenn man die Bewegungsgleichungen in kartesischen Koordinaten beschreibt, die träge Masse mal der Beschleunigung gleich der Gravitationsmasse mal dem Potenzialgradient, Gravitationspotential ist. Es gibt verschiedene Gleichungen für X und Y. Angenommen, wir möchten diese Gleichung in einem Koordinatensystem, das nicht aus XYZ besteht, sondern aus allgemein krummlinigen Koordinaten, neu schreiben. Das heißt, dass man statt XYZ zu den Koordinaten Q1, Q2, Q3 wechselt und dem allgemeinen krummlinigen Koordinatensystem eine Metrik wie folgt zuweisen kann: Die Distanz zwischen zwei benachbarten Punkten im kartesischen System ist DX2 plus DZ2. Andererseits, wenn man die entsprechende Distanz für allgemeine krummlinige Koordinaten findet, wird es eine bestimmte Größe H Alpha, Beta, eine Größe mit den beiden Indizes, die Funktionen der Koordinaten mal DQ Alpha, DQ Beta sein werden. Das hieße beispielsweise in räumlichen Polarkoordinaten DR2 + R2 D Theta2 + R2Psi2Theta D Phi2. Aber ganz allgemein wird das die Art der Gleichung sein, die man bekommen wird. Nehmen wir nun an, wir schreiben diese Gleichung auf und fragen uns, wie die Gravitationsgleichungen aussehen werden, dann findet man M träge mal dieser Größe Q Punkt Beta, die Q Punkt Punkt Beta ist, die Beschleunigung in der Koordinate Beta mal diese Größe kontrahiert ist gleich minus der trägen Masse mal einer bestimmte Größe Gamma, Alpha, Beta, Gamma, die sogenannten Christoffelsymbole, aber unabhängig davon was sie sind, sie sind Funktionen des Koordinaten, Funktionen der Geometrie, mal Q Punkt Beta, Q Punkt Gamma und minus derselben Gravitationsmasse mal dem Potenzialgradienten. Sehen Sie, die Hauptsache dieser Gleichung besteht darin zu zeigen, dass die Beschleunigung in den Koordinaten, die dem entsprechen, wenn man es in allgemeinen krummlinigen Koordinaten niederschreibt, besteht die Beschleunigung aus zwei Termen. Einem Term, der geometrischen Ursprungs ist, der ein Koeffizient der trägen Masse ist, und einem Term, der von dem Gravitationsfeld herrührt. Und wenn man die Gleichheit von der trägen Masse und der Gravitationsmasse akzeptiert, sind der geometrische Teil der Beschleunigung und der Gravitationsteil identisch. Und das ist Einsteins Bemerkung, als er sagte „warum diese Unterscheidung machen, warum sagen wir nicht einfach, dass jede Beschleunigung von der Metrik herrührt?“. Und dies war der Ausgangspunkt für seine Arbeit. Er wollte die Unterscheidung zwischen dem geometrischen Teil der Beschleunigung und dem Gravitationsteil abschaffen, indem er sagte, dass jede Beschleunigung ihren Ursprung in der Metrik hat. Einsteins Schlussfolgerung, dass jede Beschleunigung im Zusammenhang mit der Gravitation den Ursprung in der Metrik hat, ist auf ihre Weise genauso unglaublich wie die Aussage von Geiger und Marsden, die ihm die Ergebnisse ihrer Experimente zeigten, in denen sie große Streuwinkel von Alpha-Teilchen beobachteten. Er sagte, es war, als wenn man eine 15-Zoll-Granate auf ein Stück Seidenpapier abgefeuert hätte und diese zurückgekommen wäre und einen getroffen hätte. Rutherford war in der Lage, sein Streuungsgesetz über Nacht herzuleiten, aber Einstein brauchte viele Jahre, um genau zu sein, fast zehn Jahre, um seine endgültigen Feldgleichungen aufzustellen. Der Übergang von der Aussage, dass jede Beschleunigung ihren Ursprung in der Metrik hat, auf die Feldgleichungen des Riemannschen Krümmungstensor, ist ein gewaltiger Sprung. Und die Tatsache, dass Einstein drei oder vier Jahre benötigte, um diesen Übergang zu vollziehen, ist nachvollziehbar, es ist sogar erstaunlich, dass er diesen Übergang überhaupt gemacht hat. Natürlich kann man behaupten, dass mathematische Einsicht nötig war, um von seiner Aussage über den metrischen Ursprung der Gravitationskräfte zur Formulierung solcher Ideen durch die Riemannsche Geometrie zu gelangen. Aber mathematische Verfahren, insbesondere die geometrische Form des Denkens lagen Einstein, zumindest in seinen früheren Jahren, nicht besonders. Minkowski schrieb beispielsweise einige Jahre nachdem Einstein seine spezielle Relativitätstheorie formuliert hatte, durch Beschreibung der speziellen Relativität durch die später so genannten Minkowski-Geometrie, wo man die Geometrie der Raumzeit zuordnet, was DT2– DX2- DY 2- DC2 ist. Und er zeigte, dass Rotationen in dieser Raumzeit in diesem Raum mit dieser Metrik der speziellen Relativität äquivalent sind. Einsteins erste Bemerkung zu Minkowskis These war, dass, Physiker nun mal zeigen, wie man Gesetze der Physik formuliert und Mathematiker kommen daher und sagen, dass sie es viel besser können. Und er äußerte tatsächlich, dass Minkowskis Arbeit „überflüssige Gelehrsamkeit“ wäre. Erst 1911 oder 1912 bemerkte er, wie wichtig diese geometrische Form des Denkens war, und erlernte vor allem mit Hilfe und Unterstützung seines Freundes Marcel Grossmann genug Differentialgeometrie, dass er seinen Triumph und Abschluss seiner Feldgleichungen 1915 erlangte. Aber selbst zu diesem Zeitpunkt war Einstein noch nicht genügend mit der Riemannschen Geometrie vertraut. Er realisierte nicht, dass die allgemeinen Kovarianten seiner Theorie erforderten, dass die Feldgleichungen vier willkürliche Funktionen frei lassen müssen. Aufgrund seines Missverständnisses formulierte er zunächst seine Feldgleichungen durch die Gleichsetzung des Ricci-Tensors mit dem Energie-Impuls-Tensor. Aber dann stellte er fest, dass der Energie-Impuls-Tensor seine kovariante Divergenz Null erhalten muss, aber da die kovariante Divergenz des Ricci-Tensors nicht Null ist, musste er es modifizieren und führte den heute bekannten Einstein-Tensor ein. Ich möchte jetzt nicht weiter ins Detail gehen, sondern nur wieder hervorheben, dass der Hauptbeweggrund der Theorie eine physikalische Erkenntnis war und es war die Stärke der physikalischen Erkenntnis, die ihn zur Schönheit der Formulierung der Feldgleichungen in der Riemannschen Geometrie führte. Jetzt möchte ich zurückkehren und erklären, warum wir an die allgemeine Relativitätstheorie glauben. Natürlich gab es große Anstrengungen in den letzten zwei Jahrzehnten, die Vorhersagen der allgemeinen Relativität zu bestätigen. Aber diese Vorhersagen betreffen sehr, sehr kleine Abweichungen von den Vorhersagen der Newtonschen Theorie. Eine Abweichung, die in keinem Fall mehr ist als 1:1.000.000. Die Bestätigung erfolgte durch die vorherberechneten Lichtablenkung im Schwerefeld und die daraus resultierende Zeitverzögerung, die Periheldrehung des Merkur und die sich ändernden Perioden von Doppelsternen, den nahen Doppelsternsystemen wie Pulsare, durch die Emission von Gravitationswellen. Aber auf keinen Fall ist der vorhergesagte Effekt eine Abweichung von der Newtonschen Theorie um mehr als einige Teile pro Million. Auf jeden Fall ist es nur die Überprüfung der Werte eines, oder zwei oder drei Parameter als Ausdruck der Gleichungen der allgemeinen Relativität, was heute als Post-Newtonsche Näherung bezeichnet wird. Aber man glaubt nicht an eine Theorie, wo nur die Näherungen bestätigt wurden. Wenn man beispielsweise die Dirac-Theorie des Elektrons nimmt, und man als einzige Bestätigung nur die Feinstruktur von ionisiertem Helium in Paschens Experimenten hätte, wäre die Überzeugung nicht so groß gewesen. Und angenommen, es hätte nicht die Möglichkeit gegeben, im Labor Energien von Millionen Elektron Volt zu erreichen, wäre das wahre Experiment, die wahre Bestätigung von Diracs Ideen, die Voraussage von Antimaterie und die Erzeugung von Elektron-Positron-Paaren, nicht möglich gewesen. Und man wäre von der Theorie niemals so überzeugt gewesen. Es muss aber festgestellt werden, dass auf dem Gebiet der allgemeinen Relativität kein Phänomen, das den vollen nichtlinearen Aspekt der allgemeinen Relativität erfordert, bestätigt wurde – warum glauben wir dann daran? Ich denke, dass der Glaube an die allgemeine Relativitätstheorie weitaus mehr aus ihrer inneren Konsistenz stammt und aus der Tatsache, dass sie nicht im Widerspruch mit anderen Bereichen der Physik steht, wenn die allgemeine Relativitätstheorie eine Schnittstelle mit ihnen hat. Lassen Sie mich diese beiden Sachen veranschaulichen. Wir wissen alle, dass die Gleichungen der Physik kausal sein müssen. Was im Wesentlichen bedeutet, wenn man eine Störung an einem Punkt erzeugt, kann die Störung nicht an einem anderen Punkt folgen während eines Zeitraums, den Licht benötigt, um von einem Punkt zum anderen zu kommen. Technisch sagt man, dass die Gleichungen der Physik eine Ausgangswertformulierung erlauben müssen. Das heißt, dass man Ausgangsdaten einer raumähnlichen Oberfläche vorgibt und zeigt, dass der einzige Teil der Raumzeit, in der die Zukunft vorhergesagt werden kann, der ist, der durch das Senden von Lichtstrahlen von der Grenze der Raumzeitregion zu dem Punkt bestimmt wird. Anders ausgedrückt, angenommen, man hat ein raumähnliches Stück, und man sendet hier einen Lichtstrahl und erleuchtet den Bereich hier, dann ist es in diesem Bereich, wo die Zukunft definiert ist. Als Einstein jedoch seine allgemeine Relativitätstheorie formulierte, schien er sich nicht darum gekümmert zu haben, ob seine Gleichungen eine Ausgangswertformulierung erlaubten. Und dass die Ausgangswertformulierung in der allgemeinen Relativität möglich ist, trotz der Nichtlinearität der Gleichungen, wurde erst Anfang der 40er-Jahre von Lichnerowicz in Frankreich nachgewiesen. Und das, obgleich die Forderung, die Kausalitätsgesetze zu erfüllen, bei der Formulierung der allgemeinen Relativitätstheorie nicht enthalten war. In der Tat war sie konsistent mit ihr. Ein anderes Beispiel ist der Begriff der Energie. In der Physik ist der Begriff der Energie natürlich zentral, wir definieren ihn lokal und er wird global erhalten. In der allgemeinen Relativität kann man keine lokale Energie definieren, dafür gibt es zahlreiche Gründe, die ich hier nicht näher erläutern kann. Andererseits sollte man aus physikalischen Gründen erwarten, dass wenn man eine isolierte Materie hat, und auch wenn sie Energie abgibt, sollte man global in der Lage sein, eine Größe zu definieren, die man die Energie des Systems nennen könnte. Und wenn die Energie variiert, dann nur, weil die Gravitationswellen die Grenzen in ausreichend großer Distanz überschreiten. Der zweite Punkt ist, dass die Energie des Gravitationssystems natürlich die potenzielle Energie des Feldes selber enthalten muss, aber die potenzielle Energie in der Newtonschen Theorie hat keine untere Grenze. Wenn man zwei Punkte nahe genug zusammenbringt, kann man unendliche negative Energie erzeugen. Aber bei der allgemeinen Relativität muss man davon ausgehen, dass es eine niedrigere Grenze für die Energie eines Gravitationssystems gibt. Und wenn man auf diese untere Grenze als Ursprung der Energiemessung Bezug nimmt, muss die Energie immer positiv sein. Anders gesagt, wenn die allgemeine Relativitätstheorie mit anderen Gesetzen der Physik im Einklang stehen soll, sollte man in der Lage sein, für ein isoliertes System die globale Bedeutung für dessen Energie zu definieren und außerdem muss man zeigen können, dass die Energie positiv ist. Das war übrigens die so genannte Vermutung der Positivität der Energie über mehr als sechzig Jahre. Erst vor einigen Jahren gaben Ed Witten und Yau den Beweis der Positivität der Energie ab. Anders ausgedrückt heißt das jetzt, dass obwohl sogar Einstein die Theorie aus sehr einfachen Überlegungen formulierte, jede Beschleunigung im Ursprung metrisch sein muss, und wenn man es mathematisch im Rahmen der Riemannschen Geometrie beschreibt, dass sie dennoch in dem Maß konsistent ist, in dem ihr Schöpfer es nie in Erwägung gezogen hätte. Aber etwas noch viel Bemerkenswerteres ist, dass die allgemeine Relativitätstheorie Schnittstellen mit anderen Teilbereichen der Physik hat. Ich kann hier nicht ins Detail gehen, aber man kann zeigen, dass, wenn man ein Schwarzes Loch hat und die Dirac-Wellen von einem Schwarzen Loch reflektiert und gestreut werden, gibt es einige Anforderungen an die Art der Streuung, die die Quantentheorie verlangt. Doch sogar bei der Formulierung dieses Problems in der allgemeinen Relativitätstheorie ist kein Aspekt der Quantentheorie enthalten, die Ergebnisse, die man erhält, sind vollkommen konsistent mit den Anforderungen der Quantentheorie. Genau so hat die allgemeine Relativitätstheorie Schnittstellen mit der Thermodynamik und es besteht die Möglichkeit, das Konzept der Entropie einzuführen, z.B. im Zusammenhang mit der so genannten Hawking-Strahlung. Gewiss darf die Thermodynamik nicht in die Gründung der allgemeinen Relativitätstheorie einfließen, aber wenn man die Notwendigkeit der Einführung von Konzepten aus anderen Teilbereichen der Physik als Folge der allgemeinen Relativitätstheorie ermittelt, erkennt man doch, dass all diese Konsequenzen nicht mit den Teilbereichen anderer Disziplinen der Physik im Widerspruch stehen. Und es ist diese Konsistenz gegenüber physikalischen Anforderungen, der fehlende Widerspruch zu anderen Teilbereichen der Physik, die nicht in ihre Begründung einbezogen worden sind, das ist es, was das Vertrauen in die Theorie gibt. Ich fürchte, ich habe nicht genügend Zeit, um den anderen Aspekt meiner Rede näher zu erläutern, nämlich warum die allgemeine Relativitätstheorie eine außerordentliche Theorie ist. Lassen Sie mich nur eine Bemerkung dazu machen. Mal angenommen, man hat eine neue physikalische Theorie, dann ist es das Merkmal einer guten physikalischen Theorie, dass sie ein physikalisches Problem isoliert, welches die wesentlichen Eigenschaften dieser Theorie enthält und für die die Theorie eine exakte Lösung vorgibt. Mit der Newtonschen Gravitationstheorie erhält man die Lösung für das Problem von Kepler. Bei der relativistischen bzw. nichtrelativistischen Quantenmechanik erhält man die Voraussagen der Energie des Wasserstoffatoms. Und im Fall der Dirac-Theorie die Erzeugung der Klein-Gordon-Gleichung und die Paarerzeugung. Im Fall der allgemeinen Relativitätstheorie kann man fragen, ob es ein Problem gibt, das die Grundkonzepte der allgemeinen Relativität in ihrer reinsten Form enthält. In ihrer reinsten Form ist die allgemeine Relativitätstheorie eine Theorie von Raum und Zeit. Ein Schwarzes Loch ist etwas, dessen Konstruktion allein auf dem Begriff von Raum und Zeit basiert. Das Schwarze Loch ist ein Objekt, das den dreidimensionalen Raum in zwei Bereiche teilt: einen inneren und einen äußeren Raumbereich, welche durch eine Oberfläche getrennt sind, die man Horizont nennt. Der Grund, warum man dies „den Horizont“ nennt, ist, dass im Inneren des Horizonts niemand, kein Beobachter, mit dem äußeren Raumbereich kommunizieren kann. Das Schwarze Loch wird als Lösung der Vakuumfeldgleichungen von Einstein definiert, das einen Horizont hat, der konvex ist und asymptotisch flach ist, in dem Sinne, dass diese Raumzeit der Minkowski-Geometrie bei ausreichend großen Entfernungen entspricht. Es ist eine bemerkenswerte Tatsache, dass diese beiden einfachen Anforderungen auf der Grundlage der allgemeinen Relativität eine einzige Lösung für das Problem darstellen. Eine Lösung, die nur zwei Parameter hat, die Masse und den Drehimpuls. Dies ist eine Lösung, die 1962 entdeckt wurde. Wenn man fragt, was eine Lösung für ein Schwarzes Loch im Einklang mit der Allgemeinen Relativitätstheorie ist, erkennt man, dass es nur eine einfache Lösung gibt, mit zwei Parametern und alle Schwarzen Löcher, die in der Natur vorkommen, müssen dazu gehören. Man kann Folgendes sagen: Wenn man makroskopische Objekte betrachtet, dann sieht man mikroskopische Objekte überall um uns herum. Wenn man sie verstehen will, hängt das von einer Vielzahl physikalischer Theorien ab, eine Vielzahl von Näherungen und man versteht es annähernd. Es gibt kein Beispiel in der makroskopischen Physik für ein Objekt, das exakt und mit nur zwei Parametern beschrieben wird. Anders ausgedrückt könnte man sagen, dass die Schwarzen Löcher fast per Definition die perfektesten Objekte im Universum sind, weil ihre Konstruktion nur die Begriffe von Raum und Zeit benötigen. Es wird von keinem anderen Bereich der Physik, mit dem wir am meisten zu tun haben, vulgarisiert. Weiterführend kann man die außergewöhnliche mathematische Perfektion der Theorie der Schwarzen Löcher hervorheben. Als Einstein seinen letzten Aufsatz schrieb, sein erster Aufsatz, in dem er seine Feldgleichungen verkündete, stellte er fest, dass sich kaum jemand, der seine Theorie versteht, ihrer Magie entziehen kann. Zumindest für einen Fachmann liegt die Magie der allgemeinen Relativitätstheorie in ihrem harmonischen mathematischen Charakter und der harmonischen Struktur ihrer Konsequenzen. Danke.

Chandrasekhar Quotes Einstein
(00:00:12 - 00:06:06)

Among the many Nobel Laureates who have lectured at Lindau, the one who received his prize earliest in the 20th Century is Max von Laue. He received the 1914 Nobel Prize in Physics “for his discovery of the diffraction of X-rays by crystals”. But he also worked on the theory of relativity, wrote books about it and was a good personal friend of Einstein’s. In 1956 he gave a lecture (in German) with the title “From Copernikus to Einstein” in Lindau. The main topic of the lecture is Einstein’s general theory of relativity. As a theory of gravitation and cosmology, it had been unjustly expelled to the boundary regions of physics, von Laue felt.

Max von Laue (1956) - From Copernicus to Einstein (German Presentation)

Dear Minister, respected audience, I have entitled my talk "from Copernicus to Einstein". It refers to a period of time from the year 1543, in which Copernicus' great work "De Revolutionibus" appeared, up to our century. I put Copernicus' name in the title since it makes it immediately clear to everyone what topic is being discussed here. And the name of Einstein, whose great achievement, the Theory of Relativity, seems to me a kind of summing up. The aim of this talk is to place the general theory of relativity, which often appears in the contemporary consciousness as a fringe area of physics, in its central position in relation to one of the absolutely fundamental problems of scientific research. Actually I could have placed the beginning of the time period mentioned further back, as far as ancient Greece. Because the first person we know of who chose a heliocentric point of view for the interpretation of events in the starry sky is not Copernicus but Aristarch of Samos, a Greek philosopher from the 3rd century B.C. But Aristarch had no enduring influence on science. In antiquity the geocentric point of view, which was developed into a comprehensive system of planetary motion by Claudius Ptolemeus in the 2nd century A.D., was utterly victorious. All the complicated movements which were observed for the planets on the astral sphere, led Ptolemy with a lot of acumen to their following of particular paths in space which did not seem implausible to him. The whole of the Middle Ages took the same view, the more so as the Bible seemed to support the idea of the stationary Earth. Aristarch had been completely forgotten, so Copernicus had to reinvent the heliocentric point of view which put the sun in the centre of all planetary orbits and ascribes to them an approximate circularity. In addition, each planet, which now includes the earth, rotates about its own axis. I have no wish at all to recite once more the history of the struggle between the Ptolemaic and the Copernican systems, but rather to emphasize the epistemological foundation that was at its centre, although this was not at all clear to the opposing parties at the time. The epistemologists among the philosophers have always thought about the nature of our three-dimensional view of space, as well as our view of time. It seems to me, from the flood of literature on the subject, the Kantian view stands out, according to which both the views are forms imprinted on the human mind which human cognition can never transcend. No science can change anything here. Physics is forced to accommodate its objects in space and time, whereas psychology is satisfied with the time view. In this I have to agree with Kant completely. But then there immediately arises, since physics has to deal with quantitative aspects of the outside world, the question of the measurement of space and time. Kant assumed they were both equally given in advance and here we cannot follow him today. Since both views are continuous. And in a continuum there is no calibrated measurement system. This can be most simply seen in a one-dimensional example. A chain has its own scale, one can simply number the links. But a completely uniform, continuous thread contains no such scale. In order to measure it, one has to lay a tape measure next to it like an old-fashioned tailor and read its divisions against the thread. For this reason, therefore, there is no a priori unit of time. With space, despite its three dimensions, things are similar. Looking at space reveals no division lines or suchlike to provide a basis for units of measure, since it is in fact continuous. In both cases natural science, in this case physics, must provide the way of measuring, and this is the problem that our talk will address. The essence of spatial measurements is embodied by geometry. The oldest geometry, a wonderful logically closed system constructed by Euclid in ancient times, used almost exclusively by humanity up to the present day, is based on a small number of axioms which were regarded across the millennia as self-evident and requiring no further support. For example, there is the axiom that for a straight line there is one and only one parallel line through any point. A particularly important proposition there is Pythagoras' theorem, that the square on the hypotenuse of a right-angled triangle is equal to the sum of the squares of the other two sides. He also characterised the Euclidean geometry for himself alone. Initially this geometry was pursued graphically or in more formal language, synthetically. We could also say with ruler and compass. It was a great step forward when Descartes, the great French philosopher of the 17th century, created analytical geometry. Here the content corresponded exactly to the teachings of Euclid. But the method is different, using calculations. For this Descartes constructed a crossed axis system consisting of three straight lines at right angles, and defined the three coordinates of an arbitrary point as the distances you need to travel to reach the point in question from the zero point where the axes cross. These distances are the coordinates of the point. To calculate the distance from the zero point, one must find the sum of the squares of these coordinates, which gives the square of the distance. That is Pythagoras' theorem for three dimensions. If one wants the distance between two other points, one must proceed correspondingly with the differences of their coordinates. With this the whole of Euclidean geometry is determined. While still maintaining Euclidean geometry, physics faces the question of how to select the crossed axes, which we could also call the coordinate system. This is a mathematical description of the conflict between Ptolemy and Copernicus. One can see immediately that this conflict has little obvious relation to physics. Yes, that it appears to be a conflict about words, since one can translate any motion data from one coordinate system to another purely mathematically. It is just a matter of taste whether one prefers this or that coordinate system. Certainly, among the Copernicans the feeling was very lively that their circular planetary orbits were preferable for reasons of simplicity to the Ptolemaic system's paths combined from two circular movements. But such reasons cannot exercise a logical constraint. And one should not criticise Osiander, the Nuremberg scholar responsible for the publication of Copernicus' book, for describing his teaching as a hypothesis in his foreword. Quite early on people began to introduce more physical considerations into this conflict. But it was particularly the opponents of Copernicus who did this. They argued, among other things: We observe in every vehicle that travels fast, in every rotating body, that everything which is not firmly fixed is blown away, is ejected. How then should people and animals and other things on the earth remain where they are if it has both rotational as well as translational movement? It is easy for us to rebut this with today's physical understanding. For Galileo it was more difficult, since he had to acquire the necessary insight into physics himself. And the physical decision was not finally resolved until 1687, when Isaac Newton derived the mathematical theory of planetary movements from his laws of motion and the law of attraction between two bodies. Because included was the important assumption of the Copernican frame of reference with the Sun at its centre and the axes aligned with the fixed stars. This fixing of the relations of this thesis was entirely adequate for Newton and his successors, but it is not exact. The fixed stars are not invariant. We are well aware of slow alterations in the relative positions of the fixed stars. But the physicists are burdened by a weightier question: What right does one have to regard such a reference system as the right one? The corresponding question also occurred to me: Why is the unit of time which Newton used with success, determined by the length of a day, the right one? Newton himself felt uneasy about these questions. He escaped this predicament by assuming an absolute spatial frame of reference and an absolute time. But since he could not provide any evidence for them, these concepts had an indefinite, a ghostly air. But still, in two hundred years no physicist, none of the great philosophers who concerned themselves with this question, went beyond Newton. Again and again they tried to hang this reference system as a geometrical construction on material entities, whether they might be stars or even more remote, undetectable heavenly bodies. It was not until 1885 that illumination came, namely from a young psychologist in Leipzig named Ludwig Lange. It almost reminds us of Columbus' egg when he declares that the reference system necessary for Newtonian mechanics and the associated time unit are completely defined by the purpose that they are intended to fulfil, namely to provide the basis for Newton's laws of motion. The experimenter should seek a reference system and a time unit which satisfy this. Then he has a correct reference system, a correct time unit. If Newtonian mechanics is valid at all, then such a system must be there to be found. Since the Galilean principle of inertia, which holds that in the absence of force the coordinates of a body are a linear function of time, forms a part of Newtonian mechanics, Lang called such appropriate frames of reference inertial systems, and an appropriate time unit inertial time. Both expressions are now established in science. Ludwig Lange, in my opinion, completely decided the problem of space and time measurement for Newtonian mechanics. Inertial systems and inertial time remove the ghostly air that adhered to Newton's absolute space and absolute time. Because they are not mathematical abstractions which must somehow be attached to bodies, but physical realities in and of themselves, which also have a physical feel to them. That is to say they lead the free point mass with constant speed in a straight path. The inertia of a body which mechanics talks about becomes here the effect of a guiding field. In addition there is, as Newton and even Galileo already knew, more than one mechanically calculated reference system. From the equations of motion it follows purely mathematically that all reference systems are equivalent which move with constant velocity and without rotation in relation to an inertial system. When a physicist speaks of speed, he must therefore always state which inertial system underlies it. His statement is only meaningful in relation to one such. This constitutes the Galilean relativity principle as it is known in our time. A transformation of the coordinates maps one of these equivalent reference systems to another, a Galileo transformation, where time also plays a role. But the time itself remains untransformed. The measurement of time is in this sense absolute for Newtonian mechanics. After Galileo transformations, velocities in different reference systems differ in magnitude and direction or at least in magnitude or direction. In the course of the 19th century, however, Newton established with ever-increasing certainty the astonishing result that there is a speed which has the same value in all reference systems. The speed of light, usually known as c, in empty space. That was not compatible with the Galilean relativity principle, however, experience also provided a relativity principle for optical and electromagnetic phenomena. In the course of its annual motion around the Sun, the Earth adopts quite different directions of motion. But the most exact optical and electromagnetic measurements with light sources on Earth show no sign of this. Those experiments were a search for a preferred reference system in which the speed of light, unlike in all the others, would have the same value in all directions. The luminiferous ether, which was talked about so much in those days, was nothing other than the hypothetical material basis of such a reference system. But such a privilege reference system failed escaped detection. This dilemma, for about two decades, constituted a focus for research in physics, as we would put it today. The Dutch physicist and Nobel Prize winner Hendrik Antoon Lorentz was one of the leaders in this conflict. In 1894 he showed in a famous paper that the extension of Maxwell's electrodynamics worked out by him and Joseph Larmor could explain a large part of these experiments without difficulty, but certainly not all. In order to accommodate all of them, in 1904 he extended this theory by recasting Newtonian mechanics in a way that already came very close to the theory of relativity. The difference was that he made do without any principle of relativity; one had to add new hypotheses from case to case in order to align a new area of physics with his theory. But with Lorentz one already finds that replacement for the Galileo transformations, which carries the name Lorentz transformation and would be fundamental to the theory of relativity. But with him it is nothing more than a rule for calculation. Expedient for the solution of particular problems of physics whose extent was initially not clearly defined. On the same basis, the French mathematician Henri Poincaré carried out some valuable groundwork. Unlike Lorentz and Poincaré, Einstein postulated a principle of relativity from the very beginning. That means the equivalence of all reference systems moving linearly in relation to an inertial system. Then he began with a simultaneous analysis of the expressions. In the whole of physics up to then this appeared as something absolute, as it had also reflected an absolute time in Newton's concept. And Newtonian mechanics was totally consistent with this. It assumed the existence of rigid bodies, where light signals can be transmitted instantaneously, without any time lag from one place to another. In fact there are no completely rigid bodies. For this reason it was already established practice, long before Einstein, to transfer time signals optically or via the electric telegraph, where the propagation time of such signals are so short in earthly conditions that they can be completely ignored in many cases. For fundamental research however they must be taken into account, especially if they are not limited to short propagation distances. Einstein now defined, in conformity with this practice, two clocks at rest in the same inertial system, separated by distance L and running synchronously, when a light beam emitted from the first at indicated time zero hits the second at indicated time L divided by c, the speed of light. He further asked what the indication is that two events happen simultaneously. And answered: When the clocks in their location have the same indicated time when they happen. But now the principle of relativity demands that this indication applies to all inertial systems. Now when one such moves with the assumed uniform translational motion in relation to the other, then it is easy to show that two simultaneous events in one system would take place at different times, perhaps at different settings of any clocks there. The expression "simultaneous" therefore has only relative validity. One must only state which frame of reference one is using as the basis. So time measurement also becomes something relative. And that also applies to spatial measurement. For the reason that the length of a moving rod is determined by the simultaneous difference of location of its ends. The transformation of space and time measurements from one frame of reference to another then takes place via the aforementioned Lorentz Transformation, which, unlike the analogous Galileo transformation, does not only relate the space coordinates, but also the time values. But here it is no longer just an expedient rule for calculation, but a binding natural law of nature. Time measurements and spatial measurements are thus linked with one another here. The nicest fruit of this fundamental progress was the law published in the same year of 1905 of the inertia of energy, expressed in the only too well known formula: energy is mass times the square of the speed of light (E=mc^2). The name "theory of relativity", which Einstein took over at once from other authors, has often led to the misunderstanding that this theory relativises the objective physical situation. It makes it dependent on the point of view that an observer can choose freely. Kant in particular occasionally expressed strong opposition to this interpretation. The theory may attribute different durations to different reference systems with the same event. The measurement of the same body may give different values for different reference systems, as with its energy, its impulse, its temperature etc., but all these values can be unambiguously transformed from one reference frame to the other, so they are essentially the same. Hermann Minkowski, the mathematician from Göttingen who died at an early age in 1909, introduced, instead of the three space and one time coordinate, four coordinates of a four-dimensional continuum which he called the world. Every event was associated with a world point. In order to know where and when it happened in relation to a particular frame of reference, one must cut a three-dimensional section through this continuum, this four-dimensional continuum, in reference to it. Its coordinates indicate the location, the fourth coordinate the time point sought. The description of an event in the framework of this world therefore contains a description for every possible frame of reference. The mathematical advantage which the representation of natural processes the space offers also rests on an extensive equality of all four world coordinates. But in one point this fails. If one asks about the calculation of the separation of two world points from the difference of their four coordinates, one must add the squares of the three spatial coordinates to obtain the square of the separation, but the square of the time separation should be subtracted. So this is a modification of Pythagoras' theorem. Certainly the difference between Euclidean geometry and the four dimensional is not very deep, the parallel axiom for instance is valid here too. One also speaks here of a pseudo-Euclidean geometry. But this mathematical advantage is far from the most important in the expression of Minkowski space, it acquires a direct physical reality to the extent that the function of the guiding field is transferred to it. This is what holds the free point of mass on a straight world line and is just another expression for the fact that a path in three-dimensional space is a straight line which is travelled with constant speed. But if any forces are active, then a struggle takes place between them and the guiding field. The body deviates from the straight world line, i.e. its path in three dimensions becomes curved, its velocity variable. The theory of special relativity has evoked thousands of publications. Agreeing, enthusiastic, but also brusquely rejecting. When the struggle was at its peak, Einstein started on its enhancement. Two deficiencies led him to this. First the obvious one, that this theory said nothing about gravitation, this general attraction of masses in accordance with the Newtonian law. Secondly, however, there was something missing, the effect of the body on the guiding field as a reaction to the effect of the guiding field on the body. Although everywhere else in physics we see a reaction to every action. Driven by unease with this, Einstein created in seven years of struggle, from 1908 to 1915, the general theory of relativity. As a starting point, he chose the law of the equality of inertial and gravitational mass. The term mass appears twice in Newtonian physics. Firstly, in the law of motion, mass appears as a measure of the resistance with which a body opposes acceleration by a force. This is the inertial mass. But secondly, it appears in Newton's law of attraction in that this makes the gravitational force between two bodies proportional to their masses. That is the gravitational mass. Galileo, later Newton and many others have confirmed with ever increasing precision that the two masses are equal to each other, but this result was not actually anchored in mechanics. The law of the identity of the two masses was an appendix for them without real inner commitment. They could have existed even without this law. Einstein conversely made it into a main pillar of his theory of general relativity. The sought-for reaction of the body on the guiding field must have been connected with this. But this was the only lighthouse which experience offered to illuminate the path to be explored. Apart from that, Einstein had to rely on the compass of mathematics which could help a bit to follow the initial direction, but was far from sufficient to define the path clearly. Finally Einstein found this path. Not without occasional detours and deviations. That he got through at all, I consider his greatest achievement. But he had to make a great sacrifice right at the start, namely the abandonment of Euclidean geometry, of three-dimensional space and thus the pseudo-Euclidean geometry of Minkowski space. This was too rigid, not flexible enough to satisfy the requirements stated above. In the mathematical literature Einstein found attempts at a three-dimensional non-Euclidean geometry. In 1854 Bernhard Riemann had laid the foundations, others had extended them. But still Einstein had to add some of the mathematics himself. Quite apart from the generalisation to the four dimensions of the world. The essence of this can be described thus: that Pythagoras' theorem now applies only on an infinitesimally small scale, but no longer in general. Similarly, there are now no parallel straight lines, the idea of a straight line is replaced with that of a geometrical line which, as the straightest possible connection between two points, comes as close as possible to the Euclidean straight line. Preferred coordinate systems, corresponding to the inertial systems of the special theory of relativity, are completely absent here in principle. The coordinates, which one cannot do without for the treatment of mathematical problems, have no physical meaning any more. They degenerate into names for the points in the space. Only with the determination of the distance between two space points do those mathematical values appear which characterise geometry. They are variable from place to place which underlies the deviation from a Euclidean or pseudo-Euclidean geometry, but also the greatest adaptability to a non-Euclidean or Riemann geometry. The central point of the general theory of relativity is now formed by Einstein's field equations, which allow these deviations to be calculated from the masses naturally present and their motion. The sought-after reaction of the body on the guiding field is expressed in them. But from the same deviations this theory also extracts the determinants of the gravitational field. This double use confirms the equality of inertial and gravitational mass. And now we can add that these field equations contain the whole of mechanics. Against all earlier conceptions, gravitation is no longer listed among the forces which can conflict with the effect of the guiding field, but is only an expression of this guiding itself. A body moves without the influence of forces when it is only under the influence of gravitation. Its world line is then a geodetic line. Two large, and previously only externally linked areas of physics, gravitation and mechanics, have fused here into a single unit. That means an enormous simplification of the fundamentals of physics. At the same time, the question about literal space and time measurement by specification of the geometry of this space finds its most comprehensive answer. This is where Einstein himself saw the real value of his field equations. But here we can still ask whether a certain result of the old physics has been sacrificed for this or not. Is, for example, the special relativity theory not invalidated because there is no longer a preferred reference system? A theorem of non-Euclidean geometry states that one can introduce so-called geodetic coordinates for every point of the continuum observed, which approximate closely, in a limited area around themselves, to play the same role as in Euclidean geometry. The non-Euclidean character of that geometry reveals itself only in the observation of larger areas for which the geodetic coordinates no longer fit properly. Applied to the theory of relativity, this says that one can, in limited areas of space-time, continue to apply the inertial system of special relativity. And experience shows that the limits here are set so high that we will hardly ever come into conflict with them in physics. Admittedly we have avoided those deviations from the geometry of Euclidean space which can be observed near strong gravitational centres, e.g. the Sun. But the inertial systems have a new feature which the general theory of relativity with the named adjustment allows to persist; it is necessarily free of gravitation. Mathematically speaking, gravitation has been transformed away by the transition to geodetic coordinates. As a realisation of such an inertial system we have for example that lift, often mentioned by Einstein, which has separated from its support and is now in free fall. That the effect of gravity is no longer perceptible in it, is not at all new. Inside it, the paths of a free body or a ray of light are exactly straight. The older physics allowed marked effects for inertial systems. So here it experiences a correction from the general theory of relativity. The Copernican reference system, which astronomy uses for the theory of motion, is not, despite the slightness of the changes which the theory of general relativity make to its metrics, an inertial system in the sense of the theory of general relativity. This is a significant difference between Ludwig Lange's view and that of all earlier physicists. Alternatively, one could imagine an inertial system as a small meteorite flying about independently without perceptible effects of its own weight. The special theory of relativity is only applicable, with its theory of space and time measurement, if there is no effect which propagates locally with a speed differing from that of light. Because otherwise one could transmit the signals mentioned above with this effect and so define a different kind of simultaneity. Consequently, gravitation, which Newton treats as immediate action at a distance, must also be propagated at the speed of light. Astronomers suspected this long before the theory of relativity, but could never produce any evidence to support this view. The general theory of relativity is in complete harmony with the special theory, since it can be mathematically derived from Einstein's field equations that the effects of gravity in temporally changing fields propagate at the speed of light. For temporally unchanging gravitational fields, however, mathematical investigations produce a good approximation to Newton's law of attraction. Therefore Kepler's laws for planetary motion also apply as a good approximation. Only for the close environment of the Sun and any body of a similar mass do the deviations of the geometry of this space from the pseudo-Euclidean, derived by Schwarzschild from the field equations, become somewhat relevant. That is the site of those three Einstein effects which, however small their scale, deliver strong support for the general theory of relativity. I will express myself concisely here, I mean only what is known as the perihelion motion of Mercury, the deflection of light at the Sun and that red-shift of the spectral lines emitted by the Sun or strong gravitational centres, which was finally observed with the so-called white dwarves, those fixed stars of normal mass but particularly small volume. In all these examples one sees how tiny the deviations of the geometry of this space are from the pseudo-Euclidean, even in proximity to the large bodies. But a gigantic change in our cosmological ideas is under discussion at the moment. As long as three-dimensional space was assumed to be Euclidean, it had to be assumed to be of infinite extent. The border region contradicts our a priori view of space. There is something unsatisfying about that, because it robs us of all hope of grasping the workings of Nature as a whole for once. Then there is no such whole. No matter how far we manage to extend our understanding, behind the border there still lies an infinity of unknowns. But if Minkowski space and with it our three-dimensional space has a non-Euclidean geometry, then there is in any case the possibility of thinking of this as a closed space, perhaps a spherical space, which is unbounded and yet of finite size. I would bring to mind as an analogy the surface of a sphere, which has no borderlines but still only a limited area. However you may move in the sphere space, you return to the starting point if you only go far enough. In fact, Einstein's field equations allow this idea, under the assumption that matter is uniformly distributed with equal density everywhere. Such an idea is not exactly correct, but when we take a sufficiently large scale, such as when the separation between neighbouring galactic systems appears small, then this idea corresponds well with today's astronomical knowledge. In 1917 Einstein developed the idea of closed space of constant spatial and temporal curvature, on the basis of his field equations. Still, however, the reservation has arisen against this, that such a distribution of matter would be unstable. But in 1922 Friedmann proposed, also on the basis of Einstein's field equations, such a space with temporally increasing radius of curvature. And what then seemed to be pure mathematical speculation acquired the highest physical interest when the Californian astronomer Hubble in 1928 concluded from spectral observations of the remotest observable clouds, that these are receding from our Milky Way with velocities which increase with their remoteness from us. One knows of speeds up to one-fifth the speed of light. That corresponded exactly with Friedmann's theory. Experience could also be fitted quantitatively: one arrives at, e.g., from astronomical observations an age for today's cosmos of 4.5 billion years, while research into radioactivity, which rests on quite another basis, results in 4.3 billion. The agreement, given the immense extrapolations which cannot be avoided in both estimates, is fantastic. Let us summarize. The perception of space and time is indelibly stamped on human perception. Properties of our cognitive faculties which cannot be altered at all by any experience. Space and time measurement, on the other hand, are products of experimental science, i.e. from physics; the long history of this process has recently reached a conclusion in the general theory of relativity, without any possibility of going beyond this at the moment, and the credit for this immense progress is undoubtedly due to Albert Einstein alone.

Herr Minister, verehrte Anwesende, als Titel meines Vortrages habe ich angegeben „Von Kopernikus bis Einstein“. Er weist auf einen Zeitabschnitt hin vom Jahre 1543, in welchem das große Werk von Kopernikus „De Revolutionibus“ erschien, bis in unser Jahrhundert. Ich habe den Namen von Kopernikus in den Titel gebracht, weil er jeden sogleich auf den Problemkreis hinweist, um den es sich handeln soll. Und den Namen von Einstein, dessen größte Leistung die Relativitätstheorie mir als eine Art Abschluss erscheint. Zweck dieses Vortrags soll sein, die allgemeine Relativitätstheorie, welche im Bewusstsein der Zeitgenossen vielfach als Randgebiet der Physik erscheint, in ihrer zentralen Stellung zu einem der Grundprobleme der Naturforschung überhaupt herauszustellen. Den Beginn des genannten Zeitabschnittes hätte ich eigentlich weiter zurück verlegen können bis ins griechische Altertum. Denn der Erste, von dem wir wissen, dass er für die Deutung der Erscheinungen am Sternenhimmel einen heliozentrischen Standpunkt gewählt hat, ist nicht Kopernikus, sondern Aristarch von Samos, ein griechischer Philosoph aus dem 3. Jahrhundert vor Christus. Aber einen nachhaltigen Einfluss auf die Wissenschaft hat Aristarch nicht ausgeübt. Im Altertum siegte vollständig der Geozentrische Standpunkt, den Claudius Ptolemäus im 2. Jahrhundert nach Christus zu einem umfassenden System der Planetenbewegung ausarbeitete. Alle die komplizierten Bewegungen, welche man bei den Planeten am Himmelszelt beobachtet, führte Ptolemäus mit viel Scharfsinn auf Durchlaufung bestimmter, ihm nicht unplausibel erscheinender Bahnen im Raume zurück. Das gesamte Mittelalter war derselben Ansicht, zumal die Vorstellung der ruhenden Erde auch in der Bibel eine Stütze zu finden schien. Aristarch war vollständig vergessen, so musste Kopernikus den heliozentrischen Standpunkt neu erfinden, welcher ja bekanntlich die Sonne in den Mittelpunkt aller Planetenbahnen setzt und diesen ungefähr Kreisform zuschreibt. Außerdem hält jeder Planet, zu dem nun auch die Erde zählt, eine Drehung um seine Achse. Ich möchte nun keineswegs die oft dargestellte Geschichte des Kampfes zwischen den Ptolemäischen und dem Kopernikanischen System wiederholen, sondern lieber den erkenntnistheoretischen Untergrund hervorheben, um den es dabei ging, obwohl er den streitenden Parteien seinerzeit keineswegs klar bewusst war. Die Erkenntnistheoretiker unter den Philosophen haben von jeher viel über das Wesen unserer dreidimensionalen Raumanschauung, ebenso über unsere Zeitanschauung nachgedacht. Mir scheint aus der Flut der Literatur darüber die Kantische Theorie als feststehendes Ergebnis hervorzuragen, demzufolge beide Anschauungen eingeprägte Formen des menschlichen Geistes sind, über welche menschliche Erkenntnis nie hinweg kommen kann. Keine Naturwissenschaft kann daran etwas ändern. Die Physik ist gebunden, ihre Gegenstände in Raum und Zeit unterzubringen, während die Psychologie mit der Zeitanschauung allein auskommt. Soweit muss ich mich Kant völlig anschließen. Dann aber taucht sofort, da es sich in der Physik doch um quantitative Angaben über die Außenwelt handelt, die Frage nach der Raum- und Zeitmessung auf. Kant nahm beide als ebenfalls a priori fest vorgegeben an und hier können wir heute nicht mehr wohl nicht mehr folgen. Denn die beiden Anschauungen sind kontinuierlich. Und in einem Kontinuum gibt es kein eingeprägtes Maßsystem. Das sieht man am einfachsten an dem eindimensionalen Beispiel. Eine Kette hat ihr eigenes Maßsystem, man kann ja ihre Glieder nummerieren. Aber ein überall gleichförmig, also kontinuierlicher Faden, hält keine solche Metrik. Will man an ihm messen, so muss man nach alter Schneiderart einen Maßstab daneben legen und dessen Teilung auf den Faden übertragen. Aus diesem Grunde also gibt es kein a priori Zeitmaß. Beim Raum ist es trotz der Dreizahl seiner Dimension ähnlich. Auch die Raumanschauung liefert keine Teilstriche oder etwas Ähnliches, auf die sich Maßangaben begründen ließen, weil sie eben kontinuierlich ist. In beiden Fällen muss die Erfahrungswissenschaft, also die Physik für Messmöglichkeiten sorgen und dieses ist das Problem, mit dem sich unser Vortrag beschäftigen soll. Den Inbegriff aller räumlichen Messergebnisse bildet die Geometrie. Die älteste, im Altertum von Euklid geschaffene und einem wundervoll logisch geschlossenen System ausgearbeitete Geometrie, derer sich die Menschheit bis zum heutigen Tage fast ausschließlich bedient, beruht auf einer kleinen Zahl von Axiomen, die man durch die Jahrtausende als Selbstverständlich und keiner tieferen Begründung bedürftig, ansah. Da ist zum Beispiel das Axiom, dass es zu jeder Geraden, durch jeden Punkt eine und nur eine Parallele gibt. Ein besonderer wichtiger Satz in ihr ist der pythagoräische Lehrsatz, dass in einem rechtwinkligen Dreieck das Quadrat der Hypotenuse gleich der Summe der Quadrate der beiden Katheten ist. Auch er charakterisiert für sich allein die euklidische Geometrie. Diese Geometrie betrieb man anfangs anschaulich oder wie der Fachausdruck lautet, synthetisch. Wir können auch sagen mit Zirkel und Lineal. Es war ein großer Fortschritt, als Descartes, der große französische Philosoph aus dem 17. Jahrhundert die analytische Geometrie schuf. Hier deckt sich dem Inhalt nach völlig mit dem, was Euklid lehrte. Aber ihre Methode ist eine andere, eine rechnerische. Descartes konstruiert dazu ein Achsenkreuz, bestehend aus drei zueinander senkrechten Geraden und gibt in den drei Koordinaten eines beliebigen Punktes die Strecken an, um die man sich in diesen drei Richtungen vom Nullpunkt des Achsenkreuzes aus bewegen muss, um zu dem fraglichen Punkt zu gelangen. Diese Strecken sind die Koordinaten des Punktes. Will man seinen Abstand vom Nullpunkt berechnen, so muss man die Summen der Quadrate dieser Koordinaten bilden und erhält das Quadrat des Abstandes. Dies ist der pythagoräische Satz für drei Dimensionen. Will man den Abstand zweier anderer Punkte haben, so muss man mit den Differenzen ihrer Koordinaten entsprechend verfahren. Dadurch ist die ganze Euklidische Geometrie festgelegt. Schon unter Beibehaltung der euklidischen Geometrie entsteht für die Physik die Frage, wie das Achsenkreuz, wir können auch sagen das Bezugssystem zu wählen ist. Das war in mathematischer Fassung der Streit zwischen Ptolemäus und Kopernikus. Man sieht nun ohne weiteres, dass dieser Streit zunächst wenig Beziehung zur Physik hat. Ja, dass er ein Streit um Worte zu sein scheint, man kann ja jede Bewegungsangabe von einem zum anderen Bezugsystem rein mathematisch umrechnen. Es ist nur eine Sache des Gefühls ob man das eine oder das andere Bezugsystem bevorzugt. Freilich war unter den Kopernikanern das Gefühl sehr lebhaft, dass ihre kreisförmigen Planetenbahnen, die aus zwei Kreisbewegungen kombinierten Bahnen des Ptolemäischen Systems der Einfachheit wegen vorzuziehen seien. Aber einen logischen Zwang vermögen solche Gründe nicht auszuüben. Und man sollte Osiander, jenen Nürnberger Gelehrten, der die Herausgabe des Buchs von Kopernikus besorgt hat, nicht dafür tadeln, dass er in seinem Vorwort dessen Lehre als eine Hypothese bezeichnet hat. Schon früh hat man daher angefangen mehr physikalische Überlegungen in diesen Konflikt einzuführen. Und zwar waren es vor allen die Gegner des Kopernikus, die es taten. Die argumentierten unter anderem: Wir beobachten in jedem schnellfahrenden Wagen, an jedem sich drehenden Körper, dass alles, was nicht fest daran haftet, weggeblasen, fortgeschleudert wird. Wie also sollen Mensch und Tier und anderes auf der Erde sich halten können, wenn diese sowohl Rotation als auch translatorische Bewegung hat. Uns ist es leicht, dies mit heutigen physikalischen Erkenntnissen zu entkräften. Schwerer hat es dabei Galilei, der sich die nötige Einsicht in die Physik erst selbst beibringen musste. Und endgültig fiel die physikalische Entscheidung wohl erst, als 1687 Isaac Newton aus seinen Bewegungsgesetz und dem Anziehungsgesetz zwischen den Körpern die mathematische Theorie der Planetenbewegung herleitete. Denn dabei war die wesentliche Voraussetzung das kopernikanische Bezugsystem, in dessen Mittelpunkt die Sonne steht und dessen Achsen nach dem Fixsternenhimmel ausgerichtet sind. Mit dieser Festlegung des Bezugs dieser These kamen Newton und seine Nachfahren völlig aus, aber präzise ist sie nicht. Der Fixsternhimmel ist ja nicht unveränderlich. Wir kennen sehr wohl langsame Änderungen der gegenseitigen Stellung der Fixsterne. Schwerer aber lastete die Frage auf den Physikern: Mit welchem Recht betrachtet man ein solches Bezugssystem als das Richtige? Zu mir trat noch die entsprechende Frage: Warum ist das von Newton mit Erfolg benutzte, nach der Tageslänge bestimmte Zeitmaß das Richtige? Newton selbst hat diesen Fragen gegenüber Unbehagen gefühlt. Er redete sich dadurch heraus, es gebe eben ein absolutes räumliches Bezugsystem und eine absolute Zeit. Aber da er kein Kennzeichen für beides anzugeben wusste, hatten diese Begriffe etwas Unbestimmtes, Gespenstisches an sich. Trotzdem kam in zwei Jahrhunderten kein Physiker, keiner der großen Philosophen, die sich mit dem Problem beschäftigten, über Newton hinaus. Immer wieder versuchten Sie, das Bezugsystem irgendwie als geometrische Konstruktion an materiellen Gegebenheiten aufzuhängen, sei es an den Sternen, sei es an etwa noch ferneren, unbeobachtbaren Himmelskörpern. Erst 1885 kam die Erleuchtung und zwar einem jungen Psychologen in Leipzig, Ludwig Lange mit Namen. Es erinnert uns fast an das Ei des Kolumbus, wenn er erklärt, das für die Newtonsche Mechanik erforderliche Bezugsystem und das zugehörige Zeitmaß sind vollkommen definiert durch den Zweck, den sie erfüllen sollen, nämlich die Grundlage für das Newtonsche Bewegungsgesetz abzugeben. Der Experimentator suche ein Bezugssystem und suche ein Zeitmaß, welche dies leisten. Dann hat er ein richtiges Bezugssystem, ein richtiges Zeitmaß. Trifft die Newtonsche Mechanik überhaupt zu, so muss sich ein solches System finden lassen. Da das Galileische Trägheitsprinzip, demzufolge bei kräftefreier Bewegung die Koordinaten des Körpers lineare Funktionen der Zeit sind, einen Teil der Newtonschen Mechanik bildet, nannte Lang solche geeigneten Bezugssysteme Inertialsysteme, ein geeignetes Zeitmaß Inertialzeit. Beide Begriffe haben sich in der Wissenschaft erhalten. Für die Newtonsche Mechanik hat Ludwig Lange das Problem der Raum- und Zeitmessung meines Erachtens vollständig entschieden. Inertialsysteme und Inertialzeit beseitigen den gespenstischen Zug, der Newtons absolutem Raum und der absoluten Zeit anhaftete. Denn sie sind nicht mathematische Abstraktionen, die man irgendwie an Körpern anzubringen hat, sondern an und für sich erkennbare physikalische Realitäten, welche als solche auch physikalisch wirken. Sie führen nämlich den freien Massenpunkt mit konstanter Geschwindigkeit auf gerader Bahn. Die Trägheit der Körper, von der die Mechanik spricht, wird hier Wirkung eines Führungsfeldes. Im Übrigen gibt es, das wusste Newton und eigentlich auch schon Galilei, mehr wie ein mechanisch berechnetes Bezugsystem. Aus der Bewegungsgleichung folgt rein mathematisch, dass alle Bezugssysteme gleichberechtigt sind, welche sich gegen ein Inertialsystem ohne Drehung mit konstanter Geschwindigkeit bewegen. Wenn der Physiker von einer Geschwindigkeit spricht, so muss er in Folge dessen stets angeben, welches dieser Inertialsysteme er dabei zugrunde legt. Nur relativ zu einem solchen hat seine Angabe einen Sinn. Darin liegt das galileische Relativitätsprinzip, wie man das in unseren Tagen genannt hat. Von einem der danach gleichberechtigten Bezugssysteme zum anderen führt eine Umrechnung der Koordinaten, eine Galilei-Transformation, in welche die Zeit eingeht. Aber die Zeit selbst bleibt untransformiert. Die Zeitmessung ist in diesem Sinne für die Newtonsche Mechanik absolut. Geschwindigkeiten sind nach Galilei-Transformationen in verschiedenen Bezugssystemen nach Größe und Richtung oder wenigstens nach Größe oder Richtung verschieden. Im Verlaufe des 19. Jahrhunderts stellte Newton nun aber zahlreiche Versuche mit stets wachsender Sicherheit, das erstaunliche Ergebnis fest, dass es eine Geschwindigkeit gibt, die in allen Bezugssystemen denselben Betrag haben. Die Lichtgeschwindigkeit, c nennt man sie in der Regel, für den leeren Raum. Das vertrug sich nicht mit dem galileischen Relativitätsprinzip und doch ergab die Erfahrung auch für die optischen und elektromagnetischen Vorgänge ein Relativitätsprinzip. Im Verlauf ihrer jährlichen Bewegung um die Sonne nimmt die Erde recht verschiedene Geschwindigkeitsrichtungen an. Aber davon zeigen auch die genauesten optischen oder elektromagnetischen Messungen mit irdischen Lichtquellen und Apparaten keine Spur. Jene Experimente waren ein Suchen nach einem bevorzugten Bezugssystem, in welchem die Lichtgeschwindigkeit im Gegensatz zu allen anderen für alle Richtungen den gleichen Betrag haben sollte. Der Lichtäther, von dem in jenen Zeiten so viel die Rede war, war nichts anderes als der hypothetische, physikalisch materielle Träger eines solchen Bezugsystems. Man hat jedoch kein solch hervorgehobenes Bezugssystem finden können. Dieses Dilemma bildet etwa zwei Jahrzehnte einen Schwerpunkt der physikalischen Forschung, wie man heute sagen würde. Der holländische Physiker und Nobelpreisträger Hendrik Antoon Lorentz war einer der Führer in diesem Streit. Er zeigte 1894 in einer berühmten Schrift, dass die von ihm und Joseph Larmor angegebene Fortbildung der Maxwellschen Elektrodynamik ohne weiteres einen großen Teil jener Versuche deuten konnte, aber freilich nicht alle. Um alle einbeziehen zu können erweiterte er 1904 diese Theorie durch Umgestaltung der Newtonschen Mechanik in einer Weise, welche der Realitätstheorie schon recht nahe kommt. Der Unterschied war, dass er auf jedes Relativitätsprinzip dabei verzichtete, man musste von Fall zu Fall neue Hypothesen hinzufügen, wenn man ein neues Gebiet der Physik seiner Theorie einordnen wollte. Bei Lorentz findet sich aber auch schon jener Ersatz für die Galilei-Transformationen, welche nach ihm den Namen Lorentz-Transformation trägt und für die Relativitätstheorie grundlegend wurde. Bei ihm ist sie aber nicht mehr an eine Rechenregel. Zweckmäßig für die Lösung gewisser physikalischer Probleme, deren Umfang zunächst nicht genau festgelegt war. Auf derselben Grundlage leistet auch der französische Mathematiker Henri Poincaré wertvolle Vorarbeit. Im Gegensatz zu Lorentz und Poincaré postulierteEinstein von Anfang an ein Relativitätsprinzip. Das heißt die Gleichwertigkeit aller gegen ein Inertialsystem translatorisch bewegter Bezugssysteme. Sodann begann er mit einer Analyse des Begriffes gleichzeitig. In der gesamten älteren Physik hatte dieser als etwas Absolutes gegolten, wie es sich ja auch in Newtons Vorstellung einer absoluten Zeit widerspiegelt. Und die Newtonsche Mechanik war darin ganz konsequent. Sie nahm ja die Existenz starrer Körper an, mit einem solchen kann man Zeitsignale momentan ohne jeden Zeitverlust von einem zum anderen Ort übertragen. Tatsächlich gibt es keinen völlig starren Körper. Es war schon deswegen lange vor Einstein feststehende Praxis, dass man Zeitsignale optisch oder mittels des elektrischen Telegrafen übertrug, wobei die Laufzeiten solcher Signale unter irdischen Verhältnissen so kurz sind, dass man davon für viele Fälle ganz absehen kann. Für grundsätzliche Betrachtung aber muss man auf sie achten, zumal sie sich nicht auf kleine Laufstrecken beschränken. Einstein definierte nun in Übereinstimmung mit der Praxis - zwei Uhren, die im gleichen Inertialsystem im Abstand L ruhen, gehen synchron – wenn ein von der ersten bei der Zeigerstellung Null ausgesandter Lichtblitz die zweite bei der Zeigerstellung L dividiert durch c, durch die Lichtgeschwindigkeit, trifft. Er fragte weiter, welches ist das Kennzeichen, dass zwei Ereignisse gleichzeitig eintreten? Und antwortet: Wenn die an ihren Orten stehenden Uhren bei ihrem Eintreten dieselbe Zeigerstellung haben. Nun aber verlangt das Relativitätsprinzip, dass diese Kennzeichnung für alle Inertialsysteme gilt. Wenn sich nun ein solches gegen das innerste mit der vorausgesetzten gleichförmigen Translationsgeschwindigkeit bewegt, so zeigt sich leicht, dass zwei in dem einen System gleichzeitige Ereignisse in dem anderen zu verschiedener Zeit, vielleicht zu verschiedenen Zeigerstellungen der in Frage kommenden Uhren stattfinden würden. Der Begriff „gleichzeitig“ gilt folglich nur noch relativ. Man muss nur angeben, welches Bezugssystem man dabei zugrunde legt. Die Zeitmessung wird jetzt also etwas Relatives. Und das überträgt sich auch auf die Raummessung. Schon aus dem Grunde, dass die Länge eines bewegten Stabes sich aus dem gleichzeitigen Ortsunterschieden seiner Enden bestimmt. Als Umrechnung, welche Raum und Zeitmessung von einem zum anderen Bezugssystem transformiert, ergibt sich sodann die erwähnte Lorentz-Transformation, welche im Gegensatz zu der ihr analogen Galilei-Transformation nicht nur die Raumkoordinaten umrechnet, sondern auch die Zeitgröße. Aber hier ist sie nicht mehr nur eine zweckmäßige Rechenregel, sondern ein alle Naturvorgänge bindendes Naturgesetz. Zeitmessung und Raummessung sind also hier miteinander gekoppelt. Die schönste Frucht dieses grundsätzlichen Fortschritts war das noch im gleichen Jahr 1905 veröffentlichte Gesetz von der Trägheit der Energie, ausgedrückt in der nur zu berühmten Formel: Energie = Masse x Quadrat der Lichtgeschwindigkeit (E=mc²). Der Name Relativitätstheorie, den Einstein alsbald von anderen Autoren übernahm, hat oft zu dem Missverständnis geführt, als relativiere diese Theorie den physikalischen Tatbestand. Es mache sie abhängig von einem Standpunkt, die ein Beobachter willkürlich wählen kann. Besonders Kant hat sich gelegentlich scharf gegen diese Bedeutung gewandt. Zwar gibt die Theorie verschiedenen Bezugssystemen mit demselben Vorgang verschiedene Zeitdauer. Zwar ordnet die Abmessung desselben Körpers für verschiedene Bezugssysteme verschiedene Zahlen zu, ebenso seine Energie, seinen Impuls, seine Temperatur usw., aber alle diese Zahlenwerte lassen sich von einem zum anderen Bezugssystem eindeutig umrechnen, sind also im Grunde identisch. Hermann Minkowski, der 1909 in noch jungen Jahren verstorbene Göttinger Mathematiker, führte deshalb statt der drei Raum- und der Zeitkoordinate vier Koordinaten eines vierdimensionalen Kontinuums ein, welches er die Welt nannte. Jedem Ereignis war eigens ein Weltpunkt zugeordnet. Will man wissen, wo und wann es sich in Bezug auf ein bestimmtes Bezugssystem abgespielt hat, so muss man durch dieses Kontinuum, dieses vierdimensionale Kontinuum, den im Bezug des dementsprechenden dreidimensionalen Querschnitt legen. Die Koordinaten in ihm geben den Ort, die vierte Koordinate den gesuchten Zeitpunkt an. Die Beschreibung eines Vorgangs im Rahmen dieser Welt enthält also seine Beschreibung für jedes mögliche Bezugssystem. Der mathematische Vorteil, den die Darstellung der Naturvorgänge in der Welt bietet, beruht zudem auf einer weitgehenden Gleichberechtigung aller vier Weltkoordinaten. Aber in einem Punkt versagt diese. Fragt man nach der Berechnung des Abstandes zweier Weltpunkte aus der Differenz ihrer vier Koordinaten so hat man zwar für die drei räumlichen Koordinaten die Quadrate davon zu addieren, um das Quadrat des Abstandes zu erhalten, aber die Quadratdifferenz der Zeitkoordinaten ist zu subtrahieren. Es gilt also eine Abwandlung des pythagoräischen Lehrsatzes. Freilich ist der Unterschied gegen eine euklidische Geometrie im Vierdimensionalen nicht sehr tief, das Parallelenaxiom zum Beispiel gilt auch hier. Man spricht auch hier von einer pseudo-euklidischen Geometrie. Aber dieser mathematische Vorteil ist keineswegs das Wesentlichste an dem Begriff der Minkowskischen Welt, sie bekommt eine unmittelbare physikalische Realität insofern die Funktion des Führungsfeldes auf sie übergeht. Sie ist es, die den freien Massenpunkt auf einer geraden Weltlinie führt und dies ist nur ein anderer Ausdruck dafür, dass eine Bahn in dreidimensionalen Raum eine Gerade ist, die mit konstanter Geschwindigkeit durchlaufen wird. Wirken aber Kräfte, so kommt es zwischen ihnen und dem Führungsfeld zum Kampf. Der Körper weicht von der geraden Weltlinie ab, d. h. seine Bahn im Dreidimensionalen krümmt sich, seine Geschwindigkeit wird veränderlich. Die spezielle Relativitätstheorie hat tausende von Veröffentlichungen hervorgerufen. Zustimmende, begeisterte, aber auch schroff ablehnende. Noch als der Streit um sie am heftigsten war, ging Einstein an ihre Erweiterung. Zwei Mängel veranlassten ihn dazu. Erstens der offensichtliche, dass diese Theorie nichts über die Gravitation, diese allgemeine Massenanziehung nach dem Newtonschen Gesetz aussagt. Zweitens aber fehlt in ihr als Gegenstück der Wirkung des Führungsfeldes auf die Körper die Rückwirkung der Körper auf das Führungsfeld. Während wir doch sonst in der Physik in jeder Wirkung eine Rückwirkung kennen. Von dem Unbehagen darüber getrieben schuf Einstein in siebenjährigem Ringen, von 1908 bis 1915, die allgemeine Relativitätstheorie. Als Ausgangspunkt wählte er das Gesetz von der Gleichheit der trägen und der schweren Masse. Der Begriff Masse kommt in der Newtonschen Physik zweimal vor. Erstens steht die Masse im Bewegungsgesetz als Maß des Widerstandes, welche ein Körper der Beschleunigung durch eine Kraft entgegensetzt. Hier ist die träge Masse. Zweitens aber tritt sie im Newtonschen Anziehungsgesetz auf, insofern dies die Schwerkraft zwischen zwei Körpern zu ihren Massen proportional setzt. Das ist die schwere Masse. Schon Galilei, später Newton und viele andere haben mit immer wachsender Genauigkeit experimentell bestätigt, dass beide Massen einander gleich sind, aber in der Mechanik wurde diese Erkenntnis eigentlich nicht verankert. Das Gesetz der Identität beider Massen war für sie ein Anhängsel ohne rechte innere Verpflichtung. Sie hätte auch ohne dieses Gesetz bestehen können. Einstein entgegen machte es zu einem Grundpfeiler seiner allgemeinen Relativitätstheorie. Die gesuchte Rückwirkung der Körper auf das Führungsfeld musste damit zusammenhängen. Dies war aber auch der einzige Leuchtturm, den die Erfahrung zur Erhellung des einzuschlagenden Weges darbot. Sonst war Einstein auf den Kompass der Mathematik angewiesen, der zwar einigermaßen für die Einhaltung der eingeschlagenen Richtung sorgen konnte, aber keineswegs zur eindeutigen Festlegung des Weges genügte. Einstein hat schließlich diesen Weg gefunden. Nicht ohne gelegentliche Um- oder Irrwege. Dass er überhaupt durchgekommen ist, ist nach meiner Ansicht seine größte Leistung. Ein schweres Opfer musste er jedoch allerdings gleich zu Anfang bringen, nämlich den Verzicht auf die Euklidische Geometrie, des dreidimensionalen Raumes und damit auf die pseudo-euklidische Geometrie der Minkowskischen Welt. Diese war zu starr, nicht biegsam genug, um den oben gestellten Anforderungen zu genügen. Einstein fand in der mathematischen Literatur schon Anfänge zu einer dreidimensionalen, nicht-euklidischen Geometrie. Trotzdem musste Einstein noch manches mathematische selbst hinzufügen. Ganz abgesehen von der Verallgemeinerung auf die vier Weltdimensionen. Das Wesentliche an ihr lässt sich so beschreiben, dass in ihr der pythagoräische Lehrsatz nur noch im unendlich Kleinen gilt, aber nicht mehr allgemein. Es gibt entsprechend in ihr auch keine parallelen Geraden, überhaupt wird der Begriff der Geraden ersetzt durch den der geometrischen Linie, welche als geradeste Verbindung zweier Punkte dem Begriff der euklidischen Geraden so nahe wie möglich kommt. Bevorzugte Koordinatensysteme, die den Inertialsystemen der speziellen Relativitätstheorie entsprechen, gibt es hier im Prinzip überhaupt nicht. Überhaupt haben die Koordinaten, die man zur Behandlung mathematischer Probleme nicht entbehren kann, keinerlei physikalische Bedeutung mehr. Sie entarten zu Namen für die Weltpunkte. Erst bei der Bestimmung des Abstandes zweier Weltpunkte treten diejenigen mathematischen Größen auf, welche die Geometrie kennzeichnen. Sie sind von Ort zu Ort veränderlich und darauf beruhen die Abweichungen von einer euklidischen oder pseudo-euklidischen Geometrie, aber auch die größte Anpassungsfähigkeit an nicht euklidischen oder Riemannschen Geometrie. Den Zentralpunkt der allgemeinen Relativitätstheorie bilden nun die Einsteinschen Feldgleichungen, welche dieser Abweichungen aus den in der Natur vorkommenden Massen und ihrer Bewegung zu berechnen gestatten. In ihnen drückt sich die gesuchte Rückwirkung der Körper auf das Führungsfeld aus. Aber in denselben Abweichungen zieht diese Theorie auch die Bestimmungsstücke des Schwerefeldes. Diese Doppelstellung verbürgt die Gleichheit von träger und schwerer Masse. Und nun kommt noch hinzu, diese Feldgleichungen enthalten auch die gesamte Mechanik. In Abweichung aller früheren Konzeptionen rechnet die Schwere nicht mehr zu den Kräften, die mit der Wirkung des Führungsfeldes in Konflikt kommen können, sondern ist nur ein Ausdruck dieser Führung selbst. Kräftefrei bewegt sich ein Körper, wenn er nur unter der Wirkung der Gravitation steht. Seine Weltlinie ist dann eine geodätische Linie. Zwei große und bisher nur äußerlich verkoppelte Gebiete der Physik, Gravitation und Mechanik, sind hier zu einer Einheit verschmolzen. Das bedeutet eine grandiose Vereinfachung der Grundlagen der Physik. Zugleich findet aber auch hier die Frage nach der sinngemäßen Raum- und Zeitmessung durch Angabe der Weltgeometrie ihre umfassendste Antwort. Darin sah Einstein selbst den eigentlichen Wert seiner Feldgleichungen. Aber hier ist doch noch zu fragen, ob denn kein sicheres Ergebnis der älteren Physik dabei geopfert wurde. Ist zum Beispiel nicht die spezielle Relativitätstheorie dadurch außer Kraft gesetzt, dass es nun keine bevorzugten Bezugssysteme mehr gibt. Ein Satz der nicht-euklidischen Geometrie besagt, dass man für jeden Punkt des betrachteten Kontinuums sogenannte geodätische Koordinaten einführen kann, welche in einem beschränkten Bereich um diese gute Annährung dieselbe Rolle spielen wie in der euklidischen Geometrie. Der nicht- euklidische Charakter jener Geometrie enthüllt sich eben erst bei Betrachtung größerer Bereiche, für welche die geodätischen Koordinaten nicht mehr jeden Zug tragen. Angewandt auf die Realitätstheorie besagt dies, dass man in begrenzten Raum-Zeitbereichen nach wie vor mit dem Inertialsystem der speziellen Relativitätstheorie operieren darf. Und die Grenzen sind hier nach aller Erfahrung so weit gesteckt, dass wir kaum mit ihnen je in der Physik in Konflikt kommen werden. Von jenen Abweichungen freilich, von der euklidischen Weltgeometrie, welche in der Nähe stärkerer Gravitationszentren, z. B. der Sonne, zu beobachten sind, haben wir dabei abgesehen. Aber einen neuen Zug haben die Inertialsysteme, welche die allgemeine Relativitätstheorie mit der genannten Einstellung bestehen lässt, sie wird notwendig gravitationsfrei. Mathematisch gesprochen, man hat die Gravitation forttransformiert, indem man zu den geodätischen Koordinaten überging. Als Verwirklichung eines solchen Inertialsystems hat man z. B. jenen von Einstein oft zitierten Aufzug zu betrachten, der sich von seiner Aufhängung gelöst hat und nun frei herunter fällt. Dass man in ihm kein Gravitationswirkung mehr bemerkt, ist keineswegs neu. In ihm sind die Bahnen eines freien Körpers und der Lichtstrahl genau gerade. Die ältere Physik ließ für Inertialsysteme schwere Wirkungen zu. Hier erfährt sie also durch die allgemeine Relativitätstheorie eine Korrektur. Das Kopernikanische Bezugssystem, welches die Astronomie für die Theorie der Bewegung benutzt, ist trotz der Geringfügigkeit der Änderungen, welche die allgemeine Relativitätstheorie an seiner Metrik vornimmt, kein Inertialsystem im Sinne der allgemeinen Relativitätstheorie. Hier liegt ein wesentlicher Unterschied gegen die Auffassung Ludwig Langes und aller älteren Physiker. Hingegen könnte man sich ein Inertialsystem durch einen kleinen, selbstständig herumschwirrenden Meteoriten ohne merklicher Eigenschwerewirkung verkörpert denken. Die spezielle Relativitätstheorie kann mit ihrer Theorie der Raum- und Zeitmessung nur bestehen, wenn es keine Wirkung gibt, die sich im näheren Raum mit anderer Geschwindigkeit ausbreitet als das Licht. Denn sonst könnte man mittels dieser Wirkung die oben besprochenen Signale aussenden und damit eine andere Art der Gleichzeitigkeit definieren. Folglich muss auch die Gravitation, welche bei Newton als unvermittelte Fernwirkung behandelt wurde, sich mit Lichtgeschwindigkeit ausbreiten. Das vermuteten die Astronomen schon lange vor der Relativitätstheorie, konnten aber niemals eine astronomische Beobachtung zur Unterstützung dieser Ansicht anführen. Die allgemeine Relativitätstheorie steht hier mit der speziellen in vollem Einklang, denn aus den einsteinschen Feldgleichungen lässt sich mathematisch ableiten, dass Gravitationswirkungen in zeitlich veränderlichen Feldern mit Lichtgeschwindigkeit fortschreiten. Für zeitlich unveränderliche Gravitationsfelder jedoch ergibt mathematische Untersuchung als gute Näherung das Newtonsche Anziehungsgesetz. Deswegen auch gelten nach ihr in guter Näherung die Keplerschen Gesetze für die Planetenbewegung. Nur für die nähere Umgebung der Sonne und jedes Körpers ähnlicher Masse kommen die erwähnten, von Schwarzschild aus den Feldgleichungen abgeleiteten Abweichungen von der Weltgeometrie von der pseudo-euklidischen einigermaßen in Betracht. Dort haben jene drei Einstein-Effekte ihren Sitz, die trotz ihrer Kleinheit starke Stützen für die Allgemeine Relativitätstheorie liefern. Ich will mich hier kurz fassen, ich meine ja nur die sogenannte Perihelbewegung bei Merkur, die Ablenkung des Lichtes an der Sonne und jene Rotverschiebung der Spektrallinien, wenn sie von der Sonne oder starken Gravitationszentren ausgesandt werden, die man schließlich bei den sogenannten weißen Zwergen, jenen Fixsternen normaler Masse, aber besonders kleinen Volumens, hat feststellen können. An allen diesen Beispielen sieht man, wie gering die Abweichungen der Weltgeometrie von der Pseudo-euklidischen, selbst in der Nähe der größten Körper sind. Aber eine gewaltige Änderung unserer kosmologischen Vorstellung steht zurzeit in Diskussion. Solange man den dreidimensionalen Raum als euklidisch annahm, musste man ihm auch unendliche Ausdehnung zuschreiben. Den Grenzflächen widerspricht unsere a priori gesetzte Raumanschauung. Das hat etwas Unbefriedigendes, weil es jede Hoffnung raubt, einmal das Naturgeschehen als ein Ganzes zu erfassen. Es gibt dann kein solches Ganzes. Soweit wir unsere Erkenntnisse auch ausdehnen mögen, hinter der jeweiligen Grenze liegt noch unendlich viel Unbekanntes. Hat nun aber die Minkowskische Welt und damit auch unser dreidimensionaler Raum nicht-euklidische Geometrie, so besteht jedenfalls die Möglichkeit, diesen aus einen in sich geschlossenen Raum zu denken, etwa als Kugelraum, der keine Grenzflächen und doch endliche Größen hat. Ich erinnere daran, als Analogon, dass eine kugelige Fläche auch keine Grenzlinien hat und dennoch nur einen endlichen Flächeninhalt. Wie man in dem Kugelraum sich auch bewegen mag, man kommt zum Ausgangspunkt zurück wenn man nur weitgenug geht. In der Tat lassen Einsteins Feldgleichungen diese Idee zu, unter der Voraussetzung, dass alle Materie mit gleichförmiger Dichte überall hin verteilt ist. Eine solche Vorstellung stimmt zwar nicht genau, aber wenn wir einen hinreichenden großen Maßstab anlegen, eben wenn selbst die Entfernung zwischen benachbarten galaktischen Systemen klein erscheinen, so entspricht diese Vorstellung durchaus dem heutigen astronomischen Wissen. Einstein hat 1917 aufgrund seiner Feldgleichungen die Vorstellung eines geschlossenen Raumes von räumlich und zeitlich konstanter Krümmung entwickelt. Es hat sich jedoch dagegen das Bedenken erhoben, dass eine solche Verteilung der Materie instabil wäre. Hingegen hat 1922 Friedmann, auch aufgrund der Einsteinschen Feldgleichungen, einen solchen Raum mit zeitlich zunehmendem Krümmungsradius angegeben. Und was damals als rein mathematische Spekulation erschien, erhielt höchstes physikalisches Interesse, als der kalifornische Astronom Hubble 1928 aus spektralen Beobachtungen der fernst-erreichbaren Nebel schloss, dass sich diese alle von unserem Milchstraßensystem entfernen, mit umso größerer Geschwindigkeit, je weiter sie schon entfernt sind. Man kennt ja bei Geschwindigkeiten bis zu einem Fünftel der Lichtgeschwindigkeit. Dies entsprach genau der Friedmannschen Theorie. Auch quantitativ hat sich die Erfahrung anpassen lassen: Man schließt z. B. aus diesen astronomischen Beobachtungen auf ein Alter des heutigen Kosmos von 4,5 Milliarden Jahren, während die radioaktive Forschung, die auf ganz anderer Grundlage beruht, dafür 4,3 Milliarden ergibt. Die Übereinstimmung ist in Anbetracht der immensen Extrapolationen, die bei beiden Schätzungen unvermeidlich sind, eine ausgezeichnete. Fassen wir also zusammen. Raum- und Zeitanschauung sind eingeprägte Formeln der menschlichen Anschauung. Eigenschaften unseres Erkenntnisvermögens, an dem keine Erfahrung etwas ändern kann. Raum- und Zeitmessung hingegen sind Erfahrungswissenschaft, d. h. der Physik zu entnehmen, die lange Geschichte dieses Prozesses hat jüngst in der allgemeinen Relativitätstheorie einen Abschluss erreicht, über den hinauszugehen wohl zur Zeit keine Möglichkeit vorliegt, und das Verdienst an diesem immensen Fortschritt gebührt unzweifelhaft allein Albert Einstein.

von Laue Mentions Friedman's Solution of Einstein's Equations
(00:30:20 - 00:36:36)

The radio astronomer Antony Hewish, Nobel Laureate in Physics 1974 “…for his decisive role in the discovery of pulsars”, has lectured several times at the Lindau Meetings. In 1988 he gave his second lecture, “Can we Observe the Origin of the Structure in the Universe?”. It brings together several threads of astronomical observations and theoretical ideas, from the discoveries of radio galaxies and quasars, the microwave background radiation, the clustering of galaxies, the theoretical maps of the sky and the need for dark matter. The main point, though, is to explain how we can understand what we observe and measure using the theory of the expanding Universe.

Antony Hewish (1988) - Can We Observe the Origin of Structure in the Universe?

So for those of you who are young scientists beginning your careers in research, I hope that some of the ideas I shall be suggesting may be those places where you can find satisfying research. When you’re a young scientist, you should not be following fashionable research. The main trends in a subject as old as radio astronomy, maybe only a little, only 30 years old, but nevertheless the main lines of the subject are now quite well defined and there are schools of thought and instruments which are well established. And it is so easy to go into a conventional field where most of the spade work has been done and what remains is fascinating but nevertheless not so fundamental perhaps as some original work in another area. I believe what I’m talking about is such an area. The theoreticians are, I might say floundering, there are many confusing and conflicting ideas as I shall explain. And this is exactly the area for a young observer to enter. It is really very nice to be able to say which theories are right and which theories are wrong, and this is the aim of an observational scientist. Well, now, what are the problems in cosmology? Well, radio astronomy has had a major impact and has changed our thinking in two major ways and I can illustrate this very briefly. May I have the first slide please? Radio galaxies, the discovery of radio galaxies in the early days of radio astronomy. The moment we realised that these objects had very high redshifts, it was clear that the radio galaxies we realised that they, long ago, that they were ideal probes for investigating the past history of the universe. They are so far away that signals from them have crossed space for many, several thousand million years. A time comparable to the history of the whole universe if one believes in a Big Bang cosmology. And therefore these are ideal ways, ideal probes, which tell you something about the behaviour of the universe at an earlier phase in its history. Here you see an image of a typical radio galaxy which we made at Cambridge, using the last major radio telescope designed by Martin Ryle. He invented the technique which is now universal of aperture synthesis, which enables one to make high resolution images of these extremely distant objects. Now, what you see there is computer map of the radio emission from not such a distant radio galaxy, but you see it has a dot in the middle and if you were to look with an optical telescope in that direction you would see there a galaxy, probably an elliptical galaxy. But the radio galaxy is very much larger and it is quite clear that energy is being transported outwards along those snakelike paths and is being released in clouds at the ends where we have relativistic particles which emit the synchrotron radio emission which causes these galaxies to be detectable. Now, there is much of interest in radio galaxies still to be discovered. We do not know what the source of energy is. Probably in the centres of many galaxies we find active nuclei, compressed matter near the centre of a galaxy which may well be in the form of a black hole. And energy is being released from this in well defined directions. The energy is probably in the form of a relativistic beam of particles, most likely electron positron pairs. But whatever is the source of energy we now know roughly the physical processes which go on in a radio galaxy. It is because they are the most powerful emitters of energy in the sky that we can use them for these cosmological investigations which I mentioned. May I have the second slide? I’ll show you one more example of a radio galaxy. The next slide please. This is an even more peculiar object mapped by a radio telescope in the United States and you can see again the central dot which is the source of power. And you can see the narrow directed beams of energy which seem to be puffing clouds of particles outwards in each direction. This is typical behaviour of radio galaxies and the mystery is in that dot in the centre. When one looks with optical telescopes, one frequently sees a spot of light, these were therefore frequently called quasars, quasi stellar objects. The images I’ve shown you have been of relatively near by ones where you can see the structure quite clearly. Well, these are the typical objects, radio galaxies and what is their importance for cosmology? Well, when radio astronomy began it wasn’t certain that the universe was static in the sense that over periods of time its structure didn’t change. There was a popular cosmological theory, called the steady state cosmology, as the universe expanded, so material was created to fill the spaces. And in that sense the universe would be like a population of people, the people changing from time to time but the population remaining about the same. That was a very nice theory and was very popular. But of course, if one can look back over the history of the universe, then one is able to test this assumption, is the universe constant in time or not. And this was work started by Martin Ryle in Cambridge and elaborated by many others. It’s now very clear that the universe, as one observes it back in time, is very different from the universe today. Simply if we count the radio galaxies in the sky. This is a recent graph made by Malcolm Longair in Edinburg in the United Kingdom, and it plots simply the density, the number density of radio galaxies as one looks back from the present time here which I call now, to the beginning of the universe, perhaps around 10 to the 10, 10 billion years ago. And it is possible from the observations we have to predict that the density of these radio galaxies must have been very much higher early in the universe. We can look back over history, over roughly 9/10 of the history of the whole universe, if we take it to be a Big Bang universe, created at some instant. And as you can see the numbers increase here. At the very early phases of the universe radio galaxies were some hundred to a thousand times more numerous in a given volume of space as compared to today. The universe is evolving in a very major way and this became evident in the late 1950’s, the early 1960’s, it was clear that continuous creation, a steady state universe with no beginning or no end was impossible. It had to be evolving and of course this led straight to the so called Big Bang cosmologies which of course were models which had been much considered. Well now, radio galaxies are one of the major features of radio astronomy, but the feature I want to be talking more about today results from the discovery of Penzias and Wilson, here is their apparatus. Penzias and Wilson, as I’m sure you know, discovered that the sky was filled with a very weak background radiation corresponding to thermal radiation at a temperature of a little under 3 degrees Kelvin. Here is the apparatus they used. It looks a little strange but in fact it’s a very well designed radio telescope. It was designed not for astronomy but for satellite communication engineering. But those scientists discovered a weak radiation coming in all directions from the sky, which they could not explain in any other way than that it was an extraterrestrial signal. The antenna here you see is open to the sky and it was, inside the antenna was quite a popular place for birds to make their nests, it was a little warmer in there than outside and luckily they did not actually affect the experiment very much. Now, the only reasonable explanation it appears is that this radiation, this microwave radiation is heat radiation left over from an early hot phase of the universe. And it is immensely important in cosmology, because if one takes the models which relate to the expanding universe considered under the theory of general relativity, models of the universe such as the Einstein-de Sitter universe, expanding steadily. If we know that it is filled with this radiation, then we can compute what the universe was like at earlier times. The evolution of the universe is something now which we can consider physically in a quantitative way. And in the time available I can only hint at the structure we observe, but if we work back over the universe from the universe we see today, which is filled with galaxies and has this weak background radiation of around 3 degrees Kelvin filling it. Then at earlier times it must have been hotter. Of course if you put radiation in an enclosure, in this case the enclosure is the universe, and you compress it adiabatically, the temperature will rise and this is essentially what happens in the universe, it expands adiabatically from a hot condensed phase to a much lower temperature, lower density phase. And we can work out from the ordinary laws of physics what the matter in it must have been like. There are many problems in relating one phase to another. But if we look back from the present time to for example a few seconds from the beginning of everything, then we can relate a temperature to each time. And at a temperature, say of around 10 seconds, the temperature is around 10 to the 10 degrees Kelvin and this is the region where we can just begin to form atomic nuclei. Earlier than that, around 1 microsecond from the origin of time, I think it´s still amazing that we can discuss the physical structure of the universe in terms of conventional laboratory physics, only 1 millionth of a second after the universe was created. But nevertheless that seems to be true. At that time it was so hot, temperature of 10 to the 12 Kelvin that conglomerations of particles are no longer possible, you cannot have simple nuclei, you have to have individual particles, neutrons, protons, neutrinos and so forth. At earlier times things become harder to understand and we need more physics. The idea, the hope is that at even earlier times, like 10 to the minus 30 seconds from the beginning, there is a theory, we call it Grand Unified Theory, which accounts for all the forces in a homogenous way. There is no distinction one hopes between the fundamental forces of nature at a sufficiently early time. And this is the aim of Grand Unified Theories, which ultimately one hopes will combine quantum physics and general relativity. That of course is a goal, we are not too close to that goal. If those theories are indeed correct, the kind of theories now being formulated, then the universe went through a very exciting phase, even before 10 to the minus 30 of a second, when no normal particle would be possible. The universe can be in a state, the quantum physicists call it a false vacuum, where the vacuum energy dominates the situation. And the universe simply expands rapidly under the effect of a negative pressure. It is a strange idea but general relativity predicts that a negative pressure in the universe causes it to expand. And under those conditions it can expand increasing its energy at the same time. If you expand a volume with negative pressure, of course you gain energy and this is the way the universe may have begun. It is called the theory of inflation and is a very popular idea at present. It solves a number of problems. Now, this picture here seems maybe a little far from reality, how can be we sure that the universe is anything like our predictions, using physical theory. Well, of course there is much evidence. The period of the formation of simple atomic nuclei at a few 10’s of seconds after creation, that is something we know very well, what the physics of it is, and we can predict the quantities of light elements that will be created. And the interesting feature is that we make observations of the universe. We can calculate the amount of hydrogen, helium, lithium, deuterium and other things. And it appears that our calculations are well explained by this model of the time the universe spent in passing through at a particular density and temperature, the phase of nuclear formation. And the observations fit the theory very well and it’s rather hard to see how this general scheme could be incorrect. It’s much simpler to believe that this is how the elements originate than to dream up some other method. Of course the further back we go the harder it gets. We can’t look back beyond 1 microsecond. Well now, what is the importance of this for the radio astronomy that I was talking about? We see a universe filled with galaxies and it is sad to say that we just don’t know how those galaxies arose. Clearly in a hot expanding universe we have to have gravitational condensation of matter. And this takes a certain amount of time. Well there’s a problem and this is the experiment I should be talking about, how do we go, how do we understand the processes which operate from the beginning to 10 to the 10 years to produce the wonderful structure of the galaxies in the sky that we see today. A critical time is 10 to the 5 years after creation, which is when the simple atoms of hydrogen form, and it is at this time that the universe first becomes transparent. Clearly if photons are scattered in their passage through the universe, we can only see a blurred image. It’s rather like being inside a furnace, you do not see any structure. But when photons can travel freely across the universe, we can then begin with instruments on the ground to make cosmological observations. And the radiation we pick up now as the microwave background at a few degrees Kelvin was the radiation which was present after about 10 to the 5 years from creation when the universe had a temperature of a few thousand degrees Kelvin. Now, the interesting thing is that this radiation is amazingly constant over the sky. The radiation is constant over the sky as we see it in different directions to about, certainly better than 1 part in 10 to the 4. If we correct for the motion of our own planet through the universe. If you are in a body, if you are surrounded by black body radiation and you move through it at a certain speed, then relativity theory tells you quite clearly that the radiation will appear hotter towards the direction to which you are moving and cooler in the reverse direction. And this is very readily measurable with accurate radio telescopes. We can see that the earth, our local frame of reference, is moving through the universe at a speed of about 350 kilometres per second. It is also possible to measure the speed of the earth around the sun looking at the black body radiation, such is the accuracy of present day measurements. Well now, apart from that this is a big effect which we expect because different parts of the universe are not expanding uniformly with the Hubble expansion. They have their own motion due to perhaps the rotation of the galaxy we inhabit. And the motion of that galaxy relative to others and large scale motions, all these things. What then do we know about the large scale structure of the universe? May I have the next slide please? I don’t know if you can see this, but the universe as seen through an optical telescope is structured in the sense that the galaxies form clusters. We have a hierarchical system, I’m not sure that it fits the factual picture too well, but the stars that make the galaxies and the galaxies themselves are clustered as you see in this slide here. And the general structure of the universe on a large scale seems to be clusters of galaxies. These are the main features. If one wants to see this on a larger scale, then one has to look at pictures like this. This is the northern sky which can... And shows you a map from the famous Lick survey in the 1960’s which gives you the density, the number density of galaxies in pixel formation of just about 1 million galaxies. And the structure you see here is clearly non-uniform, it’s a little hard to specify exactly how non-uniform it is but one sees places where galaxies are clustered and places where galaxies are rather thinly spread. And this is on a structure of about, speaking astronomically 150 megaparsecs or something like 300 million light years, a few hundred million light years. This is the basic structure which the universe contains. And we know that these clusters of galaxies are gravitationally bound. We see them moving in orbits about each other and this is the structure we have to explain. Well, how does it come about? If the universe is very uniform, at 10 to the 5 years, then density concentrations have to form and condense into galaxies in the time available, which is of the order of a few times 10 to the 9 years. And this is where there’s a problem, because if we look at the large scale universe as I’ve just shown you, and ask what density fluctuations should have been present in the universe at 10 to the 5 years after creation, then it is quite clear that to allow the galaxies to form, one needs densities of the order of, density fluctuations of .1% about 1 part in 10 to the 3. And we know that the density fluctuations we can observe we know that those are 10 times, at least 10 times weaker than that. So we have no reason to see galaxies in the sky, there is not time to have made them. How can they have actually appeared? Well, we have primordial fluctuations of density which one can, certain theories can predict. But they seem to be insufficient, we seem to see insufficient of them to cause the structure of the universe observed around us. One way out of this is to suppose that there is more matter in the universe than we can currently observe. Now, we know already that, perhaps this is a bad admission for an astrophysicist, but we can only detect less than 10% of all the matter we know to exist in the sky. We see galaxies and we can infer from them the mass of the system they inhabit. And if we make extrapolations from these measurements which are not too inaccurate, we can compute that the universe contains so much total mass. Well now, when we do that we find there’s mass which is present from dynamical considerations, we see galaxies orbiting a central concentration of mass which is invisible. We know that there’s about 10 times as much mass present in clusters of galaxies as there is in the galaxies that we can see directly by stars. This is a famous problem in astrophysics, the problem of dark matter or unseen matter. But when it comes to galaxy formation we would like even more matter, because it is possible for galaxies to form if the universe contains roughly what in cosmology we call the critical density, if the average matter density is sufficient to just slow down the Hubble expansion after infinite time to zero speed, if we call that the critical density, then if we have that density it is possible to create galaxies in the time available. Because this dark matter that we don’t see can be decoupled, as we say, from the radiation. If this dark matter is in the form of exotic particles or other structures left over from this original inflation phase of the universe, then the gravitational concentrations which form into galaxies may be the result of perturbations of density of that dark matter which causes potential wells into which the neutrons and protons which make up our own galaxies actually fall. And this then becomes a possible theory. So we would like this dark matter to be present. And astronomers have worked out, I’m sorry, theoreticians have worked out what the universe might look like in the microwave background radiation at this time of about 10 to the 5 years after creation when hydrogen atoms are first possible. And this is the kind of structure one should see. It depends of course on a lot of theory and different theoreticians will have different ideas. This model is a model of Bond and Efstathiou at Cambridge, but you see that in the microwave background one should see fluctuations of brightness. They are very small, they’re on a scale of a few micro Kelvin. This is a very much elaborated picture which shows them rather enhanced. But you see in a 10 degree by 10 degree square of sky, one might expect to observe something like that, if there is dark matter causing galaxy formation. Well, that is but one theory, there are many others. We’re thinking of that particular theory, then it’s interesting to see that already observations of the microwave background are becoming important. This is the same picture as you saw before but a little more scientific perhaps in that it is in the form of a graph. We plot the temperature of the thermal fluctuations that one would expect to see in the microwave background as a function of the angular scale. And the thermal fluctuations first of all rise as the angular scale increases, and it then flattens off. This is simply because of local horizon effects which I can’t tell you about at the moment. But the predicted fluctuations for different models are shown here and there’s an observational point there, famous observations by Hewson and Wilkinson. And already it is seen that we can rule out some cosmological models by direct observation and I think this is a very important point. Models with parameters which come above this point here are clearly impossible. Well now, this is not the only way of causing galaxy formation. Theorists are very clever people, they’re always coming up with strange ideas. And one of the stranger ideas relating to Grand Unified Theories and inflation is the possibility that the universe is filled with, well maybe not filled with, but has within it cosmic strings. These are vortexes, a vortex structure, little enclosures of space time in the form of strings which could stretch across the whole visible universe or be in loops. And they are strings of false vacuum which, although they are essentially quite massive, exert no simple gravitational attraction, but in motion they cause gravitational perturbations which could stir up the medium in space to form condensations which could later become galaxies. Cosmic strings behave in a peculiar way and they distort space time in a complex fashion and I can only illustrate some results of computations here. Supposing there is such a cosmic string in space which has some shape like that, then the theoreticians tell us that it is in such a high state of tension that if the string oscillates, then the speed of the oscillations will be close to the velocity of light itself, so that we can imagine this loop lashing about with a transverse motion equal to C. Under those conditions it produces a differential redshift across it. Well, in fact it’s a blueshift. The spacetime is changed in such a way that from one side of the string to the other, when it is moving transversely, one should observe a blueshift. This will affect the microwave background radiation. And computations show that if you had such a string in the universe, its microwave background radiation would fluctuate as shown in that bottom picture. You see the characteristic change in radiation level as one goes from one side of that string to the other. Now, radio telescopes should be able to see things like this if we actually design the right instruments. That is going to be a problem because once again these differential temperatures are only of the order of a few millionths of a degree Kelvin. Which is very difficult indeed to measure. Nevertheless, I believe such things should be measurable and as you can see from the last 2 pictures, the different theories now we can begin to sort out with good observations. We can look at the angular structure of this radiation. We can see whether strings exist or not. And there is therefore a very powerful influence could be exerted on the theories. Of course the observations are by no means easy. And just to mention very briefly what some of the observation difficulties would be. The radiation comes from a redshift of about z = 1000 to the earth, it passes through clusters of galaxies in which hot electrons will scatter the background photons by the inverse Compton effect. And you will get apparent small absorption affects which have already been detected in the microwave background if the radiation passes through clusters containing hot gas, which we know to exist. Nearer home, well of course there are also a background of faint radio galaxies which will confuse the structure we are trying to observe in the background. Nearer the radiation passes through our own galaxy. There are components of radiation which have to be corrected for, that’s not impossible. Finally the radiation passes through the troposphere for radio telescopes on the ground. Radiation from clouds will also confuse these measurements and finally there’s radiation from the ground itself which is of course around 290 degrees Kelvin, which is a lot larger than 1 millionth of a degree Kelvin and that is what you´retrying to measure. So how is this going to work in practice, here is the challenge. Speaking now slightly more technically, anybody who is seeking faint signals in the presence of noise knows that there is a fundamental relationship which relates to the square root of the bandwidth of your receiving system and the time you are prepared to take over the observations. If you write down today what would be reasonable parameters for a radio telescope, which could detect 1 micro Kelvin against the microwave background radiation, the receivers have a certain noise fluctuation themselves which tends to go down as you pay more money for the receivers, but will not be much less at the moment than 50 degrees Kelvin, if one uses a bandwidth which is about as large as you can get at the right frequency which is 500 megahertz, and if the whole thing is at a frequency of about 15 gigahertz, then if you observe continuously your sky for 2 months, you will being to see the fluctuations required. Well, that’s not impossible. A PhD normally takes several years to achieve so that you have several observing times to see. But there’s another difficulty and this is where I shall be near the end of my talk, what would such a radio telescope actually look like? Well, you see the structures you're trying to find are very large in relation to most radio telescope parameters. The radio astronomers have been fighting to get high angular resolution now for 30 years. All of a sudden the requirements are quite different. You need a radio telescope which is extremely sensitive to structures of the order of minutes of arc to a degree or so as I showed you from the pictures of cosmic strings and the predictions of the inflation theory on fluctuations. What would that telescope look like? Well, it will be a cluster of instruments like this. And here is the astronomer to the same scale. It’s going to look very like conventional radio telescopes but it’s much smaller. And now the largest mapping telescope we know is the VLA in the United States, the very large array, we would call this the VSA, the very small array, this is what it would look like. Well, we believe that with observations of this sort it will be possible ultimately to measure fluctuations in the microwave background, these will be of fundamental importance, indeed they may be the only way of testing Grand Unified Theory. There is an intimate connection between the early phases of the universe and theories of particle physics, Grand Unified Theories and it could be that cosmological observations of this kind are the only way to check the theory. They are immensely important, they present a great challenge observationally and this is the kind of challenge which should be taken up by young radio astronomers today. Thank you very much.

So, für diejenigen von Ihnen, die als Nachwuchswissenschaftler ihre Karriere in der Forschung starten, hoffe ich, dass einige der Ideen, die ich vorschlagen werde, vielleicht diese Stellen sind, wo Sie Forschung, die Sie zufriedenstellt, finden können. Als Nachwuchswissenschaftler sollte man nicht der Forschung folgen, die in Mode ist. Die Haupttrends auf einem Gebiet, das so alt ist wie die Radioastronomie, vielleicht ein wenig über, vielleicht 30 Jahre alt, aber trotzdem sind die Hauptlinien des Themas gut definiert und es gibt Denkrichtungen und Instrumente, die gut etabliert sind. Und es ist so einfach in ein klassisches Feld zu gehen, wo die meiste harte Arbeit schon getan ist und was übrig bleibt ist faszinierend, aber trotzdem nicht so grundsätzlich wie vielleicht kreative Arbeit auf einem anderen Feld. Ich glaube, das, worüber ich spreche, ist ein solches Gebiet. Die Theoretiker, könnte ich sagen, quälen sich herum, da gibt es viele verwirrende und sich widersprechende Ideen, wie ich erklären werde. Und das ist genau das Gebiet wo ein junger Beobachter einsteigen sollte. Es ist wirklich richtig schön, wenn man sagen kann, welche Theorien richtig sind und welche Theorien falsch, und das ist das Ziel eines beobachtenden Wissenschaftlers. Also, was sind nun die Probleme in der Kosmologie? Nun, die Radioastronomie hat einen sehr starken Einfluss gehabt und hat unser Denken in zwei hauptsächlichen Richtungen geändert, und ich kann dies kurz illustrieren. Kann ich bitte das erste Dia haben? Radiogalaxien, die Entdeckung von Radiogalaxien in den frühen Tagen der Radioastronomie. In dem Moment, wo wir realisierten, dass diese Objekte sehr große Rotverschiebungen hatten, da war es klar, dass diese Radiogalaxien, diese beeindruckenden Bilder, die wir jetzt mit den besten, modernen Radioteleskopen bekommen können, wir realisierten, dass sie, vor langer Zeit, dass sie die idealen Sonden für die Untersuchung der Vergangenheit des Universums waren. Sie sind so weit weg, dass ihre Signale den Weltraum über viele, einige tausend Millionen Jahre durchkreuzt haben. Eine Zeitspanne, die vergleichbar ist mit der Geschichte des ganzen Universums, wenn man an die Urknallkosmologie glaubt. Und daher sind diese der ideale Weg, die idealen Sonden, die Ihnen etwas über das Verhalten des Universums in einer früheren Phase seiner Geschichte erzählen. Hier sieht man ein Bild einer typischen Radiogalaxie, das wir in Cambridge gemacht haben, und wo wir das letzte große Radioteleskop benutzt haben, das Martin Ryle entworfen hat. Er erfand die Technik der Apertursynthese, die inzwischen überall eingesetzt wird und die es ermöglicht, hochaufgelöste Bilder von diesen extrem weit entfernten Objekten aufzunehmen. Nun, was sie da sehen, ist eine Computerkartierung der Radioemission von einer nicht so weit entfernten Radiogalaxie, aber Sie sehen, da ist ein Punkt in der Mitte, und wenn man mit einem optischen Teleskop in diese Richtung schaut, würde man dort eine Galaxie sehen, vermutlich eine elliptische Galaxie. Die Radiogalaxie ist aber sehr viel größer und es ist sehr klar, dass entlang dieser schlangenartigen Pfade Energie nach außen transportiert wird und sie in Wolken am Ende freigesetzt wird, wo wir relativistische Teilchen haben, die Synchrotronstrahlung abgeben, die diese Galaxien nachweisbar machen. Nun, es gibt noch viel Interessantes in Radiogalaxien, was entdeckt werden muss. Wir wissen nicht, was die Energiequelle ist. Wahrscheinlich finden wir aktive Kerne in den Zentren von vielen Galaxien, verdichtete Materie nahe dem Zentrum einer Galaxie, was auch gut in der Form eines schwarzen Lochs sein kann. Und Energie wird von diesem in gut definierte Richtungen freigesetzt. Die Energie hat wahrscheinlich die Form eines relativistischen Teilchenstrahls, am wahrscheinlichsten Elektron-Positron-Paare. Was aber auch immer die Energiequelle sein mag, wir kennen die physikalischen Prozesse nun ungefähr, die in einer Radiogalaxie vor sich gehen. Weil sie die leistungsstärksten Sender von Energie im Himmel sind, können wir sie für diese kosmologischen Untersuchungen benutzen, die ich erwähnt habe. Kann ich das zweite Dia haben? Ich zeige Ihnen ein weiteres Beispiel einer Radiogalaxie. Bitte, das nächste Dia. Dies ist ein noch merkwürdigeres Objekt, das von einem Radioteleskop in den Vereinigten Staaten abgebildet worden ist, und man kann wieder den zentralen Punkt sehen, der die Energiequelle ist. Und man kann die dünnen, gerichteten Energiestrahlen sehen, die aussehen, als würden sie aus Teilchen bestehende Wolken in alle Richtungen ausstoßen. Dies ist ein typisches Verhalten von Radiogalaxien und das Geheimnis liegt in dem Punkt in der Mitte. Wenn man mit einem optischen Teleskop schaut, sieht man häufig einen Lichtpunkt, diese wurden daher oft Quasare genannt, quasi-stellare Objekte. Die Bilder, die ich Ihnen gezeigt habe, sind solchen von relativ nahen Objekten, wo man die Strukturen ganz klar sehen kann. Nun, dies sind die typischen Objekte, Radiogalaxien, und was ist ihre Bedeutung für die Kosmologie? Als die Radioastronomie begann, war nicht sicher, ob das Universum statisch war, in dem Sinne, dass seine Struktur sich im Laufe der Zeit nicht ändert. Es gab da eine beliebte kosmologische Theorie, Theorie des stationären Zustands genannt, die besagte, dass Materie geschaffen wird, während das Universum sich vergrößerte, um den Raum zu füllen. Und in diesem Sinne wäre das Universum wie eine Bevölkerung, die Menschen ändern sich von Zeit zu Zeit, aber die Bevölkerung bleibt in etwa erhalten. Das war eine schöne Theorie und sehr beliebt. Aber wenn man auf die Geschichte des Universums zurückblicken kann, dann kann man diese Annahme testen: Ist das Universum als Funktion der Zeit konstant oder nicht? Und dies war die Arbeit, die Martin Ryle in Cambridge begann und die durch viele andere weiter ausgebaut wurde. Es ist jetzt sehr klar, dass das Universum, wenn man es zurück in Richtung der Vergangenheit betrachtet, sehr unterschiedlich von dem Universum heute war. Einfach, indem man die Radiogalaxien im Himmel zählt. Dies ist eine kürzlich erstellte Kurve von Malcolm Longair in Edinburgh/UK, wo er einfach die Dichte, die numerische Dichte von Radiogalaxien, vom heutigen Zeitpunkt aus, die ich heute nenne, aufgezeichnet hat zurückblickend zum Beginn des Universums, vielleicht vor ungefähr 10 Milliarden Jahren. Und aus den Beobachtungen, die wir haben, kann man vorhersagen, dass die Dichte der Radiogalaxien im frühen Universum viel höher gewesen sein muss. Wir können auf die Geschichte zurückschauen, über ungefähr 9/10 der Geschichte des gesamten Universums, wenn wir ein Urknalluniversum annehmen, geschaffen zu einem Zeitpunkt. Und wie man hier sehen kann, steigen die Zahlen an. Und in den sehr frühen Phasen des Universums waren Radiogalaxien in einem gegebenen Raumvolumen hundertmal bis tausendmal so häufig verglichen mit heute. Das Universum entwickelt sich im großen Stil und dies wurde Ende der 50er Jahre, Anfang der 60er Jahre offensichtlich, es war klar, dass ein Gleichgewichtsuniversum ohne Anfang und ohne Ende nicht möglich war. Es muss sich entwickeln, und natürlich führte dies direkt zu den sogenannten Urknallkosmologien, die natürlich Modelle waren, die sehr stark in Betracht gezogen worden sind. Nun, Radiogalaxien sind eines der Hauptobjekte der Radioastronomie, aber das Merkmal, über das ich heute mehr sprechen möchte, resultiert aus der Entdeckung von Penzias und Wilson, hier ist ihre Apparatur. Penzias und Wilson, wie Sie sicher wissen, entdeckten, dass der Himmel mit einer sehr schwachen Hintergrundstrahlung gefüllt ist, die der Wärmestrahlung bei einer Temperatur von etwas weniger als 3 Grad Kelvin entspricht. Hier ist die von ihnen benutzte Apparatur. Es sieht ein wenig merkwürdig aus, aber es ist tatsächlich ein sehr gut konstruiertes Radioteleskop. Es wurde nicht für die Astronomie entworfen, sondern für die Satellitenkommunikationstechnik. Diese Wissenschaftler entdeckten aber eine schwache Strahlung, die aus allen Himmelsrichtungen kam und die sie nicht anders erklären konnten, als dass es ein außerirdisches Signal war. Die Antenne ist hier zum Himmel hin offen, und es war, Vögel liebten es, innerhalb der Antenne ein Nest zu bauen, es war ein wenig wärmer da drinnen als außen, und glücklicherweise beeinflusste dies das Experiment nicht sehr stark. Nun, es scheint, dass die einzig mögliche Erklärung ist, dass diese Mikrowellenstrahlung Wärmestrahlung ist, die von den frühen heißen Phasen des Universums übrig geblieben war. Und es ist sehr wichtig in der Kosmologie, weil wenn man die Modelle nimmt, die sich auf ein expandierendes Universum beziehen, wie es in der Allgemeine Relativitätstheorie betrachtet wird, Modelle wie das Einstein-De Sitter Universum, das kontinuierlich expandiert. Wenn wir wissen, dass es mit dieser Strahlung gefüllt ist, dann können wir berechnen, wie das Universum zu einem früheren Zeitpunkt war. Die Evolution des Universums ist jetzt etwas, was wir physikalisch quantitativ betrachten können. Und in der zur Verfügung stehenden Zeit kann ich nur die Struktur des Universums, das wir beobachten, andeuten, aber wenn wir uns zurückarbeiten im Universum von dem Universum, das wir heute sehen, das mit Galaxien gefüllt ist und eine schwache Hintergrundstrahlung von ungefähr 3 Grad Kelvin hat, die es füllt, dann musste es in früheren Zeiten heißer gewesen sein. Wenn man Strahlung in ein Gehäuse einsperrt, in diesem Fall ist das Gehäuse das Universum, und es dann adiabatisch komprimiert, dann erhöht sich die Temperatur, und das ist es im Wesentlichen, was im Universum passiert, es expandiert adiabatisch von einer heißen, kondensierten Phase zu einer Phase mit viel niedrigerer Temperatur und niedrigerer Dichte. Und mit Hilfe der normalen physikalischen Gesetze können wir ermitteln, wie die Materie darin wohl ausgesehen hat. Da gibt es viele Probleme, eine Phase mit einer anderen in Beziehung zu setzen. Aber wenn wir zurückschauen von der heutigen Zeit zu beispielsweise ein paar Sekunden nach dem Anfang von allem, dann können wir jeder Zeit eine Temperatur zuordnen. Und bei einer Temperatur von, sagen wir ungefähr 10 Sekunden, ist die Temperatur ungefähr 10 hoch 10 Grad Kelvin und dies ist die Region, wo wir gerade anfangen können, Atomkerne zu bilden. Früher als dieser Zeitpunkt, ungefähr 1 Mikrosekunde nach dem Anfang der Zeit, ich denke, dass es immer noch erstaunlich ist, dass wir die physikalische Struktur des Universums in Größen der normalen Laborphysik diskutieren können, nur 1 Millionstel Sekunde, nachdem das Universum geschaffen war. Es scheint aber trotzdem wahr zu sein. Zu dieser Zeit war es so heiß, Temperaturen von 10 hoch 12 Kelvin, dass Anhäufungen von Teilchen nicht länger möglich sind, man kann keine einfachen Kerne haben, man muss individuelle Teilchen haben, Neutronen, Protonen, Neutrinos usw. Es wird schwerer werden zu verstehen, wie die Dinge zu früheren Zeiten waren und wir benötigen mehr Physik. Die Idee, die Hoffnung ist, dass es zu noch früherer Zeit, wie z.B. 10 hoch -30 Sekunden nach dem Anfang, eine Theorie gibt, wir nennen sie die Große Vereinheitlichte Theorie, die für alle Kräfte in einheitlicher Weise verantwortlich ist. Zu einer hinreichend frühen Zeit gibt es dann, so die Hoffnung, keine Unterschiede zwischen den fundamentalen Naturkräften. Und dies ist das Ziel der Großen Vereinheitlichten Theorie, die letztendlich die Quantenphysik und Allgemeine Relativitätstheorie vereinigt, so hofft man. Das ist natürlich das Ziel, aber wir sind nicht sehr dicht vor dem Ziel. Wenn diese Theorien tatsächlich stimmen, diese Art von Theorien, die jetzt formuliert werden, dann ging das Universum durch eine sehr aufregende Phase, sogar noch vor 10 hoch -30 Sekunden, als noch kein normales Teilchen möglich gewesen wäre. Das Universum kann in einem Zustand sein, Quantenphysiker nennen es ein falsches Vakuum, wo die Vakuumenergie die Situation dominiert. Und das Universum expandiert einfach sehr schnell unter dem Einfluss negativen Drucks. Das ist eine merkwürdige Idee, aber die Allgemeine Relativitätstheorie sagt voraus, dass ein negativer Druck die Expansion des Universums bewirkt. Und unter diesen Bedingungen kann es expandieren, gleichzeitig auch seine Energie erhöhen. Wenn man ein Volumen mit negativem Druck expandiert, man gewinnt dann natürlich Energie, und auf diesem Weg könnte das Universum begonnen haben. Es wird die Theorie der Inflation genannt und ist zurzeit sehr beliebt. Es löst eine Anzahl von Problemen. Nun, dieses Bild scheint ein wenig von der Realität entfernt zu sein, wie können wir sicher sein, dass das Universum unseren Vorhersagen unter Benutzung der physikalischen Theorie auch nur ähnelt? Da gibt es selbstverständlich viele Beweise. Der Zeitraum der Entstehung von einfachen Atomkernen ein paar 10 Sekunden nach der Schöpfung, das ist etwas, was wir sehr gut kennen, was die Physik dort ist, und wir können die Mengen der leichten Elemente vorhersagen, die dann geschaffen werden. Und das Interessante ist, dass wir Beobachtungen des Universums durchführen. Und wir können die Mengen an Wasserstoff, Helium, Lithium, Deuterium und andere ausrechnen. Und es scheint so, dass unsere Berechnungen sehr gut erklärt werden mit diesem Modell der Zeit, die das Universum verbrachte, diese Phase der Atomkernerschaffung bei speziellen Dichten und Temperaturen zu durchlaufen. Und die Beobachtungen passen sehr gut zu der Theorie und es wäre sehr schwierig zu sehen, wie das allgemeine Schema falsch sein könnte. Es ist einfacher einfach zu glauben, dass die Elemente so entstanden sind, als eine andere Methode zu erfinden. Es wird natürlich umso schwieriger, je weiter wir zurückgehen. Wir können nicht weiter zurückschauen als 1 Mikrosekunde. Nun, wieso ist dies wichtig für die Radioastronomie, über die ich geredet hatte? Wir sehen ein Universum gefüllt mit Galaxien, und es ist traurig zu sagen, dass wir überhaupt nicht wissen, wie diese Galaxien entstanden sind. In einem heißen, expandierenden Universum müssen wir selbstverständlich eine Schwerkraftkondensation von Materie haben. Und die dauert eine gewisse Zeit. Hier gibt es nun ein Problem und das ist das Experiment, über das ich reden sollte, wie verstehen wir die Prozesse, die vom Anfang bis zu 10 hoch 10 Jahren arbeiten, um die wundervolle Struktur der Galaxien im Himmel zu produzieren, den wir heute sehen. Eine kritische Zeit ist die Zeit 10 hoch 5 Jahre nach der Schöpfung, das ist als sich einfache Wasserstoffatome bilden, und das ist die Zeit, wo das Universum zum ersten Mal durchsichtig wird. Es ist klar, wenn Photonen während ihres Fluges durch das Universum gestreut werden, dann können wir nur ein verschwommenes Bild sehen. Es ist, als ob man im Inneren eines Schmelzofens wäre, man sieht keine Struktur. Aber wenn Photonen sich durch das Universum frei bewegen können, dann können wir anfangen, kosmologische Beobachtungen mit Instrumenten auf dem Boden zu machen. Und die Strahlung, die wir jetzt als Mikrowellenhintergrund bei ein paar Grad Kelvin detektieren, war die Strahlung, die ungefähr 10 hoch 5 Jahre nach der Schöpfung vorhanden war, als das Universum noch eine Temperatur von ein paar tausend Grad Kelvin hatte. Nun, das Interessante ist, dass diese Strahlung erstaunlich konstant im Himmel verteilt ist. Die Strahlung ist konstant verteilt im Himmel, wenn wir sie aus verschiedenen Richtungen betrachten, mit Sicherheit besser als 1 Teil in 10 hoch 4, wenn wir Korrekturen für die Bewegung unseres Planeten durch das Universum machen. Wenn man sich in einem Körper befindet, wenn man von Schwarzkörperstrahlung umgeben ist, und sich mit einer bestimmten Geschwindigkeit durch sie hindurch bewegt, dann erzählt einem die Relativitätstheorie ganz klar, dass die Strahlung heißer erscheint in der Richtung, in die man sich bewegt, und kälter in der umgekehrten. Und das kann mit genauen Radioteleskopen sehr einfach gemessen werden. Wir können so sehen, dass die Erde, unser lokaler Referenzrahmen, sich mit einer Geschwindigkeit von ungefähr 350 Kilometer pro Sekunde durch das Universum bewegt. Es ist auch möglich, die Geschwindigkeit der Erde um die Sonne zu messen, indem man sich die Schwarzkörperstrahlung ansieht, so genau sind die heutigen Messungen. Davon abgesehen, gibt es einen großen Effekt, den wir erwarten, weil unterschiedliche Teile des Universums sich nicht gleichmäßig mit der Hubble-Expansion ausdehnen. Sie haben ihre eigene Bewegung, vielleicht verursacht durch die Rotation der Galaxie, die wir bewohnen. Und die Bewegung dieser Galaxie in Bezug auf andere und Bewegungen auf einem großen Maßstab, all diese Dinge. Und was wissen wir über die Großstruktur unseres Universums? Kann ich bitte, das nächste Dia haben. Ich weiß nicht ob man das sehen kann, aber das Universum, wie man es durch ein optisches Teleskop sieht, hat eine Struktur in dem Sinn, dass die Galaxien Haufen bilden. Wir haben ein hierarchisches System, ich bin nicht sicher, dass das dem tatsächlichen Bild sehr gut entspricht, aber die Sterne, die die Galaxien formen, und die Galaxien selbst sind gehäuft, wie man auf diesem Dia sieht. Und die allgemeine Struktur des Universums auf einem großen Maßstab scheinen Haufen von Galaxien zu sein. Das sind die Hauptmerkmale. Wenn man das in einem größeren Maßstab sehen will, dann muss man sich Bilder wie dieses ansehen. Das ist der nördliche Himmel, der.... Und zeigt Ihnen eine Kartierung der berühmten Lick Durchmusterung in den 1960er Jahren, die die Dichte, die numerische Dichte von Galaxien in Form von Pixeln von ungefähr 1 Million Galaxien wiedergibt. Und die Struktur, die man hier sieht, ist sicherlich nicht einheitlich, es ist ein bisschen schwer anzugeben, genau wie uneinheitlich es ist, aber man kann Räume sehen, wo Galaxien gehäuft auftreten, und Räume, wo sie recht dünn gesät sind. Und dies ist auf einer Struktur von, astronomisch gesprochen, 150 Megaparsek oder etwa 300 Millionen Lichtjahren, ein paar hundert Millionen Lichtjahren. Das ist die fundamentale Struktur, die das Universum enthält. Und wir wissen, dass diese Galaxienhaufen durch die Schwerkraft gebunden sind. Wir sehen, dass sie sich auf Bahnen umeinander bewegen, und das ist die Struktur, die wir erklären müssen. Nun, wie ist das entstanden? Wenn das Universum sehr gleichmäßig ist, bei 10 hoch 5 Jahren, dann müssen sich Dichtekonzentrationen bilden und sich in der Zeit, die zur Verfügung steht, in Galaxien verdichten und die Zeit liegt in der Größenordnung von 10 hoch 9 Jahren. Und das ist es, wo es ein Problem gibt, weil, wenn wir uns das Universum in großem Maßstab anschauen, wie ich es gerade gezeigt habe, und uns fragen, welche Dichtefluktuationen im Universum 10 hoch 5 Jahre nach der Erschaffung existieren sollten, dann ist es ganz klar, dass man Dichten von der Größenordnung, Dichtefluktuationen von 0,1%, ungefähr 1 Teil in 10 hoch 3 benötigt, damit sich Galaxien bilden können. Und wir wissen, dass die Dichtefluktuationen, die wir beobachten, weil sie als Fluktuationen der Helligkeit in dem Mikrowellenhintergrund in Erscheinung treten würden, wir wissen, dass sie zehnmal, mindestens zehnmal schwächer sind als diese. Es gibt daher keinen Grund, Galaxien im Himmel zu sehen, es gab nicht genügend Zeit, sie zu machen. Wie können sie dann in Wirklichkeit entstanden sein? Nun, wir haben Urfluktuationen der Dichte, die man, die bestimmte Theorien vorhersagen können. Aber sie scheinen unzureichend zu sein, wir scheinen nicht genügend von ihnen zu sehen, um die Struktur des Universums, das wir um uns beobachten, zu verursachen. Ein Ausweg wäre es anzunehmen, dass es mehr Masse im Universum gibt als wir derzeit beobachten. Nun, wir wissen schon, vielleicht ist ein schlechtes Eingeständnis für einen Astronomen, aber wir können nur weniger als 10% der Materie sehen, von der wir wissen, dass sie im Himmel existiert. Wir sehen Galaxien und können von ihnen ausgehend auf die Masse des Systems schließen, dem sie innewohnen. Und wenn wir von diesen Messungen, die nicht sehr ungenau sind, extrapolieren, können wir berechnen, dass das Universum eine Gesamtmasse von so und so viel hat. Nun, wenn wir das machen, finden wir, dass es da eine Masse gibt, die von dynamischen Überlegungen herrührt, wir sehen, dass Galaxien eine zentrale Konzentration von Masse umrunden, die unsichtbar ist. Wir wissen, dass in den Galaxienhaufen etwa zehnmal mehr Masse vorhanden ist als in den Galaxien, die wir durch Sterne direkt sehen können. Dies ist ein berühmtes astrophysikalisches Problem, das Problem der dunklen Materie oder unsichtbarer Materie. Aber wenn es um die Galaxienbildung geht, hätten wir gerne sogar noch mehr Masse, weil es möglich ist, dass Galaxien sich bilden, wenn das Universum ungefähr die Masse enthält, die wir in der Kosmologie die kritische Dichte nennen, wenn die durchschnittliche Massendichte ausreicht, um die Hubble-Expansion nach einer unendlichen Zeit auf die Geschwindigkeit null abzubremsen, wenn wir das die kritische Dichte nennen, dann ist es möglich, in der verfügbaren Zeit Galaxien zu erschaffen, wenn wir diese Dichte haben. Weil diese dunkle Materie, die wir nicht sehen, von der Strahlung abgekoppelt werden kann, wie wir sagen. Wenn diese dunkle Materie die Form von exotischen Teilchen oder anderen Strukturen hat, die von der ursprünglichen Ausdehnungsphase des Universums übrig geblieben sind, dann können die Schwerekonzentrationen, die sich in Galaxien umwandeln, das Resultat von Dichtestörungen dieser dunklen Materie sein, die Potentialmulden verursacht, in die Neutronen und Protonen, die unsere eigene Galaxie bevölkern, tatsächlich fallen. Und dies wird dann eine mögliche Theorie. Wir möchten daher, dass es diese dunkle Materie gibt. Und Astronomen, Entschuldigung, Theoretiker haben ausgearbeitet, wie das Universum aussehen könnte in der Mikrowellenhintergrundstrahlung zu dieser Zeit von ungefähr 10 hoch 5 Jahren nach der Erschaffung, als Wasserstoffatome zum ersten Mal möglich waren. Und dies ist die Art von Struktur, die man sehen müsste. Es hängt natürlich von einer Menge Theorie ab und verschiedene Theoretiker werden unterschiedliche Ideen haben. Dies ist ein Modell von Bond und Efstathiou in Cambridge, aber man kann sehen, dass man im Mikrowellenhintergrund Helligkeitsfluktuationen sehen sollte. Sie sind sehr klein, sie sind in der Größenordnung von ein paar Mikrokelvin. Dies ist ein sehr übertriebenes Bild, das sie ziemlich verstärkt zeigt. Aber man sieht, in einem Quadrat im Himmel von 10 Grad mal 10 Grad sollte man erwarten, etwas Ähnliches zu beobachten, wenn es dunkle Materie gibt, die die Galaxienbildung verursacht. Nun, dies ist nur eine Theorie, da gibt es viele andere. Wenn wir an diese bestimmte Theorie denken, dann ist es interessant zu sehen, dass Beobachtungen des Mikrowellenhintergrunds schon wichtig werden. Dies ist dasselbe Bild wie das, was Sie vorhin sahen, aber ein wenig wissenschaftlicher, vielleicht weil es in der Form einer Kurve ist. Wenn wir die Temperatur der Wärmefluktuationen zeichnen, die wir in dem Mikrowellenhintergrund als Funktion der Winkelskala zu sehen erwarteten. Und die Wärmefluktuationen werden zunächst stärker, wenn die Winkelskala wächst, und dann flacht es sich ab. Das ist einfach durch den Effekt des lokalen Horizonts, über den ich im Moment nichts erzählen kann. Aber die vorhergesagten Fluktuationen sind hier für verschiedene Modelle gezeigt, und da gibt es einen Beobachtungspunkt dort, eine berühmte Beobachtung durch Hewson und Wilkinson. Und man kann schon sehen, dass wir einige kosmologische Modelle durch eine direkte Beobachtung ausschließen können, und ich denke, das ist ein sehr wichtiger Punkt. Modelle mit Parametern, die über diesen Punkt hier hinausgehen, sind ganz klar unmöglich. Nun, das ist nicht der einzige Weg, um die Bildung von Galaxien zu verursachen. Theoretiker sind sehr kluge Leute, sie haben immer merkwürdige Ideen. Und eine der merkwürdigeren Ideen hat mit der Großen Vereinheitlichten Theorie und der Inflation zu tun, und ist die Möglichkeit, dass das Universum gefüllt ist, nun vielleicht nicht gefüllt, aber dass es in ihm kosmische Strings (Fäden) gibt. Das sind Wirbel, eine Wirbelstruktur, kleine Einschlüsse von Raumzeit in der Form von Fäden, die sich über das gesamte sichtbare Universum ausdehnen oder Schleifen bilden. Und sie sind Fäden von falschem Vakuum, die, obwohl sie im Prinzip sehr schwer sind, keine einfache Schwereanziehung ausüben, aber in Bewegung verursachen sie Schwerkraftstörungen, die das Medium im All aufrühren können um Verdichtungen zu bilden, die später zu Galaxien werden. Kosmische Fäden verhalten sich merkwürdig und sie verzerren die Raumzeit auf komplizierte Weise, und ich kann nur einige Resultate von Berechnungen erläutern. Unter der Annahme, dass es da so einen kosmischen Faden gibt, der so eine Form hat, dann erzählen uns die Theoretiker, dass es in so einem hohen Spannungszustand ist, dass dann, wenn der Faden schwingt, die Geschwindigkeit der Schwingungen nahe der Lichtgeschwindigkeit selbst sind, so dass wir uns vorstellen können, dass diese Schleife mit der transversalen Geschwindigkeit von c um sich schlägt. Unter diesen Bedingungen produziert sie eine differentiale Rotverschiebung quer dazu. Nun, eigentlich ist es eine Blauverschiebung. Die Raumzeit wird so geändert, dass von der einen Seite des Fadens zur anderen, wenn es sich senkrecht dazu bewegt, man eine Blauverschiebung beobachten sollte. Das beeinflusst die Mikrowellenhintergrundstrahlung. Und Berechnungen zeigen, wenn man einen solchen Faden im Universum hätte, seine Mikrowellenhintergrundstrahlung fluktuieren würde, wie im unteren Bild gezeigt. Man sieht die charakteristische Änderung im Strahlungsniveau, wenn man von einer Seite dieses Faden auf die andere Seite geht. Nun, Radioteleskope sollten Dinge wie dieses sehen können, wenn wir tatsächlich die richtigen Instrumente entwerfen. Das wird wieder ein Problem sein, weil wieder einmal diese differentiellen Temperaturen nur in der Größenordnung von ein paar Millionstel Grad Kelvin sind. Das ist in der Tat schwierig zu messen. Trotzdem glaube ich, dass solche Dinge messbar sein sollten und wie man aus den letzten zwei Bildern sehen kann, wir können jetzt mit guten Beobachtungen die verschiedenen Theorien auszusortieren beginnen. Wir können uns die Winkelstruktur dieser Strahlung ansehen. Wir können sehen, ob Fäden existieren oder nicht. Und da gibt es daher einen sehr großen Einfluss, der sich auf die Theorien auswirken könnte. Die Beobachtungen sind natürlich überhaupt nicht einfach. Und um nur sehr kurz zu erwähnen, was einige der Schwierigkeiten der Beobachtung sein würden: Die Strahlung kommt zur Erde von einer Rotverschiebung von ungefähr z = 1000 durch Galaxienhaufen, in denen schnelle Elektronen die Hintergrundphotonen mit Hilfe des umgekehrten Compton-Effekts streuen werden. Und man bekommt scheinbare, kleine Absorptionseffekte, die bereits im Mikrowellenhintergrund entdeckt wurden, wenn die Strahlung durch Haufen hindurchtritt, die heißes Gas enthalten und von denen wir wissen, dass es sie gibt. Näher zur Erde, da gibt es natürlich auch einen Hintergrund von schwachen Radiogalaxien, die die Struktur, die wir im Hintergrund zu beobachten versuchen, verwirren. Noch näher, passiert die Strahlung unsere eigene Galaxie. Da gibt es Strahlungskomponenten, die korrigiert werden müssen, das ist nicht unmöglich. Schließlich durchquert die Strahlung die Troposphäre, um bei den irdischen Radioteleskopen anzukommen. Strahlung von Wolken wird ebenfalls diese Messungen durcheinander bringen und schließlich gibt es noch Strahlung vom Boden selbst, die natürlich ungefähr 290 Grad Kelvin heiß ist, was viel größer ist als die 1 Millionstel Grad Kelvin, und das versuchen wir natürlich zu messen. Also wie das in der Praxis funktioniert, das ist die Herausforderung. Um nun etwas technischer zu werden: alle, die ein schwaches Signal in Anwesenheit von Rauschen suchen, wissen, dass es da einen grundsätzlichen Zusammenhang gibt, der die Beziehung zwischen der Quadratwurzel der Bandbreite des empfangenden Systems und der Zeit, die man sich für die Beobachtung nimmt, herstellt. Wenn man heute aufschreibt, was vernünftige Parameter für ein Radioteleskop wären, das 1 Mikrokelvin gegen die Mikrowellenstrahlung des Hintergrunds feststellen kann, die Empfänger haben selbst eine bestimmte Rauschfluktuation, die kleiner wird, wenn man mehr Geld für den Empfänger bezahlt, aber sie wird derzeit sicher nicht weniger als 50 Grad Kelvin sein, wenn man eine Bandbreite wählt, die ungefähr so groß ist wie man sie bei der richtigen Frequenz, das sind 500 Megahertz, bekommen kann, und wenn das ganze Ding dann bei ungefähr 15 Gigahertz ist, wenn man dann den Himmel 2 Monate lang an einem Stück beobachtet, wird man anfangen, die notwendigen Fluktuationen zu sehen. Nun, das ist nicht unmöglich. Eine Doktorarbeit dauert normalerweise mehrere Jahre, so dass man mehrere Beobachtungszeiten hat, um es zu sehen. Aber da gibt es eine andere Schwierigkeit, und hier bin ich nahe am Ende meines Vortrags, wie würde so ein Radioteleskop eigentlich aussehen? Nun, die Strukturen, die man versucht zu finden, sind sehr groß verglichen mit den Parametern der meisten Radioteleskope. Die Radioastronomen haben nun schon die letzten dreißig Jahre gekämpft, um eine große Winkelauflösung zu erhalten. Ganz plötzlich sind die Anforderungen ganz anders. Man benötigt ein Radioteleskop, das eine extreme Empfindlichkeit für Strukturen von der Größenordnung von Bogenminuten bis zu einem Grad hat oder so ähnlich, wie ich Ihnen von den Bildern von kosmischen Fäden und den Vorhersagen der Ausdehnungstheorie bezüglich der Fluktuationen gezeigt habe. Wie würde dieses Teleskop aussehen? Nun, es wäre eine Ansammlung von Instrumenten wie diesem. Und hier ist der Astronom in demselben Maßstab. Es wird so aussehen, wie ein konventionelles Radioteleskop, aber es wird viel kleiner sein. Und jetzt ist das größte Kartierungsteleskop, das wir kennen, das VLA (Very Large Array) in den Vereinigten Staaten, das würden wir VSA (Very Small Array) nennen, so würde es aussehen. Nun, wir glauben, dass es mit Beobachtungen dieser Art möglich sein wird, am Ende Fluktuationen im Mikrowellenhintergrund zu messen, diese werden von fundamentaler Bedeutung sein, vielleicht tatsächlich der einzige Weg um die Große Vereinheitlichte Theorie zu testen. Es gibt da eine enge Verbindung zwischen den frühen Phasen unseres Universums und den Theorien der Teilchenphysik, Große Vereinheitlichte Theorien, und es könnte sein, dass kosmologische Beobachtungen der einzige Weg sind, die Theorien zu überprüfen. Sie sind unglaublich wichtig, sie repräsentieren eine große Herausforderung in der Beobachtung, und es ist die Art von Herausforderung, der sich junge Radioastronomen heute stellen sollten. Vielen Dank.

Hewish Talks About Background Radiation and Galaxy Formation.
(00:15:02 - 00:19:32)

Werner Heisenberg, 1932 Nobel Laureate in Physics mainly “for the creation of quantum mechanics”, also lectured many times at the Lindau Meetings. In 1968 he gave a lecture (in German) with the title “Cosmological Problems in Modern Atomic Physics”. In a general sense, his lecture is still very interesting and quite topical. This can for instance be inferred from the fact that the key argument of Heisenberg is based on the concept of broken symmetry appearing spontaneously in the ground state of certain physical systems and that, 40 years after his lecture, one of the 2008 Nobel Prizes in Physics was awarded to Yoichiro Nambu “for the discovery of the mechanism of spontaneous broken symmetry in subatomic physics”.

Werner Heisenberg (1962) - Progress in the unified field theory of elementary particles (German presentation)

Ladies and Gentlemen, Mr. Menke just pointed out that I have already talked very often about fundamental particles here; in apologising for the fact that it is always the same topic I can say only that there is hardly any field of modern physics which is undergoing such rapid progress as the physics of fundamental particles. New experimental facts are being discovered almost every year, new theoretical ideas published and even since the last talk I held here 3 years ago, 10 new fundamental particles have been discovered. If one talks about a unified field theory of fundamental particles, or if one strives to produce one, one starts roughly from the following consideration: we know from the experiments during the last decades that fundamental particles can be converted into each other. The fundamental particles are therefore not, as was assumed in the past, the unchangeable eternal building blocks, the smallest building blocks of matter, instead they can be converted into each other. And, this is especially important, all fundamental particles can be converted into all others. By this I mean that if we take any two fundamental particles and fire them at each other with very high energy, new particles are formed and, in principle, particles of any type can be produced. The simplest description for this fact would be to say there is actually only one uniform matter, it could also equally well be called energy, and this matter or energy can exist in many different forms, which are called fundamental particles or just particles. There is no basic difference between fundamental and composite particles. This can also be expressed by saying: energy becomes matter by converting into the form of fundamental particles. If one starts from this general idea, it is also very natural to assume that there must be a law of nature from which the different fundamental particles with all their properties follow. I would like to talk today about a specific attempt at such a unified field theory of fundamental particles, which could maybe be characterised in the simplest way by starting with the equation which is to form the basis of such a theory. Could I please have the first slide? Here you see an attempt at an equation of matter. I only want to say a few words about the letters, and later not talk as much about mathematics as you may fear, but the quantity psi here on top represents matter so to speak, XYZ represents space-time and the gammas are matrices which Dirac introduced in connection with the representation, the mathematical representation of the Lorentz group, i.e. the properties of space-time, which we know from the theory of relativity. Maybe I should also say that re-writing this equation, which is here at the bottom, now appears to be useful in several ways, it illustrates the symmetry properties of the equation in a slightly simpler way still than the top equation. The specialist who deals with such things sees that this equation is invariant with respect to the Lorentz group; furthermore it says that this quantity psi, i.e. if one now represents matter, that it is a spinor, as the mathematicians say, in the space of Dirac’s spin variables as well as in the space of the so-called isospin, this will also be discussed later, and one can therefore see that both these group properties are contained in the equation. But this special form is not important at the moment, I want only to emphasize right at the start that it is not a particularly extravagant and unusual claim to believe that the whole complex spectrum of fundamental particles with all their properties results from an equation which looks so simple. After all, we are already very familiar with similar conditions from the theory of the atomic shell, which was the focus of interest around 40 years ago. Remember the complex optical spectrum of an iron atom with its many hundred lines of different intensities, different wavelengths, for example. And it took a very long while until it was possible to assign and explain this spectrum at all. Nevertheless, it is now known from Bohr’s theory of the atom and its mathematical specifications and quantum and wave mechanics that it is possible to write down a Schrödinger equation which looks simple, for the iron atoms, from which all these spectral lines with their intensities and other properties then follow. Now, writing down such an equation achieves very little, and when I talked about this 3 or 4 years ago, Pauli was justified in saying that this was only an empty frame in which the picture still needed to be painted. Because it was only then that the mathematical analysis started, one now needs to apply mathematical methods to try to determine what the statements of this equation really are. Whether the eigenvalues of the equation really make it possible to represent the empirically observed fundamental particles, for example. Two points of the theory which is characterised by this equation now extend very characteristically over and above the earlier quantum mechanics and earlier attempts at quantum field theory. Firstly, the mathematical axiomatic theory is different. We were forced to assume an extension of the basics such that the state space in which quantum mechanics operates does not have, as the mathematicians say, a definite metric, but an indefinite metric, and that the concept of probability thus initially becomes a problem. Secondly, it has turned out to be necessary to assume in this theory that the fundamental state, which in the earlier physics was considered simply as nothing, as the vacuum, as empty space, that this does not have the full symmetry of the equation, that it has physical properties, and must therefore really not be called vacuum, but world. And these two very radical changes have naturally caused many discussions, and the decisive progress has been achieved in these two points in particular in recent years. I would therefore like to divide up the topic of my report here into three parts. I want to first talk relatively briefly about the mathematical axiomatic theory on which this equation is based, I want to then talk in some more detail about the asymmetry of the fundamental state and the applications which one can draw from this assumption, and the theory of the so-called ‘strange particle’ and electrodynamics in particular. And then in the third part I want to discuss the comparison of what the theory allows us to derive and what has been found experimentally in recent years. So first the mathematical axiomatic theory. I want to first give you some history. When Einstein formulated the special theory of relativity, he made a radical change with respect to Newton’s mechanics. You all know that he put forward a different proposition on space and time. This different proposition on space and time had only become possible by him making a different assumption on action. While Newton claimed that there are forces acting at a distance, so-called forces with action at a distance, Einstein allowed only so-called short-range actions, i.e. really only actions from point to point. And this is the only thing which made it possible for the relativistic structure of space and time to be compatible with the idea of causality which we have to assume here. In this respect, the quantum mechanics which was developed during the 1920s continues Newton’s mechanics. It also uses forces with actions at a distance. But as soon as the physicists moved from the theory of fundamental particles to the quantum field theory, they were forced to make the same radical step which Einstein made back then from Newton’s theory to the theory of relativity. They were forced to move from action at a distance to close-range actions, to point interactions. This then had the consequence, as was observed in the 1930s, that the mathematics which apparently results as a natural generalisation of quantum mechanics in quantum field theory, that this mathematics leads to contradictions, that the values which are calculated become infinite, and therefore no longer have any meaning. There has been a long search for ways of getting out of this difficulty, and the most interesting proposal in my view was made in 1942, i.e. precisely 20 years ago, by Dirac. Dirac explains that one can avoid the mathematical difficulties, at least as a first approximation, let us say, if the metric in the state space is made indefinite. In order to not stop with this mathematical term, I would like to immediately come to the objection to this idea which was then raised by Pauli one year later. Pauli stated that if one uses an indefinite metric in Hilbert space, that the probability one calculates from the theory may then possibly have negative values, and this is nonsense, of course, because there is no such thing as negative probability. The difficulty appeared initially insurmountable and this proposal was therefore not pursued for a longer time. But around 10 years later, in 1953, we then took up Dirac’s proposal again in Göttingen. We hoped to be able to modify it in the following way. We need the probability interpretation of quantum theory where we experiment, of course. So if we place a detector somewhere with which we count fundamental particles, then what we require from the theory is that it will state the probability that fundamental particles will arrive there. Of this kind and that kind, of this frequency and that frequency. But it is not so important that we can apply the probability concept inside the atomic nucleus as well, for example, because we cannot measure inside an atomic nucleus anyway. What we measure are only ever fundamental particles which have covered long distances, i.e. into our equipment. It was therefore hoped that it would be possible to modify this theory so that the concept of probability could be maintained for fundamental particles which are separated by a large distance, i.e. for the so-called asymptotic behaviour of the waves to be dealt with in quantum theory, while the concept of probability had to be dropped for the conditions on the very small scale. Well, this idea was then tested on a very interesting model, which had been developed by the Chinese physicist Lee. And this represents, if you like, a very much simplified mathematical version of quantum electrodynamics. Pauli and Källén were able to show that if one treats this model according to the methods of quantum electrodynamics, that one then automatically enters into the indefinite metric and that one initially even gets into the difficulty with the probability concept as a matter of principle. It was then successfully shown that under specific assumptions, which have to be made in addition there, it can be arranged that the asymptotic concept of probability does become proper again, it is only lost on the small scale. You can see therefore that this whole question is very complicated, but in recent years in particular a number of papers have been published which have investigated in more detail whether this separation between asymptotic and local behaviour can be carried out, and at least different models have been provided where this is actually possible. I think it is more important that one can also provide a theoretical reason why this separation into asymptotic and local behaviour is possible. If one is also interested in the conditions in the atomic nucleus, i.e. takes all possible experiments into account, then one also has to represent all the symmetry groups which are observed in nature, in particular the Lorentz group as well. Now it is known that this group is a non-compact group, in mathematical terms, and the indefinite metric is a natural representation for non-compact groups. If one is interested in what happens at large distances, however, i.e. with the fundamental particles if they are far away from their collision point, then this group is reduced to a compact group, because one only considers processes which belong to a specific energy and a specific momentum. And for the compact groups, as I said, the definite metric as a probability concept is a natural representation. So it can be understood that the attempted division into asymptotic regions and non-asymptotic regions is reasonable here, and it may be possible to describe how the physicists view the problem at the moment in the following way. It can be said that there is firstly a conservative line of thought, maybe mainly represented by the American Whiteman, here in Germany by Nehmann, Simancik and others, which now attempts to connect this axiomatic theory as closely as possible with quantum mechanics. They try to manage with a state space of definite metric, assume the existence of a field operator and in order to represent causality they then say that the field operators should commutate and anti-commutate at points with space-like separation. A number of interesting results have been derived from this axiomatic theory, which also really fit in with experience and which obviously represent a part of reality correctly. On the other hand, it has not yet been possible to provide any mathematical model which satisfies all these axioms and contains a non-trivial interaction, i.e. it is doubtful whether the axiomatic theory, which is very narrow at this point, can be fulfilled. There is therefore a different line of thought which advocates a slightly more radical, opposite extreme and which was championed last year by Chew in America, for example. Chew gave a talk at the conference in La Jolla a year ago, which he called his “Declarations of independence”, where he said we don’t need the complete field theory, it would suffice to produce a mathematics which describes only this asymptotic behaviour of the particles. Now, to describe the mathematical tool, this asymptotic, is the so-called scattering matrix or S matrix and Chew said it should be sufficient to make a number of reasonable mathematical demands for this S matrix, e.g. in order to represent causality one had to demand that specific analytical properties existed and then one would not have to take care of the question of the metric or the particles at all. This is a very extreme point of view with the other line of thought, and maybe now I will ask for the second slide. I would like to briefly compare the different steps of the axiomatic theory which are possible here. The widest frame, which was championed by Chew last year, for example, is this axiomatic theory, which is here at the top. This assumes the existence of a scattering matrix, an S matrix, which must of course have the necessary group properties, symmetry properties, in order to represent nature correctly, and so that the demands of the relativistic, i.e. Einstein’s causality, are also maintained, this matrix must have specific analytical properties. This theory is therefore also very strongly based on the so-called dispersion relation, which is very well proven experimentally. It is possible to now narrow down this very wide framework, make it narrower, by adding something, by saying not only should this apply, but also requiring the existence of a local field operator, which in order to represent causality commutates and anti-commutates for space-like states and an appropriate Hilbert space should exist. At this point nothing is said about the metric in this Hilbert space, which can be definite or indefinite. And finally there is a third, even narrower axiomatic theory, in which both demands are made, both postulates, but a third demand is added, that the metric of the Hilbert space must be definite and that, in addition, the asymptotic states should be sufficient to open up this complete Hilbert space. This third axiomatic theory is therefore the narrowest, this is the one which I have called the conservative one, and that is the widest one, while the one in the centre is precisely the axiomatic theory which is the basis of this unified field theory, the subject of my talk here today. Now, at a Solvay conference in Brussels last autumn we also talked a lot about this axiomatic theory and provided this abstract, slightly mathematical issue with a physical aspect as well, which although it strictly is not part of it, makes the conditions very clear. If one assumes that the narrowest, the third axiomatic theory is correct, then one is actually forced to differentiate between fundamental particles and composite particles. Or let us say between real fundamental particles and only semi-fundamental particles. And the real fundamental particles are characterised by the fact that they have an infinitely hard and infinitely small, i.e. point nucleus in their centre, while the composite particles do not have this point nucleus. If one believes this last axiomatic theory, one must really differentiate between fundamental particles and those which are not fundamental. If one of the first two axiomatic theories is the basis, however, then it is very obvious to say there exists no fundamental particle at all which has such a hard, point nucleus in the centre. This question must be answered experimentally as a matter of principle, and the experimental question has a close relationship with what we have heard here at this meeting from Mr. Hofstadter. In Mr. Hofstadter’s experiments attempts are made to precisely measure the density distribution of a fundamental particle, the nucleon, for example. And it is possible to decide in principle whether the density distribution is such that there is an infinitely hard, point nucleus in the centre, which is surrounded by a cloud of matter having a diameter of around 10 E-13 cm, or whether the fundamental particle is only a cloud without a nucleus. In order to decide such a question, it is necessary to investigate collisions of extraordinarily high energy, however. It seems to be the case that, if one has a point nucleus, then elastic collisions still occur even at the highest energies possible with a considerable probability, whereas, if there is only a cloud, the elastic collisions become as rare as one wants at sufficiently high energies. I myself am convinced that fundamental particles with such a hard nucleus do not exist, but the question cannot yet be decided experimentally, because sufficiently high energies are not yet available. But maybe collision processes with the large machines in Geneva and Brookhaven will bring us closer to deciding this question in the future. And with this I would like to finish this discussion of the mathematical axiomatic theory and now come to a more physical part, the second part, i.e. to the question of the asymmetry of the fundamental state. The field theory, which I am talking about here, was forced to assume this asymmetry of the fundamental state for the following reason. There is a property in fundamental particles which is called isospin. This is a property which was introduced empirically 30 whole years ago. Mathematically it is a property, similar to the angular momentum, but graphically means the difference between a proton and a neutron. Two particles which have nearly the same mass, but one of them is charged and the other neutral. It was determined a long time ago, i.e. 30 years ago, that the interaction between fundamental particles is at least approximately symmetrical with respect to rotations in this space. If one therefore converts a neutron into a proton, the forces do not change in the first approximation. And therefore the fundamental equation, which you saw just now, is invariant in respect of such transformations. But this invariance does not apply strictly in reality. The electric charge already breaks this invariance, which you can simply see from the fact that a proton is charged and a neutron is not charged. One therefore has to draw the strange conclusion that there are symmetries in nature which only apply approximately. And the natural interpretation for this is that one says the fundamental state of the world itself is therefore not symmetrical, but the world has a large isospin. Now this means empirically that, for example, the number of neutrons and the number of protons in the world are very different and this is indeed the case. This asymmetry is what makes it possible to understand that a proton and a neutron have a slightly different mass, because the proton is then a particle whose isospin is parallel to that of the world, while the neutron’s isospin is antiparallel to the world. This forced the scientists to assume the asymmetry. Then there was something else: if the fundamental equation is initially taken as it is written here, one would expect that a particle which has half-integer Dirac’s spin also has half-integer isospin, or, if it has an integer Dirac’s spin, then it also has integer isospin. But in reality there are so-called strange particles where this is just not the case. In order to explain those, it is therefore necessary to again take into account the asymmetry of the fundamental state. This had been a slightly audacious assumption, but it has meanwhile fortunately turned out that precisely the same conditions apply in other fields of physics, and we have learned a lot from the development of the theory of superconductivity, on which Mr. Bardeen gave a talk here. It turned out that the conditions are the same in superconductivity, i.e. the fundamental state does not have the full symmetry of the equations, but is degenerate, has a lower symmetry, does not possess the so-called gauge symmetry. And then Bogoliubov correctly pointed out that basically such conditions had been known earlier at many places and had simply been no longer thought of. It has already been assumed in the theory of ferromagnetism that the fundamental state of a ferromagnet has a magnetic moment, i.e. a direction, although the equation from which one starts has rotational symmetry. In the crystal formation, in the theory of superfluidity, we have the same conditions everywhere. Nambu in particular showed that even purely mathematically there are many similarities between the theory of fundamental particles and the theory of superconductivity. The scientists gained a kind of mathematical practice ground in the theory of superconductivity and the theory of ferromagnetism. We know that there are no fundamental mathematical difficulties in these two areas, we are on completely solid ground there and can now look how far the mathematical assumptions which we made in the theory of fundamental particles also apply here. And it did indeed turn out that very many features which had been assumed in the theory of fundamental particles could now really be proved here mathematically, i.e. the conditions can really be as they had been assumed to be in the theory of fundamental particles. The following was also very encouraging: in the theory of fundamental particles we were forced to use an approximation method for the numerical calculations, and this was very problematic . But it was the only one which could be applied at all to these types of field theory. It was possible to use the very same approximation method in the theory of superconductivity in order to see whether it provided good results there, and it turned out that it provided good results even there, that it is practically as good as the exact calculation. In this respect the theory of superconductivity provided a great deal of assistance for the theory of the asymmetric fundamental state for the fundamental particles. Now I want to discuss more specifically the theory of the strange particles which has been developed by Dürr and myself meanwhile. In order to understand the strange particles in their slightly weird property Wentzel once introduced a term which he called spurion. This spurion was a slightly weird fundamental particle, i.e. it was not a particle at all, e.g. it had neither energy nor momentum, nor a position, it had only an isospin and a parity. The only illustrative comparison I can provide is the cat which appears in the English tale of Alice in Wonderland, although this is a bit mystical: it talks about a cat which disappears into a mirror, and first the tail disappears, and then the body, and then the head of the cat, and only the sneering grin of the cat remains in the room. Now the grinning of the cat is the isospin of the spurions, so to speak. Now this idea, which Wentzel made purely phenomenologically, was the result of the mathematics of the field theory, which I am talking about, of its own accord, i.e. it turned out that this mathematics invents the spurions of its own accord, i.e. this property of the degenerate vacuum so that all assumptions that Wentzel made with his term spurion can be found again in the mathematics and vice versa; this mathematics could now be tested again in the theory of ferromagnetism or superconductivity. Maybe the simplest comparison is the one from the theory of ferromagnetism, where we therefore then need to replace the isospin with the spin. One can therefore also imagine the following in a ferromagnet: let us assume an excited electron, which borrows a spin 1/2 from the total magnetic moment of the ferromagnet so that the spin of the electron is no longer 1/2, but 1. It is therefore quite possible by attaching a spin wave to the electron in this way, that in a ferromagnet electrons orbit which do not have this spin 1/2 as they should, but spin 1. I do not really know whether such ferromagnets have actually been produced, I do not believe that it has been observed, but in principle nothing prevents this being possible. Calculations have been performed with the help of this spurion term and I want to provide a few more equations, but then quickly move on. Could I please have the next slide. Now, if one takes this idea of the spurions seriously, then one must, in order to describe a strange particle, expand Dirac’s equation of the nucleon, which would include only this term, gamma mu p mu and by this term, the i kappa, one must and can expand it by precisely two terms. Other terms are not possible due to the symmetry. And this one term provides so-to-speak an interaction of the parity of the spurion, like the parity of the nucleon, and this term provides an interaction between the isospin of the spurion and the isospin of the nucleon. If this equation, which contains only two constants which still need to be determined, is solved, then one obtains such an equation for the energy, i.e. the mass of the spurion. This still depends, as I said, on the two constants alpha and eta, which have to be determined with the aid of other requirements. I would like to ask for the next slide. If one calculates masses with this equation, then one can see that the following happens: as long as the two interaction constants alpha and eta are zero, for example, we have here the eigenvalue, i.e. the mass of the nucleon. If we then take only the parity interaction, the nucleon, this state splits up, this nucleon state which slightly changes in its mass here at the bottom remains, and there is only one higher state, which can be interpreted descriptively, i.e. as nucleon + spurion, but this state has a four-fold degeneration, and if we then also take into account the eta interaction, i.e. the isospin interaction, then this state splits up into four states. We should then expect that there exists a strange particle above the nucleon, a hyperon. This here is to have isospin zero, this here isospin 1, above this there should now again be an excited particle of isospin 1 and again of isospin zero. The two particles at the bottom are experimentally known, this here is the so-called Lambda hyperon and Sigma hyperon. At the time, the two top states were not yet known. But it is possible that they have now been found, I will talk about the experiments later. If one were to calculate this more accurately than was done in these initial equations, these levels could of course be shifted slightly with respect to each other, because the constants alpha and eta can again depend on the energy themselves, but in a first approximation the split looks like this. I should possibly say here that it has been possible to determine the constant alpha correctly in the numerical calculation according to the Tamm-Dankoff method, albeit in approximation. The second constant eta, which is very much smaller, could not be determined reliably, however, because the second constant changes very strongly even if there is only a very small error in the first constant. It depends very sensitively on the first one so that we can determine this constant at best with an inaccuracy of factor 4, and then we proceeded in practice such that we have preferred to take the experimental value, i.e. the value which best represents the experiments, but I must say that even if the constant were larger by a factor 2 or so, the picture would not be fundamentally different. The next slide, please. The same calculation was then made for the so-called bosons, these are therefore particles such as the Pi meson etc. and for them there are two states without the interactions of the spurions. This one here is an isotriplet, this is a Pi meson, the second state of the isosinglet, it had not yet been found when the theory was developed. It seems to have been found now, and this state seems to be the so-called Eta meson. If eta is still zero this state splits up into two, into three and others also into three, and if this constant eta is then taken into account, the ......

Meine Damen und Herren, Herr Menke hat gerade darauf aufmerksam gemacht, dass ich hier schon sehr oft über Elementarteilchen gesprochen habe, als Entschuldigung dafür, dass es immer wieder dasselbe Thema ist, kann ich nur anführen, dass es kaum ein Gebiet der modernen Physik gibt, das so sehr in stürmischer Entwicklung begriffen ist, wie die Physik der Elementarteilchen. Fast jedes Jahr werden neue experimentelle Tatsachen gefunden, werden neue theoretische Überlegungen publiziert und allein seit dem letzten Vortrag vor 3 Jahren, den ich hier gehalten habe, sind etwa 10 neue Elementarteilchen entdeckt worden. Nun, wenn man von einer einheitlichen Feldtheorie der Elementarteilchen spricht, oder sie anstrebt, so geht man etwa von folgender Überlegung aus. Wir wissen aus den Experimenten der letzten Jahrzehnte, dass die Elementarteilchen ineinander umgewandelt werden können. Die Elementarteilchen sind also nicht, wie man etwa in früherer Zeit geglaubt hat die unveränderlichen ewigen Bausteine, kleinsten Bausteine der Materie, sondern sie können ineinander verwandelt werden. Und zwar, das ist besonders wichtig, es können alle Elementarteilchen in alle verwandelt werden. Damit meine ich, wenn wir irgend zwei Elementarteilchen nehmen und sie mit sehr großer Energie aufeinander schießen, so entstehen neue Teilchen und es können dabei grundsätzlich Teilchen jeder Art erzeugt werden. Diesen Sachverhalt wird man am einfachsten so beschreiben, dass man sagt, es gibt eigentlich nur eine einheitliche Materie, man kann es genauso gut Energie nennen, und diese Materie oder Energie, ist eben in vielen verschiedenen Formen existenzfähig, die man Elementarteilchen oder überhaupt Teilchen nennt. Einen grundsätzlichen Unterschied zwischen elementaren und zusammen gesetzten Teilchen gibt es nicht. Man kann auch etwa so formulieren, dass man sagt, die Energie wird dadurch zur Materie, dass sie sich in die Form der Elementarteilchen begibt. Wenn man von dieser allgemeinen Auffassung ausgeht, ist auch sehr natürlich anzunehmen, dass es ein Naturgesetz geben muss, aus dem die verschiedenen Elementarteilchen mit all ihren Eigenschaften folgen. Ich möchte nun heute über einen bestimmten Versuch einer solchen einheitlichen Feldtheorie der Elementarteilchen sprechen, den man vielleicht am einfachsten dadurch charakterisiert, dass man die Formel an die Spitze stellt, die die Grundlage einer solchen Theorie bilden soll. Ich bitte um das erste Bild. Sie sehen also hier, einen Versuch für eine Materiengleichung. Ich will bloß ein paar Worte über die Buchstaben sagen, aber nachher nicht so viel, wie Sie vielleicht fürchten über Mathematik sprechen, also die Größe Psi hier oben, stellt sozusagen die Materie dar, XYZ steht für Raumzeit und die Gammas sind Matrizen, die von Dirac eingeführt worden sind, im Zusammenhang mit der Darstellung, der mathematischen Darstellung der Lorentz-Gruppe, also der Raumzeit Eigenschaften, die wir aus der Relativitätstheorie kennen. Vielleicht sollte ich noch bemerken, die Umformung dieser Gleichung, die hier unten steht, ist eine Form, die uns jetzt in mancher Weise zweckmäßig erscheint, sie bringt die Symmetrieeigenschaften der Gleichung noch etwas einfacher zur Anschauung als die obere Gleichung. Der Fachmann, der mit solchen Dingen umgeht, sieht, dass diese Gleichung zunächst gegenüber der Lorentz-Gruppe invariant ist, außerdem wird gesagt, dass diese Größe Psi, also, wenn man jetzt die Materie darstellt, das die, wie der Mathematiker sagt, ein Spieler ist, obwohl im Raum der Dirac’schen Spinvariablen als auch im Raum der sogenannten Isospins, darüber wird auch später die Rede sein, und man sieht also, dass diese beiden Gruppeneigenschaften in der Gleichung stecken. Aber auf diese spezielle Form soll’s im Augenblick nicht ankommen, ich möchte bloß gleich zu Anfang betonen, dass es nicht eine besonders extravagante und ungewöhnliche Behauptung ist, zu glauben, dass man aus einer solchen einfach aussehenden Gleichung das Ganze komplizierte Spektrum der Elementarteilchen mit all ihren Eigenschaften bekommt. Denn ähnliche Verhältnisse kennen wir ja schon sehr gut, aus der Theorie der Atomhülle, die vor etwa 40 Jahren im Mittelpunkt des Interesses stand. Denken Sie etwa an das komplizierte optische Spektrum eines Eisenatoms mit seinen vielen hundert Linien verschiedener Intensitäten, verschiedener Wellenlänge. Und es hat sehr lange gedauert, bis man dieses Spektrum überhaupt ordnen und erklären konnte. Trotzdem weiß man heute, aus der Bohr‘schen Theorie der Atome und aus ihrer mathematischen Präzisierung und Quanten- und Wellenmechanik, dass man eine einfach aussehende Schrödingergleichung anschreiben kann, für das Eisenatom, aus der dann diese ganzen Spektrallinien mit ihren Intensitäten und sonstigen Eigenschaften folgen. Nun, mit dem Anschreiben einer solchen Gleichung ist noch sehr wenig getan, und als ich vor 3 oder 4 Jahren zum ersten Mal darüber vortrug, hat Pauli mit Recht gesagt, das sei ja zunächst ein leerer Rahmen in dem das Bild erst gezeichnet werden muss. Denn erst dann beginnt ja die mathematische Analyse, man muss nun mit mathematischen Methoden festzustellen suchen, was eigentlich die Aussagen dieser Gleichung sind. Ob also etwa die Eigenwerte der Gleichung wirklich die empirisch beobachteten Elementarteilchen darzustellen gestatten. Die Theorie, die durch diese Gleichung hier charakterisiert ist, st nun an zwei Stellen sehr charakteristisch hinausgegangen über die frühere Quantenmechanik und über frühere Versuche der Quantenfeldtheorie. Erstens ist die mathematische Axiomatik anders. Wir sind genötigt gewesen, eine Erweiterung der Grundlagen in der Weise anzunehmen, dass der Zustandsraum, in dem man in der Quantenmechanik operiert, nicht mit der Mathematik gesagt mit der definit Metrik sondern eine indefinite Metrik hat und dass daher der Wahrscheinlichkeitsbegriff zunächst problematisch wird. Zweitens, es hat sich als notwendig herausgestellt, in dieser Theorie anzunehmen, dass der Grundzustand, der in der früheren Physik einfach als das Nichts, als das Vakuum, als der leer Raum betrachtet wurde, das der nicht die volle Symmetrie der Gleichung hat, das also physikalische Eigenschaften besitzt, und daher eigentlich nicht Vakuum sondern Welt genannt werden muss. Und diese zwei ziemlich radikalen Änderungen haben natürlich viele Diskussionen hervorgerufen, und gerade an diesen beiden Punkten sind in den letzten Jahren die entscheidenden Fortschritte erzielt worden. Ich möchte also das, was ich Ihnen hier berichte in drei Teile teilen. Ich will zunächst relativ kurz sprechen über die mathematische Axiomatik, die dieser Gleichung zugrunde liegt, ich will dann etwas ausführlicher sprechen über die Unsymmetrie des Grundzustandes und die Anwendungen, die man jetzt schon aus dieser Annahme ziehen kann. Also insbesondere die Theorie des sogenannten strange particles, oder seltsamen Teilchen, und die Elektrodynamik. Und ich will dann im dritten Teil eingehen auf den Vergleich dessen, was die Theorie nun abzuleiten gestattet mit dem, was in den letzten Jahren experimentell gefunden worden ist. Also zunächst zur mathematischen Axiomatik. Da möchte ich zunächst etwas historisch ausholen. Als Einstein die spezielle Relativitätstheorie formulierte, hat er eine radikale Änderung gegenüber der Newton’schen Mechanik vorgenommen. Nun, Sie wissen alle, dass er eine andere Aussage über Raum und Zeit gemacht hat. Diese andere Aussage über Raum und Zeit war auch nur möglich dadurch, dass er über die Kraftwirkung eine andere Annahme gemacht hat. Während nämlich Newton behauptete, dass es Kräfte gibt, die auf lange Abstände wirken, sogenannte Fernkräfte, hat Einstein nur sogenannte nahe Wirkungen zugelassen, also eigentlich nur Wirkungen von Punkt zu Punkt. Und nur dadurch war es möglich, die relativistische Raum und Zeitstruktur mit dem Begriff von Kausalität zu vereinbaren, den wir an dieser Stelle annehmen müssen. Die Quantenmechanik, die in den 20er Jahren entwickelt worden ist, schließt sich in diesem Punkt an die Newton’sche Mechanik an. Auch sie arbeitet mit Fernkräften. In dem Moment aber, wo man zur Theorie der Elementarteilchen und zur Quantenfeldtheorie überging, war man nun gezwungen, wieder den selben radikalen Schritt zu tun, den Einstein damals getan hat von der Newton’schen zur Relativitätstheorie. Man musste also wieder von den Fernwirkungen auf nahe Wirkungen, auf Punktwechselwirkung übergehen. Das hatte dann zur Folge, wie man in den 30er Jahren gemerkt hat, dass die Mathematik, die sich scheinbar als naturgemäße Verallgemeinerung der Quantenmechanik in die Quantenfeldtheorie ergibt, dass diese Mathematik zu Widersprüchen führt. Dass die Größen, die man berechnet, unendlich werden, und keinen Sinn mehr haben. Aus dieser Schwierigkeit hat man lange nach Auswegen gesucht, und der nach meiner Ansicht interessanteste Vorschlag ist aus dem Jahr 1942, also genau vor 20 Jahren, von Dirac gemacht worden. Dirac führt an, dass man die mathematischen Schwierigkeiten wenigstens, sagen wir mal so in erster Näherung vermeiden kann, wenn man die Metrik im Zustandsraum indefinit macht. Um nicht bei diesem mathematischen Begriff stehen zu bleiben, will ich gleich zu dem Einwand kommen, der dann ein Jahr später von Pauli gegen diese Auffassung erhoben worden ist. Pauli stellte fest, dass dann, wenn man eine indefinite Metrik im Hilbertraum verwendet, dass dann die Wahrscheinlichkeit, die man aus der Theorie ausrechnet eventuell negative Werte bekommen, und das ist natürlich Unsinn. Denn negative Wahrscheinlichkeit gibt es nicht. Die Schwierigkeit schien zunächst kaum überbrückbar und daher ist dieser Vorschlag längere Zeit nicht weiter verfolgt worden. Aber etwa 10 Jahre später, im Jahr 1953 haben wir dann den Dirac’schen Vorschlag in Göttingen doch wieder aufgegriffen. Und zwar in der Hoffnung, ihn in folgender Weise modifizieren zu können. Die Wahrscheinlichkeitsdeutung der Quantentheorie brauchen wir ja dort, wo wir experimentieren. Wenn wir also irgendwo einen Auffänger hinstellen, mit dem wir Elementarteilchen zählen, dann verlangen wir von der Theorie, dass sie die Wahrscheinlichkeit dafür angibt, dass dort Elementarteilchen hinkommen. In der und der Art, in der und der Häufigkeit. Dagegen ist es nicht so wichtig, dass wir den Wahrscheinlichkeitsbegriff etwa auch im Inneren eines Atomkerns anwenden können. Denn im Inneren eines Atomkerns können wir sowieso nicht messen. Was wir messen, sind doch immer nur Elementarteilchen, die schon weite Strecken, nämlich in unseren Apparaturen gelaufen sind. Daher bestand die Hoffnung, dass man diese Theorie so modifizieren könnte, dass man den Wahrscheinlichkeitsbegriff zwar aufrecht erhalten kann für die Elementarteilchen, die in weiten Abständen voneinander sind, also für die sogenannten asymptotischen Verhalten, der in der Quantentheorie zu behandelnden Wellen, während man den Wahrscheinlichkeitsbegriff aufgeben muss für die Verhältnisse im ganz Kleinen. Nun, diese Vorstellung ist dann einer Prüfung unterzogen worden, an einem sehr interessanten Modell, was von dem chinesischen Physiker Lee entwickelt worden war. Und was, wenn man so will, eine sehr vereinfachte mathematische Ausgabe der Quantenelektrodynamik darstellt. Pauli und Källén haben zeigen können, dass, wenn man dieses Modell nach den Methoden der Quantenelektrodynamik behandelt, dass man dann automatisch in die indefinite Metrik hineinkommt und dass man zunächst sogar grundsätzlich wieder in die Schwierigkeit mit dem Wahrscheinlichkeitsbegriff gerät. Es ist aber dann auch gelungen, zu zeigen, dass man bei bestimmten Annahmen, die man nun zusätzlich da machen muss, es so einrichten kann, dass doch der asymptotische Wahrscheinlichkeitsbegriff wieder in Ordnung kommt, er nur im Kleinen verloren geht. Also, Sie sehen, dass diese ganze Frage sehr kompliziert ist, aber es sind gerade in den letzten Jahren eine Reihe von Arbeiten erschienen, in denen nun genauer untersucht wird, ob sich diese Trennung zwischen asymptotischen Verhalten und lokalem Verhalten durchführen lässt und es sind zumindest verschiedene Modelle angegeben worden, in denen das tatsächlich möglich ist. Wichtiger scheint mir, dass man auch einen guten theoretischen Grund angeben kann warum diese Trennung in Asymptotik und lokales Verhalten möglich ist. Wenn man sich für die Verhältnisse auch im Atomkern interessiert, auch sozusagen alle möglichen Experimente in Betracht zieht, dann muss man auch alle die Symmetriegruppen darstellen, die in der Natur beobachtet werden, insbesondere auch die Lorentz-Gruppe. Nun weiß man, diese Gruppe ist in der Mathematik gesagt eine nicht kompakte Gruppe und für nichtkompakte Gruppen ist die indefinite Metrik eine naturgemäße Darstellung. Wenn man sich aber für das interessiert, was in weiten Abständen passiert, also mit den Elementarteilchen, wenn sie weit von ihrem Zusammenstoßpunkt weg sind, dann reduziert sich diese Gruppe auf eine kompakte Gruppe, weil man ja nur noch Prozesse betrachtet zu einer bestimmten Energie in einem bestimmten Impuls gehört. Und für die kompakte Gruppe ist, wie gesagt, die definite Metrik als Wahrscheinlichkeitsbegriff eine naturgemäße Darstellung. Also sofern kann man einsehen, dass hier diese angestrebte Einteilung in asymptotische und nicht asymptotische Gebiete vernünftig ist. Und man kann vielleicht im Augenblick die Stimmung der Physiker zu dem Problem in folgender Weise umschreiben. Man kann sagen, es gibt als erstes eine konservative Richtung, vielleicht hauptsächlich vertreten durch den Amerikaner Whiteman, bei uns in Deutschland durch Nehmann, Simancik und andere, die versucht die Axiomatik nun möglichst eng an dieser Quantenmechanik anzuschließen. Man versucht mit einem Zustandsraum definiter Metrik auszukommen, nimmt die Existenz eines Feldoperators an und, um die Kausalität darzustellen, sagt man dann, die Feldoperatoren an raumartig getrennten Punkten sollen kommutieren und antikommutieren. Aus dieser Axiomatik sind eine Reihe von interessanten Resultaten hergeleitet worden, die auch durchaus auf die Erfahrung passen und die offenbar einen Teil der Wirklichkeit richtig wiedergeben. Andererseits ist es aber bisher nicht möglich gewesen, irgendein mathematisches Modell anzugeben, dass all diesen Axiomen genügt und eine nichttriviale Wechselwirkung enthält. Also ob die Axiomatik erfüllbar ist, die ja sehr eng ist an der Stelle, ist zweifelhaft. Daher gibt es eine andere Richtung, die etwas radikales, entgegen gesetztes Extrem vertritt und die im letzten Jahr z.B. von Chew in Amerika verfochten worden ist. Chew hat auf der Konferenz in La Jolla vor einem Jahr einen Vortrag gehalten, die er als seine „Declarations of independence“, als seine Unabhängigkeitserklärung bezeichnet hat, wo er sagte, „diese ganze Feldtheorie brauchen wir gar nicht“, es genügt, wenn wir eine Mathematik machen, die nur dieses asymptotische Verhalten der Teilchen beschreibt. Nun das mathematische Werkzeug zu beschreiben, ist Asymptotik, ist die sogenannte Streumatrix oder S-Matrix und Chew sagte also, es müsste doch genügen, für diese S-Matrix nun eine Anzahl vernünftiger mathematischer Forderungen zu stellen, z.B. um die Kausalität darzustellen, müsste man fordern, dass gewisse analytische Eigenschaften da sind und dann brauchte man sich gar nicht um die Frage der Metrik oder der Teilchen zu kümmern. So, das ist ein sehr extremer Standpunkt nach der anderen Richtung, und vielleicht darf ich jetzt um das zweite Bild bitten. Ich möchte hier die verschiedenen Schritte der Axiomatik, die hier möglich sind einmal kurz nebeneinander stellen. Der weiteste Rahmen, der also etwa jetzt von Chew im letzten Jahr vertreten worden ist, ist diese Axiomatik, die hier oben steht. Es wird also nur die Existenz einer Streumatrix, einer S-Matrix angenommen, die natürlich die notwendigen Gruppeneigenschaften, Symmetrieeigenschaften haben muss, um die Natur richtig darzustellen. Und damit außerdem die Forderung der relativistischen, also Einstein’schen Kausalität gewahrt sind, muss diese Matrix bestimmte analytische Eigenschaften haben. Man geht in dieser Theorie also sehr stark auch von der sogenannten Dispersionsrelation aus, die sich ja auch experimentell sehr gut bewährt hat. Man kann nun diese sehr weiten Rahmen dadurch verengen, enger machen, dass man etwas dazu fügt, dass man sagt, da soll nicht nur das gelten, sondern außerdem soll noch die Existenz eines lokalen Feldoperators gefordert werden, der nun, um die Kausalität darzustellen, bei raumartigen Zuständen kommutiert und antikommutiert und es soll einen dazugehörigen Hilbertraum geben. Man sagt aber an dieser Stelle noch nichts über die Metrik in diesem Hilbertraum, die kann definit oder indefinit sein. Und schließlich gibt es eine dritte, noch engere Axiomatik, in der man die beiden Forderungen stellt, die beiden Postulate, aber dann noch als dritte Forderung dazuführt, dass die Metrik im Hilbertraum definit sein muss und dass außerdem die asymptotischen Zustände schon genügen sollen, um diesen ganzen Hilbertraum aufzuspannen. Diese dritte Axiomatik ist also die engste, das ist die, die ich als die konservative bezeichnet habe und das ist die weiteste, während die hier in der Mitte ist genau diejenige Axiomatik, die dieser einheitlichen Feldtheorie zugrunde liegt, über die ich heute spreche hier. Nun, wir haben im letzten Herbst einer Solvay-Konferenz in Brüssel auch sehr über diese Axiomatik gesprochen und haben dieser abstrakten, etwas mathematischen Fragestellung auch noch einen physikalischen Aspekt gegeben, der zwar nicht in aller Strenge dazugehört, der aber doch die Verhältnisse sehr klar macht. Wenn man die engste, die dritte Axiomatik für richtig hält, dann ist man eigentlich gezwungen, zu unterscheiden zwischen Elementar- und zusammengesetzten Teilchen. Oder sagen wir zwischen eigentlichen Elementarteilchen und nur so halben Elementarteilchen. Und die eigentlichen Elementarteilchen sind dadurch charakterisiert, das sie in ihrem Zentrum einen unendlich harten und unendlich kleinen, also punktförmigen Kern haben, während die zusammengesetzten Teilchen diesen punktförmigen Kern nicht haben. Wenn man also dieser letzten Axiomatik glaubt, muss man eigentlich den Unterschied zwischen elementaren und nicht elementaren Teilchen machen. Wenn man dagegen eine der ersten beiden Axiomatiken zugrunde legt, dann liegt es sehr nahe zu sagen, es wird überhaupt kein Elementarteilchen geben, das einen solchen harten, punktförmigen Kern im Zentrum besitzt. Grundsätzlich ist diese Frage experimentell zu entscheiden und zwar steht die experimentelle Frage in enger Beziehung zu dem, was wir hier in dieser Tagung von Herrn Hofstadter gehört haben. In den Versuchen von Hofstadter versucht man ja gerade, ie Dichte-Verteilung eines Elementarteilchens z.B. des Nukleus auszumessen. Und man kann also mit solchen Methoden grundsätzlich entscheiden, ob die Dichte-Verteilung so ist, dass da im Zentrum ein unendlich harter, punktförmiger Kern ist, der von einer Wolke von Materie dann etwa von 10 E-13 cm Durchmesser umgeben ist, oder ob das Elementarteilchen nur so eine Wolke ohne Kern ist. Man muss allerdings, um eine solche Frage zu entscheiden, Zusammenstöße außerordentlich hoher Energie untersuchen. Offensichtlich ist es so, dass wenn man den punktförmigen Kern hat, dass dann auch bei allerhöchsten Energien noch elastische Zusammenstöße mit einer erheblichen Wahrscheinlichkeit auftreten, während, wenn man nur die Wolken hat, dann wird eben bei hinreichend hohen Energien das elastische Zusammenstoßen beliebig selten werden. Nun ich selbst bin überzeugt, dass es keine Elementarteilchen mit einem solchen harten Kern gibt, aber experimentell zu entscheiden ist die Frage einstweilen noch nicht, weil man noch nicht hinreichend hohe Energien hat. Vielleicht werden aber immerhin Stoßprozesse mit den großen Maschinen in Genf und Brookhaven uns in Zukunft der Entscheidung dieser Frage näher bringen. Und damit möchte ich diese Diskussion der mathematischen Axiomatik abschließen und nunmehr zu einem mehr physikalischen Teil kommen, dem zweiten Teil, nämlich zu der Frage der Unsymmetrie des Grundzustandes. Die Feldtheorie über die ich hier referiere, war gezwungen diese Unsymmetrie des Grundzustandes anzunehmen aus folgendem Grund. Es gibt in den Elementarteilchen eine Eigenschaft, die man den Isospin nennt. Und zwar, das ist eine Eigenschaft, die schon vor 30 Jahren empirisch eingeführt worden ist; es ist mathematisch eine Eigenschaft, ähnlich wie der Drehimpuls, aber bedeutet anschaulich die Unterscheidung zwischen Proton und Neutron. Zwei Teilchen, die fast die gleiche Masse haben, aber von denen das eine geladen, das andere neutral ist. Nun hat man schon lange festgestellt, eben damals vor 30 Jahren, dass die Wechselwirkung zwischen Elementarteilchen wenigsten ungefähr symmetrisch sind gegenüber Drehungen in diesem Raum. Also, wenn man ein Neutron in ein Proton verwandelt, dann ändern sich in erster Näherung die Kräfte nicht. Und daher ist auch die Grundgleichung, die Sie vorhin gesehen haben, gegenüber solchen Transformationen invariant. Aber diese Invarianz gilt in der Wirklichkeit nicht streng. Schon die elektrische Ladung verletzt die Invarianz, was Sie ja einfach daraus sehen, dass ein Proton geladen und ein Neutron ungeladen ist. Also man kommt zu dem merkwürdigen Schluss, dass es in der Natur Symmetrien gibt, die nur näherungsweise gelten. Und dafür ist nun die naturgemäße Interpretation, dass man sagt, der Grundzustand der Welt selbst ist eben nicht symmetrisch, sondern die Welt hat einen großen Isospin. Nun empirisch bedeutet das, dass etwa die Zahl der Neutronen und die Zahl der Protonen in der Welt sehr verschieden sind und das ist in der Tat der Fall. Diese Unsymmetrie macht es dann erst möglich zu verstehen, das ein Proton und ein Neutron etwas verschiedene Masse haben. Weil ja sozusagen das Proton dann ein Teilchen ist, dessen Isospin parallel dem der Welt steht, während beim Neutron der Isospin antiparallel dem der Welt steht. Also in dieser Weise war man gezwungen, die Unsymmetrie anzunehmen. Es kam noch ein weiteres hinzu, wenn die Grundgleichung zunächst so genommen wird, wie sie da steht, dann würde man ja erwarten, dass ein Teilchen, das Halbzeichen Dirac’schen Spin hat auch Halbzeichen Isospin hat, oder wenn es Ganzzeichen Dirac’schen Spin hat, dann auch Ganzzeichen Isospin hat. Es gibt aber in der Wirklichkeit die sogenannten seltsamen Teilchen, die strange particles, bei denen das gerade nicht so ist. Und um die zu erklären, muss man also auch wieder die Unsymmetrie des Grundzustandes zu Rate ziehen. Nun, das war am Anfang eine etwas kühne Annahme, aber inzwischen hat sich nun erfreulicher Weise gezeigt, dass in anderen Gebieten der Physik genau die selben Verhältnisse herrschen, und da haben wir sehr viel lernen können von der Entwicklung der Theorie der Supraleitung, über die wir hier von Herrn Bardeen gehört haben. Es hat sich herausgestellt, dass in der Supraleitung die Verhältnisse genauso sind. Das also wieder der Grundzustand nicht die volle Symmetrie der Gleichung hat, sondern entartet ist, eine geringer Symmetrie hat, dort z.B. nicht die sogenannte Eichsymmetrie hat. Und dann hat Bogoliubov mit recht darauf hingewiesen, dass man im Grunde solche Verhältnisse ja schon in früheren Zeiten an vielen Stellen kannte und bloß nicht mehr daran gedacht hat. Schon in der Theorie des Ferromagnetismus wird ja angenommen, dass der Grundzustand eines Ferromagneten ein magnetisches Moment hat, also eine Richtung hat, obwohl die Gleichung, von der man ausgeht, rotationssymmetrisch ist. Bei der Kristallbildung, bei der Theorie der Suprafluidität, überall haben wir dieselben Verhältnisse. Nambu insbesondere hat gezeigt, dass auch rein mathematisch zwischen der Theorie der Elementarteilchen und der Theorie der Supraleitung viele Ähnlichkeiten bestehen. Man hat also nun sozusagen ein mathematisches Übungsfeld gewonnen in der Theorie der Supraleitung und in der Theorie des Ferromagnetismus. Wir wissen, dass in diesen beiden Gebieten, keine grundsätzlichen mathematischen Schwierigkeiten bestehen, man steht also dort auf völlig festem Grund und man kann nun nachsehen, inwieweit die mathematischen Vermutungen, die wir bei der Theorie der Elementarteilchen hatten, auch hier zutreffen. Und da hat sich in der Tat herausgestellt, dass sehr viele Züge, die man bei der Theorie der Elementarteilchen vermutet hatte, hier nun wirklich mathematisch bewiesen werden können. Das also die Verhältnisse tatsächlich ganz so liegen können, wie man sie in der Theorie der Elementarteilchen angenommen hatte. Besonders erfreulich war auch noch folgendes: in der Theorie der Elementarteilchen hatten wir uns genötigt gesehen, zum numerischen rechnen eine Approximationsmethode zu benutzen, die recht problematisch war. Aber es war die einzige, die auf diese Art von Feldtheorien überhaupt Anwendung finden konnte. Nun konnte man in der Theorie der Supraleitung eben diese selbe Approximationsmethode verwenden und zusehen, ob sie dort gute Resultate lieferte und da stellte sich heraus, das sogar dort exakte Resultate liefert, dass sie also praktisch genauso gut ist wie die exakte Rechnung. Also in der Beziehung hat man von der Theorie der Supraleitung her sehr viel Hilfe für die Theorie des unsymmetrischen Grundzustandes bei den Elementarteilchen gewonnen. Nun will ich etwas spezieller eingehen auf die Theorie der seltsamen Teilchen, die inzwischen von Dürr und mir entwickelt worden ist. Um die seltsamen Teilchen in ihren etwas merkwürdigen Eigenschaften zu verstehen, hatte Wentzel einmal einen Begriff eingeführt, den nannte er das Spurion. Dieses Spurion war ein etwas komisches Elementarteilchen, das war nämlich gar kein Teilchen, d.h. es hatte weder Energie noch Impuls, noch einen Ort, sondern es hatte nur noch einen Isospin und eine Parität. Ich kann als anschaulichen Vergleich etwa nur finden, die Katze, die in dem Märchen von Alice im Wonderland vorkommt, dem englischen Märchen, das ist zwar etwas mystisch, da ist von einer Katze die Rede, die durch einen Spiegel verschwindet und dann verschwindet zuerst der Schwanz und dann der Körper und dann der Kopf der Katze und es bleibt nur das hämische Grinsen der Katze im Raum stehen. Nun dieses Grinsen der Katze ist sozusagen der Isospin des Spurion. Nun diese Vorstellung die Wentzel zunächst, rein phänomenologisch aufgestellt hatte, die hat sich nun, eigentlich in der Mathematik dieser Feldtheorie, über die ich hier spreche von selbst herausgestellt. D.h. es zeigte sich, dass diese Mathematik von selbst dieses Spurion erfindet, eben als Eigenschaften des entarteten Vakuums, so dass man alle die Annahmen, die Wentzel mit seinem Spurionbegriff gemacht hatte, nun in der Mathematik wiederfinden konnte. Und umgekehrt, diese Mathematik nun auch wieder an der Theorie des Ferromagnetismus oder der Supraleitung prüfen konnte. Vielleicht ist der einfachste Vergleich der aus der Theorie des Ferromagnetismus, wo wir also dann den Isospin ersetzen müssen durch den Spin. Auch in einem Ferromagneten kann man sich durchaus folgendes vorstellen. Man denke sich ein angeregtes Elektron, das sich aber von dem gesamtmagnetischen Moment des Ferromagneten eine Spin ½ borgt, so dass der Spin des Elektronmagneten nicht mehr ½, sondern 1 ist. Es ist also durchaus möglich, indem man in dieser Weise eine Spinwelle an das Elektron anhängt, dass in einem Ferromagneten Elektronen herumlaufen, die nicht wie sollten Spin ½ sondern Spin 1 haben. Ich weiß nicht, ob tatsächlich solche Ferromagneten schon hergestellt worden sind. Ich glaube nicht, dass man es beobachtet hat, aber grundsätzlich spricht nichts dagegen, dass so etwas möglich wäre. Nun, mit Hilfe dieses Spurionbegriffs sind also Rechnungen angestellt worden und ich will jetzt doch ein paar Formeln geben, aber dann schnell darüber hinweg gehen, ich bitte ums nächste Bild. Wenn man diese Idee der Spurionen ernst nimmt, dann muss man, um ein seltsames Teilchen zu beschreiben, die Dirac’sche Gleichung des Nukleons etwa, zu der nur dieses Glied gehören würde Gammy My P My und dieses Glied, I Kappa, diese Gleichung muss und kann man erweitern um genau zwei Glieder. Andere Glieder sind symmetriemäßig nicht möglich. Und das eine Glied gibt sozusagen eine Wechselwirkung der Parität des Spurions, wie der Parität des Nukleons und dieses Glied gibt eine Wechselwirkung zwischen dem Isospin des Spurions und dem Isospin des Nukleons. Wenn man diese erweiterte Gleichung, bei dem nur zwei Konstante vorkommen, die noch zu bestimmen sind, löst, dann bekommt man für die Energie, also für die Masse des Spurions eine solche Formel. Die hängt noch, wie gesagt, von den beiden Konstanten Alpha und Eta ab, die man dann noch durch andere Forderungen bestimmen muss. Ich bitte ums nächste Bild. Wenn man mit dieser Formel sich also Massen ausrechnet, dann sieht man, dass folgendes passiert. Wir haben etwa, solange die beiden Wechselwirkungskonstanten Alpha und Eta null sind, haben wir hier den Eigenwert, nämlich die Masse des Nukleons. Wenn wird dann zunächst nur die Paritätswechselwirkung nehmen, dann spaltet das Nukleon diesen Zustand auf, hier unten bleibt dieser Nukleonzustand, der sich in seiner Masse etwas verändert, und höher liegt nur ein Zustand, der anschaulich zu deuten ist, eben als Nukleon + Spurion. Aber dieser Zustand ist noch vierfach entartet, und wenn wir dann diese Wechselwirkung Eta noch mit rechnen, also die Isospinwechselwirkung, dann spaltet dieser Zustand die vier Zustände auf. Wir sollten also dann erwarten, dass es über dem Nukleon ein strange particle, ein Hyperon gibt. Dies hier soll den Isospin null haben, das hier den Isospin 1, darüber sollte nun wieder ein angeregtes Teilchen vom Isospin 1 sein und wieder vom Isospin null. Die beiden unteren Teilchen, sind experimentell bekannt, das ist das sogenannte Lambdahyperon und Sigmahyperon. Von den beiden oberen Zuständen, wusste man damals noch nichts. Aber es ist möglich, dass sie jetzt gefunden sind, über das Experimentelle will ich nachher noch sprechen. Wenn man genauer rechnen würde, als es in diesen ersten Formeln geschieht, würden natürlich diese Niveaus etwas gegeneinander verschoben werden können, denn die Konstanten Alpha und Eta können selbst wieder von Energie abhängen, aber in erster Nährung sieht die Aufspaltung also so aus. Ich sollte vielleicht noch dazu sagen: bei der numerischen Rechnung hat man die eine Konstante Alpha richtig nach der Tamm-Dankoff-Methode, wenn auch nur nährungsweise bestimmen können. Die zweite Konstante Eta, die sehr viel kleiner ist, aber ließ sich nicht zuverlässig bestimmen, weil nämlich die zweite Konstante sich sehr stark ändert, wenn in der ersten Konstante auch nur ein ganz kleiner Fehler ist. Die ist sehr empfindlich von der ersten abhängig, so dass wir eben diese Konstante bestenfalls um einen Faktor 4 Ungenauheit bestimmen können. Und dann sind wir praktisch so vorgegangen, dass wir lieber den experimentellen Wert genommen haben, also denjenigen Wert, der die Experimente am besten darstellt. Aber ich muss dazu sagen, auch wenn die Konstante etwa um Faktor 2 größer wäre, wäre das Bild nicht grundsätzlich anders. Bitte das nächste Bild. Dieselbe Rechnung ist dann auch noch gemacht worden für die sogenannten Bosonen, das sind also Teilchen, wie das Pi -Meson usw. und da gibt es ohne die Wechselwirkungen des Spurion zwei Zustände. Das eine hier, ist ein Isotriplet, das ist ein Pi-Meson, das zweite, Zustand bei Isosinglet, der war damals, wie die Theorien entwickelt wurden noch nicht gefunden. Er scheint aber jetzt gefunden zu sein, und zwar scheint dieser Zustand das sogenannte Eta-Meson zu sein. Dieser Zustand spaltet dann, wenn Eta noch null ist in zwei, in drei auf und andere auch in drei und wenn dann diese Konstante Eta mitgerechnet wird, so wird die …

Heisenberg Talks About Unified Field Theories.
(00:00:10 - 00:05:44)

Today there is overwhelming evidence indicating that the Universe is expanding from an extremely dense state, named “the primeval atom” by Georges Lemaître in 1933. Lemaître’s ideas have developed into the standard Big Bang theory, which most astrophysicists adopt today. Hannes Alfvén, the Swedish Nobel Laureate of 1970, received his prize “for fundamental work and discoveries in magnetohydrodynamics with fruitful applications in different parts of plasma physics”. When he gave his lecture “Observations and Cosmology” at the 1979 meeting, he was known to be a strong opponent of the Big Bang theory. So did Alfvén have an alternative theory? Since the 1960’s he had been working on a symmetric model of the Universe originally put forward by Oskar Klein, professor of theoretical physics at Stockholm University. In this model the Universe contains equal amounts of matter and antimatter, so that some stars that we see are made of matter and others of antimatter. Today this theory is more or less obsolete, but still has an historic appeal.

Hannes Alfvén (1979) - Observations and Cosmology

I wish to thank you very much for your kind introduction. It is a, a great pleasure to be here and to listen to so many interesting lectures. And especially I am glad to note that there are so many physicists who invade other fields of science. We have just heard today a couple of excellent lectures about biology. And the physicists have made or presented all sorts of excuses for going there. I think that they do not need any excuse for this, but I should like to try to follow the same approach, namely to try to go into a field where I am an outsider and this means that I would like to present the views of a plasma physicist on cosmology and astrophysical problems in general. As an excuse for doing so, I should perhaps mention that everybody, everybody knows that 99.9999999% of the universe consists of a magnetized plasma and therefore it may be allowed for a plasma physicist to present his views there. And the.., we have listened to wonderful lectures about cosmology and it has been stated here the general agreed fact that the Big Bang cosmology is the cosmology, which explains everything. And I am of course very impressed by this cosmology. It is based on the General Theory of Relativity and in the year when the hundredth anniversary of Einstein is celebrated, I need not, I need not stress to you how wonderful, how beautiful the general theory of the general relativity is and when you listen to the presentation of Professor Dirac on his version of the general ..of the Big Bang theory, you are also very impressed, of course. The general feeling is that it is a beautiful theory which explains the whole evolution of the universe, from the Big Bang, the “Urknall”, when all matter was, we have now, was concentrated in one point, in one singular point. There are of course a number of, of difficulties which is, it is a little, which there are a number of things, it is a little difficult to understand, namely that the whole world which we see, Lindau and Bodensee (Lake Constance) and the whole Earth and the planets and the Sun and the galaxy and all that once was once condensed into a very small volume, as small as this, or as small as this, or even still smaller, because a singular point is very, very small. And, but I take the authority of Einstein and Professor Dirac that it must have been so and furthermore, you hear the detailed description of what happened during the first three minutes after the Big Bang and that is described, as you know, in detail. You are a little surprised to find that the accurate dating of this is not so well known. Professor Dirac said that some people say that it was 10 billion years ago and other 18 billion years ago and I think this states, this states the general situation, there is large uncertainties in certain respects, but of course not about what happened during the first three minutes. But with this and then of course you ask yourself, what happened before these three minutes? And then I haven't got any answer yet what happened before, well this has no meaning because nothing existed there, and how did all this come into, into being? There are some people who say that this proves the existence of God, because it was must have been God who created all this at a certain moment and this means that we mix science and theology, we come into the borderline there and this is a thing which perhaps is somewhat dangerous. But as I said, the most, the strongest impression is the wonderful beauty of the whole theory. It explains everything. However, beauty, beauty is sometimes dangerous, also in science and especially in cosmology. If we look at the history of science, there has been other cosmologies which have been wonderfully beautiful. Take the six-day creation, wasn't that, isn't that a wonderful cosmology? It, it, and still it is, inspite of its beauty, it, it isn’t believed very much, at least not in the scientific community. And take the wonderful Ptolemean system, which was generally accepted 1000 years or so, with the harmony of the spheres and crystal spheres revolving. That was also very beautiful. But still, there are very few people who believe in it, except of course those who believe in astrology and that is perhaps more than those who believe in science, in astronomy, but that is, but these are outside, extra-muros to us, they are not, do not belong to the scientific community. But I think that the, the reason why these very beautiful cosmologies are not, are not accepted anymore is that they are not reconcilable with observations, because science is, after all, empirical, to, to some extent, empirical. We have wonderful theories, of which we have heard so much, but there is also empirical evidence and how does that agree with the, the theories in this respect? We have heard that there are convincing proofs for the Big Bang cosmology and we have heard that in some cases there is expected to be convincing proof of it in a few months, but let us see a little how we, how all this, this, how much, to what extent the observations support the Big Bang. I think that the general impression is that all really good observations support Big Bang and all bad observations contradict it. But what is the definition of a good observation? It is an observation which confirms the Big Bang and, and the definition of a bad observation, an uninteresting observation, is an observation which brings Big Bang into some difficulties. We have heard about these wonderful models. It is a homogeneous model which is the basis for the Big Bang, derived from the General Theory of Relativity. And, so the first question is, is really the universe uniform? Is it isotropic? If you go out in the night and look at the stars, you don't, you, you see something which is not at all uniform But that is only a local anomaly. It is only something that happens here in our close neighbourhood. And, if you go out and have a, if you have a look on the galaxy, our galaxy, this does not either give you an impression of a uniform distribution of matter. But, this is again a, a local anomaly. If we go out further, we should, according to the theory, to be, be able to apply a uniform homogeneous theory. That means that such islands should be distributed uniformly in space. No, it does not, because the galaxies are lumped together in, in, in groups of galaxies and these are lumped together in, in clusters of galaxies, and the clusters of galaxies are not either uniformly distributed. They are lumped together in super clusters. And that is as far as our information goes because if we go to still larger size, we don't know anything with certainty from observations of this kind. Can I have the projector, the projector on here? This is a diagram by DeVancouleurs which gives the experimental, the observational results, correlation between the maximum density and the radius of a sphere, and you see here, if you have these represent galaxies and the average density in, in them is something like 10-23, these are groups of galaxies and, and clusters of galaxies and this is the last largest unit you can measure, that is, a super, super cluster of, super clusters of galaxies, they come down here. And you see this does, this means that we have rather a hierarchy of lower and lower densities when we go out to very large regions. Here we are out on close to the 1026cm and the Hubble radius, the radius of the universe is called 1028, so we are, have here still a couple of or two orders of magnitude to go and about this region we don't know anything from galactic observations, how uniform it is. It is quite possible that, from here further out, we have a uniform density that is about 10-29, which I think is the, the figure which Professor Dirac quoted. However, if you take, you can also without being in disagreement with any observational fact, continue the extrapolation here and that brings you down to 10-34, 10-32 at this distance, which is three or four orders of magnitude below this value. So we obviously here have an amplitude about which the observations don't us tell anything. There is nothing wrong. We cannot say that the Big Bang uniform picture is wrong, but we can also, also accept such a solution and we should just, it is of interest to see what we result we can reach if we take the other alternative. So it means that the homogeneity of very large, of the universe or meta-galaxies is also always, sometimes is called being just that part of, of the galaxy, which, with of the universe we explore here. That, this uniformity is not known with any, is not proved by observations of galaxies. What is the main proof of it? Well, it is the most important phenomenon which has been discovered for the, for quite a few years in astrophysics, namely the black body radiation, which is completely isotropic. And that shows that, that. That shows that the, the universe as a whole must be completely isotropic. It agrees with the Big Bang model and this is actually the strongest support that, that ever, there is. It is, as far as I know, the only support there is for it, or perhaps I should say was, because one year ago there happened a very regrettable thing, namely that this radiation turned out not to be isotropic. It, it is quite, it is may very well be due to a local anomaly, of course. But it is, if you correct for the rotation of the galaxy, you still get a large anisotropy, of the order of a velocity of 800 or 1000 kilometres per second. And if you then correct for the motion of the, our, our galaxy in relation to other galaxies in the Virgo cluster which is the larger unit, you do not either get any, any better isotropy. So it must be some still larger unit, where this, this unit, this anisotropy is caused. So I'm not quite sure that we could rely on this either. Then comes the Hubble expansion. The Big Bang says that everything was condensed in a singular point and from that, the galaxies drew out in all directions. And there is no, this is correct with at least to the extent that there is a Hubble expansion, the galaxies move outwards. And this is a diagram which shows the relation between the distance, which is measured by corrective apparent magnitude of the galaxies and this is the velocity. And you see that these points very well on a straight line, which it should do according to the Big Bang theory. They should all be, be lying on a straight line and of course we have, we have observational errors because these measurements are very difficult to make. However, if we take the individual observations here, we have the distance and we have the velocities and from that, we could construct a diagram how these have moved under the assumption, which is very reasonable, that they haven’t changed their velocity. This is now the distance from us and this is time, and you see that if you go back in time, these are all coming closer together. Now every individual point here is used for such a straight line and they come together here. So there is no doubt that the, our meta-galaxy is expanding at present. However, is it, does this expansion necessarily derive from the Big Bang here? It's quite possible. You cannot rule that out because these could very well be observational errors. It might be that everything has derived, has originated from one point here and then it has gone out like this and the, the minimum size which you get here may very well be due to observational errors. However, we cannot say from observations it is possible to conclude this. We can conclude that, once the meta-galaxy was much smaller than now, at the Hubble time, It could be zero, it could be a singular point, but it could very well also be much larger. So this means that we, we if we try to construct an earlier state of the our meta-galaxy from observations, we could do that, that could lead to the Big Bang model, but it could also according to this lead to a rather drastically different picture. You have here the Hubble radius, the Hubble density and so, so on and here is, is beta, that is the velocity, the velocity of the different galaxies, which have been measured. And the galaxies for, for which one has measured the red shift are, most of them are well below 0.3 of the velocity of light. That means that this is the size, 3x1027, if we take the Hubble radius as 1028. Professor Dirac gave a, a model in which he said that he discussed especially the, the part of the universe which was receding with a velocity which was less than half the velocity of light, which we can take for this and here we can take 0.4 as some sort of average. This is only to show you what one may get in such a way. When you see that the total rest mass of the, the meta-galaxy is given here and the rest mass energy, rest mass multiplied by the square of the velocity of light, comes down to 483. The units is 1070 erg. You can also calculate the kinetic energy of this, and the kinetic energy comes out to be 19. It is about 5%. So the known the part of the universe, which we have observed with any degree of certainty has a kinetic energy which is about 5%, a little different here, of the, of the rest mass. So in some way, we need to have an energy put into the meta-galaxy which gives you 20% about, and this, from that we can construct, I don't have so much time, I see that goes very rapidly. This is a table of what we have here. We, what is interesting is to see, this is the minimum size of the meta-galaxy and what is interesting is that the, we are even at the minimum size, 100 times outside the Schwarzschild limit, which means that the correction for the General Relativity effect is only 1%. What does this mean? It means that if we go out to the galaxy, in the galaxy, we, we of course have measured General Relativity effects in our close neighbourhood. If we go out to study the, the behaviour of the galaxy, no one applies General Relativity. Every, every all the motions there can be used, can be calculated with classical mechanics. If we go out, further out, as soon as we are far from the general, from the Schwarzschild limit, we can use classical mechanics and use Euclidean geometry with a high degree of certainty. So actually, with this model we have a 1% correction for the General Relativity and something like 10, perhaps 25% correction for the Special Theory of Relativity. So you see that this is, this is, is a possible model, which as I said is just as well reconcilable with the observations, with the observational data as the Big Bang theory, as far as I can see. However, now comes another thing. If you, and that is, that are so many other very interesting phenomena which have been observed in the, in the, in astrophysics. And one of the most dramatic events, dramatic things is the QSOs, the quasars. And the quasars have velocities, red shifts, which are much larger than the galaxy’s. Under the assumption that the quasars, the QSOs, have a red shift which is due, which is cosmological, that is due to the Big Bang, then you can go out from a point, from 0.3 the velocity of light, 0.4, out to almost the velocity of light. You have red shifts which are up to two or three or perhaps even more. So it is a critical question whether the red shifts of the QSOs is cosmological or not. And the red shifts, the, the QSOs are a very, very interesting, very fascinating thing to study. And I have here a short summary of, of their properties. They are not really introduced very much in the general cosmological discussion, and the reason for this is simply that they are very awkward to the Big Bang cosmology. There is no evident explanation of it and you can see that they, they are causing considerable trouble. The QSOs are very large releases of energy. It is of the order of the annihilation of one solar mass per year and in some cases still more. They have red shifts which are very large and the controversial question are these red shifts, is are these red shifts cosmological or are they caused by some other, other mechanisms? And then you can see that what we should take out here is, is especially that some QSOs are located close to galaxies, and in certain cases they have the same red shift as the galaxy. But there are many cases and undoubtedly very convincing evidence that there are QSOs closely, close to galaxies, but they have very different red shifts. This is, is, has been demonstrated by my measurements by Margaret Burbidge, the Burbidges have very strong evidence for the non-cosmological red shifts and are in Pasadena, has made beautiful measurements of this. So there must be mechanisms by which these QSOs get up to close to the velocity of light without being these velocities being produced by the cosmolo..., by the Big Bang. And you can see what requirements one has here. The, if, if you have, if you take the enormous energy release, which are measured and you introduce the condition that this energy is emitted in one direction, then you can get the, the bodies up to these velocities. This is one possible suggestion to, to get, to explain the QSOs. This means that the very large velocities are not necess..., which we observe, are not necessarily cosmological. There are other mechanisms also. But what are these mechanisms? What is the mechanism which produces the energy for the QSOs? We see immediately that nuclear energy, which is giving us the ener..., the energy of the stars, is by far not sufficient. So we have three possibilities. We have either to invent a new law of physics, which gives you these very large energy releases, which we perhaps are a little hesitant to do. We have two other alternatives left. One is gravitational energy and the other is annihilation. And the gravitational energy, there have been a number of theories according to which black holes produce these large energy releases. But if you try to work out a theory of the QSOs, how they are accelerated, you find that you run into very serious difficulties. And then is just the possibility that we have annihilation as an energy source. And that brings up an interesting problem, namely is there antimatter in the universe? Is the universe symmetric with regard to matter and antimatter? This has of course been speculated much about it. And it is Oskar Klein in Stockholm who has, who made twenty years ago a systematic effort to show that, to make cosmological model with the, with anti, where a symmetry between matter and antimatter. This, there has been much objection to that and this is essentially because if matter and antimatter are mixed in the universe, you would have an enormous gamma radiation and you will have a very rapid annihilation of it all, so that this could only be a very, could, could not persist for a very long time. However, all this depends upon the assumption that you have, that the universe is, is homogeneous. We have the, that there is, can be no, that there cannot be separate, separate regions. And this is one of the really dramatic new, new results of space research, namely that the properties of space has changed in a drastic way. And I am not speaking about the four-dimensional space in the Big Bang theories, I am speaking about the space, which is explored by space craft. Fifty years ago, it was believed that everything was vacuum outside the celestial bodies. Then it was observed that there was an interstellar medium, interplanetary medium, interstellar medium, and we heard earlier a lecture about that and it is, it was then natural to assume that this was a continuous medium. And it was natural to assume that also in our close neighbourhood in the environment of the Earth, the so-called magnetosphere, and in the interstell..., interplanetary space the so-called heliosphere or solar magnetosphere, that we had a homogeneous medium. This has not, is not correct. This is one of the most, most surprising results of space research. If you have the magnetic field as a function of the radius from the Earth, this is the Earth, and you go out and measure the magnetic field by spacecraft, it should be decay as r-3, and that is just what is does, out to about 10 Earth radii or something like that. Then it suddenly changes to the opposite sign and goes on like this. And this is a most dramatic change. It is, it takes place in a region which is a few cyclotron radii. It is a sudden change in the magnetization. So the magnetization here is in that direction and it is here in that direction. The magnetization of space is not continuous, it is discontinuous, it means that we have a current layer here. And such phenomena have been found not only in the magnetic poles, it has also been found in the magneto-tail of the Earth, in the solar equatorial plane, we have an outward-directed magnetic field which suddenly changes to the opposite and again there is a thin current layer. It has been found in the Jovian, in the Jupiter's magnetosphere, and so on. There’s half a dozen places where we observe this. It means that space in our close environment has a cellular structure. There are cells with that magnetization and there are cells with that magnetization. And it is rather a water-tight separation surfaces. And this is, this means that we have, space is no longer uniform. It consists of a number of cells and they are separated by current layers and on two sides of the current layer you have different magnetizations, different pressure, different densities, and perhaps you also could have different matters, different kinds of matter. Such thin layers, I will just show you here what it is. This is the interplanetary medium, this is the Earth, the Earth’s had a magnetic field like that, that is 50 years ago when space charge, when space research started, we got this picture, a neutral sheath here. Now, this is one of the later models. This is the Earth, and you’ll see a number of such layers. Space is drastically different from what it was earlier. And these interfaces cannot be detect, had, were not detected from the Earth. They cannot be detected unless a spacecraft penetrates it. Even if it comes close to it, you see no sign of it. We knew, hence, that space has this structure. How far out? As far as the spacecrafts go. And what is beyond that? No one knows. We cannot prove that it is, that it has the same cellular structure further out. It could very well be that we have a wonderful homogeneous model. But the limit is just as far as spacecrafts go. So perhaps it is easier to assume that this is a general property of space, that it always everywhere has this structure, and then (time is getting on). We can just see here a model of a layer separating matter and antimatter. We have supposed that in interplanetary space we have interstellar space, we have a region containing matter and another region containing antimatter. And then there will be a boundary layer where they keep in contact and they produce high-energy particles here. And you can calc..., you can see that these, the, the number of such particles which are produced is very small. You can, you have no hope of detecting it from any, any difference, any distance, and the distance which such a Leidenfrost layer occupies need only to be a 100th or a 1000ths or a 10,000ths of a light year. So we can very, very well assume that the cellular, if we, if we accept a cellular structure, we can very well think the universe divided in such regions. And this is important because it is obvious that it has cosmological consequences, quite a few of them, which I shouldn't go into more here. I should only like to say that it seems that with this, with the idea of a symmetric universe, you can explain quite a few of the, of the observations, which are embarrassing to the astrophysics and especially to cosmology, namely the enormous release of energy in the, in the QSOs, the so-called gamma ray bursts, quite a lot of the x-ray radiation and so on, but this will be, be take us too far. I thank you.

Ich danke Ihnen sehr für Ihren freundlichen Empfang. Es ist mir eine große Freude, hier zu sein und so vielen interessanten Vorträgen zuhören zu können. Und insbesondere freue ich mich darüber, dass so viele Physiker in andere Wissenschaftsgebiete vordringen. Gerade heute haben wir eine Reihe von ausgezeichneten Vorträgen über Biologie gehört. Und die Physiker haben alle möglichen Entschuldigungen dafür vorgebracht, dass sie sich jetzt damit beschäftigen. Ich finde, dass sie sich nicht entschuldigen müssen. Auch ich möchte gerne diesem Ansatz folgen, nämlich den Versuch unternehmen, in ein anderes Gebiet zu wechseln, auf dem ich ein Außenseiter bin. Ich möchte Ihnen nämlich die Ansichten eines Plasmaphysikers zur Kosmologie und zu astrophysikalischen Problemen generell präsentieren. Als entschuldigende Begründung für meine Vorgehensweise sollte ich vielleicht erwähnen, dass – wie wohl jeder weiß – 99,9999999% des Universums aus magnetisiertem Plasma bestehen. Deshalb mag es einem Plasmaphysiker erlaubt sein, seine Ansichten dazu vorzustellen. Und … wir haben hier wunderbare Vorträge über Kosmologie gehört und es wurde hier die allgemein akzeptierte Tatsache geäußert, dass die Urknallkosmologie die Kosmologie ist, die alles erklärt. Und natürlich bin ich sehr beeindruckt von dieser Kosmologie. Sie basiert auf der allgemeinen Relativitätstheorie. Und im Jahr des 100. Geburtstag Einsteins muss ich wohl nicht betonen, wie wunderbar, wie schön die allgemeine Relativitätstheorie ist. Und wenn man dann den Ausführungen von Professor Dirac über seine Version der allgemeinen Urknalltheorie zuhört, ist man natürlich ebenfalls sehr beeindruckt. Nach allgemeiner Auffassung handelt es sich also um eine wunderbare Theorie, die die gesamte Evolution des Universums ausgehend vom Urknall erklärt, als alle Materie, die wir heute kennen, noch in einem einzigen Punkt konzentriert war, in einem singulären Punkt. Natürlich sind auch eine Reihe von Schwierigkeiten mit dieser Theorie verbunden. Es gibt da einige Dinge, die etwas schwer zu verstehen sind, nämlich, dass die ganze Welt, die wir sehen, Lindau und der Bodensee und die gesamte Erde und die Planeten und die Sonne und die Galaxien und alles, dass all dies einmal in einem sehr kleinen Volumen verdichtet gewesen sein soll – so klein wie das hier oder das hier oder noch kleiner, denn ein kleiner Punkt ist sehr, sehr klein. Aber ich nehme Einstein und Professor Dirac ab, dass es so gewesen sein muss. Und zudem hört man die ausführlichen Beschreibungen über das, was in den ersten drei Minuten nach dem Urknall geschehen ist. Das alles wurde, wie Sie wissen, detailliert beschrieben. Man wundert sich etwas darüber, dass sich dieses Geschehen nicht so genau datieren lässt. Professor Dirac erwähnte, dass einige Menschen sagen, es sei vor zehn Milliarden Jahren geschehen, und andere, es liege 18 Milliarden Jahre zurück. Ich denke, dass diese Aussagen die generelle Situation widerspiegeln, dass nämlich enorme Unsicherheiten in Bezug auf bestimmte Aspekte bestehen, aber selbstverständlich nicht in Bezug darauf, was in den ersten drei Minuten geschah. Aber man fragt sich natürlich, was vor diesen drei Minuten geschah? Und ich habe bisher keine Antwort darauf erhalten, was vorher passiert ist. Das hat natürlich keine Bedeutung, weil vorher nichts existiert hat. Aber wie ist das alles ins Leben gekommen? Es gibt Menschen, die das alles für einen Beweis der Existenz Gottes halten, weil es Gott gewesen sein muss, der all dies zu einem bestimmten Moment erschaffen hat. Und das bedeutet, dass wir Wissenschaft und Theologie miteinander vermischen. Und an dieser Stelle bewegen wir uns in einem Grenzbereich. Und das ist etwas, was vielleicht etwas gefährlich ist. Aber wie ich bereits sagte, hinterlässt die wunderbare Schönheit der ganzen Theorie den stärksten Eindruck. Sie erklärt alles. Allerdings ist Schönheit etwa Gefährliches, auch in der Wissenschaft und insbesondere in der Kosmologie. Wenn wir uns die Geschichte der Wissenschaft anschauen, gab es auch andere Kosmologien, die wunderbar und schön waren. Denken Sie etwa an die Geschichte von der Erschaffung der Erde in sechs Tagen, ist das nicht eine wunderbare Kosmologie? Ja, das ist sie. Und trotz der Schönheit dieser Geschichte hat nie jemand so richtig daran geglaubt, zumindest nicht in der Wissenschaftsgemeinschaft. Und denken Sie an das wunderbare Ptolemäische System mit der Harmonie der sich drehenden Sphären und Kristallsphären, das ungefähr 1000 Jahre lang allgemein anerkannt war. Das war auch sehr schön. Aber auch daran glauben nur wenige Menschen, mit Ausnahme natürlich solcher, die an Astrologie glauben. Und das sind vielleicht mehr, als die, die an die Wissenschaft, an die Astronomie glauben. Aber die befinden sich gewissermaßen extra muros von uns, sie gehören nicht zur Wissenschaftsgemeinschaft. Der Grund dafür, dass diese wunderschönen Kosmologien nicht mehr anerkannt werden, ist doch wohl, dass sie nicht mit unseren Beobachtungen übereinstimmen. Denn Wissenschaft ist letzten Endes empirisch, im gewissen Maße empirisch. Wir haben wunderbare Theorien, über die wir so viel gehört haben. Aber liegt auch empirische Evidenz vor? Und wie passt sie zu den Theorien in diesem Bereich? Wir haben gehört, dass es überzeugende Beweise für die Urknall-Kosmologie gibt. Und wir haben gehört, dass in einigen Fällen in wenigen Monaten überzeugende Beweise zu erwarten sind. Aber lassen Sie uns ein wenig betrachten, wie all das … in welchem Umfang die Beobachtungen die Urknall-Theorie unterstützen. Mein allgemeiner Eindruck ist, dass alle wirklich guten Beobachtungen den Urknall unterstützen und alle schlechten Beobachtungen dem widersprechen. Was aber ist dann die Definition einer guten Beobachtung? Es ist eine Beobachtung, die den Urknall bestätigt, und die Definition einer schlechten Beobachtung, einer uninteressanten Beobachtung, ist dann eine, die den Urknall in Schwierigkeiten bringt. Wir haben von diesen wunderbaren Modellen gehört. Die Grundlage der Urknall-Theorie ist ein homogenes Modell, das von der allgemeinen Relativitätstheorie abgeleitet wurde. Die erste Frage lautet deshalb: Ist das Universum wirklich gleichförmig? Ist es isotrop? Betrachtet man den Sternenhimmel bei Nacht, sieht man etwas, das ganz und gar nicht uniform ist (Kann ich bitte das erste Dia haben?). Aber das ist nur eine lokale Anomalie. Das ist nur etwas, das sich hier in unserer direkten Nachbarschaft abspielt. Und auch, wenn man einen Blick auf die Galaxie, unsere Galaxie wirft, hat man nicht den Eindruck von einer gleichförmigen Verteilung von Materie. Aber auch das ist eine lokale Anomalie. Wenn wir uns weiter hinaus bewegen, sollten wir nach unserer Theorie in der Lage sein, eine einheitliche Theorie der Homogenität anzuwenden. Das heißt, dass solche Inseln im Weltraum homogen verteilt sein sollten. Nein, das ist nicht so, weil die Galaxien in Gruppen von Galaxien zusammengefasst sind, in Galaxiehaufen, und diese Haufen sind ebenfalls nicht homogen verteilt. Und sie bilden Galaxiensuperhaufen. Und dann hört unsere Information auf, weil, wenn wir zu den noch größeren Größen gehen, wissen wir rein gar nichts mit Gewissheit und aus Beobachtungen. Kann jemand den Diaprojektor, den Projektor hier einschalten? Dies hier ist eine grafische Darstellung von experimentellen Beobachtungsergebnissen von DeVancouleurs – die Korrelation zwischen maximaler Dichte und Radius einer Sphäre. Und das hier repräsentiert Galaxien, die durchschnittliche Dichte darin liegt bei circa 10^-23. Das hier sind Galaxiengruppen und Galaxienhaufen. Und das hier ist die größte messbare Einheit, also ein Super-, Superhaufen von Galaxiensuperhaufen, wie hier. Und Sie sehen, dass wir eher eine Hierarchie von immer geringer werdenden Dichten haben, wenn wir in sehr große Regionen hinausgehen. Hier sind wir ungefähr bei 10^26 cm, und der Hubble-Radius, der Radius des Universums, der mit 10^28 angegeben wird, ist noch einige oder zwei Größenordnungen entfernt. Und über diese Region wissen wir aus galaktischen Beobachtungen noch gar nichts. Wir wissen nicht, wie homogen sie ist. Es ist durchaus möglich, dass weiter draußen eine einheitliche Dichte besteht, die bei rund 10^29 liegt. Das ist, glaube ich, die Zahl, die Professor Dirac nannte. Wenn man allerdings, ohne einer beobachtbaren Tatsache zu widersprechen, die Extrapolation an dieser Stelle fortsetzt, landet man in dieser Entfernung bei 10^-34, 10^-32, also einer drei- bis vierfacher Größenordnung unter diesem Wert. Wir haben hier also offenbar eine Amplitude, über die uns die Beobachtungen nichts erzählen. Daran ist nichts auszusetzen. Wir können nicht sagen, dass die Uniformitätsvorstellung des Urknalls falsch ist. Aber wir können auch eine solche Lösung akzeptieren. Und vielleicht sollten wir uns dafür interessieren, zu welchem Ergebnis wir kommen, wenn wir der anderen Alternative Aufmerksamkeit schenken. Das heißt also, dass die Homogenität im sehr großen Maßstab, also die Homogenität des Universums oder der Metagalaxien oder des Teils der Galaxie des Universums, den wir hier erforschen, nicht durch Galaxienbeobachtungen bestätigt ist. Was ist der Hauptbeleg für diese Homogenität? Nun, das ist das wichtigste Phänomen, das in den letzten Jahren in der Astrophysik entdeckt wurde, nämlich die Schwarzkörperstrahlung, die vollkommen isotrop ist. Und das beweist, dass das Universum insgesamt vollkommen isotrop sein muss. Das stimmt mit der Urknalltheorie überein, und das ist tatsächlich das stärkste Argument, das es gibt. Soweit ich weiß, ist es auch das einzige Argument, das es gibt. Oder vielleicht sollte ich sagen, das es gab. Denn vor einem Jahr ist etwas sehr Bedauerliches passiert, als sich nämlich herausstellte, dass diese Strahlung nicht isotrop ist. Natürlich könnte das auf einer lokalen Anomalie beruhen. Aber auch, wenn man die Effekte der Galaxienrotation berücksichtigt, erhält man immer noch eine enorme Anisotropie in der Größenordnung einer Geschwindigkeit von 800 bis 1000 Kilometern pro Sekunde. Und auch, wenn man dann die Bewegung unserer Galaxie im Verhältnis zu anderen Galaxien im Virgo-Galaxienhaufen, welches die größere Einheit ist, berücksichtigt, erhält man keine bessere Isotropie. Es muss also eine noch größere Einheit geben, in der diese Anisotropie verursacht wird. Ich bin also überhaupt nicht sicher, ob wir uns darauf verlassen können. Dann kommt die Hubble-Expansion ins Spiel. Die Urknall-Theorie besagt, dass alles in einem einzelnen Punkt kondensiert war und die Galaxien von dort in alle Richtungen ausgezogen sind. Das stimmt zumindest in dem Maße, dass es eine Hubble-Expansion gibt und die Galaxien sich nach außen bewegen. Und dieses Diagramm zeigt das Verhältnis zwischen dem Abstand, der anhand der korrigierten, offensichtlichen Größenordnung der Galaxien gemessen wurde, und dies ist die Geschwindigkeit. Und man sieht, dass diese Punkte sehr gut auf eine Gerade passen, so, wie sie es laut Urknall-Theorie sollten. Sie sollten alle auf einer geraden Linie liegen, und natürlich gibt es auch Beobachtungsfehler, weil diese Messungen schwierig vorzunehmen sind. Wenn wir allerdings die einzelnen Beobachtungen hier nehmen – wir haben also den Abstand und die Geschwindigkeiten – könnten wir von dort ein Diagramm konstruieren, wie sie sich unter der durchaus angemessenen Annahme bewegt hätten, dass sie ihre Geschwindigkeit nicht verändert hätten. Das hier ist der Abstand von uns und das ist die Zeit. Und Sie sehen, wenn man in der Zeit zurückgeht, kommen sie alle näher zusammen. Jetzt wird jeder einzelne Punkt hier für eine solche Gerade verwendet und hier treffen sie zusammen. Es besteht also kein Zweifel, dass sich unsere Metagalaxie in der Gegenwart ausdehnt. Es stellt sich jedoch die Frage, ob sich diese Expansion notwendigerweise vom Urknall hier ableiten lässt? Das ist durchaus möglich. Man kann das nicht ausschließen, weil dies hier sehr gut auch Beobachtungsfehler sein könnten. Es kann durchaus sein, dass sich alles von einem einzigen Punkt hier abgeleitet hat, von dort ausgeht und sich dann wie hier ausgedehnt hat. Und die minimale Größe, die man hier sieht, kann sehr gut durch Beobachtungsfehler entstanden sein. Allerdings können wir diese Schlussfolgerung nicht auf Beobachtungen zurückführen. Wir können schlussfolgern, dass die Metagalaxie einmal wesentlich kleiner war als heute, also zur Hubble-Zeit, vor zehn Milliarden Jahren oder so, ungefähr ein Zehntel oder weniger davon ausgemacht hat. Es könnte Null gewesen sein, es könnte ein einzelner Punkt gewesen sein, es könnte aber auch viel größer gewesen sein. Das heißt also, dass wir bei dem Versuch, aus Beobachtungen einen früheren Zustand unserer Metagalaxie zu rekonstruieren, im Urknall-Modell enden können, aber hiernach auch in einem drastisch anderen Bild landen könnten. Wir haben hier den Hubble-Radius, die Hubble-Dichte und so weiter und so fort. Und hier ist das Beta, das ist die Geschwindigkeit, der verschiedenen Galaxien, die gemessen wurden. Und die Galaxien, deren Rotverschiebung man gemessen hat, weisen größtenteils eine Lichtgeschwindigkeit weiter unter 0,3 auf. Das ergibt eine Größenordnung von 3x10^27, wenn wir den Hubble-Radius von 10^28 zugrunde legen. Professor Dirac hat ein Modell vorgestellt, in dem er, wie er sagte, speziell den Teil des Universums beschreibt, der mit einer Geschwindigkeit von weniger als der Hälfte der Lichtgeschwindigkeit zurückgeht, die wir hier annehmen können. Und hier können wir von 0,4 als ungefährem Durchschnitt ausgehen. Ich sage das nur, um zu zeigen, wo man landet, wenn man das weiterverfolgt. Wenn man die gesamte Restmasse der Metagalaxie hier und die Restmasse der Energie nimmt und mit dem Quadrat der Lichtgeschwindigkeit multipliziert, was 483 ergibt – die Einheiten sind 10^70 erg. Das sind rund 5%. Also weist der uns bekannte Teil des Universums, den wir mit einem gewissen Maß an Sicherheit beobachtet haben, eine kinetische Energie von rund 5% – etwas abweichend hier – der Restmasse auf. Also muss von irgendwoher eine Energie in die Metagalaxie einströmen, die ungefähr 20% ergibt und die, sofern wir das konstruieren können … ich habe nicht so viel Zeit, ich merke die Zeit verrinnt sehr schnell ... Dies ist eine Tabelle dazu, was wir hier vorfinden. Interessant ist, dass wir hier die Mindestgröße der Metagalaxie sehen, und was interessant ist, dass wir uns auch bei der Mindestgröße hundertfach außerhalb der Schwarzschild-Grenze befinden, was bedeutet, dass die Berichtigung um den Effekt der allgemeinen Relativität nur 1% beträgt. Was bedeutet das? Es bedeutet, dass wir bei unseren Untersuchungen der Galaxie natürlich in unserer unmittelbaren Nachbarschaft Effekte der allgemeinen Relativität gemessen haben. Wenn wir das Verhalten der Galaxie untersuchen, wendet niemand von uns die allgemeine Relativitätstheorie an. Alle Bewegungen dort können verwendet und mit klassischen Techniken berechnet werden. Wenn wir weitergehen, sehr viel weitergehen, können wir, sobald wir uns weit von der allgemeinen Schwarzschild-Grenze entfernt haben, mit einem hohen Maß an Sicherheit klassische Mechanismen einsetzen und die euklidische Geometrie anwenden. Somit haben wir mit diesem Modell tatsächlich eine Berichtigung um die Effekte der allgemeinen Relativität von 1% und von 10, vielleicht 25% für die Effekte der speziellen Relativität. Sie sehen also, dass dies ein mögliches Modell ist, das, wie ich bereits sagte, gut mit den Beobachtungen, mit den Beobachtungsdaten der Urknall-Theorie vereinbar ist, soweit ich das beurteilen kann. Allerdings kommt jetzt noch etwas anderes hinzu. In der Astrophysik wurden so viele interessante Phänomene beobachtet. Und zu den spektakulärsten Ereignissen, zu den dramatischsten Dingen zählen die QSOs (Quasistellare Objekte), die Quasare. Die Quasare haben Geschwindigkeiten, Rotverschiebungen, die wesentlich höher sind als die der Galaxie. Unter der Annahme, dass die Quasare, die QSOs, eine Rotverschiebung aufweisen, die kosmologisch begründet, also auf den Urknall zurückzuführen ist, kann man von einem Punkt ausgehen, von 0,3 der Lichtgeschwindigkeit, 0,4 bis fast zur Lichtgeschwindigkeit. Man hat Rotverschiebungen von bis zu 2 oder 3 oder sogar darüber. Die entscheidende Frage ist also, ob die Rotverschiebungen der QSOs kosmologisch bedingt sind oder nicht. Die Rotverschiebungen, die QSOs, sind ein sehr, sehr interessantes, sehr faszinierendes Untersuchungsobjekt. Hier habe ich eine kurze Übersicht über ihre Eigenschaften. Sie sind in der allgemeinen kosmologischen Diskussion nicht wirklich gut bekannt. Der Grund dafür ist ganz einfach der, dass sie für die Urknall-Kosmologie sehr unangenehm sind. Es gibt keine auf der Hand liegende Erklärung dafür und sie verursachen erhebliche Schwierigkeiten. Die QSOs repräsentieren enorme Energiefreisetzungen – in der Größenordnung der Annihilation einer Sonnenmasse pro Jahr und zum Teil sogar darüber. Sie weisen sehr große Rotverschiebungen auf und die kontroverse Frage lautet, ob diese Rotverschiebungen kosmologisch bedingt sind oder durch andere Mechanismen verursacht werden? Und dann sollten wir hier speziell beachten, dass sich einige QSOs in der Nähe von Galaxien befinden und in bestimmten Fällen die gleiche Rotverschiebung aufweisen wie die Galaxie. Aber es gibt viele Fälle und zweifelsohne sehr überzeugende Belege für QSOs in der unmittelbaren Nähe von Galaxien, die ganz andere Rotverschiebungen aufweisen. Dies wurde durch Messungen von Margaret Burbidge nachgewiesen. Die Burbidges haben sehr stringente Belege für nicht-kosmologische Rotverschiebungen geliefert. Sie sind in Pasadena tätig und haben sehr schöne Messungen vorgenommen. Es muss also Mechanismen geben, durch die diese QSOs so nah an die Lichtgeschwindigkeit herankommen, ohne dass diese Geschwindigkeiten kosmologisch … durch den Urknall erzeugt wurden. Und man kann hier sehen, welche Anforderungen hier gegeben sind. Wenn man die enormen Energiefreisetzungen zugrunde legt, die gemessen wurden, und die Bedingung einführt, dass diese Energie in einer Richtung abgegeben wird, erhält man Werte bis zu diesen Geschwindigkeiten. Das ist eine der möglichen Erklärungen für die QSOs. Das bedeutet, dass die sehr hohen Geschwindigkeiten, die wir beobachten, nicht notwendigerweise kosmologisch bedingt sein müssen. Es gibt also noch weitere Mechanismen. Aber welche Mechanismen sind das? Welcher Mechanismus erzeugt die Energie für die QSOs? Wir erkennen direkt, dass die Kernenergie, die für die Energie der Sterne verantwortlich ist, bei weitem nicht ausreicht. Es gibt also drei Möglichkeiten. Wir müssen entweder ein neues physikalisches Gesetz erfinden, das uns diese enormen Energiefreisetzungen erklärt, womit wir uns wahrscheinlich ein bisschen schwer tun werden. Dann bleiben noch zwei weitere Alternativen übrig. Eine heißt Gravitationsenergie und die andere Annihilation. Was die Gravitationsenergie betrifft, sind zahlreiche Theorien entwickelt worden, nach denen schwarze Löcher diese riesigen Energiefreisetzungen produzieren. Wenn man allerdings versucht, eine Theorie für die Beschleunigung der QSOs zu konzipieren, stellt man fest, dass man sich in sehr ernsthafte Schwierigkeiten begibt. Und dann gibt es noch die Möglichkeit der Annihilation als Energiequelle. Und damit kommt eine interessante Frage ins Spiel, nämlich: Gibt es im Universum Antimaterie? Gibt es im Universum eine Symmetrie von Materie und Antimaterie? Darüber wurde bereits viel spekuliert. Und es war Oscar Klein in Stockholm, der vor zwanzig Jahren systematische Bemühungen unternommen hat, ein kosmologisches Modell mit einer Symmetrie von Materie und Antimaterie zu entwickeln. Dieses Modell hat viel Widerspruch gefunden, der im Wesentlichen damit zusammenhängt, dass bei einer Mischung von Materie und Antimaterie im Universum eine enorme Gammastrahlung vorhanden sein müsste und eine sehr schnelle Annihilation von allem erfolgen würde, so dass dieser Zustand nicht lange Bestand haben könnte. Das alles beruht allerdings auf der Annahme, dass es ein homogenes Universum gibt, dass es keine separaten Regionen gibt. Und das ist eines der wirklich spektakulären neuen Ergebnisse der Weltraumforschung, dass sich nämlich die Merkmale des Weltraums drastisch verändert haben. Und ich spreche hier nicht über den vierdimensionalen Raum in den Urknall-Theorien, sondern ich spreche über den Weltraum, der mit Weltraumtechnik erforscht wurde. Vor 50 Jahren ging man davon aus, dass alles außerhalb der Himmelskörper ein Vakuum ist. Dann wurde festgestellt, dass es ein interstellares Medium, ein interplanetarisches Medium gibt. Darüber haben wir bereits einen Vortrag gehört. Und das führte natürlich zu der Schlussfolgerung, dass es sich dabei um ein kontinuierliches Medium handelt. Und natürlich lag die Annahme nahe, dass auch in unserer unmittelbaren Nachbarschaft, im Umfeld der Erde, in der so genannten Magnetosphäre und im interstellaren, interplanetarischen Raum, der so genannten Heliosphäre oder Solarmagnetosphäre, ein homogenes Medium besteht. Das hat sich aber nicht bestätigt. Das ist eines der überraschendsten Ergebnisse der Weltraumforschung. Wenn man das Magnetfeld als Funktion des Erdradius nimmt und das Magnetfeld dann mit einem Raumflugkörper misst, sollte es als r^-3 zerfallen. Und genau das geschieht bis in rund 10 Erddurchmessern oder so ungefähr. Dann wechselt es plötzlich in die entgegengesetzte Ladung und entwickelt sich in dieser Richtung weiter. Und das ist eine sehr spektakuläre Veränderung. Sie erfolgt in einer einige Zyklotron-Radien entfernt liegenden Region. Es ist ein plötzlicher Magnetisierungswechsel. Die Magnetisierung hier verläuft in diese Richtung und hier in die andere Richtung. Die Magnetisierung des Weltraums ist also nicht kontinuierlich, sondern diskontinuierlich. Das bedeutet, dass wir hier eine Stromschicht haben. Solche Phänomene wurden nicht nur an den Magnetpolen festgestellt, sondern auch im Magnetschweif der Erde, in der Sonnenäquatorebene. Es ist ein nach außen gerichtetes Magnetfeld, das sich plötzlich umkehrt. Und auch dort gibt es wieder eine dünne Stromschicht. Sie wurde auch in der Magnetosphäre des Jupiters usw. gefunden. Es gibt ein halbes Dutzend Orte, wo wir dies beobachten. Das heißt also, dass der Weltraum in unserer benachbarten Umgebung eine Zellenstruktur aufweist. Es gibt Zellen mit der einen Magnetisierung und Zellen mit der anderen Magnetisierung. Und es handelt sich um ziemlich wasserfeste Trennflächen. Und das bedeutet, dass wir einen Weltraum haben, der nicht mehr gleichförmig ist. Er besteht aus mehreren Zellen, die durch Stromschichten getrennt sind. Und an zwei Seiten der Stromschicht bestehen unterschiedliche Magnetisierungen, unterschiedliche Drücke, unterschiedliche Dichten und vielleicht auch unterschiedliche Materien, unterschiedliche Arten von Materien. Solche dünnen Schichten möchte ich Ihnen hier zeigen. Dies ist das interplanetarische Medium, dies ist die Erde. Und die Erde hatte ein Magnetfeld wie dieses hier. Das war vor 50 Jahren, als die Raumladung, die Weltraumforschung ihren Anfang nahm, hatten wir dieses Bild einer neutralen Hülle. Das hier ist dann eines der späteren Modelle. Dies ist die Erde und man sieht zahlreiche solcher Schichten. Der Weltraum unterscheidet sich enorm von dem, was er früher war. Und diese Grenzflächen konnten von der Erde aus nicht entdeckt werden und wurden nicht entdeckt. Sie können erst entdeckt werden, wenn ein Weltraumfahrzeug sie durchdringt. Selbst ganz in der Nähe gibt es keine Anzeichen dafür. Wir wissen demzufolge, dass der Weltraum diese Struktur aufweist. Wie weit? So weit, wie die Weltraumfahrzeuge reisen. Und was ist dahinter? Keiner weiß es. Wir können nicht beweisen, dass weiter draußen die gleiche zellartige Struktur vorherrscht. Es könnte durchaus sein, dass dort ein wunderbar homogenes Muster herrscht. Aber die Grenzen werden durch die Entfernungen gesetzt, die mit der Weltraumtechnik erreicht werden. Deshalb ist es vielleicht einfacher, davon auszugehen, dass dies eine allgemeine Eigenschaft des Weltraums ist, dass er immer und überall diese Struktur aufweist und dann (die Zeit verrinnt)... Wir sehen hier das Modell einer Schicht, die Materie und Antimaterie voneinander trennt. Wir sind von der Annahme ausgegangen, dass es im interplanetarischen Raum, interstellaren Raum eine Region gibt, die Materie enthält, und eine andere Region, die Antimaterie enthält. Und dann gibt es eine Grenzschicht, wo die beiden in Kontakt sind. Und hier erzeugen sie Hochenergieteilchen. Und man kann sehen, dass die Anzahl solcher Teilchen, die produziert werden, sehr gering ist. Und man kann nicht darauf hoffen, dass man es aus der Entfernung entdecken kann. Und die Entfernung, auf die sich eine solche Leidenfrost-Schicht erstreckt, braucht nur ein Hundertstel oder ein Tausendstel oder ein Zehntausendstel eines Lichtjahres zu sein. So können wir sehr wohl davon ausgehen, dass, wenn wir eine Zellenstruktur annehmen, die Vorstellung möglich ist, dass das Universum in solche Regionen unterteilt ist. Und das ist wichtig, weil es offensichtlich kosmologische Konsequenzen hat, und zwar einige, auf die ich hier nicht näher eingehen werde. Aber ich möchte noch sagen, dass sich hiermit, mit der Idee eines symmetrischen Universums, einige der Beobachtungen erklären lassen, die unangenehm für die Astrophysik und speziell für die Kosmologie sind, nämlich die enorme Freisetzung von Energie in den QSOs, die so genannten Gammablitze, eine Vielzahl der Röntgenstrahlung usw., aber das würde uns jetzt hier zu weit führen. Ich danke Ihnen.

Alfvén Talks About Theory and Observations.
(00:07:47 - 00:11:58)

Recent Lindau Lectures (2004-to date) and Cosmology
During the last decade, the number of talks touching upon cosmology has increased steeply, as has the importance of the field of astro-particle physics. Consequently, almost every talk on particle physics also features some part relevant to cosmology. This development reflects a fundamental change in the scientific nature of cosmology, which is becoming less speculative and more precise. Looking forward, this should set the course for more Physics Nobel Prizes to come.

As mentioned above, the 2006 Nobel Prize in Physics was awarded to two of the main investigators of the COBE satellite mission “for their discovery of the blackbody form and anisotropy of the cosmic microwave background radiation”. John Mather, responsible for the instrument that measured the blackbody form of the background radiation, lectured in 2010 about “The History of the Universe, from the Beginning to the Ultimate End”. Among many other things, he tells the amusing story of Einstein’s cosmological constant, the (in)famous gamma, which Einstein put into his equations to explain a static Universe. Today gamma is used to represent dark energy and to motivate the accelerated expansion of the Universe. This is also dicussed by Mather, who, in the spirit of a fortuneteller, even shows a picture of the three 2011 physics Nobel Laureates, Saul Permutter, Brian Schmidt and Adam Riess!

John Mather (2010) - The History of the Universe, from the Beginning to the Ultimate End

I would like to tell you as a thespian the entire history of the universe from the beginning to end, I have only half an hour so it will be brief. So thank you for inviting me to come and telling you this amazing story. Astronomers have actually made tremendous progress on this and we are still guessing about many of the things I'm going to tell you. Many of the things are probably not true, but you will find out later, as we all will, as this comes to be discussed. So astronomers are now working on this question of how did we get here. Just as Jack and Ada were talking about, we are very interested in the origins of life. So astronomers have the easy part, I think, we have the challenge of describing the physical universe that leads to the conditions where life could exist here on the planet earth. We have a story about the Big Bang, we have a story about how galaxies are made from the primordial material. How galaxies change with time, how stars are made within galaxies, how planets can be made around stars. And eventually, how the conditions for life may come to exist here and perhaps many other places. So we are as astronomers working on the physical universe part and then we say, okay, biologists, you have the next step. So first I want to show you about the expanding universe. Back in 1929 this chart was made by Edwin Hubble. He plots here each dot as a galaxy. A galaxy as you know is 100 billion stars orbiting around each other. On the horizontal axis is his estimated distance, on the vertical axis is the speed that he measured from the Doppler shift. So the immediate conclusion from this chart in 1929 is that the universe is expanding. The most distant galaxies are going away from us at speeds approximately proportional to the distance, and that means that you can calculate the approximate age of the universe by dividing the distance by the speed. So in those days he had wrong estimates for the distance, so we had a very confusing picture for a time, and the universe appeared to be younger than the oldest objects in it. So that mistake took several decades to correct, but at any rate it was corrected. Now we have this story which we call Hubble’s law, it’s not just a theory, it´s the law. And, by the way, also in 1929 it was discovered, that the worldwide economy could collapse. So it’s a good thing to remember that that’s the year we also discovered that the entire universe could expand. In 1929 this was a very large surprise. I will show you pictures of some of the people who thought about this. In the middle there you see Albert Einstein, and he is the man who told us that space and time are not absolute but are mixed together in order to have special relativity. Special relativity is the set of formulae that explains how it is possible that the speed of light would be a constant regardless of whether we are moving or not. So it turns out that’s the unique solution to that particular problem. In 1916 he generalised this theory to include the forces of gravity and he said that space and time are curved by the action of gravitation. And this then gave us for the first time the ability to calculate the force of gravity across an infinite universe, because his equations are differential equations and not just what Isaac Newton had given us. When Isaac Newton thought about this problem of gravitation across the universe, the result was infinities. So it was not possible to come to a definite conclusion, but Isaac Newton already was aware that there was a problem. In 1929 this was still a surprise. Now I want to tell you about the work of the two people here on the left, Alexander Friedmann in 1922 applied Einstein’s equations, and he said “I think the universe is expanding”, and he gave us the right equations for how to describe it. In 1925 he died, so he didn’t get to see that he was correct. In 1927 George Lemaître here, who is shown next to Einstein, wearing his Belgium priest´s collar, who was a mathematician and a Belgian priest, derived the same equations and said “I call this the primeval atom”. And in both cases Einstein said this is mathematically correct but physics is abominable. So he was quite sure, Einstein was, that the universe could not possibly be expanding. How would he know? Well he asked his friends and the friends said “everyone knows the universe is not expanding”. So Einstein had included in his equations a constant of integration, which we now call the Lambda constant, and his idea was that the Lambda constant was a force of repulsion, which would balance the force of contraction that gravitation would produce. So Einstein was greatly surprised in 1929 to find that his constant was not needed in the expanding universe, and he had to apologise for being rude, as well as for making a great mistake, which he supposedly called his greatest blunder. So that’s in the early part of the 20th century. In the middle of the 20th century George Gamow, who is shown here, was a Ukrainian physicist who came to the United States to work. After the war was over and people know about nuclear reactions much more, they were able to calculate the processes that should have occurred in the early universe. So they said “what if we calculate the properties of the Big Bang?”. So they were able to say and the lifetime of the neutron was known”, so it was realised that the primordial material should make hydrogen and helium in the first few minutes. And then after that the neutrons would be gone, so the cosmic abundance of hydrogen and helium was set in the first few minutes of the expanding universe. He also said the universe should be filled with radiation, cosmic microwave radiation, which would have a temperature of a few degrees, about five degrees above absolute zero. And this was not possible to measure at that time. It would have been a very difficult measurement. Now we know that it´s possible for a determined high school student to measure it with equipment from television receivers. In 1948, when they calculated these things, it was not possible. They tried quite hard but it was not measured, until it was discovered in 1965 by two of the Nobel prize winners, who actually are here today, Arnold Penzias and Bob Wilson, and so the discovery of this cosmic radiation was a tremendous surprise as it turns out, even though some people had already been thinking about it decades before. I’ll point out that this radiation is incredibly bright, although it’s difficult for us to measure in that order of magnitude it´s very bright and in fact if you tune your television receiver between channels, about 1% of the snow flakes you see on a TV screen come from the cosmos, come from the Big Bang radiation itself. So if you knew what you were looking at you'd say “aha now I understand the Big Bang!”. I have two other pictures here. On the bottom on the left are Alpher and Herman. They were working with George Gamow and they were the ones who actually did these calculations in 1948. They are shown here as they appeared when they came to the launch of their satellite which made a more precise measurement and earned the Nobel prize. On the right hand side we have Sunyaev and Peebles, who are two modern theorists. This is a reminder that no theorist has earned a prize yet for the Big Bang, but many observers have now. I want to point out that a consequence of Hubble’s Law, the straight line on his graph, is that there is no measurable centre or edge of the universe. You might say “well, I see all the galaxies are going away from us here on earth, doesn’t that mean that we are at the centre?”. And the conclusion of the calculation is here, each of these astronomers would conclude that he or she is at the centre of the universe. Therefore there is no centre that we can determine. Astronomers have of course been very busy looking for a centre or an edge for many generations and we have not found one. There is of course a practical edge. You cannot see past the time that we’ve been allotted, if we have existed here for 13.7 billion years, that means you can see 13.7 billion light years in every direction and that’s as far as we can see, because we are looking back towards the beginning by looking at most distant things. We look back in time as we look at distant objects. So the practical fact is, there is a small part of the universe we can see, and there is probably much more universe beyond that that we cannot see, because we have not existed long enough. So to wave my arms very vigorously we imagine there was some primordial material. Possibly infinite in extent, possibly not. Some small volume of it began expanding by some strange and bizarre quantum mechanical process. One of the great challenges of modern physics is to understand this initial period of time when we believe that quantum mechanics and gravitation must be merged into some kind of quantum gravity theory. And we do not have yet a successful theory. Many people are still working on it. At any rate not only did material start flowing away from other material in the expansion but we picture that space itself has been expanding. Now space is not necessarily a substance we do not know what space or time actually are for themselves, but perhaps when we get a theory of quantum gravity, then we will have a better idea. At any rate this early universe began expanding exponentially rapidly. It doubled in size about a hundred times in a very, very tiny instant of time and kicked off the expanding universe of today. Now we say “well, we look around and we do not see our local universe expanding”. The solar system is not expanding, the galaxy is not expanding, nearby galaxies are not all of them going away. So what is it that has made possible the non-expansion of our local part? How can we exist if the whole universe is expanding? So the idea is that some parts of the early universe were more dense than others, and they would have enough self attraction through their own gravitational forces to combat the expansion rate. And so this is the story, the initial material had to be slightly inhomogeneous, some parts denser than others, so that the gravitation could stop the expansion in those volumes and fall back and make stars and galaxies. Of course after a star can be born, then we can have the nuclear reactions inside this star that produce the other elements. I told you earlier, that we had only hydrogen and helium from the Big Bang, so where did the chemical elements of life come from? They come from stars that have, a previous generation of stars that have burned their nuclear material and exploded and distributed the chemical elements back into space. So we ourselves are already recycled material from inside stars. If you look in the mirror in the morning, and you see the chemical elements of life, you have to remember, they were not there in the Big Bang. They were formed already inside stars. So you can be doing your cosmology every morning when you are doing your cosmetics. So I have a short chart to summarise the early history of the universe, we have a picture of the Big Bang as measured with microwaves. We have an idea that galaxies are formed by small objects merging together to form large ones. Just as small streams flow together to form large rivers. We have a picture in the lower left of our nearest large neighbour galaxy, the Andromeda nebula, which you can see with binoculars quite nicely. It’s about as big as the full moon but not nearly as bright. So in the beginning we have a story which was – the Big Bang by the way was renamed the "Horrendous Space Kablooie" by our American cartoonist of Calvin and Hobbes. So I like the name actually better than the “Big Bang”, because it suggests that there is something strange that happens about space itself. So it´s compatible with the idea that there’s an inflation and space itself may be expanding. Since we don’t know what space is, that’s a little bit tricky, but it’s a different point of perspective. So the original material gave us the chemical elements of hydrogen and helium, it started off the universe with the expansion, it gave us a dark matter, which is important. We would not exist without dark matter. And that all happened 13.75 billion years ago with a very small error bar. We are now in the era of precision cosmology. So I mentioned earlier that the helium nuclei, that were made in the first few minutes, then the universe expanded and cooled when it was about 389.000 years old, the electrons found the atomic nuclei and the primordial gases material became neutral. Before that it was opaque as a plasma, and after that it was neutral, and the photons of the background radiation could propagate to us. The universe became transparent. So then hypothetical events on the chart, the first generation of stars, we imagine they were very different from the sun, and much more massive, and that they would burn out very promptly in a few million years. Then galaxies were formed and then at the end, here I point out, that about 5 billion years ago the universe began to accelerate again and to go faster and faster. This is a tremendous surprise of the last decade of astronomy, and it tells us a little bit about what may happen at the end of the universe. We see now that the universe is accelerating and going faster and faster, that means that in a number of billions of years, the distant galaxies will be so far away that most of them will be invisible to us. Their velocities of recession will continue to increase and in 100 billion years or so almost all of them will be invisible. Not only will the stars go out, but the galaxies will be too far away for us to see. So we have a few billion years before we have to move. This chart illustrates very briefly why we talk so much about the microwave background radiation. It is the strong remnant of the primordial material, it is a material that we can measure very precisely in every direction, and at the right hand side of the picture is one of the space probes that is out there currently measuring the radiation. And the properties of this microwave radiation turn out to be extremely informative. I don’t have time to tell you details. I do want to show you one picture of the first satellite that was built to measure this radiation: this was the cosmic background explorer or COBE Satellite. At least for me the idea came from the failure of my thesis project, which was an attempt to measure the cosmic background radiation with a balloon payload. The balloon payload failed for a number of reasons, and I concluded that this subject was much too difficult, I would leave the subject. But a few months later NASA solicited proposals for satellite missions, and I said to my advisor We had no idea how hard that project would be, but here it is, it was launched fifteen years later. And here it is as an artist would see it in space. It carried instruments to measure the microwave radiation and to look for the light of the first galaxies. So I’ll show you just a few things from it. Here is the spectrum of the microwave radiation. The frequency of the waves, the cycles per centimetre on horizontal axis, brightness in the vertical direction. You see all the little boxes are exactly on the curve as it should be if the Big Bang theory is correct. So we received a standing ovation when we showed this to the astronomical society. I was a little surprised, because I knew this was the right answer. The astronomers were assembled. They had been quite worried that the Big Bang theory might not have been correct. So this was a tremendous relief for people. Now this little picture is in all the text books. Our second discovery was this set of maps of the sky, the one to focus on is the Ellipse at the bottom of the picture. This is a map after taking out all of the local effects that we know and the blobs, the objects on the map, are primordial temperature variations. The tiny variations of the temperature of the microwave radiation from place to place. As it turns out the cold regions on this map are the ones which are more dense in the early universe, and those are the volumes which are going to develop into galaxies and clusters of galaxies. And the bright regions, the pink ones are the ones which are going to turn out to be empty, where the gravitation will pull the material away. Stephen Hawking saw this picture. He said it was the most important scientific discovery of the century if not of all time. I was appreciative of his good words but of course I think there have been some other discoveries as well. So on the other hand, if those blobs were not there, we would not exist, so maybe it´s important. Years have passed, we have now a great deal of activity in characterising the statistics of those objects, that you see in those maps. And this is a theoretical curve which has been used and interpreted to determine many cosmological parameters down to the percent level of accuracy. I don’t have time to explain the details, but I just wanted to show that there’s a tremendous amount that can be learned from the shapes of those objects on the microwave map. Now time is short, so I will not actually give you all the details of anything else either. This is a picture of three people who discovered that the universe is accelerating, and we named the cause of this acceleration Dark Energy. Now that means that we do not have any idea what it is. So in a few years maybe somebody will have the correct description, but right now it´s only a name. There are a few mysteries remaining for us, astronomers would say we know that there is only matter in the universe. There are no anti-matter galaxies. Particle physicists want to know why this is true. I told you there is dark matter out there, there´s a lot more of it than there are atoms and molecules. The question of what is the dark energy, what is it beyond, just a name? Everyone wants to know from astronomers, is Einstein right about relativity? And of course we are busy testing it but we are not there yet. And we would certainly like to answer the question of our own history. How did the earth come to exist and how did all those things come to be that we can live here? Are we the only living things in the universe? Is it possible, of course, in the remote possibility, that you could communicate with other living things and of course for our own history what would happen next? So astronomers are now pursuing the infrared region of observations in space. I will show you the project I'm currently working on. We would like very much to be able to study infrared radiation from outer space. And it’s a very difficult project because infrared does not come well through the earths atmosphere, and because telescopes emit infrared radiation of their own. So on the other hand, it´s interesting because of that same factor objects at room temperature emit infrared radiation. Your body is emitting about 500 watts of infrared radiation, as each of us are sitting here in the room. So the telescope we are currently building is called the James Webb Space Telescope and named after the man at NASA, who organised us to go to the moon, and did it successfully. This telescope is being now built by a partnership with a European and Canadian space agencies with my agency, NASA, in the United States. We are well along in the process of building it, which was started fifteen years ago. This telescope that you see here does not look like an ordinary telescope. It looks more like a solar energy concentrator. Actually think of it as a galaxy energy concentrator, bringing light from the distant universe to concentrate and be focused by the giant hexagonal parabolic mirror down into the instrument package. The large blue system that you see underneath is a umbrella, a sun shield to protect the telescope from the sun and the earth, and allow it to become cold. The telescope will operate at a temperature of about 40° Kelvin and it is also much larger than a rocket. You see that it is a structure, not just a tube, so I don’t have the video for you but it actually will unfold after launch from the Ariane 5 rocket. And we are hoping to launch it in 2014 with luck. So I’ll show you just a few of the scientific topics that we hope to address with it. I wanted to assure you that we are learning how to focus the telescope. the Hubble Space Telescope, as you all know, was imperfect when it was launched and it was repaired by astronauts. Our telescope is going to be much farther away, a million miles away from the earth and it cannot be fixed. So we have to get it right the first time, so we are practicing. We have this small model and then we will take the telescope that we will fly to this giant test chamber in Houston, Texas, where the Apollo astronauts actually want to practice being in a vacuum. A few things to illustrate about our scientific program. One of the remarkable discoveries is that as Einstein told us it would happen, gravitation can bend light. So you can barely see in the upper right corner of the picture that there is a pink arc and the pink arc is actually the image of a very distant galaxy that has been magnified and distorted by the gravitational field of these other galaxies that you see in the picture. So Einstein’s gravitation is helping us see even farther into the distant universe. We have the capability of understanding how galaxies were formed, not by watching them do this, but by simulating them. So in the lower right we see a computer simulation, that for a moment matches the picture of real galaxies They completely change their appearance as they merge together. By the way the Andromeda nebula is coming towards us and it is going to do that to our galaxy in about 5 billion years. We have these projects in front of us. We will watch stars explode occasionally. This is an image, on the right is an image of a star that will explode in the next few hundred thousand years quite nearby to us. On the left there’s a concept of how it may work. Anyway we have seen something like this happened. Well, this is a rare case but probably like the earliest stars in the universe as they explode. Once in a while a star blows up and has a jet of material that comes out and is aimed at us. This is a jet of material moving at nearly the speed of light, and once in a while, when it is aimed at us, we receive a burst of gamma radiation that lasts for about two seconds. And just in the last few years it was recognised that these are the sources. These are stars exploding at the edge of the universe and just happening to be aimed at us we can get these gamma rays. So all of these things are mysteries we will pursue to try to understand. Another closer target for us is the Eagle nebula. If we could lower the lights a little bit this would really help with these pictures. But in any way this is a very famous picture from the Hubble Space Telescope, it shows, where you see these beautiful images of a star forming region, stars have been born inside these dark clouds of material. And the Hubble Telescope even cannot see inside because the dark clouds of dust are opaque. Now if you can use infrared light, you can see through the dusty material inside and see where stars are being born these days. So we have a chance to learn much more about the formation of stars like the sun, as we look at clouds nearby where it is currently happening. It was mentioned earlier by Jack that we are now able to take pictures of planets around other stars, and we have a picture here that illustrates this. We have hundreds of targets eventually, maybe thousands, and the possibility, which I will now illustrate in the next chart, that we can learn about the chemistry of the atmospheres of those planets. The movie shows a planet going in front of a distant star, and you should imagine that a little bit of the starlight is going through the atmosphere of that planet on its way to our telescope. That means we can do spectroscopy, we can determine the chemical composition of the atmosphere of another planet by doing this. And we do not have to have a telescope that makes a separate image of this planet, we can have a telescope that just watches the change of light as the planet intercepts some starlight. So once in a while even the opposite occurs as well, the planet will be obscured by this star. And both of these have already been done with telescopes in space, with our new telescope we hope to do better. It is not probable that our telescope will be able to do this for an earth-like planet around a sun-like star, but for a future generation of observatory that would be built just for this purpose. We should be able to learn whether a planet around another star has an atmosphere like the earth with oxygen, and that would be a clue that there’s life. So there’s a little paperback book which has been published, that summarises or story, and it´s available from And of course there are plenty of websites that convey the general information of our story. So anyway, thank you very much for hearing the story of the universe and appreciating the mysteries that are still in front of us. Applause.

Ich würde Ihnen gerne als Darsteller die gesamte Geschichte des Universums vom Anfang bis zum Ende erzählen, dabei habe ich nur eine halbe Stunde, es wird also kurz. So, vielen Dank für die Einladung, hierher zu kommen und diese erstaunliche Geschichte zu erzählen. Die Astronomen haben tatsächlich enorme Fortschritte gemacht und viele Dinge, über die ich berichten werde, sind immer noch Vermutungen. Viele Dinge sind wahrscheinlich nicht wahr, aber das finden Sie später heraus, wir alle finden das heraus, wenn darüber diskutiert wird. Die Astronomen beschäftigen sich also jetzt mit der Frage, wie wir hierher kamen. Wie uns Jack und Etta berichtet haben, sind wir sehr an den Ursprüngen des Lebens interessiert. Astronomen haben dabei den leichteren Part, glaube ich, wir stehen vor der Herausforderung, das physische Universum zu erklären, das zu den Bedingungen führte, durch die Leben hier auf dem Planeten Erde entstehen konnte. Wir haben die Geschichte des Urknalls, wir haben die Geschichte über die Entstehung der Galaxien aus dem Ursprungsmaterial. Wie sich Galaxien mit der Zeit verändern, wie Sterne innerhalb der Galaxien entstehen, wie Planeten um die Sterne herum entstehen können. Und schließlich, wie die Bedingungen für das Leben hier und vielleicht an vielen anderen Orten entstanden sein könnten. So arbeiten wir als Astronomen am Teil mit dem physischen Universum und dann sagen wir, OK, jetzt seid Ihr Biologen an der Reihe. Als Erstes möchte ich Ihnen daher das sich ausdehnende Universum zeigen. Im Jahre 1929 wurde dieses Diagramm von Edwin Hubble angefertigt. Er stellt hier jede Galaxie grafisch als Punkt dar. Eine Galaxie besteht, wie Sie wissen, aus 100 Milliarden Sternen, die sich um einander drehen. Auf der horizontalen Achse liegt die geschätzte Entfernung, auf der vertikalen Achse die Geschwindigkeit, die er aus der Dopplerverschiebung abgeleitet hat. Aus diesem Diagramm von 1929 ergibt sich sofort der Schluss, dass sich das Universum ausdehnt. Die am weitesten entfernten Galaxien entfernen sich von uns mit Geschwindigkeiten, die beinahe proportional zur Entfernung sind, was bedeutet, dass man das ungefähre Alter des Universums berechnen kann, indem man die Entfernung durch die Geschwindigkeit teilt. Damals hatte er aber falsche Schätzungen der Entfernung, daher ergab sich für uns eine zeitlang ein sehr verwirrendes Bild und das Universum schien jünger zu sein als die ältesten Objekte darin. Es dauerte mehrere Jahrzehnte, diesen Fehler zu korrigieren, aber immerhin wurde er korrigiert. Jetzt gibt es also diese Geschichte, die wir das Hubble’sche Gesetz nennen, sie ist nicht nur eine Theorie, sie ist Gesetz. Und nebenbei, 1929 entdeckte man auch, dass die Weltwirtschaft zusammenbrechen könnte. Man tut gut, sich daran zu erinnern, dass dies das Jahr ist, in dem entdeckt wurde, dass sich das ganze Universum ausdehnen könnte. Ich zeige Ihnen Bilder einiger Leute, die sich damit beschäftigten. In der Mitte hier sehen Sie Albert Einstein, und das ist der Mann, der uns erzählte, dass Raum und Zeit nicht absolut, sondern miteinander vermischt seien, um spezielle Relativität zu ergeben. Spezielle Relativität ist ein Satz an Formeln, der erklärt, wie es möglich ist, dass die Lichtgeschwindigkeit eine Konstante bildet, egal, ob wir uns selbst fortbewegen oder nicht. Und es stellt sich heraus, dass dies die einmalige Lösung dieses speziellen Problems ist. dass Raum und Zeit durch die Wirkung der Schwerkraft gekrümmt seien. Und dies ermöglichte es uns zum ersten Mal, die Schwerkraft in einem unendlichen Universum zu berechnen, denn seine Gleichungen sind Differentialgleichungen und nicht nur das, was uns Isaac Newton gegeben hatte. Als Isaac Newton über das Problem der Schwerkraft im Universum nachdachte, war das Ergebnis Unendlichkeit. Daher war es nicht möglich, zu einer endgültigen Schlussfolgerung zu kommen, aber Isaac Newton war sich bereits darüber im Klaren, dass es ein Problem gab. Jetzt möchte ich Ihnen von der Arbeit der beiden Männer hier links berichten, Alexander Friedman wandte Einsteins Gleichungen 1922 an und sagte: Er starb 1925 und erlebt daher nicht mehr mit, dass er Recht hatte. der in seiner belgischen Priesterrobe neben Einstein steht, dieselben Gleichungen her und sagte: dies sei zwar mathematisch korrekt, aber Physik sei nun mal abscheulich. Er war sich also ziemlich sicher, Einstein meine ich, dass sich das Universum unmöglich ausdehnen könne. Wie kam er darauf? Nun, er fragte seine Freunde und seine Freunde sagten, jeder wisse, dass sich das Universum nicht ausdehnt. Daher führte Einstein eine Integrationskonstante in seine Gleichungen ein, die wir heute kosmologische oder Lambda-Konstante nennen, und seine Vorstellung war, dass die Lambda-Konstante eine abstoßende Kraft sei, die der durch die Gravitation hervorgerufenen Anziehungskraft entgegen wirken würde. Also war Einstein sehr überrascht, als sich 1929 herausstellte, dass diese Konstante im sich ausdehnenden Universum nicht nötig war, und er musste sich dafür entschuldigen, dass er so unfreundlich gewesen war, und dafür, dass er einen großen Fehler begangen hatte, den er angeblich seinen größten Schnitzer nannte. Das also geschah Anfang des 20. Jahrhunderts. Mitte des 20. Jh. war George Gamow, der hier gezeigt wird, ein ukrainischer Physiker, der zum Arbeiten in die Vereinigten Staaten kam. Nach Kriegsende wussten die Menschen weit mehr über nukleare Reaktionen und waren in der Lage, die Prozesse, die im frühen Universum stattgefunden haben sollten, zu berechnen. So sagten Sie: Sie konnten sagen, wir wissen, welche Reaktionen stattgefunden haben sollten, die Reaktionsrate der Neutronen mit den Protonen konnte geschätzt werden und die Lebensspanne des Neutrons war bekannt, so wurde klar, dass aus dem Ursprungsmaterial in den ersten paar Minuten Wasserstoff und Helium hervorgegangen sein sollte. Und danach wären die Neutronen verschwunden, und der kosmische Reichtum an Wasserstoff und Helium ergab sich in den ersten paar Minuten des sich ausdehnenden Universums. Er behauptete weiter, dass das Universum voller Strahlung sei, kosmische Mikrowellenstrahlung, mit einer Temperatur von ein paar Grad, ungefähr 5 Grad über dem absoluten Nullpunkt. Und das konnte zu jener Zeit nicht gemessen werden. Es wäre sehr schwer zu messen gewesen. Jetzt wissen wir, dass es für einen entschlossenen Gymnasiasten möglich ist, diese mit einer Ausrüstung aus Fernsehempfängern zu messen. Man gab sich alle Mühe, aber sie konnte nicht gemessen werden, bis sie 1965 von zwei der heute hier anwesenden Nobelpreisträger, Arnold Penzias und Bob Wilson, entdeckt wurde, und so war die Entdeckung dieser kosmischen Strahlung, wie sich herausstellt, eine Riesenüberraschung, obwohl einige Leute bereits Jahrzehnte zuvor darüber nachgedacht hatten. Und ich weise darauf hin, dass diese Strahlung unglaublich hell ist, obwohl sie für uns schwer zu messen ist sie ist sehr hell und tatsächlich, wenn Sie Ihren Fernseher auf einen Empfang zwischen den Kanälen einstellen, stammen rund 1 % des Schneegrieselns, das Sie dann im Fernseher sehen, aus dem All, stammen aus der Urknallstrahlung selbst. Wenn Sie also wüssten, was Sie da sehen, würden Sie sagen: Ich habe hier zwei weitere Bilder. Links unten sehen Sie Alpher und Herman. Sie arbeiteten mit George Gamow und waren diejenigen, die 1948 diese Berechnungen tatsächlich anstellten. Hier sehen Sie sie, wie sie zum Start ihres Satelliten erschienen, der eine weit genauere Messung vornahm und den Nobelpreis einbrachte. Rechts haben wir Sunjajew und Peebles, zwei moderne Theoretiker. Das ist eine kleine Erinnerung daran, dass kein Theoretiker bisher einen Preis für den Urknall gewonnen hat, aber bereits viele Beobachter. Ich möchte darauf hinweisen, dass aus dem Hubble’schen Gesetz, der geraden Linie in diesem Diagramm, folgt, dass es kein messbares Zentrum oder keinen messbaren Rand des Universums gibt. Sie könnten fragen, „nun, ich sehe wie sich all diese Galaxien von uns hier auf der Erde entfernen, folgt daraus nicht, dass wir uns im Zentrum befinden?" Und die Schlussfolgerung aus der Berechnung hier ist, dass jeder dieser Astronomen schließen würde, dass er oder sie sich im Mittelpunkt des Universums befindet. Daher gibt es keinen Mittelpunkt, den wir bestimmen könnten. Die Astronomen waren natürlich viele Generationen sehr damit beschäftigt, nach einem Mittelpunkt oder Rand Ausschau zu halten, aber wir haben keinen gefunden. Es gibt natürlich eine praktische Grenze. Wir können nicht weiter sehen als bis zur Zeit, die uns zugeteilt wurde, wenn wir hier seit 13,7 Milliarden Jahren existiert haben, heißt das, Sie können 13,7 Milliarden Lichtjahre in jede Richtung sehen und das ist die äußerste Entfernung die wir sehen können, denn wir schauen zurück auf den Anfang, wenn wir die am weitesten entfernten Dinge betrachten. Wir schauen in der Zeit zurück, wenn wir ferne Objekte betrachten. Daher ist es eine praktische Tatsache, dass es einen kleinen Teil des Universums gibt, den wir sehen können, und dass es darüber hinaus vermutlich noch viel mehr Universum gibt, das wir nicht sehen können, weil wir noch nicht lange genug existieren. Um es ganz deutlich zu machen, wir stellen uns vor, dass es Ursprungsmaterial gab. Möglicherweise unendlich in Ausdehnung, möglicherweise auch nicht. Ein kleiner Teil davon begann, sich durch einen merkwürdigen und bizarren quantenmechanischen Prozess auszudehnen. Eine der großen Herausforderungen in der modernen Physik ist es, diese anfängliche Periode der Zeit zu verstehen, von der wir glauben, dass damals Quantenmechanik und Gravitation zu einer Art Quantengravitationstheorie verschmolzen sein mussten. Und bis jetzt gibt es noch keine erfolgreiche Theorie. Viele Leute beschäftigen sich noch damit. Auf jeden Fall begann Materie nicht nur, sich bei der Ausdehnung von anderer Materie zu entfernen, sondern unsere Vorstellung ist, dass sich der Raum selbst ausdehnt. Nun, der Raum ist nicht notwendigerweise eine Substanz, wir wissen nicht, was Raum und Zeit an sich tatsächlich sind, aber vielleicht erhalten wir durch eine Theorie der Quantengravitation eine bessere Vorstellung davon. Auf jeden Fall begann das frühe Universum, sich mit exponentiell wachsender Geschwindigkeit auszudehnen. Es verdoppelte seine Größe ca. 100 Mal in einem sehr, sehr kurzen Augenblick der Zeit und führte zum sich ausdehnenden Universum von heute. Jetzt sagen wir, gut, wir sehen uns um und wir erkennen keine Ausdehnung unseres lokalen Universums. Das Sonnensystem dehnt sich nicht aus, die Galaxie dehnt sich nicht aus, nahe gelegene Galaxien entfernen sich nicht allesamt. Was also hat die Nicht-Ausdehnung unseres lokalen Teils möglich gemacht? Wir können wir existieren, wenn sich das ganze Universum ausdehnt? Die Vorstellung ist, dass einige Teile des frühen Universums dichter waren als andere und sie deshalb genug Selbstanziehung durch ihre eigenen Gravitationskräfte hatten, um der Ausdehnung entgegenzuwirken. Und so lautet die Geschichte, die anfängliche Materie muss leicht inhomogen gewesen sein, einige Teile dichter als andere, sodass die Gravitation die Ausdehnung in diesen Volumina stoppen, die Materie zurückfallen und Sterne und Galaxien entstehen lassen konnte. Natürlich haben wir nach der Entstehung eines Sterns all die Kernreaktionen innerhalb des Sterns, aus denen die anderen Elemente hervorgehen. Wie zuvor bereits erwähnt, gab es nur Wasserstoff und Helium nach dem Urknall, woher kamen also die chemischen Elemente, aus denen das Leben besteht? Sie stammen aus Sternen, die…, früheren Generationen von Sternen, die ihr Kernmaterial verbrannt haben und dann explodiert sind und die chemischen Elemente zurück in den Weltraum verteilt haben. Wir selbst sind also wieder aufbereitetes Material aus dem Inneren von Sternen. Wenn Sie morgens in den Spiegel schauen und die chemischen Elemente des Lebens sehen, sollten Sie daran denken, dass es diese beim Urknall nicht gab. Sie wurden erst im Inneren der Sterne gebildet. So können Sie sich also jeden Morgen mit Kosmologie beschäftigen, während Sie sich mit Ihrer Kosmetik beschäftigen. Ich habe hier einen kurzen Graphen, um die frühe Geschichte des Universums zusammenzufassen, wir haben ein anhand von Mikrowellen gemessenes Bild des Urknalls. Nach unserer Vorstellung bildeten sich die Galaxien durch Verschmelzung kleiner Objekte zu großen Objekten. Genau wie viele kleine Bäche zusammenkommen, um große Flüsse zu bilden. Unten links sehen Sie ein Bild unserer großen Nachbargalaxie, dem Andromedanebel, den Sie mit einem Fernglas ganz gut erkennen können. Er ist ungefähr so groß wie der Vollmond, nur nicht annähernd so hell. So am Anfang haben wir eine Geschichte, die… , der Urknall wurde von unserem amerikanischen Karikaturisten Calvin and Hobbs in „Horrendous Space Kablooie (Schreckliches Weltraumratazong)" umbenannt. Mir gefällt dieser Name tatsächlich besser als Urknall, denn er lässt vermuten, dass etwas Seltsames mit dem Raum selbst vor sich geht. Es ist mit der Vorstellung kompatibel, dass es eine Inflation gibt und der Raum selbst sich ausdehnt. Da wir nicht wissen, was Raum ist, ist das ein bisschen kompliziert, aber es ist eine andere Perspektive. Das Ursprungsmaterial gab uns also die chemischen Elemente Wasserstoff und Helium, rief das Universum mit seiner Ausdehnung ins Leben und gab uns die dunkle Materie, was wichtig ist. Wir würden ohne dunkle Materie nicht existieren. Und das alles geschah vor 13,75 Milliarden Jahren mit einem sehr kleinen Fehlerbalken. Wir befinden uns jetzt im Zeitalter der Präzisionskosmologie. Ich erwähnte zuvor, dass die Heliumkerne, die in den ersten paar Minuten entstanden…, dann dehnte sich das Universum aus und kühlte sich ab, als es etwa 389 000 Jahre alt war, die Elektronen fanden die Atomkerne und das überwiegend aus Gasen bestehende Material wurde neutral. Davor war es undurchsichtig wie ein Plasma und danach war es neutral und die Protonen der Hintergrundstrahlung konnten sich zu uns ausbreiten. Das Universum wurde transparent. So hypothetische Ereignisse auf dem Diagramm, die erste Sternengeneration, stellen wir uns als von der Sonne sehr verschieden und viel massereicher vor, sie wären sehr schnell ausgebrannt, in nur ein paar Millionen Jahren. Dann bildeten sich Galaxien und dann, am Ende hier, auf das ich deute, begann vor ungefähr 5 Milliarden Jahren das Universum erneut, sich zu beschleunigen und schneller und schneller zu werden. Das ist die Riesenüberraschung des letzten Jahrzehnts in der Astronomie, und es deutet ein wenig an, was am Ende des Universums geschehen könnte. Wir erkennen jetzt, dass das Universum beschleunigt und immer schneller wird, was bedeutet, dass in ein paar Milliarden Jahren die entfernten Galaxien so weit weg sein werden, dass die meisten für uns nicht mehr sichtbar sind. Ihre Rückzugsgeschwindigkeit wird weiter zunehmen und in 100 Milliarden Jahren oder so werden beinahe alle unsichtbar sein. Nicht nur die Sterne werden erlöschen, auch die Galaxien werden zu weit entfernt sein, als dass wir sie noch sehen könnten. Wir haben also ein paar Milliarden Jahre, bevor wir umziehen müssen. Die Grafik verdeutlicht ganz kurz, warum wir so viel über die Mikrowellenhintergrundstrahlung sprechen. Sie ist ein starker Überrest der Ursprungsmaterie, sie ist eine Materie, die wir sehr genau in jeder Richtung messen können, und rechts im Bild sehen Sie eine der Raumsonden, die derzeit dort draußen die Strahlung misst. Und die Eigenschaften der Mikrowellenstrahlung erwiesen sich als äußerst informativ. Ich habe keine Zeit, ins Detail zu gehen. Ich möchte Ihnen aber ein Bild des ersten Satelliten zeigen, der zur Messung dieser Strahlung gebaut wurde: das war der Satellit COBE (kurz für Cosmic Background Explorer). Bei mir entstand die Idee aus dem Scheitern meines Doktorarbeitsprojekts, das aus dem Versuch bestand, die kosmische Hintergrundstrahlung mithilfe einer Ballon-Nutzlast zu messen. Die Ballon-Nutzlast scheiterte aus einer Reihe von Gründen und ich schloss daraus, dass das Thema viel zu schwierig sei und ich das Thema aufgeben würde. Ein paar Monate später jedoch bemühte sich die NASA um Vorschläge für Satellitenmissionen und ich sagte zu meinem Berater, das Projekt meiner Doktorarbeit war kein Erfolg, aber es hätte vom Weltraum aus sehr viel besser geklappt. Wir hatten keine Ahnung, wie schwierig das Projekt sein würde, aber hier ist es, es wurde 15 Jahre später gestartet. Und hier ist es, wie es ein Künstler im Weltraum sehen würde. Dabei waren Instrumente, um die Mikrowellenstrahlung zu messen und um nach dem Licht der ersten Galaxien Ausschau zu halten. Ich werde Ihnen nur ein paar Dinge daraus zeigen. Hier ist das Spektrum der Mikrowellenstrahlung. Die Frequenz der Wellen, die Zyklen pro Zentimeter auf der horizontalen Achse, die Helligkeit in vertikaler Richtung. Sie sehen, dass all die kleinen Kästchen genau auf der Kurve liegen, wie das auch sein sollte, wenn die Urknalltheorie korrekt ist. Wir erhielten deshalb stehenden Applaus, als wir das der Astronomischen Gesellschaft zeigten. Ich war etwas überrascht, denn ich wusste, das war die richtige Antwort. Die Astronomen waren versammelt. Sie waren sehr besorgt gewesen, dass dies…, dass sich die Urknalltheorie als falsch erweisen könnte. Das war also eine enorme Erleichterung für die Leute. Dieses kleine Bild findet sich jetzt in allen Lehrbüchern. Unsere zweite Entdeckung bestand aus diesem Satz Karten des Himmels, wir wollen uns auf die Ellipse unten im Bild konzentrieren. Dies ist eine Karte, nachdem alle bekannten lokalen Auswirkungen herausgefiltert wurden, und die Flecken, die Objekte auf der Karte, sind die Schwankungen in der Ursprungstemperatur. Die winzigen Schwankungen in der Temperatur der Mikrowellenstrahlung von einem Ort zum anderen. Wie sich herausstellt, sind die kälteren Regionen auf dieser Karte diejenigen, die im frühen Universum dichter waren, und dies sind die Volumina, aus denen die Galaxien und Galaxienhaufen hervorgehen werden. Und die hellen Regionen, die rosafarbenen, sind diejenigen, die sich als leer erweisen werden. Dort zieht die Gravitation die Materie weg. Stephen Hawking sah dieses Bild. Er sagte, dies sei die wichtigste wissenschaftliche Entdeckung des Jahrhunderts, wenn nicht aller Zeiten. Ich nahm seine lobenden Worte dankbar an, aber natürlich gab es, glaube ich, noch ein paar andere Entdeckungen. Andererseits, wenn es diese Flecken nicht gäbe, würden wir nicht existieren, so vielleicht ist es tatsächlich wichtig. Es sind Jahre vergangen, es gibt jetzt viele Aktivitäten zur Erklärung der Statistik dieser Objekte, die Sie in den Karten sehen. Und dies ist eine theoretische Kurve, die zur Bestimmung bis hin zu einem Prozent Genauigkeit vieler kosmologischer Parameter verwendet und interpretiert wird. Ich habe keine Zeit, die Details zu erklären, aber ich wollte gerne zeigen, dass man aus den Formen dieser Objekte in der Mikrowellenkarte jede Menge lernen kann. Nun, die Zeit ist kurz, daher gehe ich auch sonst auf keine Details ein. Dies ist ein Bild von drei Leuten, die entdeckten, dass sich das Universum beschleunigt, und wir nannten den Grund dieser Beschleunigung Dunkle Energie. Nun, das bedeutet, dass wir keine Ahnung haben, was das ist. In ein paar Jahren hat vielleicht jemand eine korrekte Beschreibung, aber jetzt im Moment ist es nur eine Bezeichnung. Es bleiben noch ein paar Geheimnisse für uns über, Astronomen würden sagen, wir wissen, dass es nur Materie im Universum gibt. Es gibt keine Antimateriegalaxien. Teilchenphysiker wollen wissen, warum das wahr ist. Ich sagte bereits, dass es da draußen dunkle Materie gibt, viel mehr als es Atome und Moleküle gibt. Die Frage lautet, was ist die dunkle Energie, was ist sie tatsächlich, mehr als nur ein Name? Jeder möchte von den Astronomen wissen, hat Einstein recht mit seiner Relativität? Und natürlich sind wir damit beschäftigt, diese zu testen, aber wir haben noch keinen endgültigen Beweis. Und wir würden selbstverständlich gerne die Fragen nach unserer eigenen Geschichte beantworten. Wie entstand die Erde und wie kam es zu all den Umständen, die das Leben hier ermöglichen? Sind wir die einzigen Lebewesen im Universum? Ist es möglich, gibt es die natürlich nur entfernte Möglichkeit, mit anderen Lebewesen zu kommunizieren, und natürlich in Bezug auf unsere eigene Geschichte, was passiert als Nächstes? Astronomen verfolgen jetzt den Infrarotbereich der Beobachtungen im Weltraum. Ich zeige Ihnen das Projekt, an dem ich gerade arbeite. Wir würden sehr gerne in der Lage sein, die Infrarotstrahlung aus dem Weltall zu erforschen. Und das ist ein sehr schwieriges Projekt, da Infrarotstrahlung die Erdatmosphäre nicht sehr gut durchdringt, und da Teleskope ihre eigene Infrarotstrahlung emittieren. Auf der anderen Seite ist sie aus genau demselben Faktor interessant, aus dem Objekte bei Zimmertemperatur Infrarotstrahlung abgeben. Ihr Körper emittiert ca. 500 Watt an Infrarotstrahlung, so wie wir hier im Saal sitzen. Das Teleskop, an dem wir derzeit bauen, wird das James-Webb-Weltraumteleskop genannt, benannt nach dem Mann bei der NASA, der die Mondflüge organisierte, und das mit Erfolg. Dieses Teleskop wird in Zusammenarbeit europäischer und kanadischer Weltraumagenturen mit meiner Agentur, der NASA, in den Vereinigten Staaten gebaut. Wir sind beim Bau, der vor 15 Jahren begann, schon ein gutes Stück vorangekommen. Dieses Teleskop, das Sie hier sehen, sieht nicht wie ein gewöhnliches Teleskop aus. Es ähnelt mehr einem Sonnenenergiebündler. Stellen Sie es sich als Bündler galaktischer Energie vor, der Licht aus dem entfernten Universum bündelt und durch den riesigen sechseckigen Parabolspiegel auf den Instrumentenkasten unten konzentriert. Das große blaue System, das Sie unten sehen, ist ein Schirm, eine Sonnenblende, um das Teleskop vor der Sonne und der Erde zu schützen, damit es auskühlen kann. Das Teleskop arbeitet bei einer Temperatur von etwa 40 °K und es ist auch viel größer als die Rakete. Sie erkennen, dass es eine Struktur und nicht nur eine Röhre ist, ich habe kein Video für Sie, aber es klappt sich nach der Freigabe durch die Ariane-5-Rakete aus. Und mit etwas Glück hoffen wir, es 2014 zu starten. Ich werde Ihnen einfach ein paar der wissenschaftlichen Themen zeigen, die wir damit hoffentlich angehen werden. Ich wollte sicherstellen, dass wir alle lernen, wie man das Teleskop ausrichtet. Wie Sie alle wissen, war das Hubble-Weltraumteleskop nach seinem Start fehlerhaft und wurde von Astronauten repariert. Unser Teleskop wird viel weiter entfernt sein, eine Million Meilen von der Erde entfernt und es kann nicht repariert werden. Wir müssen es auf Anhieb richtig machen, daher üben wir. Wir haben dieses kleine Modell und dann bringen wir das Teleskop, das wir fliegen lassen werden, in diese riesige Testkammer in Houston, Texas, in der die Apollo-Astronauten übten, sich im Vakuum aufzuhalten. Ein paar Dinge, die ich über unser wissenschaftliches Programm zeigen möchte. Eine bemerkenswerte Entdeckung ist die, wie es uns Einstein vorausgesagt hatte, dass die Schwerkraft das Licht krümmen kann. Sie können in der rechten oberen Ecke des Bildes kaum erkennen, dass sich dort ein rosafarbener Bogen befindet, und der rosafarbene Bogen ist in Wirklichkeit das Bild einer sehr weit entfernten Galaxie, das durch die Gravitationsfelder dieser anderen Galaxien, die Sie im Bild sehen, vergrößert und verzerrt wurde. So hilft uns Einsteins Gravitation sogar noch weiter ins entfernte Universum hinauszusehen. Wir sind in der Lage zu verstehen, wie sich Galaxien bildeten, nicht, indem wir sie dabei beobachten, sondern durch Simulation. Unten rechts sehen wir eine Computersimulation, die einen Moment lang dem Bild echter Galaxien entspricht Bei der Verschmelzung ändern sie ihr Aussehen völlig. Übrigens nähert sich uns der Andromedanebel und wird das in ungefähr 5 Milliarden Jahren mit unserer Galaxie machen. Diese Projekte liegen vor uns. Gelegentlich werden wir Sterne explodieren sehen. Dies ist ein Bild, und rechts sehen Sie das Bild eines Sterns, der in den nächsten paar Hunderttausend Jahren ziemlich nahe bei uns explodieren wird. Links sehen Sie ein Konzept wie das vor sich gehen könnte. Überdies haben wir so etwas in der Art schon geschehen sehen. Nun, das ist selten, aber wahrscheinlich wie die ersten Sterne im Universum als sie explodierten. Ab und zu explodiert ein Stern und ein Strahl aus Materie kommt heraus und zielt auf uns. Dieser Materiestrahl bewegt sich beinahe mit Lichtgeschwindigkeit und ab und zu, wenn er in unsere Richtung zielt, bekommen wir einen Ausbruch an Gammastrahlung ab, der für etwa 2 Sekunden anhält. Und man erkannte erst in den letzten paar Jahren, dass dies die Quellen dafür sind. Das sind Sterne, die am Rande des Universums explodieren und zufällig auf uns gerichtet sind. Wir können diese Gammastrahlungen empfangen. Alle diese Dinge sind Mysterien, denen wir nachgehen und die wir versuchen werden, zu verstehen. Ein anderes, näheres Ziel für uns ist der Adlernebel. Wenn wir das Licht etwas dimmen könnten, wäre das bei diesen Bildern hilfreich, wenn das schnell genug geht. Auf jeden Fall ist das ein sehr berühmtes Bild vom Hubble-Weltraumteleskop und es zeigt…, könnten wir den Saal etwas abdunkeln, bitte…, Sie sehen diese wundervollen Bilder einer sternbildenden Region. Sterne wurden in diesen dunklen Materialwolken geboren und selbst das Hubble-Teleskop kann nicht hineinsehen, denn die dunklen Staubwolken sind undurchsichtig. Nun, wenn Sie Infrarotlicht einsetzen können, können Sie durch dieses staubige rote Material da drinnen hindurchsehen und erkennen, wo Sterne gerade geboren werden. Wir haben die Chance, viel mehr über das Entstehen von Sternen wie die Sonne zu erfahren, wenn wir nahe gelegene Wolken betrachten, in denen das gerade geschieht. Jack hat zuvor schon erwähnt, dass wir jetzt in der Lage sind, Aufnahmen von Planeten um andere Sterne herum zu machen, und wir haben hier ein Bild, das das veranschaulicht. Wir haben schließlich Hunderte Ziele, vielleicht sogar Tausende, und die Chance, was ich jetzt in der nächsten Grafik zeigen werde, etwas über die Chemie der Atmosphäre dieser Planeten herauszufinden. Der Film zeigt einen Planeten, der sich vor einen entfernten Stern bewegt, und Sie sollten sich vorstellen, dass ein kleines bisschen Sternenlicht auf seinem Weg zu unseren Teleskopen durch die Atmosphäre dieses Planeten hindurch geht. Das bedeutet, wir können eine Spektroskopie machen, wir können die chemische Zusammensetzung der Atmosphäre eines anderen Planeten dadurch bestimmen. Und wir brauchen dazu kein Teleskop, das ein eigenes Bild dieses Planeten macht, wir können dazu ein Teleskop verwenden, das einfach nur die Veränderung des Lichts beobachtet, während der Planet ein wenig Sternenlicht abfängt. Ab und zu tritt auch das Gegenteil davon ein, der Planet wird durch diesen Stern verdunkelt, und beides wurde bereits mit Teleskopen im All aufgenommen. Mit unserem neuen Teleskop hoffen wir auf noch bessere Aufnahmen. Es ist nicht wahrscheinlich, dass unser Teleskop in der Lage sein wird, das bei einem erdähnlichen Planeten um einen sonnenähnlichen Stern herum zu machen, aber vielleicht eine zukünftige Generation von Sternwarten, die eigens für diesen Zweck gebaut werden. Wir sollten in der Lage sein zu erfahren, ob ein Planet um einen anderen Stern herum eine Atmosphäre wie die Erde mit Sauerstoff aufweist, und das wäre ein Hinweis darauf, dass dort Leben existiert. Es gibt ein kleines Taschenbuch, das herausgegeben wurde, das unsere Geschichte zusammenfasst, und das ist bei erhältlich. Und natürlich gibt es jede Menge Webseiten, die die allgemeinen Informationen unserer Geschichte vermitteln. Auf jeden Fall vielen Dank, dass Sie der Geschichte des Universums gelauscht haben und die Mysterien zu schätzen wissen, vor denen wir immer noch stehen.

Mather Gives an Historic Introduction.
(00:00:40 - 00:05:40)

The other main investigator of the COBE mission, receiving the Nobel Prize in Physics 2006, is George Smoot, who was responsible for the instrument that discovered the anisotropy of the background radiation. In Lindau he lectured in 2008 on “The Beginning and Development of the Universe”. He showed a set of astonishing films from very large computer simulations (performed in Munich and Chicago) of the development of the Universe, taking into account both ordinary and dark matter. In his lecture he also pointed out the 10th anniversary of the discovery of the accelerated expansion of the Universe, which was the motivation to the 2011 Nobel Prize in Physics.

George Smoot (2008) - The Beginning and Development of the Universe

Thank you, it’s good to be here, and while we’re setting up I can make a few comments. It’s particularly good to be here with the students and the students here are all at a major physician point in their life. Up until you’re about your first year graduate school, you spend all your time learning science. And then somewhere around the first year of grad school you begin to spend all your time learning how to do science. And so Riccardo Giacconi just spent a good fraction of his talk telling you about how to do science and I’m going to come back hopefully in a second and talk to you about learning some science. But the doing of the science is also an important lesson. I also wanted to play some music for you, if I can get it started. This is music appropriate for Germany, this is from Hildegard von Bingen and I think this was composed in 1098. It’s just to give you a little background for what we’re going to talk about in this talk. I have to say besides, having had a lot of influence in the whole field and everything, Riccardo Giacconi a number of times before had a big impact on my life. The first time was with the HEAO satellite, the High Energy Astrophysics Observatories, the first one was Einstein. He was a powerful leader and from a powerful group, they got to be on the first satellite that went up and they ran a little late and then I was in a very weak group. We were in HEAO 3, that got cancelled when the Viking Land Rover ran so much. And so instead of doing 2 experiments at once, I got to move into a new area, which was because of my microwave background. But the second time he had a tremendous influence on my life was after he took over the Space Telescope Science Institute and he had the idea, the most important thing he could do was hire in good scientists and let them do both technical jobs and scientific jobs. And since I was coming to work down the street to Goddard all the time and commuting across the country, he offered the opportunity to come and work at the Space Telescope Science Institute 50% time and work on the satellite 50% time, again 2 jobs. This is a lesson to the students, you should be doing 2 experiments. And when I went and saw the place I was very impressed, but when I went into his office and he interviewed me and the interview was mostly telling me about all the good things I was going to do, which was great, but I realised that that 50% time was 20 hours a day and I didn’t think I could quite handle that. So I stayed at the university, so I never grew up and went out into the space. Anyway, we’ll turn the music down a bit and get on with what I want to talk about, which is some of the things that we know about the universe and cosmology. And as Riccardo says there was a lot of knowledge that we didn’t, most of the knowledge in astronomy we haven’t had, except for the last 100 years. And in cosmology most of the real understanding we have is on average 10 years old. In fact we’re coming up to the 10th anniversary of the discovery that the universe is accelerating. But what I want to talk about is, how we actually have some idea and some concepts about, how the universe is evolving, and what we kind of know at this time, and what serious problems there are left for us to solve. So I thought I’d cast it in a simple form. And that is that the kind of stuff we do is, in cosmology, is like forensic science: you go to a crime scene and you gather evidence and you try and interpret this evidence and make up models and then look for more evidence and so forth. And most of it you do at the crime scene but you do it well after the event took place. We’re trying to see the beginning of the universe. We’ve looked for the relics and so forth, so we look around this room and we say what material is in this room, what things are in this room? We have to be able to explain that as well as everything else. There’s a whole sequence of things we’re doing, but let me show you one of the pictures that is most famous. I thought that Riccardo would show it to you. This is the Hubble Space Telescope Ultra Deep Field and in this picture you can identify 4 stars very easily, they’re very characteristic. These things with the pluses on them, and in the background you see a couple of thousand galaxies. So one of the questions that you have when you look at a galaxy like this one, which looks very much like our own galaxy, are there intelligent beings who are asking the same questions we are? Where did the universe come from, how can we explain it? Now there are a few that have turned their telescope towards our galaxy trying to see what's going on over here. But the other question is how come there’s so many galaxies? If you had, you know, more cloud even than Riccardo had and you could take the telescope and survey the whole sky, you would see that you could make pictures of over one hundred billion galaxies. Why would you make a hundred billion galaxies? And I hope to tell you that we have an answer that makes sense, for why there’s so many galaxies. And why, even if you were just trying to make the earth for men, you just need the solar system, well, maybe just a galaxy, but hundred billion galaxies seems overkill, but it turns out there maybe is a good reason for doing that. And then there are other questions like: How are the galaxies distributed? Why are some of these galaxies yellow like our sun, why do some look sort of white and blue? And it turns out the ones that are white and blue tend to be further away and that means the redshift is greater. You would think they would actually be redder, but in fact they’re…, and it’s a hint that the universe is changing and evolving. Ok, so what is our primary tool for investigating the cosmic scene, what is our long-term goal? And that is, the advantage that the universe is an optical delay line, that is the distances in the universe are so great that light takes anywhere from seconds to tens of years, thousands of years, billions of year to get to us. So we put ourselves conveniently in the centre of this map, that’s the way you usually do it and that’s how GPS does it, so here’s the earth, we look at the moon and it´s a light second away, so I take a picture of the moon, this is what the moon looked like a second ago, no big deal, it´s not ancient history. If I go out to Jupiter it´s 40 minutes ago, not such a big difference although you can notice that when you do the calculations the moons aren’t quite in the right place. But if you go to the nearest set of stars, the nearest 40 or 50 stars, you’re looking 10 years, you’re seeing what's going on 10 years ago. Looking at Andromeda it takes light 2 billion years to get here, take a picture of the earth 2 million years ago you don’t even see, there’s no evidence of humans because there were no humans. And so you´re starting to realise you have a time machine, that you can look back into the past, and with Hubble we’re looking at sort of this distance. And the question is how far can you look out? As you look out in greater distances, you get the distance divided by the speed of light, that’s how far back in time you´re looking. If the universe is expanding, we know that when we go back to earlier times it was therefore denser because everything was closer together and it was also hotter, because we now know there’s a relic radiation. And as you compress the universe, the wavelengths get shorter and the temperature gets higher. And so if you go back to where the universe was a thousand times smaller, it would be a thousand times hotter and it would be as hot as the surface of the sun and the entire universe was ionised. And that’s like a fog bank which you can’t see any further then. And that’s what's represented out here near the centre thing. And if you could see further back, this little bit, I’ll show it a little better, this little thin piece that would be the very beginning of time as far as our usual calculation. So this is a funny picture, the earth is in the centre at the beginning of time and the universe is all around us in a finite distance. So here’s the artistic conception, we live in a nice spiral galaxy, it´s all modern and impressive looking, if we look out a certain distance, if we look out to a certain sphere in time, we see these beautiful kind of galaxies you see with the Hubble space telescope pictures, and many of them are spiral galaxies, a few are elliptical, this is not quite in balance, they’re roughly 50/50, this is sort of a drawing and it´s kind of hard. If we look out a little further, we start seeing that there are more primeval galaxies and there should be more of them in here, they’re sort of irregular shape and so forth, we know now that they merge together, they evolve and merge together and build up to bigger galaxies and that’s how you get elliptical and spiral galaxies in the future. But if we look out to the greatest possible distance, then we see the structure which is the relic radiation from the very beginning of the universe and that’s what I spent a lot of my time after I, well, when I was going to go and work with Riccardo, that’s what I was doing for many years, but before, when we were colliding on HEAO, I was doing 2 things at once and then I switched to doing this mostly full time. And so the idea that we want to have is that we’d like to see the very beginning of time, but the idea we have for cosmology is, you like to see samples of a whole bunch of circle shells around us, and therefore trace out the entire history of the universe. And right now we have sort of 2 sets of shells very good, we have this last scattering surface of the universe and we have this intermediate region where we have some surveys that cover quite a lot. But we hope to go in the future and look into these intermediate regions and actually have samples, we have partial samples but it’s very limited. Ok, so looking back to the very beginning of time, we’ve had a series of cosmic microwave background missions, the cosmic microwave background is what happens to this light that was like the sun, when you let the universe expand to a thousand, the wavelength of the light is stretched by a factor of thousand and it moves from the visible down into the microwave region. So in November of 1989 we launched the COBE satellite and with that we made sort of low resolution pictures of the world and then in 2000 WMAP was launched, and a couple of years later, well, 3 years later we started to have higher resolution maps of the world, but when you combine the frequencies, which are at longer wavelengths, in order to subtract away the confusing signal from our own galaxy you get a slightly poorer resolution, and we hope here at the end of this year, although I think it will be in February of next year, to launch the Max Planck mission and it will have many frequencies and much higher angular resolution and so forth, and to me this is the way a satellite should look, the stealth version of a satellite means you got the technology right. And we hope to launch that and have very high resolution, even when we subtract the foreground, and the smudgy stuff is we’re hoping to add very precise information about the linear polarisation of the microwave background which is something we know must occur, and that we have a second hope that it actually might show evidence of the actual beginning of the universe. But we know there must exist some polarisation just from the fact we see the temperature variations. So that’s where we are. And just to show you how this goes: here is a map of the entire sky. So you’ve taken the globe and smashed it flat to see it, with the COBE DMR, with the … galaxy removed, and you can see large-scale warm and cool spots spread around the sky. If the satellite had flown upside down, pointed towards the earth instead of away from the earth, we would have got a map of the earth that looked roughly like this. That is you can pick out the continent and you're not missing any major thing except Germany is a little hard to pick out in here. But you know it’s giving you an idea of what the world might look like. However, with WMAP we have an angular resolution that gives us the sky that looks like that, and this is actually in Planck resolution but WMAP doesn’t, the pixels are still that way. But you see the same sort of large scale structure, but you see some more fine scale features. This map looks very different than a map of the earth that would be in Planck resolution. So I always say I would love to have been a geologist, you know, in the 1800’s with this map, because I could do great geology, plate tectonics, just look at this mid Atlantic ridge, the shape of Africa, it´s really clear there are some non-linear effects going on in the universe that cause the phases to line up and give you these sharp edges and these coherent features over the large scales. Yet when you look at the pictures of the early universe, it looks like pretty much random Gaussian fields. And we do the test, the very high order it is and we’re down to about 10 to the minus 3, that is a tenth of a percent that things are Gaussian, but we’re looking to fine little non Gaussian features, because they would tell us something about the actual forces that were involved in the creation of space time, and that’s where the fields were gone, we’re going to the next level in the field at this point. So we have this model of the universe which on the surface is pretty strange, but is actually pretty wonderful and is sort of our Standard Model over the way cosmology goes, the universe starts with this period we call inflation, which is a rapidly accelerating period of expansion that drives the rate of expansion of the universe up to a very high level. Then there’s a phased transition or some kind of a transition and the universe is no longer driven to accelerate and gravity takes hold and begins to decelerate the universe and structure forms. And this period from the time when the universe gets cool enough that the light is free to come to us in the future and the time when the first structure forms and the first stars turn on and the first galaxies are made and light begins, we call this the dark ages, because there wasn’t any light besides the relic radiation as far as we know. And then you see this first generation of stars and galaxies and they slowly emerge and evolve and develop burning the primordial elements into the more complicated elements, the carbon, nitrogen, oxygen, iron, the things that we really love because we’re made out of them. And eventually you get the modern kind of galaxies that we see. And when you sort of trace the history of the universe, it´s rapid accelerating expansion and then it slows down, exaggerated. And then for some reason the universe has decided to pick up speed and expand more rapidly, and that’s what we call the dark energy. And it’s the interplay of the various pieces, the various components of the universe, we think of the galaxies not as important things but as tracers to see how the great fluid flow of the universe, like you put smoke in order to see the flow over a supersonic surface or something like that. The galaxies are kind of tracers of the flow of the entire development of the universe. And we can now write confidently down that we know the beginning of the universe was 13.7 billion years with an error that’s less than 1%, which is kind of scary because it means your systematic errors have to do with whether you understand the theory properly, because the data is getting precise enough to let you do that. So while we were busy making measurements of the very earliest part of the universe, sort of the initial conditions to try and run through our different equations to see what would happen later, people have been making measurements of the nearby, and like that Hubble picture where you take a picture, you can figure out which are stars and which are galaxies, so you can say, ok, well, I don’t see the trees but I see the forests and you count up the forest, it´s kind of the way you're seeing, you can count up where the galaxies are. So this is a Sloan Digital Sky Survey, so there is flooded on here the location of about a million galaxies, every one of these points, there’s some blue points and some red points. That just has to do with, you take pictures, you evaluate them and you throw away the stars, you look at the ones that are galaxies and you estimate what their 3-dimensional position is, you’ve got 2 of them by the angle and you have to estimate the distance and you do that in a couple of different ways and then you plot it and so forth. So again, we put the earth in the centre and what you see is something like the great wall, another fairly substantial wall, voids and so forth and then a tailing off, not because the galaxies are going away but because your telescope isn’t powerful enough to see that far, because the galaxies are so far away they’re looking faint. And then you let the telescope take the picture and then the earth rotates and you take another picture and so forth, so you get this pie-shaped wedge across the sky. Then you tip the telescope to another angle and you get a new pie-shaped wedge across the sky. So now I’m going to show you a little rotating movie of this version, hopefully, and you can see the wedges from this sky survey, you can see the great wall, you can see the voids, and remember what you´re seeing here is just a few wedges, this region that’s missed here in the middle is because the plain of our own galaxy gets in the way. We live in a spiral galaxy, we can’t see through a lot of the galaxy and the optical wavelength. But this gives you sort of an idea of what goes on. So this is a Sloan Digital Sky Survey. There was another big survey which was done mostly by European groups, called the 2-Degree Field of View, now it´s 6-Degree Field of View, we’re going to fly through it, this is just rotating it, now we’re going to do a flight through and you see a very different picture when you´re in it than when your outside of it, looking towards it. So in here every time we know something about the galaxy, the spiral galaxy and the colour we put in a spiral galaxy, that colour or an elliptical colour, so now we’re going at warp factor million, remember that light takes millions of years to get between a galaxy and yet they’re going by one a second or faster, but you can see how the universe looks if you were flying through it very rapidly. Now we go outside of the survey zone and go and swing around and look back. It takes a little while, the universe is really big. And even at warp factor a million. Now you can see the wedges from just doing the surveys and you can see the great wall actually extends, this is a different wedge but the great wall shows up here in this wedge also, that you’ve got to start asking yourself: How can there be a great wall? How can there be voids? How can there be the great wall, how does this all fit together? Here are regions with almost no galaxies, here are regions with many thousands to millions of galaxies, how did that come into being. I guess this is enough. So now we go to our computers and make up models, start with the initial conditions that we have from the cosmic microwave background and run them in our computers and try and do that and we find we had to add additional components, and one of the additional components we have to add is dark matter. So at the end I’ll show you how the simulation is built up by showing a simulation of dark matter alone. And in this simulation that I’m going to show you, which is done at the Max Planck institute in Garching, and when you look on the very large scale, the universe looks very uniform. Very much like the carpet on the stage does here. When you look more deeply at the carpet on the stage, you find it´s made of a lot of different tufts. It´s pretty regulated woven. Here you’ll see it´s not so regularly woven: If you go in there are random fluctuations, there are filaments. And what we think happens is the dark matter dominates and the dark matter is actually freed up because it doesn’t interact with the photons, except gravitationally. It´s freed up and it begins to form this cosmic framework or backbone or web and then later on when the ordinary matter is released, it falls into these webs. So the ordinary matter, when it turns on, is shown in these yellow colours and you’ll recognise those as galaxies. That’s what we think. So here’s the simulation of a billion particles done on the millennium calculations, and 1 gigaparsec in verse age is roughly 5 billion light years, so now we’re going down and it’s a good fraction of the universe, and we’re going to zoom in, you see all these filaments, it looks like an organic structure, we’re going to zoom in on this region, this is a giant cluster of galaxies which has somewhere between a hundred thousand and a million galaxies in it, it´s really quite substantial. We live in the boonies, we don’t live in the centre of the solar system, we don’t live in the centre of the galaxy, the cluster of galaxies we’re in is very small, if we lived in a galaxy like this, the night sky would be impressive and so forth, but we live in, you know, just sort of a backwater and it´s kind of interesting. So this white stuff there is the framework, that’s the dark matter, but this yellow is all the shining light and this distance here is about the distance between us and Andromeda. So in here this is really intense kind of a region, and these are the kind of clusters that show up as a really bright x-ray, gamma ray source even. So we’re going to zoom back out quickly, so you can get a feel for what it looks like, and you see you have a very different perspective when you´re like God and you look at it from the outside than when you´re stuck on the inside flying around. I’ll show you a fly-around in a second. Volker Springel was the leader of the group that did that. There are several different simulations that are done. So now we’re going to do the same simulation and fly through it, again warp factor a million, and remember the white is the dark matter, which you normally cannot see, it is actually the dominant form of the mass that’s out there, but we see the lights. It´s sort of like if you´re in the US and you drive through the desert and Las Vegas is in the distance, you see these bright lights, you see them much further away that you ever imagine and it doesn’t mean there isn’t mass and other stuff around, it´s just where the bright lights have to be. But in fact the bright lights are kind of trapped to be where most of the mass is. So this goes around and of course people are fascinated by the bright lights and so they go to the big objects, but you can see the way these form, there are various filaments and where a lot of filaments intersect, then you get a very huge cluster of galaxies. And where there’s just a simple set of filaments you get sort of a chain of galaxies or a chain of clusters of galaxies that are coming along because generally galaxies are in small groups, there’s not so many that are just there by themselves. Let me skip over on this because we don’t want to run over. Let me show you the simple version of the simulation, this is done on the Illinois computer by people from Andrey V. Kravtsov, who is at the University of Chicago, and so there is 2 things that I have to tell you about. The universe is expanding, so in these pictures I don’t show you the universe expanding, keep re-scaling the size of the box that we’re looking at so that it stays constant, so we call that a co-moving volume. And the other factor we have is this factor that astronomers unfortunately call Z, but 1 plus Z is the scale size of the universe today compared to the scale size of the universe at the time we’re looking at it. So we’re going to start only after the universe has got to be about 30 times, 1/3 of the size it is today, and why is that? Well, we started with very tiny perturbations, the fluctuations we see turn out to be very hard to see because they’re roughly at a part hundred thousand level and the universe had to start way back at a red shift of more than 10 to the fourth starting to clump the dark matter and the dark matter is clumping and clumping, but the growth is linear because gravity is pulling what the expansion of the universe is pulling apart, so instead of growing exponentially, if you add some matter, more gravity, add more in the formation of the solar system, you get exponential growth but since you´re fighting the expansion of the universe, you get linear growth with the expansion of the universe. So the time from when the universe was ten thousands of its size to when it was a third of its size, nothing much happens because the universe is so uniform that the growth is so small that it´s not worth seeing and so we’ll start this simulation there and you’ll see what happens. If I can click on it, you see lumps start to form and those lumps start merging and they start forming filaments, and then the filaments start connecting to each other, and if you actually watch carefully there’s a little bit of slow flow down the filament, that if you had hundreds of billions of years you're going to see things slowly trickle down the filaments and go towards the intersections. So here it is running again, and then a strange thing happens, which we didn’t notice at the time. But now when we do the simulations we can. That roughly, when the universe is about here, half its size, the formation of structure that’s even larger in this …, it ceases to happen. And that’s because the universe now decides it´s going to be expanding much more rapidly than it was, and the larger scale structure loses to the more rapid expansion of the universe and it shuts it off. And so that’s why clusters, those very large clusters, are so interesting. Those are the largest things that have ever formed and, you know, that are going to actually turn out to turn on at night so that we can see them with optical astronomy. Ok, so we have a self consistent story here where we can start with fluctuations. We see when the universe is very small. Equivalent to you when you were 12 hours old after conception. And we run our equations and motion forward, simple Newtonian gravity and then expanding universe. You can use general theory or Newtonian gravity, it doesn’t matter, you get the same answer - and we come forward, we find this filament restructure that seems to explain the large scale structure, of course we’d like to do more galaxy surveys and fill it all out and fill up the intermediate regions so we can see it. And we have some spots where we have intermediate tests, so we’re making a lot of progress and we can kind of check that. And so this picture seems to be pretty good, we’ve got good measurements here, we have a few sample measurements through here and we have very good measurements here and they all fit together in sort of a nice way, so we got a great situation and we have, in order to explain this, we just add a few things, all the matter that we know and love, that we teach you about in school, that’s in this 4%-slice here. And then there’s this dark matter and this dark energy which make up the other 95% of the universe, And so those people who know what the US dollar looks like, there’s this symbol that’s on the US dollar, which people said that certain secret organisation had installed on there, because they weren’t telling us and in fact they were right, there’s all these invisible atoms and there’s the cold dark matter and the dark energy, there’s the whole new order. But all these things are new physics that we have to know but it´s new physics that we absolutely require in order to make the universe we see around us, that’s the problem. So it’s kind of exciting and it’s kind of an interesting thing. So now I want to make a transition so I have to do a joke, so I’m going to tell you a joke about a physicist on Valentine’s day. So you have to set it up, every Friday a physicist after work has a tradition, he goes down to an ice cream parlour and he sits next to the last seat in a row and he turns to the last seat which is empty and he asks an imaginary girl if he can buy her an ice cream cone. Well, the owner, you know, he’s used to the weird university types and especially the physicists, so he just shakes his head and doesn’t say anything. But when Valentine’s day comes, the physicist is particularly distraught and makes a really outstanding plea, and so the owner can’t contain himself and he asks: And so the physicist explains to him that the vacuum is not empty at all, quantum mechanics tells you there’s all kind of virtual particles in there and that there is a finite probability that the wave function of a beautiful intelligent girl who likes the physicist could appear on the stool next to him and be made real, and therefore life would be pretty good. So it might happen, it´s a low probability but it might happen. And so the owner raises his eyebrows because he says: couldn’t you just ask one of the girls who comes here every Friday night, too, you know, and buy her an ice cream? She might say yes”. And the physicist says: “What's the chances of that happening?” Right, well, we know the chances aren’t that high. But it is more likely than the girl actually materialising, although you might get a better girl that way, but you know a real girl is probably better than an imaginary girl. But now we’ve got to apply that - the reason I set this up is because now we’re going to make the universe, we’re going to realise the wave function of the universe and it´s going to be made real and the accelerating expansion in the early universe is a horizon and it is – when you have a very sharp gradient, you know you get tunnelling, that’s how you eject electrons into electron gun, or any time you have a very high gradient of a potential field, including the acceleration of the universe, you have quantum tunnelling and you make things happen. So I claim that this picture we see of the early universe, these fluctuations, they are quantum fluctuations which have been blown up now to be cosmologically significant sizes. The universe has expanded submicroscopic things by at least 60 orders of magnitude, so it’s taken some things that are 10 to the minus 30 centimetres and made them to 10 of the 30 centimetres. And one of those quantum fluctuations happens to be our galaxy, one of the ones that was small and late – it didn’t get stretched as much so it only got to be as big as a galaxy. And in fact if you think about how many quantum fluctuations there are in a vacuum, in something that’s very tiny compared to the size of the atom, there’s hundreds of billions. And so when you take and make those quantum fluctuations real, you get hundreds of billions of galaxies, very simple, right? I mean it´s hard not to get them, you´re God and you´re making the universe, it´s hard to make just one galaxy, it´s much easier to make billions of galaxies. And so that’s our picture. And now I’m going to show you 2 dimensions out of 3 of what would happen to our single dense lump if we had one quantum fluctuation in the universe, you will find that this lump, I make sort of Gaussian shape because it’s a nice handy thing, it starts expanding as the universe is going on, this is becoming a coordinate and the reason that there’s a circle wave going out from it, it´s actually sort of like that, is the photon pressure is so high that the photons start moving out but they interact with the electrons and therefore the baryons, and they push the whole thing out, just like the sun is expanding. And so you can think of this thing, this is the central lump which is an adiabatic fluctuation, that is a certain amount of dark matter or certain amount of ordinary matter and photons and neutrinos and gravity waves. Some of them stream out at the speed of light because they don’t interact, but the light and the matter interact and so it spreads out as a big sphere just like the sun spreads out as a big sphere but the dark matter doesn’t feel that pressure so it just stays there in the lump. So let me look at that more carefully, go to 1 dimension and suppress, instead of 1 dimension suppress 2 dimensions and look at this radically and I’m going to have only a few fluid components, the dark matter, the ordinary matter in the form, we think of it as gas, electrons and plasma, electrons and the protons and so forth, the quarks, and the photons causing microwave background radiation, which dominates at that time - it´s so hot and so dense -, the neutrinos and the gravity waves won’t know because the gravity waves just shoot out at the speed of light. The neutrinos are actually unhindered a lot. So here they all have this sort of Gaussian lump and adiabatic, that’s because, if you put everything together, interactions are very rapid, you will get every degree of freedom excited equally and you will get just the right ratios of everything, everywhere in the universe. Ok so now let me try and start this and let’s see what happens. So here’s what’s going on, you see, let me stop it here at 400.000 years. You see the dark matter just slowly spreads out, I’ll run it again I hope, the dark matter fully spreads out. That’s why we want cold dark matter, we want the random thermal velocities of the dark matter to be low so that most of the dark matter stays in the lump and only the few out of the Maxwell-Boltzmann tails start flying away but the matter and the radiation stay extremely tightly coupled until we get to a redshift of about a thousand, roughly four hundred thousand years. You can calculate this very easily, very straightforwardly, this is definitely Freshman or Sophomore Physics that you can do. And at that point the universe forms neutral atoms and the photons no longer interact … to the last cross section, and the photons begin free-streaming and you have this density which makes a sort of a circular surface. And as the photons release the matter, the ordinary matter begins to fall into potential wells created by the dark matter, the framework that dark matter is going to make later on. But there’s a little bit of residual excess lump out here at roughly 450 million light years. So that would say, if I have a huge cluster of galaxies, I should be able to look around that cluster of galaxies and see a few percent extra, because it’s the surface of a sphere compared to the centre of the sphere. I should see a few percent extra galaxies at that distance. And in fact we do. There have been 3 reported measurements from the Sloan and from the Two Degree Field of View which shoots at roughly the 2-3% level extra galaxies sitting out there, because there’s such a large volume, you can get statistical significance. And now we’re proposing to have large scale surveys of this. But we also see this on the radiation. This is this lump that we’re going to see in the cosmic microwave background radiation. We’ll see around every big lump, which is going to be compressed and have extra hot radiation. We should see this spherical shape, which is roughly 450 million light years in radius, and that’s one of the features that show. And so you’ll see the neutrinos almost made it out but they don’t quite make it out, they’re free-streaming some but they get some lumps and bumps. And as you run the thing a little bit further forward, you find the ordinary matter pulls into the dark matter potential, but a little bit of the extra potential is left out here and it pulls the dark matter to it, so this is what I was telling you, you see the main cluster and then you see way out here a little excess circle shell around, and then statistically random there’ll be extra galaxies around there and they’re at a known distance, this co-moving distance of 450 million light years, so you see this feature happening and surveys will go on look for this feature. And if we start again, so you see how tightly the light and the matter are coupled until very late, and then they separate and go their own way. And so now we have a meter stick, good, I’ll just about make it, we have a meter stick that we can use to measure the universe with, we either measure distances by the brightness or we measure the distance by the angular diameter, these are, you know, we needed something whose size we knew and was big enough that we could see it across the universe. And we can see it back when the universe was a thousand times smaller, and we can see it when the universe is 10 times smaller and we can see it when the universe is 2 times smaller and so forth. So you can try and do the survey and measure the universe that way. So the first thing we can do is we can measure the geometry of the universe, we have a known distance and then we know that the universe could be curved. And so what happens, we’re going to make up a triangle which is made by the size of this lump, so imagine the sphere here, look at the edges of the sphere, like looking at the edges of the sun and measure the subtended angle. If the universe is positively curved like the surface of the earth, you start with 2 parallel lines of the equator, perpendicular to the equator, they will converge at the pole, they come together. When you project back using Euclidian geometry, you’ll think it looks bigger, the spot will look bigger on the sky. In Euclidian geometry you got a side, side, side, you know, the angles of the triangle, you know you can predict exactly what size it should be. And if the universe were funnel-shaped or saddle-shaped, the light rays will diverge as they go out, and so when you look at it this way and think about running light waves backwards, you see they would diverge and when you use Euclidian geometry, they look smaller. And so you can do simulations of what the sky should look like in terms of the size of the spots from open universe, a flat universe and a closed universe and when we first got our balloon data from the maximal experiment, I looked at the first map and I said “ah, the universe is flat”, and they said “you can’t tell that, we have to do the analysis”, and I said “well, I looked at the whole simulation, it looks just like the flat one”, and then we did the analysis and it was within 10% of flat, so, you know, it´s good to be prepared to know what you're going to see. So now we can go and measure it and it turns out the universe looks remarkably like the flat case, so that’s great for you students because you don’t have to learn hyperbolic geometry or worse and it´s easier to teach and so forth. So this is a little simulation of the angular power spectrum, this is the horizon and then the second horizon and so forth, and you can see, as you let the universe go from flat to open, you move from fluctuations around two hundred out to towards a thousand if it’s very open. But we know it´s not so very open. So you can take the data that we have as of, well, it was today but the 5 year WMAP data is out and I haven’t updated my slides, the WMAP makes the measurement of the first peak and the second peak and a little bit of the third and then the ACBAR experiment measures further out, so you see the first harmonic of that acoustic peak, the second, the third, the fourth, fifth and maybe even the sixth. You´re starting to do spectral analysis of the sky, and that means you have many more numbers and many more features and you can learn a lot, and you certainly can look here and there it is just near 1 degree on the sky, is the sound horizon size and that tells you the universe is very close to flat, just simple geometrical interpretation of what the universe is doing. So now you start doing spectral analysis and you try your models, you make simulations of the different universes and you say, what if I let the curvature go? It moves things left to right and adds this bump at low, large angular scales. What if you put dark energy in? Well, it doesn’t change it very much except largening the scales. You're not so sensitive there. What if you put ordinary matter in and you vary the amount of ordinary matter? It makes the first peak go up, the second peak go down, the third peak go up. What if you add total matter, dark matter? It makes every peak go up. So now I can distinguish between total matter and ordinary matter, and I see 4% ordinary matter and 20% something of the dark matter, and this is what Big Bang, or since this tells us back at 3 minutes from nuclear physics, tells us that it´s only 4% ordinary matter. And here we are using atomic physics and simple acoustic oscillations, the simple mechanical situation to find that it´s 4% again when the universe is 370.000 years old. And so we can start doing this and so what we’re doing, we can start making these scales of what the expansion rate of the universe is, we can start measuring the parameters of the universe with fairly great precision, I told you it was 13.7 billion years in 2003, there was an error of, you know, 20 thousand years on that, well, sorry, 20 million years on that. But you can also tell when, you know, the universe was 379 thousand years old when the radiation got loose, and you have the error bars on it and so forth. By 2006, and I haven’t made the 2008 one yet, because the data keeps changing, we gained significant smaller error bars and these kind of things, and we’re making progress and we’re hoping, when Planck goes up we’ll get tighter constraints and more cross checks in order to see that. So we’ve got the fingerprint of the universe, that was the first slide, the fingerprint, we compare the fingerprint and we throw it away and then we have the question: What is all that stuff out there that we had to have? And so what is it and where is all the rest of the matter? And I think for you students there are 8 big questions I think you guys have got to answer, so we’ll know the universe in more great detail. Thank you.

Vielen Dank. Es ist schön, hier zu sein, und während wir alles einrichten, kann ich ein paar Bemerkungen loswerden. Besonders schön ist es, hier bei den Studenten zu sein, und die Studenten hier sind alle an einem wichtigen Wendepunkt in ihrem Leben. Etwa bis zum ersten Jahr der Graduiertenschule verbringen Sie Ihre ganze Zeit damit, Wissenschaft zu lernen. Und dann, etwa um das erste Jahr in der Graduiertenschule, fangen Sie an, Ihre gesamte Zeit darauf zu verwenden, zu lernen, wie man Wissenschaft betreibt. Daher verwendete Riccardo Giacconi einen Gutteil seiner Rede darauf, Ihnen zu erzählen, wie man Wissenschaft betreibt, und ich werde hoffentlich in einer Sekunde darauf zurückkommen und Ihnen etwas über das Lernen von Wissenschaft erzählen. Aber auch das Betreiben von Wissenschaft ist eine wichtige Lektion. Ich wollte Ihnen auch ein bisschen Musik vorspielen…, wenn ich die Musik starten kann. Diese Musik ist passend für Deutschland, sie ist von Hildegard von Bingen und wurde, glaube ich, 1098 komponiert. Sie soll nur ein bisschen Hintergrund bilden für das, worüber ich in meinem Vortrag sprechen will. Ich muss sagen, dass Riccardo Giacconi, neben seinem großen Einfluss auf das gesamte Gebiet und überhaupt, schon häufiger zuvor einen großen Einfluss auf mein Leben hatte. Das erste Mal war das beim HEAO-Satelliten, den High Energy Astronomy Observatories, der zweite war Einstein. Er war eine einflussreiche Führungsperson und aus einer einflussreichen Gruppe, und sie bekamen einen Platz auf dem ersten Satelliten, der hochgeschossen wurde, und sie gerieten ein wenig in Verzug und außerdem war ich in einer sehr schwachen Gruppe. Wir waren in HEAO-3, der gestrichen wurde, als das mit dem Viking-Land-Rover viel zu lange dauerte. Und so musste ich, statt 2 Experimente auf einmal durchzuführen, in ein neues Gebiet wechseln, was an meinem Hintergrund auf dem Gebiet der Mikrowellen lag. Das zweite Mal nahm er einen enormen Einfluss auf mein Leben, nachdem er die Leitung des Space Telescope Science Institute übernommen hatte, und es ihm in den Sinn kam, dass seine wichtigste Aufgabe darin bestünde, gute Wissenschaftler anzuheuern und diese dann sowohl mit technischen als auch mit wissenschaftlichen Aufgaben zu betrauen. Und da ich ständig die Straße runter bei Goddard arbeitete und durch das ganze Land pendelte, bot er mir die Gelegenheit, Das ist etwas, was sich Studenten merken sollten, sie sollten 2 Experimente durchführen. Und als ich mir dann den Ort anschauen ging, war ich sehr beeindruckt, aber als ich dann in sein Büro kam und er ein Bewerbungsgespräch mit mir führte und er mir im Gespräch überwiegend von all den tollen Dingen erzählte, die ich machen würde, was großartig war, aber da wurde mir dabei bewusst, dass diese 50 % meiner Zeit aus 20 Stunden am Tag bestehen würden, und ich glaubte nicht, dass ich das schaffen würde. So blieb ich also an der Universität, und so wurde ich nie erwachsen und widmete mich den Dingen. Egal, wir machen die Musik ein wenig leiser und ich fahre mit dem fort, worüber ich sprechen möchte, und das sind ein paar der Dinge, die wir über das Universum und die Kosmologie wissen. Und wie Riccardo sagte, gab es eine Menge Wissen, das wir nicht hatten, den größten Teil des Wissens in der Astronomie haben wir erst in den letzten 100 Jahren erlangt. Und in der Kosmologie verstehen wir die meisten Dinge erst seit durchschnittlich 10 Jahren wirklich. Tatsächlich nähert sich gerade der 10. Geburtstag der Entdeckung, dass sich das Universum beschleunigt. Worüber ich aber sprechen möchte ist, wie wir tatsächlich zu den Ideen und Konzepten über die Entwicklung des Universums gekommen sind, und was im Moment als mehr oder weniger gesichert gilt, und welche schwerwiegenden Probleme wir immer noch lösen müssen. Und ich habe mich bemüht, das in eine einfache Form zu packen. Und die ist, dass das, was wir in der Kosmologie machen, mit der Forensik vergleichbar ist: Sie gehen zu einem Tatort und Sie sammeln Beweise und dann versuchen Sie, diese Beweise zu interpretieren und Modelle zu entwickeln, und dann suchen Sie nach weiteren Beweisen usw. Und das Meiste davon machen Sie am Tatort, aber Sie machen das lange nachdem das Ereignis stattgefunden hat. Wir versuchen, den Beginn des Universums zu sehen. Wir haben nach den Überresten gesucht und so weiter, und wir sehen uns in diesem Raum um und wir sagen, welches Material in diesem Raum ist, welche Dinge in diesem Raum sind. Wir müssen in der Lage sein, das zu erklären, genau wie alles andere. Es gibt eine ganze Abfolge von Dingen, die wir machen, aber lassen Sie mich Ihnen eines der Bilder zeigen, das am berühmtesten ist. Ich dachte, Riccardo würde es Ihnen zeigen. Dies ist das vom Hubble-Weltraumteleskop aufgenommene Hubble Ultra Deep Field und in diesem Bild können Sie leicht 4 Sterne ausmachen, sie sind sehr charakteristisch. Diese Dinge mit den Plusen daran und im Hintergrund sehen Sie einige Tausend Galaxien. Eine der Fragen, die Ihnen in den Sinn kommen, wenn Sie eine Galaxie wie diese betrachten, die der unseren sehr ähnlich sieht, lautet: Gibt es dort intelligente Wesen, die dieselben Fragen stellen wie wir? Woher kommt das Universum, wie können wir es erklären? Nun gibt es ein paar, die Ihre Teleskope auf unsere Galaxie gerichtet haben, und die versuchen zu erkennen, was hier vor sich geht. Aber die andere Frage lautet: Wie kommt es, dass es so viele Galaxien gibt? Wissen Sie, wenn Sie sogar mehr Einfluss als Riccardo hätten und das Teleskop nehmen und den ganzen Himmel untersuchen könnten, würden Sie sehen, dass Sie Aufnahmen von über Hundert Milliarden Galaxien machen könnten. Warum würden Sie Hundert Milliarden Galaxien erschaffen? Und ich hoffe, ich kann Ihnen sagen, dass wir eine sinnvolle Antwort auf die Frage haben, warum es so viele Galaxien gibt. Und warum, sogar wenn Sie nur versuchen, die Erde für die Menschen zu erschaffen, gut, Sie brauchen das Sonnensystem, vielleicht eine Galaxie, aber Hundert Milliarden Galaxien scheint ein wenig über das Ziel hinaus geschossen, aber es stellt sich heraus, dass es vielleicht einen sehr guten Grund dafür gibt. Und dann gibt es da noch andere Fragen wie: Wie sind die Galaxien verteilt? Warum sind manche Galaxien gelb wie unsere Sonne, warum sehen manche weiß oder blau aus? Und es stellt sich heraus, dass die weißen und blauen in der Regel weiter entfernt sind, was bedeutet, dass die Rotverschiebung stärker ist. Man sollte eigentlich denken, sie wären röter, aber tatsächlich sind sie… und das ist ein Hinweis darauf, dass sich das Universum ändert und entwickelt. OK, was ist also unser Hauptwerkzeug für die Untersuchung der kosmischen Szenerie, was ist unser langfristiges Ziel? Unser Vorteil ist, dass das Universum eine optische Verzögerungsstrecke ist, dass die Entfernungen im Weltall so groß sind, dass das Licht von Sekunden bis zu Jahrzehnten, Jahrtausenden, Milliarden von Jahren braucht, um uns zu erreichen. Wir selbst stellen uns bequemerweise in das Zentrum dieser Karte, so macht man das gewöhnlich, so funktioniert GPS. Hier ist also die Erde, wir betrachten den Mond und er ist eine Lichtsekunde entfernt, ich mache also eine Aufnahme vom Mond, diese zeigt, wie der Mond vor einer Sekunde aussah, keine große Sache, das ist nicht Alte Geschichte. Wenn Sie bis zum Jupiter gehen, sind das bereits 40 Minuten zuvor, kein allzu großer Unterschied, obwohl Sie merken können, dass sich die Monde nicht ganz am richtigen Ort befinden, wenn Sie Berechnungen anstellen. Aber wenn Sie zu den am nächsten gelegenen Sterngruppen gehen, den 40 oder 50 uns am nächsten liegenden Sternen, sehen Sie 10 Jahre zurück, Sie sehen, was vor 10 Jahren vor sich geht. Betrachten wir Andromeda, braucht das Licht 2 Millionen Jahre um hierher zu gelangen. Machen Sie eine Aufnahme von der Erde vor 2 Millionen Jahren und Sie sehen nicht einmal…, es gibt keine Spur vom Menschen, denn es gab keine Menschen. Und so dämmert Ihnen allmählich, dass Sie hier eine Zeitmaschine besitzen, dass Sie in die Vergangenheit zurücksehen können, und mit Hubble sehen wir ungefähr so weit. Und die Frage lautet, wie weit hinaus können wir sehen? Wenn Sie weiter hinaussehen, erhalten Sie die Entfernung geteilt durch die Lichtgeschwindigkeit, soweit zurück in die Vergangenheit sehen Sie. Wenn sich das Universum ausdehnt, wir wissen das, weil es dichter war, wenn wir zu früheren Zeiten zurückgehen, denn alles war näher zusammen, und es war auch heißer, denn wir wissen jetzt, dass es eine Reststrahlung gibt. Wenn Sie das Universum komprimieren, werden die Wellenlängen kürzer und die Temperatur steigt. Wenn Sie also dahin zurückkehren, wo das Universum tausend Mal kleiner war, wäre es auch tausend Mal heißer und es wäre so heiß wie die Sonnenoberfläche und das gesamte Universum war ionisiert. Das ist wie eine Nebelbank, die Ihnen den Blick weiter zurück versperrt. Und das wird hier nahe dem Ding im Zentrum dargestellt. Und wenn Sie weiter zurück sehen könnten, dieses kleine bisschen, Ich zeige es ein bisschen besser, dieses kleine dünne Stück wäre der Anfang der Zeit nach unserer herkömmlichen Berechnung. Das ist ein komisches Bild, die Erde liegt im Zentrum am Anfang der Zeit und das Universum umgibt uns zu allen Seiten in einer endlichen Entfernung. Hier ist also die künstlerische Vorstellung, wir leben in einer netten Spiralgalaxie, alles ist modern und sieht beeindruckend aus, wenn wir eine bestimmte Strecke hinaussehen, wenn wir auf eine bestimmte Sphäre der Zeit hinaussehen, sehen wir diese wunderschöne Art von Galaxien, die wir von den Bildern des Hubble-Weltraumteleskops kennen, und viele davon sind Spiralgalaxien, manche sind elliptisch, das Verhältnis hier stimmt nicht ganz, es beträgt ungefähr 50/50, dies ist eine Art Zeichnung und es ist schwierig darzustellen. Wenn wir etwas weiter hinaussehen, beginnen wir wahrzunehmen, dass es mehr urzeitliche Galaxien gibt und hier drinnen sollte es noch mehr davon geben, sie sind so etwas unregelmäßig geformt usw. Wir wissen jetzt, dass sie verschmelzen, sie entwickeln sich und verschmelzen miteinander und bilden so größere Galaxien und so erhalten Sie in der Zukunft die elliptischen und die Spiralgalaxien. Aber wenn wir die größtmögliche Entfernung hinaussehen, dann sehen wir die Struktur, bei der es sich um die Reststrahlung aus dem Anfang des Universums handelt, und damit verbringe ich eine Menge meiner Zeit nachdem ich…, gut, als ich anfing, mit Riccardo zu arbeiten, habe ich das viele Jahre getan, aber zuvor, als wir bei HEAO zusammentrafen, machte ich 2 Sachen auf einmal, und dann wechselte ich dazu, mich meistens Vollzeit hiermit zu beschäftigen. Und wovon wir uns eine Vorstellung machen möchten, ist, wir möchten den Anfang der Zeit sehen, aber die Vorstellung, die wir in der Kosmologie haben, ist, dass wir Beispiele aus einer ganzen Reihe von Sphären um uns herum sehen möchten, und daran die gesamte Geschichte des Universums ablesen können. Und im Moment haben wir so was wie 2 Sphären sehr gut abgedeckt, zum einem diese letzte, streuende Oberfläche des Universums und zum anderen diese mittlere Region, von der es einige Durchmusterungen gibt, die schon eine ganze Menge abdecken. In Zukunft werden wir uns jedoch mit diesen mittleren Regionen beschäftigen und tatsächliche Beispiele finden, wir haben Teilbeispiele, aber nur sehr begrenzt. OK, schauen wir zurück auf den Anfang der Zeit, es gab eine Reihe von Missionen zur kosmischen Mikrowellenhintergrundstrahlung, die kosmische Mikrowellenhintergrundstrahlung entsteht aus diesem Licht, das wie das Sonnenlicht war, wenn Sie das Universum um den Faktor 1000 ausdehnen, wird auch die Wellenlänge des Lichts um den Faktor 1000 gestreckt und verschiebt sich vom sichtbaren in den Mikrowellenbereich. Im November 1989 starteten wir den COBE-Satelliten und nahmen damit Bilder der Welt mit geringer Auflösung auf, dann 2000 wurde WMAP gestartet und ein paar Jahre später, nun, 3 Jahre später bekamen wir die ersten höher aufgelösten Bilder der Welt, aber wenn Sie die Frequenzen bei längeren Wellenlängen kombinieren, um das verwirrende Signal unserer eigenen Galaxie herauszufiltern, erhalten Sie eine etwas geringere Auflösung, und wir hoffen, dass wir Ende dieses Jahres, obwohl ich damit rechne, dass es Februar nächsten Jahres werden wird, die Max-Planck-Mission starten können, durch die wir viele Frequenzen und sehr viel höhere Winkelauflösungen usw. erhalten werden, und für mich sollte ein Satellit so aussehen, die Tarnkappenversion eines Satelliten, die bedeutet, dass die Technik stimmt. Und wir hoffen, diesen starten zu können und eine sehr hohe Auflösung zu erreichen, selbst, wenn wir den Vordergrund herausfiltern, und es ist dieser verschwommene Bereich, dem wir hoffentlich sehr viel präzisere Informationen über die lineare Polarisation der Hintergrundstrahlung hinzufügen können, etwas, von dem wir wissen, dass es vorkommen muss, und wir haben noch eine weitere Hoffnung, dass sie nämlich wirklich Beweise für den tatsächlichen Beginn des Universums liefern könnte. Wir wissen aber aus der Tatsache, dass wir Temperaturschwankungen erkennen können, dass etwas an Polarisation vorhanden sein muss. Das ist also der Stand der Dinge. Und nur um Ihnen zu zeigen, wie das geht: Hier ist eine Karte des gesamten Himmels. Sie haben also den Globus genommen und diesen plattgedrückt, um ihn zu sehen, mit dem COBE DMR, ohne die Galaxie, die entfernt wurde, und Sie erkennen am Himmel verteilt großflächige warme und kalte Flecken. Wäre der Satellit mit der Oberseite nach unten geflogen, zur Erde gerichtet anstatt weg von der Erde, hätten wir eine Karte der Erde erhalten, die ungefähr so aussieht. Sie können die Kontinente erkennen und es geht nichts Größeres verloren, nur Deutschland ist hier ein wenig schwierig auszumachen. Aber Sie sehen, man bekommt eine Vorstellung davon, wie die Welt aussehen könnte. Mit dem WMAP erreichen wir jedoch eine Winkelauflösung, bei der sich der Himmel so darstellt, und dies ist in Wirklichkeit in Planck-Auflösung, nicht WMAP, die Pixel sehen immer noch so aus. Man sieht aber dieselbe großflächige Struktur, nur sieht man auch feinere Details. Diese Karte sieht ganz anders aus als eine Karte der Erde in Planck-Auflösung aussähe. Ich sage immer, dass ich gerne ein Geologe gewesen wäre, wissen Sie, im 19. Jahrhundert mit dieser Karte, denn ich könnte großartig Geologie betreiben, Plattentektonik, sehen Sie sich nur diesen Mittelatlantischen Rücken an, die Form Afrikas, es ist ganz deutlich, dass es ein paar nicht-lineare Effekte im Universum gibt, die dazu führen, dass sich die Phasen ausrichten, und die zu diesen scharfen Kanten und diesen kohärenten Merkmalen in den großen Flächen führen. Wenn man sich jedoch die Bilder des frühen Universums ansieht, sieht das ziemlich wie Gauß’sche Zufallsfelder aus. Und wir machen den Test, auf einer sehr großen Skala, und wir erhalten 10 hoch minus 3, ein Zehntel Prozent also, dass wir es mit Gauß'schen Feldern zu tun haben, aber wir suchen nach feinen, kleinen, nicht-gauß'schen Merkmalen, denn diese würde uns etwas über die tatsächlich an der Entstehung der Raumzeit beteiligten Kräfte mitteilen, als die Felder verschwunden waren, an diesem Punkt gehen wir zur nächsten Ebene im Feld. Wir haben also dieses Modell des Universums, das an der Oberfläche sehr seltsam aussieht, tatsächlich aber ziemlich toll ist, es ist eine Art Standardmodell für die Kosmologie. Das Universum beginnt mit dieser Periode, die wir Inflation nennen, wobei es sich um eine Phase sich rasch beschleunigender Expansion handelt, die die Expansionsrate des Universums auf ein sehr hohes Niveau treibt. Dann gibt es einen phasenweisen Übergang oder irgendeine Art von Übergang und das Universum wird nicht weiter zur Beschleunigung getrieben, und die Schwerkraft beginnt zu greifen und fängt an, das Universum abzubremsen, und es bilden sich Strukturen. Und diese Periode der Zeit, als das Universum sich weit genug abgekühlt hatte, damit das Licht frei wurde, uns in Zukunft zu erreichen, diese Zeit, als sich die ersten Strukturen bildeten und die ersten Sterne aufleuchteten und die ersten Galaxien entstanden und das Licht beginnt, diese Zeit nennen wir das Dunkle Zeitalter, da es, soweit wir wissen, außer der Reststrahlung kein Licht gab. Und dann sehen Sie diese erste Generation von Sternen und Galaxien und sie entstehen, bilden sich, entwickeln sich langsam, verbrennen die ursprünglichen Elemente in die komplexeren Elemente, den Kohlenstoff, Stickstoff, Sauerstoff, Eisen, die Elemente, die wir wirklich gern haben, denn wir bestehen aus ihnen. Und schließlich entstehen die modernen Galaxien, die wir sehen können. Und wenn man die Geschichte des Universums nachverfolgt, seine sich stark beschleunigende Expansion, und dann wird es schnell langsamer, hier übertrieben. Und dann, aus irgendeinem Grund, entscheidet sich das Universum, wieder schneller zu werden und sich schneller auszudehnen, und das nennen wir die dunkle Energie. Und es ist das Zusammenspiel der verschiedenen Teile, der verschiedenen Komponenten des Universums, wir betrachten die Galaxien nicht als wichtig an sich, sondern als Indikatoren, die uns die große Fluidströmung des Universums zeigen, wie wenn Sie Rauch verwenden, um die Strömungen an einer Überschalloberfläche oder so was in der Art erkennen zu können. Die Galaxien bilden Indikatoren zur Erkennung des Flusses der gesamten Entwicklung des Universums. Und wir können jetzt mit Zuversicht festhalten, dass wir wissen, dass das Universum vor 13,7 Milliarden Jahren seinen Anfang nahm, mit einem Fehler von unter 1 %, was beängstigend ist, denn das bedeutet, dass es bei Ihren systematischen Fehlern darum geht, ob Sie die Theorie richtig verstehen, denn die Daten sind mittlerweile genau genug, um genau das möglich zu machen. Und während wir damit beschäftigt waren, Messungen des frühesten Teils des Universums durchzuführen, die anfänglichen Bedingungen festzustellen, um diese mit unseren unterschiedlichen Gleichungen auszuprobieren, um zu sehen, was später geschehen würde, führten andere Leute Messungen nahe liegender Teile durch, und wie bei dem Hubble-Bild, wenn man ein Bild macht, kann man herausfinden, was Sterne sind und was Galaxien sind, dann kann man sagen, nun gut, ich sehe zwar die Bäume nicht, aber ich sehe die Wälder und man zählt die Wälder, das ist Ihre Art der Wahrnehmung, Sie können Auszählen, wo sich die Galaxien befinden. Das hier ist der Sloan Digital Sky Survey, hier sehen sie den Ort, an dem sich ca. eine Million Galaxien befinden, jeder einzelne dieser Punkte, es gibt blaue Punkte und rote. Das hat einfach damit zu tun, Sie machen Aufnahmen, Sie werten diese aus und Sie werfen die Sterne weg, Sie betrachten die, bei denen es sich um Galaxien handelt, und Sie schätzen ihre dreidimensionale Position, Sie kennen den Winkel zwischen zwei davon und Sie müssen die Entfernung abschätzen, das machen Sie auf verschiedene Art und Weise und dann stellen Sie das grafisch dar usw. Wieder stellen wir die Erde in den Mittelpunkt und was Sie sehen ist so etwas wie eine große Wand, eine weitere ziemlich solide Wand, Leeren usw. und dann eine Abschwächung, nicht, weil sich die Galaxien entfernen, sondern weil Ihr Teleskop nicht stark genug ist, um so weit zu sehen, denn die Galaxien sind so weit entfernt, dass sie lichtschwach wirken. Und dann lassen Sie das Teleskop die Aufnahme machen und die Erde dreht sich und Sie machen eine weitere Aufnahme usw., so erhalten Sie dieses Kreissegment des Himmels. Dann drehen Sie das Teleskop auf einen anderen Winkel und erhalten ein neues Kreissegment des Himmels. Ich zeige Ihnen jetzt, hoffentlich, einen kurzen rotierenden Film dieser Version, und Sie sehen die Segmente aus dieser Himmelsdurchmusterung, Sie erkennen die große Wand, Sie erkennen die Leeren, und denken Sie daran, was Sie hier sehen sind nur ein paar Ausschnitte, diese Region hier in der Mitte fehlt, weil die Scheibe unserer eigenen Galaxie im Weg ist. Wir leben in einer spiralförmigen Galaxie, wir können durch einen großen Teil der Galaxie und der optischen Wellenlänge nicht hindurchsehen. Durch dies jedoch erhalten Sie eine Vorstellung von dem, was geschieht. Das ist also der Sloan Digital Sky Survey. Es gab eine weitere große Durchmusterung, die überwiegend von europäischen Gruppen durchgeführt wurde, hier rotiert es nur, jetzt machen wir einen Flug hindurch und Sie sehen ein ganz anderes Bild, wenn Sie sich darin befinden, als wenn Sie sich außerhalb davon befinden, von außen draufschauen. So hier drinnen wissen wir jedes Mal etwas über die Galaxie, die Spiralgalaxie und die Farbe, die wir einer Spiralgalaxie geben, diese Farbe oder eine elliptische Farbe, wir bewegen uns jetzt mit Warpfaktor eine Million, denken Sie daran, dass das Licht Millionen von Jahren zwischen den Galaxien unterwegs ist, und jetzt fliegen Sie mit einer pro Sekunde oder schneller vorbei, aber Sie erkennen, wie das Universum aussieht, wenn Sie sehr schnell hindurchfliegen würden. Jetzt verlassen wir die durchmusterte Zone und drehen uns um und schauen zurück. Das dauert ein bisschen, das Universum ist wirklich groß. Sogar mit Warpfaktor eine Million. Jetzt erkennen Sie die Ausschnitte aus den Durchmusterungen und Sie erkennen, dass sich die große Wand in Wirklichkeit ausdehnt, dies ist ein anderer Ausschnitt, aber die große Wand zeigt sich auch hier in diesem Ausschnitt, dass Sie sich anfangen müssen zu fragen: Wie kommt es, dass es eine große Wand gibt? Wie kommt es, dass es Leeren gibt? Wie kommt die große Wand zustande und wie passt das alles zusammen? Hier gibt es Regionen fast ohne Galaxien, hier gibt es Regionen mit vielen Tausenden bis Millionen von Galaxien, wie konnten diese Strukturen entstehen? Ich denke, das reicht. Jetzt setzen wir uns an unsere Computer und entwickeln Modelle, beginnen mit den anfänglichen Bedingungen, die wir aus der kosmischen Mikrowellenhintergrundstrahlung kennen, und lassen sie durch unsere Computer laufen und testen und tun, und finden dabei heraus, dass wir zusätzliche Komponenten hinzufügen müssen, und eine der zusätzlichen Komponenten, die wir hinzufügen müssen, ist die dunkle Materie. So am Schluss zeige ich Ihnen, wie die Simulation aufgebaut wird, indem ich Ihnen eine Simulation der dunklen Materie alleine zeige. Und in dieser Simulation, die ich Ihnen zeigen werde, die am Max-Planck-Institut in Garching durchgeführt wird…, wenn Sie diese mit sehr großem Maßstab betrachten, sieht das Universum sehr gleichförmig aus. Vergleichbar damit, wie es bei dem Teppich auf der Bühne hier der Fall ist. Wenn Sie den Teppich auf der Bühne genauer anschauen, sehen Sie, dass er aus jeder Menge unterschiedlicher Büschel besteht. Er ist ziemlich regelmäßig gewebt. Hier erkennen Sie, dass er nicht so regelmäßig gewebt wurde: Wenn Sie näher herangehen, finden Sie zufällige Fluktuationen, es gibt Filamente. Und wir erklären uns das so, dass die dunkle Materie vorherrscht und die dunkle Materie wird tatsächlich freigesetzt, weil sie nicht mit den Photonen interagiert, nur schwerkraftmäßig. Sie wird freigesetzt und beginnt damit, diesen kosmischen Rahmen oder dieses Gitter oder dieses Netz zu bilden, und dann später, wenn die herkömmliche Materie freigesetzt wird, fällt sie in diese Netze. Wenn also die herkömmliche Materie aufleuchtet, zeigt sie sich in diesen gelben Farben und Sie erkennen diese als Galaxien. Das ist unsere Vorstellung. Hier ist also die Simulation aus einer Milliarde Teilchen aus den Millennium-Berechnungen, und 1 Gigaparsec geteilt durch h entspricht etwa 5 Milliarden Lichtjahren, jetzt gehen wir tiefer hinein und es ist ein Gutteil des Universums, wir vergrößern den Ausschnitt und erkennen diese Filamente, es sieht aus wie eine organische Struktur, wir vergrößern diese Region, dies ist ein gigantischer Galaxienhaufen aus etwa Hunderttausend bis einer Million Galaxien, also wirklich ziemlich substanziell. Wir leben sehr abgelegen, wir leben nicht im Zentrum des Sonnensystems, wir leben nicht im Zentrum der Galaxie, der Galaxienhaufen, in dem wir uns befinden, ist sehr klein, wenn wir in einer Galaxie wie diese leben würden, wäre der Nachthimmel beeindruckend, aber wir leben in, na sagen wir, in einer Art Provinz und das ist irgendwie interessant. So das weiße Zeug hier ist der Rahmen, das ist die dunkle Materie, aber das Gelbe ist all das scheinende Licht und diese Entfernung hier entspricht in etwa der Entfernung zwischen uns und Andromeda. So hier drinnen das ist wirklich eine Art intensive Region, und das ist die Art von Haufen, die sich als wirklich helle Quelle von Röntgen-, ja sogar Gammastrahlen zeigt. Wir verkleinern diesen Teil schnell wieder, damit Sie ein Gefühl dafür bekommen, wie er aussieht, und Sie sehen, dass sich die Perspektive Gottes, aus der Sie von draußen drauf sehen, sehr von der unterscheidet, die sich bietet, wenn Sie umherfliegend drinnen feststecken. Ich zeige Ihnen gleich einen Umherflug. Volker Springel war der Leiter der dafür zuständigen Gruppe. Es werden mehrere verschiedene Simulationen erstellt. Jetzt führen wir dieselbe Simulation durch und fliegen hindurch, wieder mit Warpfaktor eine Million, und denken Sie daran, das Weiße ist die dunkle Materie, die Sie normalerweise nicht sehen können, die tatsächlich die vorherrschende Form der Masse da draußen ist, aber wir sehen die Lichter. Es ist ein bisschen so, als befänden Sie sich in den USA und fahren durch die Wüste und Las Vegas liegt in einiger Entfernung, Sie sehen diese hellen Lichter, Sie sehen sie viel weiter entfernt als Sie sich je vorgestellt haben, und das bedeutet nicht, dass es um sie herum keine Masse oder anderes Zeug gibt, es ist aber genau dort, wo die hellen Lichter sein müssen. Tatsächlich aber sind die hellen Lichter irgendwie daran gebunden genau dort zu sein, wo sich die meiste Masse befindet. Das spricht sich herum und natürlich sind die Menschen fasziniert von den hellen Lichtern und gehen so zu den großen Objekten, aber Sie können den Weg erkennen, den diese bilden, es gibt verschiedene Filamente und dort, wo sich viele Filamente schneiden, erhalten Sie einen sehr großen Galaxienhaufen. Und dort, wo es nur einen einfachen Satz Filamente gibt, erhalten Sie so etwas wie eine Kette von Galaxien oder eine Kette aus Galaxienhaufen, die dort entlang kommen, denn in der Regel bilden Galaxien kleine Gruppen, es gibt nicht sehr viele, die alleine auf weiter Flur vorkommen. Lassen Sie mich das überspringen, denn wir wollen nicht überziehen. Lassen Sie mich Ihnen die einfache Version der Simulation zeigen, die auf dem Illinois-Computer von den Leuten von Andrey V. Kravtsov durchgeführt wird, der an der University of Chicago ist, und es gibt zwei Dinge, die ich Ihnen erklären muss. Das Universum dehnt sich aus, aber in diesen Bildern zeige ich Ihnen kein sich ausdehnendes Universum, die Größe des Ausschnitts, den wir betrachten, wird ständig angepasst, so dass der Ausschnitt konstant bleibt, wir nennen das ein mitbewegtes Volumen. Und ein weiterer Faktor ist der, den die Astronomen unglücklicherweise Z nennen, aber 1 + Z ist der Maßstab des Universums heute verglichen mit dem Maßstab des Universums zu der Zeit, in der wir es betrachten. Wir beginnen erst, nachdem das Universum etwas 30 Mal…, 1/3 der heutigen Größe erreicht hat, und warum? Nun, wir begannen mit winzigen Störungen, die Fluktuationen, die wir sehen, stellen sich als sehr schwer zu erkennen heraus, denn sie liegen ungefähr in der Größenordnung 1 zu 100 000 und das Universum musste damals mit einer Rotverschiebung von über 10 hoch 4 beginnen und fing an, die dunkle Materie zu verklumpen, und die dunkle Materie verklumpte und verklumpte, aber das Wachstum ist linear, denn die Schwerkraft zieht zusammen, was die Expansion des Universums auseinanderzieht, und so anstatt exponentiellem Wachstum, wenn Sie etwas mehr Materie hinzufügen, mehr Schwerkraft, Sie fügen mehr hinzu, bei der Bildung des Sonnensystems, erhalten Sie exponentielles Wachstum, aber da Sie gegen die Ausdehnung des Weltalls kämpfen, erhalten Sie lineares Wachstum mit der Ausdehnung des Weltalls. So geschieht in der Zeit, in der das Universum von einem Zehntausendstel seiner Größe auf ein Drittel seiner Größe anwächst, nicht viel, denn das Universum ist so gleichförmig, dass das Wachstum so gering ist, dass es sich nicht lohnt, es zu betrachten, und so beginnen wir diese Simulation dort und Sie werden sehen, was geschieht…, wenn ich es schaffe, darauf zu klicken... Sie sehen, wie Klumpen anfangen sich zu bilden, und diese Klumpen beginnen zu verschmelzen und sie beginnen, Filamente zu bilden, und dann beginnen die Filamente, sich miteinander zu verbinden, und wenn Sie sehr genau hinsehen, gibt es einen langsamen Fluss entlang der Filamente, sodass Sie, wenn Sie Hunderte Milliarden Jahre hätten, die Dinge langsam die Filamente entlang in Richtung der Schnittpunkte sickern sähen. Hier läuft es also erneut, und dann passiert etwas Seltsames, das wir zuerst nicht bemerkt haben. Aber jetzt mit den Simulationen sehen wir es. Wenn das Universum ungefähr hier ist, ungefähr die Hälfte seiner Größe erreicht hat, beginnt die Bildung von noch größeren Strukturen…, nun, sie findet nicht statt. Und das liegt daran, dass sich das Universum jetzt entschließt, sich viel schneller als zuvor auszudehnen, und die noch größeren Strukturen verlieren gegen die schnellere Ausdehnung des Universums und das macht dem ein Ende. Und daher sind die Haufen, diese sehr großen Haufen so interessant. Sie sind die größten Strukturen, die sich je gebildet haben, und die sich, wie sich herausstellt, wissen Sie, nachts tatsächlich einschalten, sodass wir Sie mit optischer Astronomie sehen können. OK, wir haben hier also eine widerspruchsfreie Geschichte, bei der wir mit Fluktuationen beginnen können. Wir sehen das Universum, als es sehr klein war. Etwa vergleichbar mit Ihnen 12 Stunden nach der Empfängnis. Und wir lassen unsere Gleichungen laufen und bewegen uns vorwärts, einfache Newton’sche Schwerkraft und ein sich ausdehnendes Universum. Sie können allgemeine Theorie oder Newton’sche Schwerkraft verwenden, egal, Sie erhalten dieselbe Antwort. Und wir bewegen uns weiter, wir erkennen, wie sich dieses Filament neu bildet, das scheint die großen Strukturen zu erklären, natürlich würden wir gerne mehr Galaxien untersuchen und alles ausfüllen und auch die mittleren Regionen ausfüllen, damit wir es sehen können. Und es gibt ein paar Punkte, da machen wir Zwischentests, wir machen eine Menge Fortschritte und wir können das sowas wie überprüfen. Und dieses Bild scheint ziemlich gut zu sein, wir haben gute Messungen hier, wir haben ein paar Probemessungen hier herum und wir haben sehr gute Messungen hier und sie passen alle auf nette Art zusammen, das ist eine großartige Situation und wir haben..., um das zu erklären, fügen wir einfach ein paar Dinge hinzu, all die Materie, die wir kennen und lieben, die den Lehrstoff in der Schule bildet, die befindet sich in diesem 4-%-Stück hier. Und dann gibt es da noch diese dunkle Materie und diese dunkle Energie, aus denen die anderen 95 % des Universums, 96 % des Universums, bestehen, die wir per Hand einfügen mussten. Und alle Leute, die wissen, wie ein US-Dollar aussieht, hier ist dieses Symbol, das sich auch auf dem US-Dollar befindet, von dem die Leute sagen, dass es bestimmte Geheimbünde dort angebracht haben, denn sie haben uns nichts gesagt, und wirklich, sie hatten recht, hier sind all die unsichtbaren Atome und da ist die kalte, dunkle Materie und die dunkle Energie, da ist die ganze neue Ordnung. Aber alle diese Dinge sind neue Physik, die wir kennen müssen, aber es ist eine neue Physik, die wir absolut brauchen, um das Universum, das wir um uns herum sehen, erschaffen zu können, das ist das Problem. Das ist also echt spannend und eine recht interessante Sache. Ich möchte jetzt das Thema wechseln, daher muss ich einen Witz erzählen, Ich erzähle Ihnen einen Witz über einen Physiker am Valentinstag. Sie müssen sich das so vorstellen: Ein Physiker hat eine Tradition, Jeden Freitag nach der Arbeit geht er ins Eiscafé und setzt sich neben den letzten Stuhl in einer Reihe und er wendet sich an den letzten Stuhl, der leer ist, und fragt ein imaginäres Mädchen, ob er ihm ein Eis kaufen darf. Tja, wissen Sie, der Besitzer ist an die verrückten Typen von der Uni gewöhnt, besonders an die Physiker, also schüttelt er nur den Kopf und sagt nichts. Am Valentinstag jedoch ist der Physiker besonders verzweifelt und bittet sehr inständig, und der Besitzer kann sich nicht länger zurückhalten und fragt: dass das Vakuum absolut nicht leer ist, dass die Quantenmechanik behauptet, dass es dort alle möglichen virtuellen Teilchen gibt und dass eine endliche Wahrscheinlichkeit besteht, dass die Wellenfunktion eines wunderschönen, intelligenten Mädchens, das den Physiker wirklich gern hat, auf dem Stuhl neben ihm erscheinen und Wirklichkeit werden könnte, und dann wäre das Leben wirklich toll. Es könnte also geschehen, die Wahrscheinlichkeit ist nicht sehr hoch, aber es könnte geschehen. Da zieht der Besitzer seine Augenbrauen hoch und sagt: könnten Sie nicht einfach eines der Mädchen, die auch jeden Freitag hierher kommen, wissen Sie, fragen, und ihm ein Eis kaufen? Sie könnte ja sagen.“ Und der Physiker antwortet: Tja, richtig, wir wissen, die Chancen sind nicht sehr hoch. Es ist aber wahrscheinlicher als dass sich ein Mädchen wirklich materialisiert, obwohl man so vielleicht ein besseres Mädchen bekommt, aber Sie wissen ja, ein echtes Mädchen ist vermutlich besser als ein imaginäres Mädchen. Aber jetzt müssen wir dies anwenden… Der Grund, warum ich das aufgebracht habe, ist der, dass wir jetzt das Universum erschaffen werden, wir werden die Wellenfunktion des Universums realisieren und es wird Wirklichkeit werden und die sich beschleunigende Ausdehnung des Universums ist ein Horizont und es ist – wenn Sie einen steilen Gradienten haben, wissen Sie, dass es zum Tunneln kommt, so katapultieren Sie Elektronen aus Elektronenkanonen, oder auch jedes Mal, wenn Sie einen sehr steilen Gradienten eines Potenzialfeldes haben, einschließlich der Beschleunigung des Universums, kommt es zu Quantentunneln und Sie lassen Dinge geschehen. Ich behaupte also, dass dieses Bild, das wir hier sehen, vom frühen Universum, diese Fluktuationen, das sind Quantenfluktuationen, die sich zu jetzt kosmologisch signifikanten Größen aufgebläht haben. Das Universum hat submikroskopische Dinge um mindestens 60 Größenordnungen ausgedehnt, es hat also aus Dingen mit einer Größe von 10 hoch minus 30 Zentimetern Dinge mit einer Größe von 10 hoch 30 Zentimetern gemacht. Und eine dieser Quantenfluktuationen ist zufällig unsere Galaxie, eine der kleinen und späten – sie wurde nicht so stark gestreckt, daher wurde sie nur so groß wie eine Galaxie. Und wirklich, wenn Sie sich vorstellen, wie viele Quantenfluktuationen es in einem Vakuum gibt, in etwas, das im Vergleich zur Größe eines Atoms sehr klein ist, dann sind das Hunderte von Milliarden. Und wenn Sie jetzt diese Quantenfluktuationen nehmen und Realität werden lassen, erhalten Sie Hunderte Milliarden von Galaxien, ganz einfach, oder? Was ich sagen will, ist, es ist schwer, diese nicht zu erhalten, Sie sind Gott und Sie erschaffen das Universum, dann ist es schwer, nur eine Galaxie zu erschaffen, es ist viel einfacher, Milliarden von Galaxien zu erschaffen. Das ist also unser Bild. Und jetzt zeige ich Ihnen an 2 von 3 Dimensionen was mit unserem einzelnen dichten Klumpen geschehen würde, wenn wir eine Quantenfluktuation im Universum hätten, Sie werden sehen, dass ich diesem Klumpen so eine Art Gauß’sche Form gebe, da diese nett und praktisch ist, er beginnt sich auszudehnen während sich das Universum entwickelt, das wird eine Koordinate und der Grund, warum eine Kreiswelle davon ausgeht, es ist tatsächlich ungefähr so, ist, dass der Photonendruck so hoch wird, dass die Photonen beginnen, sich nach außen zu bewegen, aber sie interagieren mit den Elektronen und damit mit den Baryonen und sie blähen das Ganze auf, genau wie sich die Sonne ausdehnt. Und so können Sie sich dieses Ding vorstellen, dies ist der zentrale Klumpen, eine adiabatische Fluktuation, das ist eine gewisse Menge dunkler Materie oder eine gewisse Menge herkömmlicher Materie und Photonen und Neutrinos und Schwerewellen. Manche strömen mit Lichtgeschwindigkeit nach außen, da sie nicht interagieren, aber das Licht und die dunkle Materie interagieren und so breitet sich das Ganze wie eine große Sphäre aus, genau wie sich die Sonne wie eine große Sphäre ausbreitet, aber die dunkle Materie fühlt diesen Druck nicht, daher bleibt sie einfach dort im Klumpen. Lassen Sie uns das etwas genauer betrachten, wir betrachten 1 Dimension und unterdrücken, anstatt einer 1 Dimension unterdrücken wir 2 Dimensionen und betrachten dies radial, und ich nehme nur ein paar Fluidkomponenten, die dunkle Materie, die herkömmliche Materie in der Form, wir stellen sie uns als Gas, Elektronen und Plasma, Elektronen und die Protonen usw. vor, die Quarks, und die Photonen verursachen Mikrowellenhintergrundstrahlung, die zu jener Zeit vorherrscht - es ist so heiß und so dicht - die Neutrinos und die Schwerewellen merken das nicht, denn die Schwerewellen schießen einfach mit Lichtgeschwindigkeit hinaus. Die Neutrinos werden tatsächlich kaum gehindert. Sie alle hier haben diese Art Gauß’schen Klumpen und adiabatisch, was daran liegt, dass Interaktionen sehr schnell geschehen, wenn man alles zusammenpackt, jeder Freiheitsgrad wird gleichmäßig angeregt und es gibt genau die richtigen Verhältnisse von allem, überall im Universum. OK, versuchen wir jetzt also, das hier zu starten und sehen wir, was geschieht. Das also geschieht, sehen Sie, lassen Sie mich das hier bei 400 000 Jahren anhalten. Sie erkennen, wie sich die dunkle Materie langsam ausbreitet, ich lasse es nochmal laufen, hoffentlich, die dunkle Materie breitet sich völlig aus. Deshalb brauchen wir kalte dunkle Materie, die zufälligen thermischen Geschwindigkeiten der dunklen Materie müssen gering sind, damit der größte Teil der dunklen Materie im Klumpen bleibt und nur wenig aus dem Ende der Maxwell-Boltzmann-Verteilung beginnt, herauszufliegen, aber die Materie und die Strahlung bleiben äußerst eng aneinander gekoppelt bis wir bei einer Rotverschiebung von etwa 1000 ankommen, ungefähr 400 000 Jahre. Das lässt sich sehr leicht berechnen, ganz geradlinig, das ist definitiv Anfänger- oder Schulphysik, die Sie kennen. Und zu diesem Zeitpunkt bildet das Universum neutrale Atome und die Photonen interagieren nicht länger… zum letzten Querschnitt, und die Photonen beginnen, frei zu strömen, und dann ist da diese Dichte, die so eine Art runde Oberfläche ergibt. Und während die Photonen die Materie freigeben, beginnt die herkömmliche Materie, sich in den von der dunklen Materie geschaffenen Potenzialtöpfen anzusammeln, dem Gitter, das die dunkle Materie später bilden wird. Aber es gibt ein wenig überschüssigen Restklumpen hier draußen, bei ungefähr 450 Millionen Lichtjahren. Das würde bedeuten, wenn ich einen großen Galaxienhaufen nähme, sollte ich in der Lage sein, um diesen Galaxienhaufen herumzusehen und ein paar zusätzliche Prozent zu erkennen, denn das ist die Oberfläche einer Sphäre im Vergleich zum Zentrum der Sphäre. Ich sollte ein paar Prozent Extra-Galaxien aus dieser Entfernung sehen. Und das ist wirklich so. Es gibt 3 gemeldete Messungen aus der Sloan- und der 2-Degree-Field-of-View-Durchmusterung, die auf ungefähr 2-3 % Extra-Galaxien dort draußen hinauslaufen, denn das Volumen dort ist so groß, dass es statistische Bedeutung erhält. Und jetzt schlagen wir umfangreiche Durchmusterungen davon vor. Aber wir sehen das auch an der Strahlung. Dies ist der Klumpen, den wir in der kosmischen Mikrowellenhintergrundstrahlung erkennen werden. Wir werden um jeden großen Klumpen herumsehen, der komprimiert sein und aus besonders heißer Strahlung bestehen wird. Wir sollten diese sphärische Form erkennen können, mit einem Radius von ungefähr 450 Millionen Lichtjahren, und das ist eines der Merkmale, die sich zeigen. Und Sie sehen, dass die Neutrinos es fast nach draußen geschafft haben, aber eben nur fast, sie bewegen sich beinahe frei, aber sie erhalten einige Dellen und Stöße. Und wenn Sie das Ganze ein bisschen vor laufen lassen, erkennen Sie, dass die herkömmliche Materie in das Potenzial der dunklen Materie gezogen wird, aber ein kleiner Teil des Extrapotenzials wird draußen gelassen und zieht die dunkle Materie an, das ist es, was ich Ihnen erzählt habe, Sie erkennen den Haupthaufen und dann sehen Sie hier weit draußen eine kleine überschüssige Sphäre ringsum, und dann gibt es statistisch zufällig Extra-Galaxien hier und sie befinden sich in bekannter Entfernung, dieser mitbewegten Entfernung von 450 Millionen Lichtjahren, Sie erkennen also, wie dieses Merkmal entsteht, und bei den Durchmusterungen werden wir nach diesem Merkmal Ausschau halten. Und wenn wir noch einmal von vorne anfangen, erkennen Sie, wie eng das Licht und die Materie lange Zeit gekoppelt sind, und dann trennen sie sich und gehen ihre eigenen Wege. Und jetzt haben wir also einen Zollstock, prima, ich werde es wohl gerade schaffen, wir haben einen Zollstock, mit dem wir das Universum vermessen können, wir messen Entfernungen entweder anhand der Helligkeit oder wir messen Entfernungen anhand des Winkeldurchmessers, diese sind…, wissen Sie, wir brauchten etwas, dessen Größe wir kennen und das groß genug ist, um es durch das Universum hindurch sehen zu können. Und das wir sehen können, wenn das Universum tausend Mal kleiner ist, und das wir sehen können, wenn das Universum 10 Mal kleiner ist und das wir sehen können, wenn das Universum 2 Mal kleiner ist usw. Jetzt können Sie versuchen, Ihre Durchmusterung durchzuführen und das Universum auf diese Art zu vermessen. Als erstes können wir dabei die Geometrie des Universums vermessen, wir haben eine bekannte Entfernung und dann wissen wir noch, dass das Universum gekrümmt sein könnte. Und wir bilden also ein Dreieck aus der Größe dieses Klumpens, stellen Sie sich die Sphäre hier vor, betrachten Sie die Umrisse der Sphäre wie Sie auch die Umrisse der Sonne betrachten und messen Sie den gegenüberliegenden Winkel. Wenn das Universum wirklich wie die Oberfläche der Erde positiv gekrümmt ist, beginnen Sie mit 2 parallelen Linien des Äquators, senkrecht zum Äquator, sie konvergieren am Pol, sie treffen sich. Wenn Sie unter Verwendung euklidischer Geometrie zurückprojizieren, denken Sie, dass er größer aussieht, der Punkt sieht am Himmel größer aus. In der euklidischen Geometrie haben Sie eine Seite, Seite, Seite, wissen Sie, die Winkel des Dreiecks, Sie wissen, Sie können die Größe exakt voraussagen. Hätte das Universum die Form eines Trichters oder Sattels, würden die Lichtstrahlen beim Austreten divergieren, und wenn Sie das auf diese Weise betrachten und in Ihrer Vorstellung Lichtwellen rückwärts laufen lassen, erkennen Sie, dass sie divergieren würden, und wenn Sie euklidische Geometrie verwenden, sehen sie kleiner aus. Und so können Sie simulieren, wie der Himmel in Bezug auf die Größe der Punkte aus dem offenen Universum aussehen müsste, ein flaches Universum und ein geschlossenes Universum und als wir die ersten Ballondaten aus unseren Experimenten erhielten, warf ich einen Blick auf die erste Karte und sagte: und wir analysierten die Daten und sie lagen innerhalb von 10 % für flach, tja, wissen Sie, es ist immer gut darauf vorbereitet zu sein, was man zu sehen bekommen wird. Jetzt können wir anfangen und es vermessen und es stellt sich heraus, dass das Universum bemerkenswert wie bei der flachen Simulation aussieht, das ist gut für Euch Studenten, denn Ihr braucht keine hyperbolische Geometrie oder noch Schlimmeres zu lernen, und es ist leichter beizubringen usw. Dies hier ist eine kleine Simulation des Winkelleistungsspektrums, dies ist der Horizont und dann der zweite Horizont usw., und Sie erkennen, während man das Universum von flach nach offen gehen lässt, bewegt man sich von etwa 200 Fluktuationen bis zu einem Tausend, wenn es sehr offen ist. Wir wissen aber, dass es nicht so sehr offen ist. Sie können also die Daten bis zum, tja, es war bis zum heutigen Tage nehmen, aber die 5-Jahres-Daten von WMAP sind raus und ich habe meine Folien noch nicht aktualisiert, WMAP führt die Messung des ersten Peaks durch und des zweiten Peaks und ein bisschen des dritten und dann misst das ACBAR-Experiment weiter draußen, Sie sehen also die erste Oberschwingung dieses akustischen Peaks, die zweite, die dritte, die vierte, fünfte und vielleicht sogar die sechste. Sie beginnen mit einer Spektralanalyse des Himmels und erhalten so viele neue Zahlen und viele weitere Merkmale und Sie erfahren eine Menge, und sicher können Sie hierhin und dorthin schauen, das ist nur beinahe ein Grad am Himmel, es ist die Größe des Sound Horizon und die sagt Ihnen, dass das Universum beinahe flach ist, einfache geometrische Interpretation dessen, was das Universum macht. Jetzt beginnen Sie also mit der Spektralanalyse und Sie testen Ihre Modelle, Sie legen Simulationen der verschiedenen Universen an und Sie fragen sich, was wäre, wenn ich die Krümmung weg ließe? Es verschiebt die Dinge von links nach rechts und fügt diese Delle bei niedrigen, großen Winkelskalen hinzu. Was geschieht, wenn man dunkle Energie hineingibt? Nun, es verändert nicht sehr viel, außer dass die Maßstäbe größer werden. Hier ist man nicht so empfindlich. Was, wenn man herkömmliche Materie hineingibt und die Menge der herkömmlichen Materie variiert? Das führt dazu, dass der erste Peak höher ausfällt, der zweite runter geht, der dritte höher wird. Was geschieht, wenn man Gesamtmaterie, dunkle Materie hinzufügt? Das lässt jeden Peak höher ausfallen. Jetzt kann ich also zwischen Gesamtmaterie und herkömmlicher Materie unterscheiden, und ich finde 4 % herkömmliche Materie und rund 20 % dunkle Materie, und dies ist, was der Urknall, oder dies sagt uns vor 3 Minuten aus der Kernphysik, sagt uns, dass es nur 4 % herkömmliche Materie sind. Und hier stehen wir und verwenden Atomphysik und einfache akustische Oszillationen, eine einfache mechanische Situation, um erneut herauszufinden, dass es 4 % waren als das Universum 370 000 Jahre alt war. Und so können wir damit anfangen und was wir tun ist, wir schaffen uns diese Maßstäbe für die Ausdehnungsrate des Universums, wir können anfangen, die Parameter des Universums mit ziemlich großer Genauigkeit zu messen, wie ich schon sagte, waren es 2003 13,7 Milliarden Jahre, es gab einen Fehler von, wissen Sie, 20 Tausend Jahren dabei, gut, sorry, 20 Millionen Jahre dabei. Aber Sie können auch bestimmen, als das Universum 379 000 Tausend Jahre alt war, wurde die Strahlung frei, und sie haben die Fehlerbalken dafür usw. erreichten wir erheblich kleinere Fehlerbalken und diese Art von Dingen, und wir machen Fortschritte, und wir hoffen, wenn Planck aufsteigt, dass wir engere Beschränkungen und mehr Gegenproben erhalten, um das zu erkennen. So haben wir also den Fingerabdruck des Universums, das war die erste Folie, der Fingerabdruck, wir vergleichen den Fingerabdruck und wir werfen ihn weg und das ergibt die Frage: Was ist das für ein Zeug da draußen, das wir haben mussten? Was ist es und wo ist der ganze Rest der Materie? Und ich glaube für Euch Studenten gibt es 8 große Fragen, die Ihr beantworten müsst, damit wir das Universum genauer kennenlernen. Vielen Dank. Applaus.

Smoot Shows Computer Simulations.
(00:18:10 - 00:26:30)

Nobel Laureate David Gross, who received his prize in 2004 “for the discovery of asymptotic freedom in the theory of the strong interaction”, lectured on “The Future of Physics” in 2005. He presented 20 key questions in modern physics, several of which were related to cosmology. Among them were “What happened before the Big Bang?”, “ What is the nature of dark matter and dark energy?”, “Is general relativity valid where gravity is strong, i.e. in the proximity of black holes?”, “Can we measure the distortion in geometry created by black holes?”, “Can quantum mechanics describe complex systems like our entire universe?” These are some of the questions that young researchers, working in the field of cosmology, will have to tackle in the future. We hope that many of them will eventually be invited to Lindau as Nobel Laureates!

David Gross (2005) - The Future of Physics

Thank you very much, it’s a pleasure to be here. Indeed I decided in giving this talk to many young students and postgraduate students. A talk not on the past but rather on the future. And this is a talk that came out of a conference that was held at the institute that I direct in Santa Barbara, the Kavli Institute for Theoretical Physics, where we bring physicists together from all over the world to address the leading questions in theoretical physics. Celebrating 25 years of the institute we looked back on what we’ve learned in the last 25, 30 years but mostly we looked towards the future. And we’ve learned a lot in the last 25, 35 years. Some of it has been contributed by the distinguished guests in this room. It´s quite amazing when you look back 30 years ago how much we did not know. But it’s even more amazing to consider how much we do not know yet. And as I remarked in the banquet speech I gave last December in Stockholm, the most important product of knowledge is ignorance. It is the questions that we ask that form the basis of today’s science. And the questions we ask today are much more interesting and more profound than the questions that we asked 35 years ago when I was a student. Many of those questions have been answered. But today we are knowledgeable enough to be much more intelligently ignorant and to ask many more interesting questions. Questions that are more exciting and perhaps more profound than those we were asking 35 years ago. And so at our conference last October we asked the participants to submit, list their favourite questions that might guide physics over the next 25 years and out of those I selected 25 questions. Now, I am forced to shrink a talk which normally is scheduled for an hour and runs for an hour and a half to half an hour. So I’ve reduced the 25 to 20 and that’s not enough so I’m going to talk very fast. The institute covers physics in the very broad sense and the questions that I bring to you today are questions that interest theoretical physicists, not experimenters, theorists. But they are questions over the very broadest range of physics. All the way from cosmology and astrophysics, condensed matter physics, particle physics, string theory and even as you will see biology, where physicists are becoming quite interested. And I’m going to start immediately without, since I have so little time, at the beginning with question number 1 which was appropriately the origin of the universe. We are beginning to ask in a very serious way: How did the universe begin? We know from observation now that the Big Bang theory, that the universe began in a rather small condensed region of space about 15 billion years ago, is roughly correct and since then the universe has been expanding and we can extrapolate backwards. And when we do so all of our equations, all of our theories break down at what is called the Big Bang. Singularities develop, the laws of physics no longer apply as we know them. But now we are beginning to ask, and in fact astrophysics and cosmology demand that we address this very question, what happened at this singular point in our equations at least, where the universe began. What set the stage, what created the initial conditions? And how far back can we experimentally probe and observe. There is a curtain 200,000 years after the Big Bang, the microwave background, it’s hard to see beyond that curtain, but maybe we can with gravitational probes. Can theory explain the initial condition and determine the initial condition? Is that something within the domain of science? Was there a time before the Big Bang, is it just an illusion? Was there perhaps a collapse of a pre-existing universe which then expanded again or as some people have speculated, a cyclic universe that crunches and expands over and over again? These are questions that used to be almost philosophical and metaphysical, if not religious, but now are the subject of intense investigation by theorists and observers who try to determine the conditions near the Big Bang. Maybe the answer is that, and I believe this actually to be the case, that our conceptual framework of space and time is not sufficient yet to answer this question. The second question, second and third question, have to do with the dark components of the universe, that have been observed in the last few decades. We now know that the stuff that we are made out of, ordinary baryons and matter and nuclei, make up only a few percent of the energy density of the universe. Most of the matter is in the form of dark matter, that we have not yet observed directly and we don’t know what it is. We see it only through its gravitation pull on ordinary matter, that coalesces in the aggregates of dark matter to form galaxies. So what is the nature of this dark matter? How does it interact with ordinary baryonic matter? The standard hypothesis is that it is wimpy, which means that it consists of weakly interacting, very massive particles. And there are many candidates that particle physics has proposed, that could make up this dark matter and could have been produced in the early moments of the universe. But can we detect this matter directly, either by observing the wind of the dark matter that passes through our earth continuously or by producing the supposed particles directly in the laboratory? And how is the dark matter distributed in the universe? This is of enormous importance to astrophysicists, because the dark matter forms the background on which galaxies and structure form. Most of the energy in the universe appears to be in a form called dark energy, which we observe even more indirectly. The only clue we have to the existence of this dark energy, more precisely the negative pressure that seems to accompany it, is the acceleration of the universe. And it makes up almost 70% of the energy content of the universe at the present moment. This dark energy is very mysterious. What is its nature? Is it constant? We don’t know. Or does it vary with time, will it dissipate? Is it just Einstein’s cosmological constant, that he introduced as a natural component of a cosmological theory, originally to construct a static universe, but always a possibility and in quantum mechanical theories almost an inevitability since in quantum mechanical theories even the vacuum is full of fluctuating fields which have zero point energy. You can’t cool an object down to a point where it has no energy, since, according to the uncertainty principle, if you observe it, it starts to fluctuate. So it always has a zero point motion and a zero point energy. And any estimate in physics of what that zero point energy would contribute to the energy density of the vacuum is enormous. Much bigger than what we finally have observed. How can we explain that? Is that what this dark energy is and can we tell? It’s remarkable that most of the energy in the universe is in the form of this dark energy, and yet it is almost impossible to observe or to feel or to tell what its nature is. The next question in the list had to do again with interesting astrophysical questions. A formation, formation of stars, how do stars form. We more or less have a picture of how stars form in the evolution of stars, but this is now becoming in astrophysics, a truly quantitative science where the goals are to understand, not just have a qualitative picture of star formation but a quantitative ability to calculate the spectrum of masses of stars. The frequency of binary pairs and the clustering of stars when they are formed. An old, but now totally revived field of formation has to do with planetary formation. We now have observations of hundreds of planets outside of our solar system and enough data to begin to truly test our theories of planet formation and perhaps to answer the question, what is the likelihood or frequency of finding habitable planets that could have life on them. Question number 5 moves to general relativity which is the theoretical basis of cosmology and astrophysics in the large. Einstein’s theory of general relativity has been tested. But almost all the successful tests of relativity have been performed in the arena where the gravitational forces are very, very weak and the tests are very hard and the effects are very small. We look forward in the next decade or 2 to precision tests of general relativity at other scales. We all know that general relativity is likely to fail at the very smallest scales, but is it true at the large scales where gravity is strong? And luckily we have discovered now many massive black holes throughout the universe. It seems that every galaxy has in its centre a massive black hole, so does our galaxy. We’ve determined that by mapping the orbits of stars revolving around these massive black holes and deducing from Kepler’s laws, the mass, Newton’s laws, the mass of the black holes. But can we subject strong gravity to quantitative observational tests by looking at the properties of that black hole or by using gravitational radiation detectors - LIGO, LISA - which are just turning on. A very precise question is, can we use astrophysical observations to determine whether the cur metric, the distortion of space and time that’s predicted by relativity, correctly describes a geometry around - say the black hole -at the centre of our galaxy? And there’s a lot of research and suggestions that that might be possible. We might be able to measure the distortion of geometry created by black holes directly. Another edifice of our theoretical structure of the physical universe is quantum mechanics. And I was fascinated that at this conference we had, there were many people who questioned whether quantum mechanics is the ultimate description of nature. Or will it fail? And there are a variety of reasons why people worry that it might fail. Many expect that it would fail at short distances. Although I see no necessity or indications of that. Others feel that quantum mechanics might fail for large complex systems. They’re disturbed as most of us where when we learned quantum mechanics and contemplated Schrödinger’s cat. How can quantum mechanics describe large macroscopic objects like cats? And maybe it fails there, Tony Leggett believes that might be the case. Others believe that quantum mechanics might fail when confronted with the problem of consciousness, where supposedly measurements take place. Roger Penrose advocates this point of view. Again none of these points of view are ones that I am very sympathetic with. The one place I feel that quantum mechanics I feel uncomfortable with, is in describing the universe as a whole. A system which you can’t get outside of. And especially in the context today of scenarios such as inflation or eternal inflation where different portions of the universe might undergo quantum fluctuations and expand to create, in a sense new universes, which would never be in causal contact with our own. What meaning in that context does the wave function of the universe have? The next question has to do with the standard model of particle physics. This enormously and incredibly successful theory of all the standard forces of nature, that was developed and completed in the last part of the 20th century. Incredibly successful but full of mysteries. There are too many questions and mysteries here to put down. But among them are all the basic mass parameters and mixings of quarks and neutrinos and leptons, most of which we have now measured with great precision, but have no understanding of. The mass spectrum of quarks, which are the basic constituencies of baryonic, of nuclear matter, range from a few MeV for the light quarks that we’re made of to hundreds of billions of electron volts or dozens of billions of electron volts for the heavy quarks. We have no understanding of that pattern of masses and nor do we believe that our present theories can explain them. We don’t know how matter was created in the universe and why there’s an excess of matter over anti matter and although we have a scenario for explaining that, it is not yet a qualitative theory. Nor do we know what the lifetime of the proton is although we all suspect and believe that it is unlikely that the proton or ordinary matter is stable. There are many, many, many mysteries of the standard model. Perhaps the most important question that faces elementary particle physics is the question as to whether super symmetry, a new and beautiful symmetry of nature, for which there are many phenomenological indications exists as a reality in the physical world. This is a symmetry that has received one experimental confirmation, but surely not discovery, by the attempt to unify all the forces of nature. After the completion of the standard model it was understood that the forces so disparate in strength at low energies, the strong nuclear force and the weak and electromagnetic forces, since they vary with energy or distance, could unify at a very high energy. And indeed, when extrapolated from present day observation to higher energies, appear to come together as if they are unified and come from a unified theory at a very high energy scale, which corresponds to a very short distance scale. That extrapolation with increasing precision of both experiment and theory now only works if we add to the picture a new and beautiful symmetry of nature, called super symmetry. This is a space time symmetry that, like relativity, like Lorentz invariance, and Einstein’s relativistic transformations, acts on ordinary space time, yet one that is supplemented by extra dimensions, in this case quantum dimensions. There are many other phenomenological reasons why this scenario and this new symmetry is very appealing, solves many problems of particle physics, and points to an energy scale which is now going to be approachable by the Large Hadron Collider, which is now being built at CERN in Geneva and will be completed in 2 years. So is super symmetry there? This is in a sense the major issue in front of particle physics. And if it is there, how is it broken? It clearly is not manifest in the real world, otherwise we would have known. So it´s broken in the vacuum. What is the spectrum of the super particles? And if it is discovered and we know the spectrum and how is it broken, can we then work our way towards the scale of unification and understand the physics, that produces the breaking of this symmetry and perhaps much more? Within the standard model my favourite component is QCD, the theory we worked on. And there the problem is to solve the theory. This is a beautiful theory with essentially no parameters. It deserves to be solved exactly. But after 30 years we still can only calculate that masses of the elementary particles, the proton, the neutron and all of them by putting the theory on a computer and doing very intensive numerical calculations. That’s sufficient to solve the problem in a sense. But we would like an analytic solution. And the best hope still remains to construct a string representation, in some sense mesons, quark-antiquark pairs in a theory like QCD, which permanently confines the quark and antiquark together by producing a strong constant force between them, when they’re pulled apart. Looks like a quark and an anti quark at the end of a tube, a colour flux tube which in many ways behaves like a string. And strings theory, which was originally suggested to describe hadrons still as a dual description of QCD, provides perhaps one of the best possibilities of an analytic approach to the theory for large distances. Now I turn to string theory, which is the speculative attempt to construct a theory of all the forces of nature including gravity, and has been going now for almost 37 years. And the real question remains: What is string theory? We don’t really have a theory yet in the traditional sense that we could write down, a Lagrangian, a Hamiltonian, a formulation of the theory or know what its basic symmetries and principles are. We simply have many different dual views of the theory, many different ways of doing very precise and determined calculations of the theory at different starting points, starting from strings propagated in different space times. But they’re incredibly dissimilar pictures, and they’re all connected, and the lessons of this duality are only now beginning to be understood. And they threaten in a severe way our standard notions of elementarity and locality. We have representations of this theory that look totally different. Some of them involving strings propagating in some curved background space times. Some of them involving no space at all. Some of them being ordinary quantum mechanical systems. Some of them being ordinary gauge theories that underlie the standard model. And all of these by incredible transformations are believed, and there is incredible evidence that that’s the case to be, describing different approximations to the same thing, but we don’t yet understand what that same thing is, what is string theory. Now, partly I believe that this is due to the fact that we don’t yet understand what is space time. And in this string theory, which for the first time provides us with what appears to be a totally consistent theory of quantum gravity, our standard notions of space and time are being threatened. And we ask is space time doomed? As most string theorists sort of believe is the case, we have many indications that our traditional concepts of a smooth Riemannian manifold underlining our description of physical reality, space and time are not adequate. They are probably approximations to something deeper, that we don’t yet understand. Space and time we believe and already have examples within string theory of this, in the case of space is an emergent concept. Like temperature in a sense, it’s something that’s good for describing physics and many degrees of freedom in the large, but not at the microscopic level. And we can see how this works in the case of space. We have descriptions of string theory in which space emerges. To begin with there is no space at all, just time, and then space emerges for describing events that happen in the large. But we’re still stuck completely on trying to imagine the formulation of physics in which time is emergent. Time after all is so important for what we mean by physics. Physics is the science that predicts the future given the present. How can we formulate physics in a situation where time itself would be emergent. Connected with recent studies of string theory, we have to ask whether physics is an environmental science. Or more precisely: Can we really calculate everything? Or are some parameters of nature or even some laws determinant by accident? And the alternate point of view is the one which I advocate strongly, namely Einstein’s point of view that everything is calculable. And if a theory has undetermined, uncalculable parameters, it´s deficient, an indication that it should be replaced. But that idea is now under threat especially in string theory where it appears, there are lots of different meta-stable places where the universe could sit, vacua, and the only principle that could be invoked to determine where we end up is the fact that we are here to ask the question, the anthropic principle. I don’t like this and hope it´s not true, but can’t prove it. Coming down now to condensed metaphysics, one of the main questions here: Are there new states of matter, are there new behaviours of interacting condensed matter systems which are not described by the standard paradigm of solid state physics, Fermi Liquid Theory? Many of these have been discovered in theoretical laboratories but there remains an open question, as to whether they are accessible experimentally, and whether these ideas apply to interesting systems like high temperature super conductors. Quantum computing is a new field of physics, partly driven by the desire to construct a quantum computer which would be a quantum mechanical computing system. And in principle much more powerful than ordinary classical computers. But here one of the interesting questions is: Will quantum computers be quiet or deaf? The main obstacle to quantum computing is decoherence. If quantum system is in contact with the environment, it rapidly decoheres and becomes a merely classical system. And you could either try to combat this by making the computer quiet, isolating it from its noisy environment. Or making it deaf by encoding the information in topological quantum bits, that are delocalised and stable. And there’s an incredible amount of theoretical work on both of these possibilities. The experimentalist of course are faced with a real problem, to construct a computer, a real quantum computer which had at least 10,000 q-bits, at the moment they can only construct one with about 10. The question on applications, very theoretical question, however, can we understand enough about super conductivity and strongly correlated electron systems to understand whether there is a barrier for the critical temperature when material becomes super conducting? Is there any reason why we can not make a material, that is super conducting at room temperature? Another interesting question here was: Can we understand how to make a room-temperature ferromagnet out of engineerable electronic semi-conducting materials. I have three more minutes. Physicists are interested in biology it turns out, there are wonderful and interesting questions there. And physicists love tough problems and feel they can solve tough problems if there’s a theory there. Maybe there’s new mathematics required. It’s not easy, it’s very different than the complicated systems that theoretical physicists have dealt with before. Especially in the fact that there are incredibly different, wide ranging time scales involved in most interesting biological questions. One of the areas where theoretical physicists have moved into or tried to understand is genomics. The data is there, make sense out of it. Can one do this, is there an actually quantitative and predictive theory of evolution? There’s a lot of data in the genome, not just our genome but the rest of the species, that might be used to test such theories and theorists are trying to do that. And one of the problems, the questions I like the most was one that might be on a final exam in a theoretical biology course in 25 years, you give the students a piece of the genome and you ask them to draw the shape of the organism. Physicists are also willing to ask questions of neuroscience, a field that many physicists have moved into, because it’s a tough problem that clearly needs a theory. And they ask what are the principles that underlie this organisation responsible for memory and consciousness. And one of the questions I like the most, is the question that a physicist would ask: Can one measure the onset of consciousness in an infant, an infant presumably at some point develops consciousness? A new born infant presumably is not conscious or at least the embryo isn’t conscious, a teenager is, we presume. At some point there’s a transition, is it a continuous transition, discontinuous etc and how would you measure it. Computational physics This is the last question. The dangers of big science, which is in many fields particle physics, astrophysics, reaching the end and the question here is: What should we do about that? It’s a very serious problem for both fundamental particle physics as well as cosmology and astrophysics. And then of course a question I added which has a definite answer, even in this age of biology. Applause.

Ich danke Ihnen sehr und freue mich hier zu sein. Ich habe mich dazu entschlossen, diesen Vortrag vor vielen Studenten und Doktoranden zu halten. Einen Vortrag, der nicht von der Vergangenheit handelt, sondern von der Zukunft. Die Idee dazu entstand bei einer Tagung in dem von mir geleiteten Institut in Santa Barbara um maßgebliche Fragen der theoretischen Physik zu erörtern. Anlässlich der Feier zum 25-jährigen Bestehen des Instituts blickten wir auf die Erkenntnisse der letzten 25, 30 Jahre zurück, vor allem aber warfen wie einen Blick in die Zukunft. Wir haben in den letzten 25, 35 Jahren in der Tat viel gelernt. Viele dieser Erkenntnisse trugen die hier in diesem Raum anwesenden hervorragenden Wissenschaftler bei. In der Rückschau ist es recht erstaunlich, wie viel wir vor 30 Jahren nicht wussten. Noch erstaunlicher ist jedoch, wie viel wir noch nicht wissen. Wie ich bereits in meiner Bankettrede letzten Dezember in Stockholm angemerkt habe, ist das bedeutendste Produkt des Wissens Unwissenheit. Es sind die Fragen, die wir stellen, die die Grundlage für unsere heutige Wissenschaft bilden. Und die Fragen, die wir heute stellen, sind erheblich interessanter und tiefgreifender als die, die wir vor 35 Jahren gestellt haben, als ich Student war. Viele dieser Fragen wurden inzwischen beantwortet. Heute allerdings sind wir sachkundig genug, um auf intelligentere Weise unwissend zu sein und viele noch interessantere Fragen zu stellen. Fragen, die noch spannender und vielleicht noch tiefgreifender sind als die, die wir vor 35 Jahren gestellt haben. Und so baten wir auf unserer Tagung im letzten Oktober die Teilnehmer um die Einreichung ihrer Lieblingsfragen, die den Physikern in den nächsten 25 Jahren als Richtschnur dienen könnten. Ich habe daraus 25 Fragen ausgewählt, 25 Fragen, die für die Physiker in den nächsten 25 Jahren richtungsweisend sein könnten. Jetzt sehe ich mich gezwungen, einen Vortrag, für den normalerweise eine Stunde veranschlagt ist und der de facto anderthalb Stunden dauert, auf eine halbe Stunde zu kürzen. Ich habe es also auf 20 Fragen beschränkt. Aber das ist nicht genug, deshalb werde ich sehr schnell sprechen. In unserem Institut beschäftigen wir uns mit Physik im weitesten Sinne, und die Fragen, die ich Ihnen heute vorstelle, sind Fragen, für die sich theoretische Physiker interessieren, nicht aber Experimentalphysiker. Dennoch betreffen diese Fragen ein sehr breites Spektrum der Physik, von der Kosmologie und Astrophysik bis zur Physik der kondensierten Materie, der Teilchenphysik, der String-Theorie und sogar, wie Sie sehen werden, die Biologie, für die sich Physiker mehr und mehr interessieren. Da mir so wenig Zeit zur Verfügung steht, beginne ich gleich mit der ersten Frage: Welchen Ursprung hat das Universum? Wir fangen allmählich an diese Frage ganz ernsthaft zu stellen. Aus Beobachtungen wissen wir heute, dass die Urknalltheorie, nach der das Universum in einer eher kleinen kondensierten Region des Weltraums vor etwa 15 Milliarden Jahren entstanden ist, im Großen und Ganzen zutrifft und sich das Weltall seitdem ausdehnt, sodass wir Rückschlüsse ziehen können. Dabei schmelzen all unsere Gleichungen und Theorien auf diesen sogenannten Urknall zusammen. Es treten Singularitäten auf, die Gesetze der Physik, wie wir sie kennen, gelten nicht mehr. Doch jetzt beginnen wir Fragen zu stellen, und auch die Astrophysik und Kosmologie fordern, dass wir uns mit der eigentlichen Kernfrage beschäftigen: Was ist, zumindest in unseren Gleichungen, an diesem singulären Punkt, an dem das Universum begann, geschehen? Was hat den Weg bereitet, was die anfänglichen Voraussetzungen geschaffen? Wie weit zurück in die Vergangenheit können wir experimentell forschen und beobachten? doch vielleicht gelingt uns dies mithilfe von Schwerkraftsonden. Lassen sich die ursprünglich herrschenden Bedingungen theoretisch erklären und ermitteln? Fällt dies in den Zuständigkeitsbereich der Wissenschaft? Gab es vor dem Urknall eine Zeit oder ist das nur eine Illusion? Kollabierte vielleicht ein zuvor existierendes Weltall und dehnte sich dann erneut aus oder handelt es sich, wie manche spekulieren, um einen zyklischen Kosmos, der wieder und wieder zermalmt wird und sich anschließend wieder ausdehnt? All diese Fragen besaßen früher einen geradezu philosophischen und metaphysischen, wenn nicht gar religiösen Charakter, sind heute jedoch Gegenstand intensiver Forschung für theoretische und beobachtende Physiker, die die Bedingungen zum Zeitpunkt des Urknalls auszuloten versuchen. Vielleicht liegt die Antwort darin - und meiner Ansicht nach ist dies tatsächlich der Fall - dass unser Rahmenkonzept von Raum und Zeit noch nicht ausreicht, um diese Fragen zu beantworten. Die zweite und die dritte Frage beziehen sich auf die dunklen Bestandteile des Universums, die in den letzten Jahrzehnten beobachtet wurden. Wir wissen heute, dass gewöhnliche Baryonen, Materie, Kerne, also das, woraus wir bestehen, nur ein paar Prozent der Energiedichte des Universums ausmachen. Der Großteil der Materie liegt in Form dunkler Materie vor, die wir bislang aber noch nicht direkt beobachtet haben und deren Beschaffenheit wir nicht kennen. Wir können lediglich aufgrund ihrer Anziehungskraft auf gewöhnliche Materie, die sich mit den Aggregaten der dunklen Materie verbindet und Galaxien formt, auf sie schließen. Welche Beschaffenheit hat also diese dunkle Materie? Wie sehen ihre Wechselwirkungen mit gewöhnlicher baryonischer Materie aus? Gemäß der Standardhypothese sind die Wechselwirkungen äußerst gering, d. h., dunkle Materie besteht aus sehr massehaltigen, kaum interagierenden Teilchen. Die Teilchenphysik hat bereits zahlreiche Kandidaten ausgemacht, aus denen die dunkle Materie bestehen könnte und die in der Frühzeit des Universums hätten entstehen können. Doch ist es möglich, diese Materie direkt nachzuweisen, entweder durch Beobachtung ihres kontinuierlich unsere Erde durchdringenden Windes oder durch Erzeugung der vermuteten Partikel direkt im Labor? Wie ist die dunkle Materie im Weltraum verteilt? Diese Frage ist für Astrophysiker von enormer Bedeutung, da die dunkle Materie den Hintergrund bildet, vor dem Galaxien und Strukturen entstehen. Die meiste Energie im Universum scheint in Form sogenannter dunkler Energie vorzuliegen, die wir sogar noch indirekter beobachten. Der einzige Hinweis, den wir für die Existenz dieser dunklen Energie, noch genauer des mit ihr einhergehenden Unterdrucks haben, ist die Beschleunigung des Universums. Der Energiegehalt des Weltraums besteht derzeit zu beinahe 70% aus dieser dunklen Energie. Sie ist äußert mysteriös. Wie ist sie beschaffen? Ist sie konstant? Wir wissen es nicht. Variiert sie vielleicht mit der Zeit, wird sie dissipiert? Ist sie einfach nur Einsteins kosmologische Konstante, die er - ursprünglich zur Konstruktion eines statischen Universums - als natürlichen Bestandteil der kosmologischen Theorie einführte? Ist sie stets eine Möglichkeit und in der Quantenmechanik praktisch eine Unvermeidbarkeit, da in diesen Theorien selbst das Vakuum fluktuierende Felder mit einer Nullpunktenergie aufweist? Ein Objekt lässt sich nicht auf einen Punkt abkühlen, an dem es keine Energie mehr besitzt, da es nach dem Unschärfeprinzip in dem Moment zu fluktuieren beginnt, in dem man es beobachtet. Damit besitzt es stets eine Nullpunktbewegung sowie eine Nullpunktenergie. Der Beitrag, den diese Nullpunktenergie zur Energiedichte des Vakuums beitragen würde, wird in der Physik durchwegs als enorm groß eingeschätzt, wesentlich größer als von uns letztendlich beobachtet. Wie lässt sich das erklären? Handelt es sich dabei um die dunkle Materie und können wir das erkennen? Es ist bemerkenswert, dass der Großteil der Energie im Universum in Form dunkler Energie vorliegt und es dennoch fast unmöglich ist, sie zu beobachten, zu fühlen oder ihre Beschaffenheit zu erkennen. Auch die nächste Frage in der Liste hängt mit interessanten astrophysikalischen Fragestellungen zusammen. Wie entstehen Sterne? Zwar haben wir mehr oder weniger eine Vorstellung von ihrer Entstehung. Aber das wird jetzt in der Astrophysik eine wahrlich quantitative Wissenschaft. Die Ziele sind, zu verstehen, und nicht nur ein qualitatives Bild von der Sternenentstehung zu haben, sondern eine quantitative Möglichkeit, das Massenspektrum eines Sternes, die Häufigkeit von Doppelsternen und die Bildung von Sternenhaufen zu berechnen. Eine alte, nun aber wieder völlig neu aufgerollte Theorie der Sternenentstehung steht mit der Planetenentstehung in Zusammenhang. Bis heute wurden Hunderte von Planeten außerhalb unseres Sonnensystems beobachtet und es liegen ausreichend Daten vor, um unsere Theorien der Planetenentstehung wirklich auf die Probe zu stellen und vielleicht die Frage zu beantworten, wie wahrscheinlich oder häufig die Entdeckung bewohnbarer Planeten, auf denen es Leben geben könnte, ist. Frage Nummer 5 führt uns in die allgemeine Relativitätstheorie, d. h. die theoretische Grundlage der Kosmologie und Astrophysik insgesamt. Einsteins allgemeine Relativitätstheorie wurde zwar überprüft, alle erfolgreichen Tests erfolgten jedoch auf einem Terrain, in dem die Gravitationskräfte äußerst schwach sind. Die Überprüfung ist daher schwierig und die Effekte sehr gering. Wir freuen uns auf präzise Tests der allgemeinen Relativitätstheorie im größeren Maßstab in den nächsten 10 - 20 Jahren. Wir alle wissen, dass die allgemeine Relativitätstheorie im allerkleinsten Maßstab wahrscheinlich nicht gültig ist; trifft sie aber im großen Maßstab bei starker Gravitation zu? Glücklicherweise haben wir zahlreiche massereiche schwarze Löcher im Universum entdeckt. Es scheint, dass jede Galaxie in ihrem Zentrum ein massereiches schwarzes Loch besitzt, so auch unsere Galaxie. Festgestellt haben wir dies durch Aufzeichnungen der Umlaufbahnen von Sternen, die diese massereichen schwarzen Löcher umkreisen, sowie durch Ableitung der Masse dieser schwarzen Löcher von den keplerschen und newtonschen Gesetzen. Aber lässt sich starke Gravitation quantitativ beobachten, indem wir die Eigenschaften schwarzer Löcher untersuchen oder Gravitationsstrahlungsdetektoren - LIGO, LISA - einsetzen? Eine sehr präzise Frage lautet: Können wir anhand astrophysikalischer Beobachtungen feststellen, ob die von der Relativitätstheorie prognostizierte Krümmung, die Deformation von Raum und Zeit eine geometrische Form um, sagen wir, das schwarze Loch im Zentrum unserer Galaxie herum korrekt beschreibt? Zahlreiche Forschungsergebnisse deuten darauf hin, dass dies der Fall sein könnte. Wir sind also möglicherweise in der Lage, die Deformation der durch schwarze Löcher erzeugten geometrischen Form direkt zu messen. Ein weiteres Haus in unserem theoretischen Gebäudekomplex des physikalischen Universums ist die Quantenmechanik. Ich war fasziniert, dass bei unserer Tagung viele Wissenschaftler fragten, ob die Quantenmechanik die ultimative Beschreibung der Natur sei oder ob sie ungültig würde. Es gibt in der Tat zahlreiche Gründe für diese Besorgnis. Viele Physiker gehen davon aus, dass die Quantenmechanik bei kurzen Distanzen nicht zutrifft, auch wenn meiner Ansicht nach hierfür keine Notwendigkeit besteht und auch keine Hinweise vorliegen. Andere haben den Eindruck, die Quantenmechanik könnte bei großen, komplexen Systemen versagen. Sie sind verstört, wie es die meisten von uns waren, als wir in der Quantenmechanik von Schrödingers Katze hörten. Wie kann die Quantenmechanik große makroskopische Objekte wie Katzen beschreiben? Vielleicht ist sie ja hier ungültig - Tony Leggett glaubt jedenfalls, dass dies der Fall ist. Wieder andere sind der Meinung, die Quantenmechanik könne bei Anwendung auf das Problem des Bewusstseins, wo doch vermutlich Wertungen erfolgen, versagen. Diese Ansicht vertritt beispielsweise Roger Penrose. Mir allerdings behagt keine dieser Sichtweisen besonders. Ich halte die Quantenmechanik lediglich zur Beschreibung des Universums als Ganzem, also eines geschlossenen Systems, für geeignet, insbesondere im Zusammenhang mit dem aktuell entwickelten Szenario von der ewigen Aufblähung des Universums, gemäß dem verschiedene Regionen des Kosmos Quantenfluktuationen unterliegen und sich ausdehnen, sodass gewissermaßen neue Universen entstehen, die sich niemals in irgendeinem Kausalkontakt mit unserem Universum befinden werden. Welche Bedeutung hat in diesem Kontext die Wellenfunktion des Universums? Die nächste Frage bezieht sich auf das Standardmodell der Teilchenphysik, diese unglaublich erfolgreiche Theorie aller Standardkräfte in der Natur, die Ende des 20. Jahrhunderts entwickelt und zum Abschluss gebracht wurde. Unglaublich erfolgreich, aber voller Rätsel. Ich kann die vielen Fragen und Mysterien im Zusammenhang mit dieser Theorie nicht alle erläutern, es befinden sich darunter jedoch alle grundlegenden Masseparameter sowie Mischungen von Quarks, Neutrinos und Leptonen, die wir zwar heute mit großer Präzision messen können, aber nicht verstehen. Das Massenspektrum von Quarks, den Grundbausteinen baryonischer, nuklearer Materie, reicht von einigen MeV bei den leichten Quarks, aus denen wir bestehen, bis zu Dutzenden oder Hunderten von Billionen Elektronenvolt bei schweren Quarks. Wir verstehen weder diese Massemuster noch glauben wir, dass unsere aktuellen Theorien sie erklären können. Wir wissen nicht, wie Materie im Weltall entstanden ist und warum es mehr Materie als Antimaterie gibt. Zwar haben wir ein Szenario zur Erklärung dieser Tatsache entwickelt, es handelt sich aber noch nicht um eine qualitative Theorie. Wir kennen auch die Lebenszeit des Protons nicht, auch wenn wir vermuten und glauben, dass es unwahrscheinlich ist, dass das Proton oder normale Materie stabil ist. Das Standardmodell gibt uns sehr, sehr viele Rätsel auf. Vielleicht die wichtigste Frage, der sich die Elementarteilchenphysik gegenüber sieht, ist die, ob die Supersymmetrie, eine neue und wunderbare Symmetrie der Natur, für die es zahlreiche phänomenologische Hinweise gibt, als Realität in der physikalischen Welt existiert. In dem Versuch alle Kräfte der Natur miteinander in Einklang zu bringen, konnte man diese Symmetrie zwar durch ein Experiment untermauern, nicht aber aufspüren. Nach Fertigstellung des Standardmodells erkannte man, dass die Kräfte bei niedrigen Energien so unterschiedlich stark sind (starke Atomkraft und schwache elektromagnetische Kräfte), weil sie mit der Energie bzw. Entfernung variieren. Sie können sich bei sehr hohen Energien vereinigen. Schließt man von den aktuellen Beobachtungen auf höhere Energien, scheinen die Kräfte in der Tat zu verschmelzen, als hätten sie sich vereinigt und stammten von einer einheitlichen Theorie, und dies bei einer sehr hohen Energieskala, die einer sehr kurzen Distanzskala entspricht. Das Ziehen immer präziserer Schlussfolgerungen aus Experimenten und Theorien funktioniert jedoch nur, wenn das Bild durch eine neue und wunderbare Symmetrie der Natur, die sogenannte Supersymmetrie, ergänzt wird. Es handelt sich dabei um eine Raum-Zeit-Symmetrie, die wie die Relativitätstheorie, die Lorentz-Invarianz und Einsteins Relativitätstransformationen, eine normale Raum-Zeit ist, jedoch zusätzliche Dimensionen umfasst, in diesem Fall Quantendimensionen. Es gibt viele andere phänomenologische Gründe, warum dieses Szenario, die neue Symmetrie sehr verlockend ist, zahlreiche Probleme der Teilchenphysik löst und auf eine Energieskala deutet, die demnächst mithilfe des Großen Hadronen-Speicherrings zugänglich sein wird. Der wird zurzeit im Genfer CERN gebaut und wird in zwei Jahren fertiggestellt sein. Existiert die Supersymmetrie also? Das ist gewissermaßen die Kernfrage für die Teilchenphysik. Und wenn ja, wie wird sie gebrochen? Sicherlich manifestiert sie sich nicht in der realen Welt, ansonsten würden wir sie kennen. Sie wird also im Vakuum gebrochen. Welches Spektrum haben die Superteilchen? Wenn wir die Supersymmetrie entdecken und ihr Spektrum kennen würden und wüssten, wie sie gebrochen wird, könnten wir uns dann zur Vereinigungsskala vorarbeiten und die Physik verstehen, die zum Buch dieser Symmetrie oder sogar noch viel mehr führt? Mein Lieblingsbaustein in dem Standardmodell ist die Theorie, an der wir gearbeitet haben - die Quantenchromodynamik. Das Problem besteht dabei darin, die Theorie zu lösen. Die Theorie ist wunderbar und besitzt im Grunde genommen keine Parameter. Sie verdient es, exakt gelöst zu werden. Nach 30 Jahren gelingt es uns aber immer noch nicht, die Massen der Elementarteilchen, also Protonen, Neutronen und so weiter, anders zu berechnen als den Computer mit der Theorie zu füttern und ihn intensive numerische Berechnungen anstellen zu lassen. In gewisser Weise genügt dies zwar, um das Problem zu lösen, wir hätten aber gerne eine analytische Lösung. Wir hoffen daher weithin, dass wir in der Lage sein werden, im Rahmen einer Theorie wie der Quantenchromodynamik indem beim Auseinanderziehen eine starke konstante Kraft zwischen ihnen erzeugt wird - eine String-Repräsentation sowie Mesonen, also Quark/Antiquark-Paare entstehen zu lassen. Dies sähe aus wie ein Quark und ein Antiquark am Ende eines Röhrchens, eines Farbflussröhrchens, das sich in vielerlei Hinsicht wie ein String verhält. Die String-Theorie, die ursprünglich zur Beschreibung von Hadronen, als duales Beschreibunsgmodell der QCD entwickelte wurde, ist vielleicht eine der besten Möglichkeiten einer analytischen Herangehensweise an die Theorie bei großen Entfernungen. Jetzt wende ich mich der String-Theorie zu, einem spekulativen Versuch, eine Theorie aller Kräfte der Natur einschließlich der Gravitation zu entwickeln, der nun seit mittlerweile fast 37 Jahren verfolgt wird. Die eigentliche Frage bleibt: Was ist die String-Theorie? Bislang haben wir noch gar keine Theorie im herkömmlichen Sinne, die wir schriftlich festhalten könnten, keine Formulierung wie die Lagrange- oder die Hamiltonsche Formulierung, und wir kennen auch ihre grundlegenden Symmetrien und Gesetze nicht. Wir haben einfach nur viele verschiedene duale Sichtweisen der Theorie, viele unterschiedliche Arten, die Theorie von verschiedenen Startpunkten aus sehr präzise und determiniert zu berechnen, ausgehend von Strings, die sich in verschiedene Raum-Zeiten ausbreiten. Das Ergebnis sind absolut unterschiedliche Darstellungen, die aber alle zusammenhängen. Erst heute beginnt man allmählich die Lehren dieser Dualität zu verstehen. In gewisser Weise stellen sie eine ernste Bedrohung für unsere üblichen Vorstellungen von Elementarität und Lokalität dar. Manche Repräsentationen dieser Theorie unterscheiden sich grundlegend. Einige von ihnen propagieren die Ausbreitung der Strings in gekrümmte Hintergrund-Raumzeiten. Bei anderen kommt gar kein Raum vor. Wieder andere sind gewöhnliche Quantenmechaniksysteme. Manche sind normale Eichtheorien, die dem Standardmodell zugrunde liegen. Wir gehen davon aus, dass all diese unvorstellbaren Transformationen stimmen, und es gibt glaubhafte Belege dafür, dass es sich genauso verhält, dass nämlich diese Transformationen nur unterschiedliche Annäherungen an ein- und dieselbe Sache beschreiben. Wir verstehen aber noch nicht, was diese Sache, also die String-Theorie ist. Ich denke, dass dem unter anderem so ist, weil wir noch nicht verstehen, was Raum-Zeit ist. Und die String-Theorie, die uns zum ersten Mal so etwas wie eine vollständig einheitliche Theorie der Quantengravitation liefert, bedroht unsere üblichen Vorstellungen von Raum und Zeit. Und so fragen wir uns: Ist die Raum-Zeit dem Untergang geweiht? Die meisten String-Theoretiker glauben mehr oder weniger, dass dies der Fall ist; es existieren viele Hinweise darauf, dass unsere herkömmlichen Vorstellungen einer reibungslosen Riemannschen Mannigfaltigkeit, die unserer Beschreibung der physikalischen Realität bzw. von Raum und Zeit zugrunde liegen, unzulänglich sind. Es handelt sich dabei wahrscheinlich um Annäherungen an etwas Tiefgründigeres, etwas, das wir momentan noch nicht verstehen. Raum und Zeit, so glauben wir - und es existieren bereits Beispiele dafür in der String-Theorie - sind emergente Konzepte. Der Raum beispielsweise eignet sich genau wie die Temperatur in gewissem Sinne für die Beschreibung der Physik und zahlreicher Freiheitsgrade im Großen, nicht aber für die mikroskopische Ebene. Wir sehen, wie dies im Falle des Raums funktioniert. Es gibt Beschreibungen der String-Theorie, in denen der Raum entsteht. Anfangs gibt es überhaupt keinen Raum, nur Zeit; dann entsteht der Raum zur Beschreibung von Ereignissen, die im großen Maßstab stattfinden. Bei dem Versuch, uns die Formulierung einer Physik vorzustellen, in der die Zeit emergent ist, kommen wir jedoch absolut nicht weiter. Zeit ist für das, was wir als Physik bezeichnen, einfach etwas so Wichtiges. Die Physik ist die Wissenschaft, die anhand der Gegenwart die Zukunft vorhersagt. Wie können wir Physik in einer Situation formulieren, in der die Zeit selbst emergent ist? Im Zusammenhang mit kürzlich durchgeführten Studien zur String-Theorie müssen wir uns fragen, ob die Physik eine Umweltwissenschaft ist. Oder noch genauer: Können wir wirklich alles berechnen oder ergeben sich manche Parameter der Natur oder sogar bestimmte Gesetze durch Zufall? Ich bin ein starker Verfechter einer alternativen Sichtweise, nämlich der Einsteins, der alles für berechenbar hielt. Eine Theorie mit unbestimmbaren, nicht berechenbaren Parametern ist unzulänglich und sollte ersetzt werden. Heute ist diese Vorstellung insbesondere in der String-Theorie, in der es anscheinend zahlreiche unterschiedliche metastabile Orte gibt, an denen sich das Universum befinden könnte, bedroht, und das einzige Prinzip, mit dessen Hilfe sich bestimmen ließe, wohin sich die Dinge letztendlich bewegen, ist die Tatsache, dass wir hier sind und diese Frage stellen können: das anthropische Prinzip. Mir ist diese Vorstellung unbehaglich und ich hoffe, sie trifft nicht zu, aber beweisen kann ich dies nicht. Kommen wir nun zur kondensierten Metaphysik, einer unserer Hauptfragen hier. Existieren neue Materiezustände, gibt es neue Arten der Wechselwirkungen, existieren Systeme aus kondensierter Materie, die durch das übliche Paradigma der Festkörperphysik, die Theorie der Fermi-Flüssigkeit, nicht beschrieben werden? Viele dieser Phänomene wurden in theoretischen Laboren entdeckt, doch eine Frage bleibt offen: Sind sie experimentell zugänglich und gelten diese Vorstellungen auch für interessante Systeme wie z.B. Hochtemperatursupraleiter? Beim Quantencomputing handelt es sich um ein neues Gebiet der Physik, das zum Teil durch den Wunsch vorangetrieben wird, einen Quantencomputer, d. h. ein quantenmechanisches Rechnersystem zu entwickeln, das im Prinzip wesentlich leistungsstärker ist als normale klassische Computer. Eine der interessanten Fragen in diesem Zusammenhang ist, ob Quantencomputer geräuscharm oder taub sein sollten. Das größte Hindernis für das Quantencomputing ist die Dekohärenz. Kommt ein Quantensystem mit der Umgebung in Kontakt, unterliegt es rasch der Dekohärenz und wird zu einem rein klassischen System. Eine Möglichkeit, dem entgegenzuwirken wäre, den Computer geräuscharm zu machen und ihn auf diese Weise von der lauten Umgebung zu isolieren. Alternativ könnte man ihn taub machen, indem man die Information in topologischen Quanten-Bits verschlüsselt, die delokalisiert und stabil sind. Beide Möglichkeiten werden unglaublich intensiv theoretisch erforscht. Die experimentellen Physiker dagegen stehen natürlich vor dem faktischen Problem, einen Computer, einen richtigen Quantencomputer mit mindestens 10.000 Quanten-Bits zu entwickeln Nun noch eine Frage zur Anwendung, allerdings eine sehr theoretische Frage: Wissen wir genug über Supraleitfähigkeit und stark korrelierte Elektronensysteme, um zu verstehen, ob es eine Grenze für die kritische Temperatur gibt, wenn Material supraleitend wird? Gibt es einen Grund, warum wir kein Material entwickeln können, das bei Raumtemperatur supraleitend ist? Eine andere interessante Frage war, ob wir wissen, wie sich bei Raumtemperatur ein Ferromagnet aus elektronischen halbleitenden Materialien herstellen lässt. Jetzt bleiben mir noch drei Minuten. Wie sich herausstellt, interessieren sich Physiker auch für Biologie - hier ergeben sich wunderbare und interessante Fragen. Physiker lieben schwierige Probleme und sind der Ansicht, sie können sie lösen, solange es nur eine Theorie gibt. Vielleicht ist hier eine neue Mathematik erforderlich. Das Ganze ist viel schwieriger als die komplizierten Systeme, mit denen es theoretische Physiker bislang zu tun hatten, insbesondere im Hinblick auf die Tatsache, dass bei den meisten interessantesten biologischen Fragen ganz unterschiedliche und weit reichende Zeitskalen eine Rolle spielen. Einen Bereich, den theoretische Physiker für sich entdeckt haben bzw. den sie zu verstehen versuchen, ist die Genomik. Die Daten liegen vor, also lasst uns ihre Bedeutung herausfinden. Kann das gelingen, gibt es tatsächlich eine quantitative und prädiktive Theorie der Evolution? Das Genom beinhaltet sehr viele Daten, nicht nur unser Genom, sondern auch das aller anderen Arten. Mithilfe dieser Daten ließen sich solche Theorien überprüfen, und genau das tun theoretische Physiker derzeit. Eine der Fragen, meine Lieblingsfrage, könnte man in 25 Jahren Studenten der theoretischen Biologie in ihrer Abschlussprüfung stellen. Man gibt ihnen ein Stück Genom und bittet sie, die Gestalt des Organismus zu zeichnen. Physiker sind auch bereit, sich Fragen der Neurowissenschaften anzunehmen. Der Grund, warum sie sich neuerdings damit beschäftigen, ist, dass es ein schwieriges Problem ist, das definitiv einer Theorie bedarf. Sie fragen sich, welche Gesetze der für Gedächtnis und Bewusstsein verantwortlichen Ordnung zugrunde liegen. Eine meiner Lieblingsfragen könnte von einem Physiker gestellt werden: Ein Kind entwickelt ab einem gewissen Zeitpunkt ein Bewusstsein - kann man den Beginn dieses Bewusstseins bei dem Kind messen? Ein Neugeborenes hat vermutlich kein Bewusstsein, zumindest der Embryo nicht, ein Teenager dagegen schon. An einem bestimmten Punkt erfolgt also ein Übergang - ist dieser Übergang kontinuierlich oder nicht, wie könnte man ihn messen? Computergestützte Physik Und nun die letzte Frage: Wie groß ist die Gefahr, dass die Großwissenschaft und damit vor allem die Teilchen- und Astrophysik an ihrem Ende angelangt ist? Was können wir dagegen tun? Diese Frage bereitet sowohl in der Elementarteilchenphysik als auch in der Kosmologie und Astrophysik großes Kopfzerbrechen, und ich stelle sie hier natürlich, weil es darauf selbst im Zeitalter der Biologie eine klare Antwort gibt.

Gross Talks About Dark Matter and Energy.
(00:06:07 - 00:10:00)

Additional lectures by the Nobel Laureates associated with Cosmology:

Introductory Mini Lecture on Cosmology.
Paul Dirac 1959: Gravitational Waves.
Antony Hewish 1976: Extreme Physics in the Sky.
Paul Dirac 1979: Does the Gravitational Constant Vary?
Hannes Alfvén 1982: How Space Research Changes Our View of the Universe.
Riccardo Giacconi 2004: X-ray Astronomy.
Masatoshi Koshiba 2004: The Birth of Neutrino Astrophysics.
Frank Wilczek 2005: The Universe is a Strange Place.
Riccardo Giacconi 2008: The Impact of Big Science on Astrophysics.
James Cronin 2010: Cosmic Rays: The Most Energetic Particles in the Universe.
David Gross 2010: Frontiers of Physics.
Gerardus ’t Hooft 2010: The Big Challenges.
George Smoot 2010: Mapping the Universe and its History.
John Mather 2012: Seeing Farther with New Telescopes.
Brian Schmidt 2012: Observations and the Standard Model of Cosmology.
George Smoot 2012: Mapping the Universe in Space and Time.