The Quest to Explain Everything


Knowingly or not, physicists have been attempting to build a ‘theory of everything’ for well over a century. We now assume that this theory would link the four fundamental forces that govern the observable universe – electromagnetism, the strong force, the weak force and gravity – allowing humankind to finally unpick the fundamental workings of all known phenomena. Moreover, it would likely answer enduring mysteries, such as the nature of dark matter and dark energy, why time flows in only one direction and, maybe, how the Universe began. To quote the late, great Stephen Hawking: “If we do discover a theory of everything ... it would be the ultimate triumph of human reason—for then we would truly know the mind of God” [1].Today, physicists’ best explanation for everything is the Standard Model of particle physics. It describes 17 fundamental particles and explains three of the four known forces of nature, and how these forces interact with matter. It is extremely accurate and precise, and neat and simple. But it is not, by any stretch of the imagination, complete.

 


Electricity and Magnetism: Two Words, One Force

To understand why and how physicists are attempting to build a theory of everything beyond the Standard Model, it is useful to look back at the rich history of combining forces and concepts in physics. The starting point for unifying all the forces of nature was arguably Hans Christian Ørsted’s discovery that a magnetic compass needle could be deflected by an electric current in 1820. Fascinated, over the ensuing decades Michael Faraday explored and experimentally cemented the link between electricity, magnetism and light in terms of fields; even attempting, but ultimately failing, to discover a connection to gravity.

Heavily influenced by Faraday’s insights, in 1865 James Clerk Maxwell published his seminal paper: ‘A Dynamical Theory of the Electromagnetic Field’[2]. The paper described the deep connection between electricity and magnetism mathematically, showing that the two forces are essentially two sides of the same coin. Later simplified by Oliver Heaviside to just four equations from 20, Maxwell’s interpretation of this connection became known as Maxwell’s equations of electromagnetism.

Maxwell derived two revolutionary conclusions from his eponymous equations. The first was that light was nothing more than electromagnetic waves. The second, to paraphrase Albert Einstein (Nobel Prize in Physics 1921), was that physical reality should be thought of as represented by continuous fields and not capable of any mechanical interpretation[3]. Though Maxwell himself left the possibility of a physical aether acting as a medium for electromagnetic waves open, Einstein’s special relativity, first proposed in 1905, showed this not to be the case: no aether was necessary. That fields represent reality – that energy and particles literally reside in non-material fields existing everywhere in space – became the conceptual basis for one of the most important tools in the search for a theory of everything: field theory.

 

J. Hans Jensen (1965) - Change in meaning of the term 'elementary particle' (German presentation)

Ladies and Gentlemen! My colleague, Mr. Mecke, put me somewhat on the spot with his phone calls, because I was now in the difficult situation of having to prepare a lecture for an auditorium in front of which I was not accustomed to speak. I was not able on such short notice to draw up an adequate report from my research field, so I had no choice but ask Mr. Mecke for permission to reach into my desk drawer and largely base my lecture on the manuscript of a presentation I held a few weeks ago at the anniversary celebration of the Heidelberg Academy. I must therefore ask the physicists among you who attended the Heidelberg lecture to bear with me today should I mention too many trivialities. Back then I also thought it would be better to focus not so much on the newest facts and realizations that came to light over the last few years in the world of elementary particles, but instead to reflect on how these concepts were formed. And I find this to be a particularly impressive example of how all of our concepts in the field of physics, and not just the concepts, but also our ways of thinking, must constantly be corrected by and adapted to experience, and how little a priori knowledge has in fact remained in today’s description of nature. The topic I had chosen was “The change in meaning of the term ‘elementary particle’”, and this change in meaning is caused by the fact that in the development of coining terms in physics, it is common practice to keep outdated names and words, but at the same time to give them a different, more precise definition, and to free all of these thus used terms of subtle associations to the greatest extent possible. Naturally, I had to, when discussing such a topic, spend a large part of my lecture on what you could call historical observations. However, there are many reasons why I have to forego explaining the origin of the terms “element” and “particle” in ancient thinking, not least because we are short on time. Unfortunately also because I never had the fortune of receiving a classical humanistic education, which is why in spite of it all, my efforts to fully grasp the ways of thinking in ancient times remain those of an amateur. Terms such as particle or atom most likely arose from conclusions inferred by reflecting on very simple observations. Meaning that when you take apart complicated structures, e.g. when you break up a piece of fruit or a sacrificial animal, you will end up with individual parts that fundamentally differ from each other and also differ from the structure as a whole. Yet when you make a drop of mercury burst into smaller droplets, all of these droplets, apart from their size, appear to be completely identical to the original drop. That gave rise to the obvious question whether it was possible to continually perpetuate this division process and keep ending up with identical particles, or whether this division process ends when you reach minute, non-divisible particles, the atomoi. In the ancient world, the art of experimenting of course and most likely also the ability to formulate questions was not yet sophisticated enough to allow thinkers to actively test such questions. It was not until the second half of the previous century that scientists began to provide substantial answers, develop processes to count atoms, and particularly in the first half of this century, to determine their diameters. It might be helpful to point out that in the ancient world the conceptualization of atoms gave rise to some very peculiar speculations. Namely, if matter is supposedly made up of atoms, then these atoms must be separated from each other by a void. This question of emptiness kept resurfacing in antiquity, the question of how this “void”, the “pure nothingness” or the “non-existing” could possibly exist, meaning how it could be of importance to us, to the world that surrounds us. We will later see how modern-day physics has learned to give a very substantial and concrete and highly unexpected reply to this dilemma, if you would call it that. I have even less time to elaborate on the development that led to the modern term chemical element. It seems that in today’s concept of elementary particles, the term “elementary” is once again converging in a sense with ancient ways of thinking. I will also revisit this topic later on in my lecture. In my opinion, one of the fundamental, most important steps with regard to more precisely defining the concept of atoms in the physical understanding of matter took place in the age of Isaac Newton, and please allow me to read out some passages from his book entitled “Opticks” published in the year 1704. This is one of the few works he wrote in English. And in the roughly 60-page annex to this work, which he called “Queries”, Newton discusses a very large number of different phenomena, which we would nowadays assign to the field of physical chemistry, and then he summarizes his conclusions in a few sentences, which I - well, should I read them out in English – I could perhaps start by reading out the abridged translation, meaning the German version. So he discusses all of these facts, and then he continues as follows: massy, […] impenetrable, movable particles, […] as most conduced to the end for which he formed them; and that these primitive particles […] are incomparably harder than any porous bodies compounded of them; even so very hard, as to never wear or break in pieces; no ordinary power being able to divide what God made one in the first creation.” are to be placed only in the various separations and new associations and motions of those permanent particles.” Up to this point, these are still largely concepts adopted from ancient thinking. But then the great discoverer of celestial mechanics and the law of gravity has his say. I will have to read out this part in English. accompanied with such passive laws of motion as naturally result from that force, but also that they are moved by certain active principles.” That is what forces used to be called back then. And now comes the important sentence: He then explains this by emphasizing his opposition to the conventional understanding of his time, which still used the concept of “occult qualities” as adopted and passed on by scholasticism and the Renaissance. and to be the unknown causes of manifest effects […] uncapable of being discovered.” And then Newton continues as follows: which it acts and produces manifest effects, is to tell us nothing: but to derive two or three general principles of motion from phenomena, and afterwards to tell us how the properties and actions of all corporeal things follow from those manifest principles, would be a very great step in philosophy.” With these sentences, Newton, fully in line with his celestial mechanics, formulated a program which researchers in the field of physics systematically pursued in the subsequent centuries. Basically, just like gravitational forces act between inert celestial bodies, Newton’s “massy particles” also do not possess specific, inexplorable occult qualities that cause the variety of their behaviour, but that instead there are universal, explorable forces acting between them and determining their motion and their cohesion. Discovering these laws became the task of physicists researching matter. Newton himself, by studying the phenomena discussed above, had already concluded that the forces between atoms over a shorter distance should be much stronger than the gravitational forces, but that they rapidly become weaker the greater the distance becomes. Now, this diagram of matter is based on a dualism that is also characteristic of Newtonian celestial mechanics. We have, on the one hand, the massy atoms, on the other, the forces between them acting in the void, which determine the movement of the atoms, and thus a peculiar dualism, which in the previous century was described using keywords like force and matter, and was heavily discussed even in non-scientific literature. This dualism was resolved in a highly unexpected way around the turn of the century, on the one hand by Faraday’s field theory, and later by the concept of a complementary description of Nature developed by Born, Heisenberg and Bohr. And even though these things have already been mentioned here today, and will also be addressed tomorrow by much more qualified experts, I do have to quickly touch upon some aspects. Not until the 19th century did researchers ascertain that the forces Newton assumed acted between the atoms could be ascribed exclusively to the electromagnetic phenomena, and that we must therefore build on the terms derived from the art of experimentation and from the genius of Faraday and Maxwell, namely Faraday’s concept of force fields, which was certainly one of the most promising terms in physics. It was not until the start of this century, I believe, that this concept gradually gained acceptance on the continent, while the term “action at a distance” remained dominant under Neumann and Gauss for a long time. The basic principle, as you all know, is that an electrical charge does not act on another through a void, but instead acts via an agent, albeit not a material one in the traditional sense of the word. Namely, every charge must be understood as the source of an electrical force field that suffuses space, and that its effect can be detected by another charge. And yet this field must suffuse the space in reality, even when its presence cannot be detected by another charge at a particular moment. The most important finding of this experiment was that if one moves the source of such a field through space, more specifically accelerating it, then these fields can even become detached from their sources and travel through space and thereby - by studying this motion, it was also established that changes in the electrical fields are linked to changes in magnetic fields in the same location, and vice versa. However, this statement that these fields exist in reality, only made sense after showing new, verifiable physical consequences. These consequences emerged in the finding that the fields continually distributed in space carry both energy and momentum; properties that, up until the turn of the century, were commonly only ascribed to material particles. And, as you know, all of these consequences were proven by the discovery made by Heinrich Hertz and all of the scientific work that followed. That is how experience gained through experiments as perceived by the ancients turned the dichotomy of the filled, “to pleres”, and the void “to kenon”, into a picture of no-longer-material yet real fields existing everywhere in space, and their sources connected to atomic matter. However, as you all know and as we will hear tomorrow, this picture was subject to yet another fundamental change, this time initiated by Max Planck. That is because more subtle experiments showed that the electromagnetic fields travelling through space as waves do in fact transport energy and momentum in a quantum-like manner during certain experiments, and that at the same time these fields also showed traits hitherto commonly described solely in the corpuscular picture. Well, this conflict was long considered to be an irritating paradox, until the researchers mentioned earlier taught us to better adapt this term to the empirical world in the sense that both the concept of corpuscles and the concept of a space-filling field continuum are, on their own, not suitable for describing natural phenomena right down to the last detail. They are both necessary, both useful in the sense that they grow together as mutually limiting but also as complementary terms in a closed description of the phenomena. For this Bohr coined the term “complementary description of Nature”. As you know, since then it has also been the reverse, that not only the electromagnetic fields show corpuscular properties, but that precisely what we used to define as corpuscles, such as electrons, also possesses inherent field properties. Tomorrow you will hear more on this topic, so I can be brief. What I find peculiar is that these formulations of complementary description apparently appear more familiar and plausible to the younger generation of physicists than Newtonian celestial mechanics with its action at a distance, and that one keeps getting asked: For our purpose, now that I will be talking about the actual topic of this lecture – unfortunately 20 minutes later than planned – suffice it for us to note that whenever the subject of elementary particles is addressed in future, these particles are not only sources of force fields with reciprocal interaction, but that at the same time they themselves, in their function as elementary particles, also possess field properties as far as their laws of motion are concerned, and that these field properties are even dominant in suitable experiments. Furthermore, it does not matter whatsoever whether we are talking about elementary fields or elementary particles. They mean the same thing in Bohr’s sense of the word. I would now like to revisit the subject of atoms. Allow me to once again repeat the peculiar phrase in Newton’s work: If by “ordinary power” he meant the technical means available in his time, then he was certainly right. It was not until the end of the past century that researchers in the field of electrical engineering managed to harness electric voltage in a laboratory, such as the one that occurs between a storm cloud and the Earth, that we were forced to realize that the atom is not the last unit either, but that it in fact has a structure. And I heard that this very development was illustrated in an impressive manner just yesterday, so that I can once again be brief. We still electrons and about atomic nuclei to talk about, the volume of which is trillions of times smaller than that of the atom as a whole. Well, but that still means that the more than 100 chemical elements known today correspond to more than 100 different atomic nuclei. And today it seems natural to ask ourselves if these nuclei could possibly have a structure of their own and if they are comprised of elementary building blocks. And what is interesting is that long before the atomic hypothesis was experimentally consolidated, Prout, an English natural scientist and also highly renowned doctor, Prout put forth in the year 1850, albeit cautiously and using a pseudonym an essay presenting the hypothesis that – in fact two papers, published in 1815 and 1816 in the “Annals of Philosophy” – he hypothesized that all chemical elements are derived from a primitive substance which he called “prote hyle”. He supported his hypothesis by bringing up the apparently integer relations between atomic weights, which at that time were not yet precisely known. Now, as you know, this hypothesis has been fully confirmed. The first indication of a structure within the atomic nucleus was given to us by Nature itself, in the form of natural radiation discovered and studied in the 70 years ago by Becquerel and the Curies. But from experiments with electromagnetically accelerated particles we then learned that the atomic nucleus consists of two building blocks. One is the nucleus of the hydrogen atom, the proton. The other an electrically neutral particle with an almost identical mass, the neutron. And now we come to the point: Do we want to call the neutron an elementary particle? I still vividly recall in the first few years following the discovery of the neutron a wide-spread debate that came up during my university days: Is perhaps the neutron in fact made up of an electron and a proton? This was supported by the fact, after all experimental discrepancies were eliminated when determining mass, that the neutron was lighter than the proton. It was also seemingly supported by the fact that a neutron could also disintegrate into an electron and a proton. But then we learned, especially by studying artificial radioactivity, that the opposite can also occur. A proton can just as well turn into a neutron and a positron. It does not make sense to discuss whether a neutron is made up of an electron and a proton, or whether a proton is made up of a neutron and a positron. Instead, we need to say that in these disintegration processes, these new, meaning these light-weight particles, the electron, and, as you also know, I will soon revisit this topic, that the neutrino only really come into existence, are only really created in this act of decay. Accordingly, we can rightly consider the proton and the neutron as simply being two manifestations of one and the same particle, an elementary particle, of which one of these manifestations in unstable. During this decay, electrons are created in the same way as we always assumed, that light, meaning its quanta, the photons, are surely not present in a glowing body before they are emitted in the illumination. We have thus distanced ourselves quite a bit from the conceptualizations of elementary particles, because originally – which is why I quoted the Newtonian laws earlier – the stability was the primary feature traditionally associated with the concept of anything elementary. Later on we will see that there are particles that are much more short-lived than the neutron, which after all has a lifespan of 1000 seconds, and we would like to consider these particles as being elementary. The next step leading us away from the naïve concept of particles then made us come to the realization that we must ascribe certain intrinsic properties to the elementary particles if we wish to characterize them. This wording sounds at first, so - it is reminiscent of the occult qualities that Newton rebuked so strongly. We will however see that this is not the persuasion, but rather that these intrinsic properties can be very precisely defined, measured. Namely, apart from the electric charge, that distinguishes a proton from a neutron, we also need to attribute a size to these particles, as an intrinsic property. Namely one that can be dynamically characterized and that is described using the term spin in classic mechanics or electrodynamics, similar to the effect of a billiard ball. Without there being any point in saying that the particle really rotates in space. Because it is no longer possible to attach markers or something similar to these particles in order to observe any rotation. This is an external argument. The important thing is that the structure, the mathematical structure of these intrinsic properties, is such that this rotation principally cannot be observed. Incidentally, this intrinsic spin is pretty much the only characteristic of a neutrino, which I mentioned earlier in connection with beta decay. This uncharged particle without mass has such low interaction with the matter of which our measuring equipment is made up, that it could not be verified empirically until about ten years ago, even though Pauli had already proposed its existence back in 1930 in a famous letter addressed to his colleagues attending a session in Tübingen, so as to bring order into radioactivity-related phenomena, which were largely unexplained at that time. It is only thanks to the advances made in experimentation technology thereafter that it became possible to finally prove its real existence. Now, in the case of the neutrino, the intrinsic spin was pretty much the only characteristic of this elusive particle, which Pauli was able to positively predict - apart from the fact that it transported energy. Almost all other characterizations can only be expressed as negations. It has no mass, it has no charge, no electromagnetic effect, etc. And we could thus, with regard to the neutrino, allude to the slightly altered version of a verse penned by Christian Morgenstern: “It is a spin, nothing more.” The reason I have told you this is to highlight the different opinions on intrinsic properties. These intrinsic properties also made it subsequently possible to develop the concept of antiparticles, how the positron is the antiparticle of an electron. They can both, when joined, completely cancel each other out. All of the particles’ intrinsic properties disappear along with the particles themselves, and are replaced by the mechanical and energy-momentum, angular-momentum properties that now resurface in the emitted radiation thereby. These antiparticles are also created in pairs. I do not believe it is necessary to analyse the numerous, rather confusing accounts that have been portrayed in the media over the past few weeks following the discovery of the antideuteron, or the detection of the antideuteron. So these antiparticles of protons, first predicted by Dirac, were discovered roughly ten years ago by a group of researchers in Berkeley, and in the meantime there were many, many other particles, almost too many other particles, that would become hotly debated and now already had antiparticles. And the only possibly exciting thing about all of this is that two antiparticles were simultaneously created in the antideuteron, which requires a large amount of energy and momentum. And that the transfer of energy and momentum to these two particles, the created antiproton and antineutron, was such that they even stayed together and could move through the measuring apparatus as a deuteron. That they did not immediately break apart again into an antiproton and an antineutron. Yes, then let us move on to the main problem, namely that up until the mid-‘30s, the known building blocks of matter were the nucleon in its two manifestations, as well as the electron, which itself acted as a source of the electromagnetic field. Just like the charged forms of the nucleon. In addition, we knew of the quanta of electromagnetic radiation, the photons, and could finally rightly also define the neutrino as an elementary particle. Back then, the only problem that seemingly still needed to be solved was the question regarding the nature of forces that hold the protons and the neutrons together, and use these building blocks to form the nucleus. And scientists hypothesized that these forces do not in fact act at long distance between the nucleons, but that they are transmitted through a field instead. This hypothesis and all its consequences will be presented tomorrow by Mr. Yukawa. Researchers knew that these forces - or Yukawa also decided that these forces must be significantly stronger than the electromagnetic force when the nucleons are within close proximity of each other. And because of this short distance, it became necessary to finally ascribe a finite mass to the quanta of this new force field that was now expected to complete the picture of matter, around 1/7 of the nucleon mass. And Yukawa called the quanta of this field, which transfers the interaction of the nucleons, the “mesons”. And back then, physicists were actually convinced that by conducting experiments to study these mesons, these very quanta which could be created in sufficient numbers using the right accelerators, it would be possible to obtain all the needed information about the nuclear forces, and that they would thereby be able to truly complete the picture of the structure of matter. Now, as you know, these mesons were initially discovered at a location from where the universe itself sends us very highly energetic projectiles, in cosmic radiation. And I do not wish to elaborate on the slight confusion that existed with regard to correlating the particles discovered in this cosmic radiation with these quanta of nuclear forces. Many years later, it finally turned out that the particles scientists initially believed to be Pi mesons, the quanta of the nuclear force field, in the cosmic radiation were not Pi mesons at all, but in fact only still the decay product of this Pi meson. Yet later the Pi meson itself was also discovered in cosmic radiation, and I believe that the whole program in which physicists all over the world, as long as sufficient funds were available and other conditions were met, then began investing great efforts into building particle accelerators in the post-war years in order to study these mesons, it was founded on a firm belief: Once we know these mesons, we can then complete our picture of matter, we can then calculate all of the interactions, define them quantitatively, because in principle all chemical effects are described by quantum mechanics and electrodynamics. Looking back now, I am always reminded of a verse from Goethe’s Faust. When Faust journeys up the Brocken Mountain on Walpurgis Night and delivers the famous line: To which Mephistopheles icily replies: “But many a puzzle’s knotted so.” That was exactly the result of developing particle accelerators to experiment with radiation. Namely that in addition to this meson, the Pi meson, which was believed to be transmitted by the nuclear forces, it turned out that there was still a large, large number of other particles in Nature that we had now already seen under these conditions, some of them also in cosmic radiation, and that this opened up a whole new field of activity. First, back to the meson. As you know, the meson can exist as a neutral, as a positively and as a negatively charged meson. That is its simplest intrinsic property. Furthermore, experiments have clearly shown that it does not have an intrinsic spin. In contrast, it does have a different intrinsic property, which was initially a source of peculiar unease for the physicists conducting the experiments. Namely that these properties can simply be described not in terms of the particles, but in terms of the properties of the field corresponding to that particle. The Yukawian force fields. This is the so-called intrinsic parity. Allow me to use this opportunity to tell you a funny story about how, actually by a hair’s breadth, if Dirac had been right about his hypothesis that free magnetic monopoles could possibly exist, if he had been right or perhaps even is right, that this question of the intrinsic parity of particles then really was already present in the classical physics of fields and their sources. Namely the magnetic pole, the pole, not the dipole, but the pole, must have an opposing intrinsic parity, such as the electric elementary charge. Because you all know that in the case of parity transformations, the magnetic field reacts differently than the opposing like the electrical field. Furthermore, you know that magnetic dipoles react like the magnetic fields. Meaning that their plus/minus sign does not change when transitioning from the right-handed to the left-handed coordinate system. Yet if you consider the dipole a position vector and multiply it with the pole strength, then you will see that the sign of the position vector changes, meaning that the sign of the magnetic monopole must also change when transitioning from the right-handed to the left-handed coordinate system. So, basically, all of this would have already been present in classical electrodynamics if there had been not only magnetic dipoles but also magnetic poles. Now, we were forced to ascribe this property to the Pi meson. That, too, had to behave like a magnetic monopole would have to behave. And in turn imposed by a series of experiments, the details of which I cannot go into at this time. So as I said, another one of the setbacks with regard to structuring the concept of elementary particles is the meson’s short lifespan. Of this quantum that transmits the nuclear forces, namely, it has nothing to do with the nuclear forces. It has nothing to do with the interactions with the nucleons, that it can decay again. A neutral one decays within 10^-16 seconds when exposed to hard x-rays. A charged meson has a lifespan of 10^-8 seconds and, strangely enough – and this is where the confusion starts – it has two possible forms of decay. Namely very rarely: in one in ten million of all cases, almost in one in one hundred million of all cases, the end product is not an electron and a neutrino. And otherwise, in the vast majority of cases, the end product is either a particle itself, that in many, many respects behaves exactly like an electron and has a mass that is only 207 times greater, but can in turn decay into an electron and a neutrino and an antineutrino. This intermediate product, the Mu meson, surely remains one of the most mysterious particles, and one of our most difficult tasks is to understand its role in the plan of creation. I don’t know, Mr. Heisenberg might disagree somewhat. It did reach a factor of 207. Yet as I just said, apart from this Mu meson puzzle, the hopes in line with the Newtonian program of now using the electron of the neutrino and the Pi meson to obtain all the data needed to complete the picture of matter did not come true, because it brought up refined forms of experimentation and so many other particles. What was very peculiar was that the first - or rather, what was very remarkable was that the first of these new particles was not in fact detected using artificial accelerators, but by a Manchester-based group studying cosmic radiation. most of them not in the bubble chamber but in the Wilson chamber. And then Butler and his colleagues from the Blackett group in Manchester were the first to observe cases in which either a charged particle or an uncharged, high-energy particle collided with a nucleus and underwent a nuclear transformation, yet then at a certain distance (though apparently in direct correlation), they also detected traces of two charged particles, one proton and one Pi meson, for example. And if you take the total momentum carried by these two particles and extend it backwards, you would end up exactly at the centre of this reaction. This shape is the reason, hmm, I should have drawn this diagram the other way around, why these particles are called V particles. Just to give it a name to work with. I still remember very clearly that I happened to take part in a seminar in Pasadena, at which Anderson’s colleagues, or people from Anderson’s group in Pasadena, had systematically studied the generation of these particles and the relative frequency with which this group of particles, which leaves such a V-shaped trace, was detected in predefined conditions, such as known intensities of cosmic radiation, known material thickness, in which these particles can be produced, etc. And I remember so very vividly how Feynman, a very temperamental man, would suddenly leap up and say: And this process of creation had to be triggered by nucleons or available Pi mesons interacting in such a way as to create such an uncharged particle, which in turn could then decay into a Pi meson and a proton. And that brings us to the following: If these particles could have disintegrated into a proton and a Pi meson, then the probability of their creation would have to be determined by the decay rate. That was the assumption. Then it turned out, however, that they are created so frequently, that if you were to conversely calculate the decay rate, the particle would already have to decay up here in the nucleus and not travel a long distance of several centimetres. Feynman was extraordinarily temperamental and exclaimed: “This is impossible!” It is simply inconsistent. Then there was a long discussion – I mean, of course Feynman was not the only one to voice this opinion – that lasted almost six months, as far as I know, until Pais suggested completely decoupling this decay process from the creation process by means of a very peculiar postulation, which, however, later proved to be completely true. Namely, occasionally there were other, not one, but two such scenarios, in which the second particle would decay into Pi+ and Pi-, for example. Once again a second V particle, which did not decay into a proton and a pion, however, but into two pions. And Pais was the first to formulate the hypothesis that the creation process is perhaps coupled to a specific condition, that these two particles must always be created in pairs. That, if they were together, they could still meet again, that they could destroy each other again Yet once they are created, they drift far apart, so these are two different types of particles that do not find a partner with whom they could fulfil this condition of interacting in pairs in order to decay again, so that the decay is completely decoupled from the creation process. And then it is probably typical for modern-day physics to take a close look at this postulation. These particles were eventually named V particles, or later it was turned around and they were called Lambda particles, so particles that are always neutral and decay into a least a proton. And the other particle was called a K particle. In this case K0, that can only decay into particles that do not have a spin, or ultimately into light quanta. So that the total spin is an integer, in any case. Now, it is typical that scientists immediately tried quantitatively expressing the phrase: And it was one of Mr. Heisenberg’s colleagues, Nishima, or at least a temporary colleague of Mr. Heisenberg, as well as Gell-Mann in Pasadena who said that if this is supposed to be such a clearly formulated principle, then we could probably characterize this law with another property that is intrinsic to all elementary particles; we could give them simple numbers, positive and negative. So that the common particles that we already know of, that have this intrinsic property, which was named “strangeness” which is selected in such a way that it is first of all an integer, positive or negative for all hitherto known particles, for the protons, for the pions, for the nucleons this strangeness should be equal to zero. And then comes a random assignment, for example by giving this particle a strangeness of -1 and this other particle a strangeness of +1, so that a law of conservation applies to such intrinsic properties, just like there is a law of conservation for the charges. In the meantime, if the null is slightly shifted, this intrinsic property is often directly characterized as a hypercharge. Now, I fear I am almost out of time, and it turns out that among these different, frequently studied, newly discovered particles, with regard to these two new intrinsic quantum numbers that, on the one hand, by the parity, the transformation behaviour of the fields or the assigned particles when transitioning from a right-handed to a left-handed coordinate system, and secondly by this peculiar quantum number, the strangeness, one would end up with a schematic outline into which you could initially insert all the reactions in such a way that no internal contradictions arise. No internal contradictions of the sort that I characterized earlier, and which Feynman reacted to in a truly distinctive way by exclaiming: that is by no means an occult quality any longer. Well, I could go on and on in this vein. So there are meanwhile particles that need to be characterized using such quantum numbers This means that we now have a large number of elementary particles, a number that is now almost as large as the number of chemical elements known at the turn of the century, but which, using these few terms that can be formulated so precisely, can already be organized in a classification scheme in a manner similar to the first attempts at classifying chemical elements. There is hope that by using these terms, as well as this classification scheme now (which is still largely qualitative in nature), it will become possible to make some quantitative predictions about the relative frequency with which this or that particle is created when one bombards a nucleus with a particular type of particle, etc. This means that thanks to the theorem of nucleons and antinucleons, we got rid of the diversity of nuclei, yet all of these forces between the particles, also between the nucleons, that make up the nucleus are not only determined by the this force field, the Yukawian pion force field, but also by the abundance of force fields that all correspond to these “strange particles”. These forces are, furthermore - first I would like to point out that precisely with this concept of complementarity, that there are always particles, that forces act between the particles, that these forces, according to our program, are apparently transmitted through fields, yet that these fields have quanta, and that these quanta lead to the creation of new particles between which interactions can once again exist, so that this could lead to an infinite regress. Now, the fact that very strong interactions do in fact also exist between the pions themselves, meaning between the Pi mesons themselves, and also between the strange particles, has been experimentally verified. Especially since it is possible to temporarily create conditions which later However, in accordance with the energy- and momentum principle, it is possible to subsequently say with certainty that, temporarily, these pions were once particles. If they only break apart as pions, then that must have therefore been caused by forces present between the pions. So these forces do exist. It could therefore be feared that now there is no stopping it. These forces must be transmitted through fields again and again, these fields contain quanta, and there are forces between these quanta. And this is precisely the point of the matter, namely that in Bohr’s concept of complementarity, the possibility of closing this regress in itself already exists. Because among the numerous particles discovered this way, there are always already some whose assigned fields can transmit the effect between other particles. And that is why it is not necessary for this regress, this search for new particles, to be infinite. In addition perhaps we should also embrace the tradition of the Ionian natural philosophers, the new way in which questions were formulated back then in the Ionian Age. Unfortunately, I can, there are, among other things, philological barriers that lie before me So now, naturally we cannot adopt these early Ionian answers, meaning the various answers provided by the Ionian natural philosophers. Nevertheless, their dream has remained alive everywhere in physics, especially in light of the abundance of particles, searching for the primitive field, which would help us understand all these other fields according to one unified principle. But I will leave it to the more qualified people present here today to talk about that topic in more depth.

Meine Damen und Herren! Herr Kollege Mecke hatte mich mit seinen Telefonanrufen etwas in Verlegenheit gebracht, weil ich jetzt in die schwierige Situation kam, auf Abruf einen Vortrag zu präparieren für ein Auditorium, vor dem ich zu sprechen nicht gewohnt bin. Es war mir nicht möglich, in der kurzen Zeit noch einen vernünftigen Bericht aus meinem eigenen Arbeitsgebiet zu geben und es blieb mir nichts anderes übrig als von Herrn Mecke die Erlaubnis zu erbitten, dass ich in die Schublade griff und meinen Vortrag im Wesentlichen basieren möchte auf ein Manuskript eines Referats, das ich vor einigen Wochen anlässlich der Jahresfeier der Heidelberger Akademie gehalten habe. Ich muss also deshalb die entsprechend dem Hörerkreis damals anwesenden Physiker um Nachsicht bitten, wenn ich gar so viele triviale Dinge erzähle. Damals hatte ich auch gedacht, es sei nützlicher nicht so sehr auf die letzten, in den letzten Jahren gewonnenen neuen Fakten und Einsichten aus der Welt der Elementarteilchen einzugehen, sondern ein bisschen die Besinnung pflegen, wie eigentlich diese Begriffsbildungen zustande gekommen sind. Und ich glaube, darin liegt ein besonders eindrucksvolles Beispiel, wie sehr alle unsere Begriffsbildungen in der Physik ständig, nicht nur die Begriffsbildungen, sondern sogar auch unsere Denkweisen, an der Erfahrung korrigiert werden müssen und an die Erfahrung angepasst werden müssen, und wie wenig Apriorisches in unserer heutigen Naturbeschreibung verblieben ist. Ich hatte das Thema gewählt "Bedeutungswandel des Begriffs 'Elementarteilchen'", und dieser Bedeutungswandel wird verursacht durch einen allgemeinen Gebrauch in der Entwicklung des physikalischen Begriffssystems, zwar überkommene Namen und Worte beizubehalten, diesen aber meist einen veränderten, vor allem präzisierten Sinn beizulegen und alle diese so benutzten Begriffe möglichst von unterschwelligen Assoziationen zu befreien. Naturgemäß musste ich bei dieser Diskussion einen größeren Teil des Vortrags mit fast historischen Betrachtungen einräumen. Allerdings muss ich mir aus vielen Gründen versagen, auf die Entstehung der Begriffe "Element" und "Teilchen" im antiken Denken einzugehen, schon der Zeit halber. Leider aber auch, weil ich nicht das große Glück hatte, die Schulung eines humanistischen Gymnasiums zu erfahren und deshalb in all meinen Bemühungen in die Denkweise der Antike einzudringen, doch ein Dilettant geblieben bin. Der Begriff des Teilchens oder des Atoms ist wohl aus Überlegungen entstanden, die durch sehr einfache Beobachtungen nahegelegt wurden. Nämlich bei der Teilung komplizierterer Strukturen, z.B. dem Zerlegen einer Frucht oder eines Opfertieres, gelangt man zu Teilen, die wesentlich von einander und vom Ganzen verschieden sind. Wenn man dagegen einen Quecksilbertropfen zerspringen lässt in kleinere Tröpfchen, so sind allem Anschein nach diese Tröpfchen, abgesehen von ihrer Größe, dem Ausgangstropfen völlig gleich. Es war eine naheliegende Frage, ob man in solchen Fällen den Teilungsprozess immer weiter fortsetzen könne und immer wieder zu gleichartigen Teilchen komme oder ob diesem Teilungsprozess durch kleinste, nicht weiter teilbare Teilchen den Atomoi eine Grenze gesetzt sei. In der antiken Welt war natürlich die Experimentierkunst und auch wohl die Fragestellung nicht weit genug entwickelt, um solche Fragen durch tätiges Nachprüfen zu entscheiden. Das war der zweiten Hälfte des vorigen Jahrhunderts vorbehalten hierauf zuerst gegenständliche Antworten zu geben, Verfahren zu entwickeln, die Atome zu zählen und vor allen Dingen in der ersten Hälfte unseres Jahrhunderts auch ihre Durchmesser zu bestimmen. Vielleicht ist es doch aber nützlich darauf hinzuweisen, dass die Atomvorstellung in der antiken Welt Anlass zu sehr merkwürdigen Spekulationen gab. Nämlich, wenn die Materie aus Atomen aufgebaut sein soll, so müssten diese durch den leeren Raum getrennt sein. Diese Frage des Leeren hat dann die ganze Antike immer wieder beschäftigt, nämlich, wie sollte dieses "Leere", das "reine Nichts" oder das "nicht Seiende" existieren, das heißt für unsere, uns umgebende Welt, bedeutsam sein können? Wir werden später sehen, wie die heutige Physik zu diesem Dilemma, wenn man es als solches ansprechen will, etwas sehr wesentliches und konkretes und sehr unerwartetes zu sagen gelernt hat. Noch weniger kann ich eingehen auf die Entwicklung, die zu dem heutigen Begriff des chemischen Elements geführt hat. In der heutigen Vorstellung von Elementarteilchen hat sich der Sinn des Begriffs "Elementar-" wohl in gewisser Hinsicht antiken Gedankengängen wieder genähert. Auch darauf werde ich zurückkommen. Ein wie mir scheint ganz fundamentaler, wichtiger Schritt zur Präzisierung der Atomvorstellung im physikalischen Bild von der Materie geschah im Zeitalter Isaac Newtons, und ich möchte Sie bitten, mir zu erlauben, dass ich Ihnen einige Sätze vorlese aus der im Jahre 1704 erschienenen "Opticks". Das ist eins der wenigen Werke, das er in englischer Sprache verfasst hat. Und in dem Anhang dieses Werks, "Queries" genannt, diskutiert Newton zunächst auf etwa 60 Seiten eine ganz große Zahl verschiedener Phänomene, die wir alle heute in die physikalische Chemie rechnen würden, und dann fasst er seine Ergebnisse in ein paar Sätzen zusammen, die ich ich kann es vielleicht zunächst in abgekürzter Übersetzung, also zunächst das Deutsche sagen. Also er diskutiert all diese Tatsachen und fährt fort: dass Gott im Anfang die Materie als massive, undurchdringliche aber bewegliche Teilchen schuf, als am besten seinen Absichten entsprechend, und dass diese Urteilchen unvergleichlich härter sind als alle aus ihnen ausgebauten Körper, so hart, dass sie niemals verschleißen können ("to wear"), oder in Stücke brechen, und dass keine gewöhnliche Macht imstande ist, das zu teilen, was Gott im Anfang als Eines schuf." neuen Zusammenballungen und Bewegungen dieser beständigen Urteilchen zurück zu führen." Das sind bis dahin noch im Wesentlichen aus der Antike übernommene Vorstellungen. Aber dann spricht der große Entdecker der Himmelsmechanik und des Gravitationsgesetzes. Jetzt müsste ich aber englisch lesen. accompanied with such passive laws of motion as naturally result from that force, but that they are moved by certain active principles." Das ist die damalige Bezeichnung für Kräfte. Und dann kommt der wichtige Satz: Und zur Erläuterung betont er dann seinen Gegensatz zur konventionellen Auffassung seines Zeitalters, die noch die durch Scholastik und Renaissance übernommenen und weitergereichten Vorstellungen der verborgenen Qualitäten benutzten. but to be - seine Zeitgenossen - supposed these qualities to lie hid in the bodies and to be the unknown causes of manifest effects uncapable of being discovered." Und dann fährt Newton fort: and produces manifest effects, is to tell us nothing: But to derive two or three general principles of motion from the phenomena, afterwards to tell us how the properties and actions of all corporal things follows from those manifest principles, would be a very great step in philosophy." Mit diesen Sätzen hat Newton ganz im Sinne seiner Himmelsmechanik ein Programm formuliert, dem die physikalische Forschung in den folgenden Jahrhunderten systematisch nachgegangen ist. Nämlich wie zwischen den mit Masse, d.h. trägheitsbehafteten Himmelskörpern, die Gravitationskräfte wirkten, so sollen auch Newtons "massy particles" nicht etwa mit spezifischen okkulten, unerforschlichen Qualitäten begabt sein, die die Vielfalt ihres Verhaltens verursachen, sondern zwischen ihnen sollen universelle erforschbare Kräfte wirken, die ihre Bewegung und den Zusammenhalt determinieren. Dem Aufsuchen dieser Gesetze galt die physikalische Erforschung der Materie der Folgezeit. Schon Newton schloss aus vielen von den anfangs diskutierten Phänomenen, dass die Kräfte zwischen den Atomen bei kleiner Entfernung viel stärker seien müssten als die Gravitationskräfte, aber mit zunehmendem Abstand rasch abfallen. Nun, diesem Bild von der Materie liegt ein Dualismus zugrunde, der auch für die Newtonsche Himmelsmechanik charakteristisch ist. Wir haben einerseits die mit Masse behafteten Atome, andererseits die zwischen ihnen durch den leeren Raum wirkenden Kräfte, welche die Bewegung der Atome bestimmen, und damit einen merkwürdigen Dualismus, der im vorherigen Jahrhundert durch Schlagworte wie Kraft und Stoff, was ja auch in der nichtwissenschaftlichen Literatur viel diskutiert wurde. Dieser Dualismus wurde aufgelöst in sehr unerwarteter Weise, gegen die Jahrhundertwende, einerseits durch Faradays Feldbegriff und dann später der Born-Heisenberg-Bohrschen Konzeption der komplementären Naturbeschreibung. Und obwohl bereits von diesen Dingen die Rede war heute und auch aus vielberufenerem Munde Sie morgen davon hören werden, müsste ich doch ganz kurz auf ein paar Punkte eingehen. Erst im 19. Jahrhundert wurde sichergestellt, dass die von Newton vermuteten zwischen den Atomen wirkenden Kräfte ausschließlich auf die elektromagnetischen Erscheinungen zurückgeführt werden können und dementsprechend wir anknüpfen müssen an die Begriffsbildungen, die sich an die Experimentierkunst und dem Genie Faradays und Maxwell anknüpften, nämlich die Faradaysche Konzeption des Kraftfeldes, die wohl eine der zukunftsträchtigsten Begriffsbildungen der Physik war. Erst zu Beginn des Jahrhunderts, glaube ich, hat sie sich erst auf dem Kontinent überhaupt durchgesetzt, während der Begriff der Fernwirkung noch lange unter der Autorität von Neumann und Gauss dominierte. Der Grundgedanke ist, wie Sie alle wissen, dass eine elektrische Ladung auf eine andere nicht durch den leeren Raum wirkt, sondern dass die Wirkung durch ein Agens vermittelt wird, das zwar nicht im überkommenden Sinn materiell ist. Nämlich jede Ladung ist als Quelle eines elektrischen Kraftfeldes aufzufassen, das den Raum durchflutet und wieder durch eine andere Ladung in seiner Kraftwirkung wahrgenommen werden kann. Aber dabei soll das Feld den Raum realiter erfüllen und vorhanden sein auch dann, wenn seine Anwesenheit nicht gerade durch eine andere Ladung aufgewiesen wird. Das wichtigste Ergebnis der experimentellen Untersuchung war, dass wenn man dann eine Quelle eines solchen Feldes durch den Raum bewegt, und zwar beschleunigt bewegt, dass dann sogar diese Felder sich von ihren Quellen ablösen können, durch den Raum wandern und dabei - bei dem Studium dieser Bewegung wurde ferner festgestellt, dass Änderungen der elektrischen Felder mit Änderungen magnetischer Felder am gleichen Ort verknüpft sind und viceversa. Nun aber diese Aussage, dass diese Felder realiter vorhanden sind, bekommt erst einen Sinn durch die Aufweisung neuer nachprüfbarer physikalischer Konsequenzen. Diese Konsequenzen ergaben sich in der Feststellung, dass die kontinuierlich im Raum verteilten Felder zugleich Träger von Energie und Impuls sind, Eigenschaften, die man bis in die Jahrhundertwende nur materiellen Teilchen zuzuschreiben gewohnt war. Und, wie Sie wissen, sind alle diese Konsequenzen durch die Entdeckung von Heinrich Hertz und alles was sich daran anschloss nachgewiesen worden. So hat sich wirklich durch experimentelle Erfahrung der von den Alten so viel besprochene Gegensatz des Vollen, "to pleres" und des Leeren, "to kenon" in das Bild von überall im Raum vorhandenen, zwar nicht mehr materiellen aber doch realen Feldern, und ihren an atomarer Materie verhafteten Quellen aufgelöst. Aber, wie Sie auch alle wissen und wie wir auch morgen wieder hören werden, erfuhr dieses Bild eine weitere, durch Max Planck eingeleitete tiefe Wandlung. Denn die subtileren Experimente ergaben, dass die als Wellen durch den Raum wandernden elektromagnetischen Felder doch den Energie- und Impulstransport bei gewissen Experimenten in quantenhafter Weise vollziehen und dass die Felder zugleich Züge zeigten, die man sonst ganz im korpuskularen Bilde zu beschreiben gewohnt war. Nun, dieser Konflikt wurde lange als quälendes Paradoxon empfunden, bis wir von den genannten Forschern lernten, diese Begriffsbildung der Erfahrungswelt besser anzupassen in dem Sinne, dass beides, die Vorstellung von Korpuskeln oder von raumerfüllendem Feldkontinuum, jedes für sich nicht geeignet sind, das Naturgeschehen bis ins Kleinste zu beschreiben. Sie sind beide notwendig, beide brauchbar in dem Sinn, dass sie als einander wechselseitig begrenzende aber auch ergänzende Begriffe in einer geschlossenen Darstellung der Phänomene zusammenwachsen. Dafür prägte Bohr eben den Namen "Komplementäre Naturbeschreibung". Sie wissen, dass seither auch umgekehrt, nicht nur die elektromagnetischen Felder Korpuskeleigenschaften zeigen, sondern dass auch das, was wir zunächst als Korpuskeln zu beschreiben gewohnt waren, z.B. die Elektronen, eben auch inhärente Feldeigenschaften haben. Morgen werden Sie mehr davon hören und ich darf mich mit diesem Hinweis begnügen. Merkwürdig ist, dass der jüngeren Physiker-Generation diese Formulierungen der komplementären Beschreibung offensichtlich schon fast geläufiger und eher einleuchtender erscheint als die Newtonsche Himmelsmechanik mit ihren Fernwirkungen und dass man immer wieder gefragt wird: Warum habt ihr euch damals in den 30iger Jahren so viel Sorgen und Gedanken gemacht, dass das alles nicht anschaulich sei? Für unsere Zwecke, wenn ich jetzt zum eigentlichen Thema des Vortrags komme - leider nach 20 Minuten erst - wollen wir nur festhalten, dass wenn weiterhin von Elementarteilchen die Rede sein soll, zugleich immer unterstellt ist, dass diese Teilchen nicht nur Quellen von Kraftfeldern sind, die die Wechselwirkung untereinander vermitteln, sondern dass sie selber als Elementarteilchen zugleich in ihren Bewegungsgesetzen Feldcharakter haben, der bei geeigneten Experimenten sogar dominiert. Es ist also völlig gleichgültig, ob wir von Elementarfeldern oder von Elementarteilchen reden. Wir meinen dasselbe in dem Bohrschen Sinne. Nun, um nochmal auf die Atome zurückzukommen, lassen Sie mich noch einmal auf den merkwürdigen Satz bei Newton hinweisen Wenn er damals mit "ordinary power" die seinerzeit zugänglichen technischen Hilfsmittel meinte, dann hatte er durchaus recht. Erst als es gegen Ende des vorigen Jahrhunderts der Elektrotechnik gelang, solche elektrischen Spannungen ins Labor zu bannen, wie sie etwa zwischen der Gewitterwolke und der Erde bestehen, mussten wir feststellen, dass das Atom auch keine letzte Einheit ist sondern eine Struktur besitzt und, wie ich erfahre, ist gerade darüber gestern in so eindrucksvoller Weise berichtet worden, sodass auch dort ich mich kurz fassen kann. Wir haben die Elektronen vor uns und die Atomkerne, die dem Volumen nach Billionen mal kleiner sind als die Atome als Ganzes. Nun, dann entsprechen aber immer noch den heute mehr als 100 bekannten chemischen Elementen einmal über 100 verschiedene Atomkerne. Und heute erscheint es uns als eine naheliegende Frage, ob nicht diese Kerne selbst wieder eine Struktur besitzen und aus elementareren Bausteinen konstituiert sind und es ist interessant, dass lange vor der experimentellen Konsolidierung der Atomhypothese Prout, ein englischer, auch als Naturforscher hoch angesehener Arzt, sprach Prout in den Jahren 1850 in einem allerdings vorsichtig unter einem Pseudonym veröffentlichten Aufsatz die Hypothese aus, dass - und zwar sind es zwei Aufsätze, 1815 und 1816, in den "Annals of Philosophy" - dort sprach er die Vermutung aus, dass alle chemischen Elemente aus einem Urstoff aufgebaut seien, dem er den Namen "prote hyle" gab. Als Argument zugunsten der Hypothese führte er damals die nicht sehr präzise bekannten, anscheinend ganzzahligen Relationen zwischen Atomgewichten an. Nun, wie Sie wissen, hat sich diese Hypothese völlig bestätigt. Den ersten Hinweis auf eine Struktur des Atomkerns hat uns die Natur selber gegeben, in den vor 70 Jahren durch Becquerel und das Ehepaar Curie entdeckten und studierten Erscheinungen der natürlichen Radioaktivität. Dann aber aus Experimenten mit elektromagnetisch beschleunigten Teilchen haben wir gelernt, dass der Atomkern aus zwei Bausteinen besteht. Der eine ist der Kern des Wasserstoffatoms, das Proton. Der andere das in der Masse fast gleiche elektrisch neutrale Teilchen, das Neutron. Und jetzt kommt der Punkt: Wollen wir das Neutron ein Elementarteilchen nennen? Ich erinnere mich noch gut aus den ersten Jahren nach der Entdeckung des Neutrons, zu meiner Studienzeit, als eine große Diskussion ging: Ist vielleicht das Neutron nicht doch aus Elektron und Proton zusammengesetzt? Dafür sprach die Tatsache, nachdem allerlei experimentelle Unstimmigkeiten in den Massenbestimmungen beseitigt waren, nach denen das Neutron leichter war als das Proton. Dafür schien die Tatsache zu sprechen, dass das Neutron auch zerfallen konnte in Elektron und Proton. Dann aber lernten wir, vor allen Dingen durch das Studium der künstlichen Radioaktivität, dass auch das Umgekehrte passieren kann. Es kann sich genauso gut das Proton in ein Neutron und in ein Positron umwandeln. Es hat gar keinen Sinn davon zu sprechen, ob nun etwa das Neutron aus Elektron und Proton, oder ob das Proton aus Neutron und Positron zusammengesetzt ist. Vielmehr müssen wir sagen, dass bei diesen Umwandlungsprozessen diese neuen, also diese leichten Teilchen, das Elektron und, wie Sie auch wissen, ich komme gleich noch darauf zurück, das Neutrino wirklich erst entstehen, wirklich erzeugt werden in dem Akt der Umwandlung. Dementsprechend können wir mit gutem Recht das Proton und das Neutron einfach als zwei Erscheinungsformen eines Teilchens, eines elementaren Teilchens ansehen, wovon die eine Erscheinungsform instabil ist. Bei der Umwandlung entstehen die Elektronen ebenso, wie wir eigentlich immer unterstellt hatten, dass das Licht, also ihre Quanten, die Photonen, sicher nicht in einem glühenden Körper vorhanden sind, bevor sie im Aufleuchten emittiert werden. Damit haben wir uns von den Vorstellungen eines Elementarteilchens weit entfernt, denn ursprünglich - deshalb habe ich gerade die Newtonschen Gesetze zitiert - war sicher die Beständigkeit das wesentlichste Merkmal, das man ursprünglich mit der Vorstellung elementar verknüpfte. Nachher werden wir sehen, dass es noch viel kurzlebigere Teilchen als das Neutron gibt, das immerhin eine Lebensdauer von 1000 Sekunden hat, die wir doch gerne als elementar ansprechen möchten. Einen weiteren Schritt von dem naiven Teilchenbilde weg führte dann die Erkenntnis, dass wir den elementaren Teilchen zu ihrer Charakterisierung gewisse innere Eigenschaften zuschreiben müssen. Das klingt zunächst in der Wortwahl fast so - hier klingen die verborgenen Qualitäten an, die Newton so gerügt hat. Wir werden aber sehen, dass das nicht die Meinung ist, sondern dass die inneren Eigenschaften ganz scharf präzisierbar sind, messbar. Nämlich neben der elektrischen Ladung, durch die sich eben das Proton vom Neutron unterscheidet, müssen wir diesen Teilchen zunächst auch eine Größe beilegen, als innere Eigenschaft. Nämlich die dynamisch charakterisierbar ist und die in der klassischen Mechanik oder Elektrodynamik auch durch einen Drall beschrieben wird, so wie das Effet bei einer Billardkugel. Ohne dass es irgendeinen Sinn hätte, davon zu sprechen, dass das Teilchen wirklich im Raume rotiert. Nämlich an diesen Teilchen kann man nicht mehr Markierungen anbringen oder so etwas, um eine Rotation zu beobachten. Das ist ein äußerliches Argument. Das Wichtige ist, dass die Struktur, die mathematische Struktur dieser inneren Eigenschaften gerade so ist, dass diese Rotation prinzipiell gar nicht beobachtet werden kann. Übrigens ist dieser innere Drall fast das einzige Merkmal des Neutrinos, was ich schon im Zusammenhang mit dem Beta-Zerfall nannte. Dieses ungeladene massenlose Teilchen hat eine so geringe Wechselwirkung mit der Materie, aus denen unsere Messapparaturen aufgebaut sind, dass es sich bis vor etwa zehn Jahren dem experimentellem Nachweis entzogen hatte, obgleich Pauli seine Existenz bereits 1930 vorgeschlagen hatte in einem berühmten Brief an seine in Tübingen tagenden Kollegen, um Ordnung in die damals weitgehend ungeklärten Phänomene der Radioaktivität zu bringen. Erst den seitherigen Fortschritten der Experimentiertechnik ist schließlich der Nachweis seiner realen Existenz gelungen. Nun, bei dem Neutrino war der innere Drall, meist mit dem englischen Namen "intrinsic spin" bezeichnet, eigentlich die einzige Eigenschaft dieses so schwer fassbaren Teilchens, welche Pauli positiv vorhersagen konnte fast alle anderen Charakterisierungen konnten nur als Negation ausgesprochen werden. Es hat keine Masse, es hat keine Ladung, überhaupt keine elektromagnetische Wirkung usw. Und man kann dann auch heute noch in leichter Abwandlung eines Morgensternschen Verses vom Neutrino sagen: Ich habe das nur erzählt um klar zu machen, was die Meinungen bei diesen inneren Eigenschaften sind. Diese inneren Eigenschaften haben dann auch die Konzeption der Antiteilchen ermöglicht, wie das Positron das Antiteilchen des Elektrons ist. Beide können sich in der Vereinigung völlig aufheben. Alle inneren Eigenschaften der Teilchen verschwinden mit den Teilchen und stattdessen entstehen, jetzt kommen die mechanischen und Energieimpuls-, Drehimpulseigenschaften dann in der dabei emittierten Strahlung wieder zutage. Diese Antiteilchen werden auch paarweise erzeugt. Ich glaube, es ist nicht nötig, auf die vielen etwas verwirrenden Darstellungen der Presse einzugehen, die gerade in den letzten Wochen durch die Entdeckung des Antideuterons oder den Nachweis des Antideuterons entstanden sind. Diese Antiteilchen sind, zuerst von Dirac prophezeit, also für die Protonen vor etwa zehn Jahren durch eine Gruppe von Forschern in Berkeley entdeckt worden und inzwischen gab es von vielen, vielen anderen Teilchen, schon zu vielen anderen Teilchen, von denen noch die Rede sein wird, bereits Antiteilchen. Und das einzige vielleicht Aufregende ist, dass man im Antideuteron zwei Antiteilchen simultan erzeugt hat, wozu im Allgemeinen also ein großer Energie- und Impulsaufwand nötig ist. Und dass die Energie- und Impulsübertragung an diese beiden Teilchen, die beiden erzeugten Antiproton/Antineutron, so war, dass die sogar beisammen blieben und sich als Deuteron durch die Messapparaturen bewegen konnten. Dass sie nicht sofort wieder in Antiproton und ein Antineutron auseinander platzten. Ja, dann kommen wir eigentlich zu dem Hauptproblem, nämlich, dass bis um die Mitte der 30iger Jahre eben die bekannten Bausteine der Materie, das Nukleon in seinen beiden Erscheinungsformen war, dazu das Elektron, das selbst wiederum als Quelle des elektromagnetischen Feldes wirkte. Ebenso wie die geladenen Formen des Nukleons. Dazu kannten wir die Quanten der elektromagnetischen Strahlung, die Photonen, und konnten diese auch in gutem Sinn, und schließlich noch das Neutrino als Elementarteilchen bezeichnen. Damals schien das einzige noch zu lösende Problem jetzt die Frage nach der Natur der Kräfte, die Protonen und die Neutronen beisammen hielten und aus diesen Bausteinen den Kern aufbauten, und es war zu vermuten, dass diese Kräfte eben wieder nicht als Fernwirkung zwischen den Nukleonen agierten, sondern dass sie durch ein Feld vermittelt wurden. Diese Hypothese in allen ihren Konsequenzen wurde von Herrn Yukawa, den Sie morgen hören werden, ausgesprochen. Man wusste, dass diese Kräfte - oder Yukawa beschloss auch, dass diese Kräfte sehr viel stärker sein mussten, als die elektromagnetischen bei nahen Entfernungen der Nukleonen. Und wegen ihrer kurzen Reichweite musste man den Quanten dieses neuen Kraftfeldes, das jetzt das Bild der Materie abrunden sollte, eben eine endliche Masse zuschreiben, etwa 1/7 der Nukleonenmasse. Und Yukawa nannte diese Quanten dieses Feldes, das die Wechselwirkung der Nukleonen vermittelt, die "Mesonen". Und es war damals eigentlich die Überzeugung der Physiker, dass man durch ein experimentelles Studium dieser Mesonen, gerade dieser Quanten, mit denen man mit geeigneten Beschleunigern eine genügende Zahl erzeugen konnte, alle Informationen über die Kernkräfte gewinnen könnte und dann das Bild von der Struktur der Materie wirklich abschließen könnte. Nun, wie Sie wissen, sind diese Mesonen zunächst dort entdeckt worden, wo uns das Weltall selbst sehr hoch energetische Projektile liefert, in der Höhenstrahlung. Und ich möchte nicht eingehen auf die leichte Konfusion, die in der Zuordnung von in der Höhenstrahlung beobachteten Teilchen zu diesen Quanten der Kernkräfte existiert hat. Viele Jahre lang stellte sich schließlich heraus, dass man das, was man zunächst für die Pi-Mesonen, die Quanten des Kernkraftfeldes hielt, in der Höhenstrahlung gar nicht die Pi-Mesonen waren, sondern erst ein Zerfallsprodukt dieses Pi-Mesons. Aber später wurde auch das Pi-Meson selbst in der Höhenstrahlung gefunden und ich glaube, das ganze Programm, mit dem dann nach Kriegsende die Physiker überall in der Welt, soweit die finanziellen und andere Voraussetzungen gegeben waren, mit solch großen Anstrengungen Teilchenbeschleuniger bauten, um diese Mesonen zu studieren, war es von dem Vertrauen getragen: Wenn wir einmal diese Mesonen kennen, dann wird sich unser Bild von der Materie völlig abgerundet haben, wir können dann alle Wechselwirkungen ausrechnen, quantitativ beschreiben, weil im Prinzip eben mit der Quantenmechanik und Elektrodynamik alle chemischen Wirkungen beschrieben sind. Wenn man jetzt zurückblickt werde ich immer erinnert an eine Zeile in Goethes Faust. Wie der Faust dort in der Walpurgisnacht zum Brocken hinauf steigt und den klassischen Spruch dann sagt: Und dann Mephisto ihm sehr kalt antwortet: Genau das ist das Ergebnis der Entwicklung des Experimentierens mit den Strahlen aus den Teilchenbeschleunigern gewesen. Nämlich, zusätzlich zu diesem Meson, dem Pi-Meson, das uns die Kernkräfte vermitteln sollte, stellt sich heraus, dass es noch eine große, große Fülle von weiteren Teilchen in der Natur gibt, die wir jetzt unter diesen Bedingungen, zwar einige davon auch in der Höhenstrahlung, schon gesehen hatten und die uns ein ganz neues Aufgabengebiet eröffnet. Zunächst aber noch zum Meson. Sie wissen, es gibt das Meson als neutrales, als positiv und als negativ geladenes Meson. Das ist die einfachste innere Eigenschaft, die es hat. Ferner haben Experimente eindeutig ergeben, es hat keinen inneren Drall. Dagegen hat es eine andere innere Eigenschaft, gegen die zunächst bei den experimentierenden Physikern ein gegen deren Benutzung bei den experimentierenden Physikern ein merkwürdiges Unbehagen war. Nämlich, eigentlich ganz simpel kann man diese Eigenschaften nur beschreiben, nicht an dem Teilchen sondern an den Eigenschaften des Feldes, das mit dem Teilchen korrespondiert. Den Yukawaschen Kraftfeldern. Das ist die sogenannte innere Parität. Ich darf aber vielleicht diese Gelegenheit benutzen, um auf einen Spaß hinzuweisen, dass eigentlich schon um ein Haar, wenn Dirac mit seiner Vermutung, dass es freie magnetische Monopole geben könne, recht gehabt hätte oder sogar vielleicht recht hat, dass dann diese Frage der inneren Parität von Teilchen durchaus schon in der klassischen Physik der Felder und ihrer Quellen vorhanden war. Nämlich der magnetische Pol, der Pol, nicht der Dipol, sondern der Pol muss eine entgegengesetzte innere Parität haben, wie die elektrische Elementarladung. Sie wissen nämlich alle, dass das magnetische Feld bei Raumspiegelungen sich anders benimmt als das entgegengesetzte ???(33:25) wie das elektrische Feld. Ferner wissen Sie, dass die magnetischen Dipole sich verhalten wie die magnetischen Felder. Also im Übergang vom rechtshändigen zum linkshändigen Koordinatensystem nicht das Vorzeichen wechseln. Da aber, wenn Sie den Dipol als einen Ortsvektor, multipliziert mit der Polstärke multiplizieren, dann sehen Sie, dass der Ortsvektor seine Vorzeichen ändert, also muss auch der magnetische Monopol sein Vorzeichen wechseln beim Übergang vom rechtshändigen zum linkshändigen Koordinatensystem. Also, im Grunde genommen wäre das schon alles in der klassischen Elektrodynamik vorhanden gewesen, wenn es nicht nur magnetische Dipole sondern auch magnetische Pole gegeben hätte. Nun, diese Eigenschaft wurden wir genötigt dem Pi-Meson zuzuschreiben. Auch das müsste sich so benehmen, wie ein magnetischer Monopol sich zu benehmen hätte. Und zwar wiederum aufgezwungen durch eine Reihe von Experimenten, auf die ich nicht eingehen kann. Also wie gesagt, eines der weiteren Einbrüche in die Struktur des Begriffes Elementarteilchen ist eben die kurze Lebensdauer des Mesons. Dieses Quants, das die Kernkräfte vermittelt, nämlich, es hat nichts mit den Kernkräften zu tun. Es hat nichts mit seinen Wechselwirkungen mit den Nukleonen, dass es sich selber wieder zerfallen kann. Das neutrale zerfällt innerhalb von 10^-16 Sekunden in harte Röntgenstrahlen. Das geladene Meson hat eine Lebensdauer von 10^-8 Sekunden und hat merkwürdigerweise - und schon fängt die Konfusion an - zwei Zerfallsweisen. Nämlich sehr selten: In dem zehnmillionsten Teil aller Fälle, fast im hundertmillionsten Teil aller Fälle, ist das Endprodukt nicht ein Elektron und ein Neutrino. Und sonst, im ganz überwiegenden Teil ist das Endprodukt selbst wieder ein Teilchen, das sich in vieler, vieler Hinsicht genau wie das Elektron benimmt und nur eine 207 mal größere Masse hat, aber selber wieder zerfallen kann in ein Elektron und Neutrino und Anitneutrino. Dieses Zwischenprodukt, das Mü-Meson ist wohl für uns noch das mysteriöseste Teilchen, deren Rolle im Schöpfungsplan zu verstehen eine der härtesten Aufgaben ist. Ich weiß nicht, Herr Heisenberg ist vielleicht etwas anderer Meinung. Es hat den Faktor auch 207 erreicht. Aber, eben wie gesagt, abgesehen von diesem Mü-Meson-Rätsel hat sich die Hoffnung gemäß dem Newtonschen Programm jetzt mit dem Elektron an dem Neutrino und dem Pi-Meson alle Daten in der Hand zu haben für ein geschlossenes Bild der Materie nicht erfüllt, weil es die verfeinerte Experimentierkunst und so viele weitere Teilchen aufgewiesen hat. Sehr merkwürdig war, dass die erste - oder sehr beachtlich war, dass das Erste dieser neuen Teilchen wiederum nicht mit den künstlichen Beschleunigern gefunden wurde, sondern beim Studium der Höhenstrahlung durch die Gruppe in Manchester. meistens noch nicht in der Blasenkammer, sondern in der Wilson-Kammer sichtbar gemacht worden, und da beobachteten zuerst Butler und Mitarbeiter aus der Blackett-Gruppe in Manchester Fälle, wo entweder ein geladenes Teilchen oder ein ungeladenes sehr energiereiches Teilchen auf einen Kern stieß und eine Kernumwandlung machte, dann aber in einer gewissen Entfernung, aber offensichtlich damit korreliert, Spuren von zwei geladenen Teilchen, einem Proton und einem Pi-Meson zum Beispiel - und wenn man den Gesamtimpuls, den diese beiden Teilchen tragen, rückwärts verlängerte, führte er genau zu dem Zentrum dieser Reaktion. Wegen dieser Gestalt, na, ich hätte das Bild eigentlich anders herum zeichnen sollen, wurden diese Teilchen V-Teilchen genannt. Nur um erst einmal einen Namen zu haben. Dann erinnere ich mich noch selber sehr deutlich, dass ich zufällig in einem Seminar in Pasadena war, in dem die Mitarbeiter von Anderson, oder Leute aus der Gruppe von Anderson in Pasadena, ein systematisches Studium dieser Erzeugung zunächst dieser Teilchen vorgenommen hatten und etwa die relative Häufigkeit, mit der diese Gruppe von Teilchen, deren Spur so ein V machte, bestimmt wurde, bei vorgegebenen Bedingungen bekannter Intensität der Höhenstrahlung, bekannter Materialdicke, in denen also diese Teilchen produziert werden konnten usw. Und ich erinnere noch so außerordentlich lebhaft, wie Feynman mit all seinem Temperament aufsprang und sagte: Nämlich, es stellte sich heraus, diese Teilchen wurden sehr, sehr häufig erzeugt, relativ. Und diese Erzeugung musste also dadurch zustande kommen, dass die Nukleonen oder die Pi-Mesonen, die dort vorhanden waren, miteinander so wirkten, dass dieses ungeladene Teilchen also entsteht, das selber wieder dann in Pi-Meson und Proton zerfallen kann. Und jetzt ist Folgendes: Wenn diese Teilchen hätten in Proton und Pi-Meson zerfallen können, dann müsste ihre Erzeugungswahrscheinlichkeit durch die Zerfallsrate bestimmt sein. Das war die Unterstellung. Dann stellte sich aber heraus, die werden so häufig erzeugt, dass wenn man umgekehrt die Zerfallsrate berechnen würde, das Teilchen schon hier oben im Kern zerfallen müsste und nicht einen langen Weg von einigen Zentimetern zurücklegen. Feynman war außerordentlich temperamentvoll und sagte "This is impossible". Es ist einfach inkonsistent. Dann gab es eine lange Diskussion für - ich meine, es wurde natürlich nicht nur von Feynman geäußert - fast ein halbes Jahr lang, bis, soviel ich weiß, Pais den Vorschlag machte, diesen Zerfallsprozess völlig zu entkoppeln von dem Erzeugungsprozess, durch eine sehr merkwürdige Forderung, die sich aber auch vollständig nachher bestätigt hat. Nämlich gelegentlich gab es noch andere, nicht nur eins, sondern zwei solche Bilder, bei denen das zweite Teilchen z.B. in ein Pi+ und Pi- zerfällt. Wiederum ein zweites V-Teilchen, das aber nicht Proton und Pion ist, sondern zwei Pionen. Und Pais formulierte als erster die Hypothese, dass vielleicht der Entstehungsprozess gekoppelt ist an die Bedingung, dass diese beiden Teilchen notwendigerweise paarweise erzeugt werden müssen. Dass sie sich auch zwar, wenn sie beisammen wären, sich wieder treffen können, wieder sich auch vernichten können - aber nur dann, wenn sie beieinander sind. Aber nachdem sie einmal erzeugt wurden, sind sie weit auseinander gelaufen, und das sind also zwei verschiedene Sorten von Teilchen, die keinen Partner finden, mit dem sie dann nach dieser Forderung, dass sie paarweisen reagieren sollen, wieder zerfallen können, sodass der Zerfall völlig entkoppelt wird von dem Erzeugungsprozess. Und dann ist es für die heutige Physik wohl typisch, dass man da ran geht, eine solche Forderung. Diese Teilchen wurden dann also schließlich V-Teilchen genannt oder später wurde das umgedreht und es wurde das Lambda-Teilchen genannt, das also immer neutral vorkommt, und das zumindest in ein Proton zerfällt. Und das andere Teilchen wurde ein K-Teilchen genannt. In diesem Falle K0, das nur in Teilchen, die keinen Spin haben, zerfallen kann oder schließlich in Lichtquanten. So dass der Gesamtspin jedenfalls ganzzahlig ist. Nun, es ist typisch, dass diese Formulierung sofort versucht wurde, quantitativ zu fassen. Und es war ein Mitarbeiter von Herrn Heisenberg, Nishima, oder jedenfalls zeitweise Mitarbeiter von Herrn Heisenberg, und Gell-Mann in Pasadena, die sagten, wenn das ein so klar formuliertes Prinzip sein soll, dann können wir wahrscheinlich dieses Gesetz durch eine weitere innere Eigenschaft aller Elementarteilchen charakterisieren, ihnen einfach durch einfache Zahlen angeben kann, positiv und negativ. Dass bei den gewöhnlichen Teilchen, die wir bisher kennen, diese innere Eigenschaft, die dann den Namen "strangeness" - ich weiß nicht, ob es eine vernünftige Übersetzung gibt - die so gewählt wird, dass sie erstens ganzzahlig ist, positiv oder negativ für alle bisher bekannten Teilchen, für die Protonen, für die Pionen, für die Nukleonen sollte diese strangeness gleich null sein. Und dann ist eine willkürliche Festsetzung, dass man z.B. diesen Teilchen die strangeness -1 gibt und die strangeness +1, und dass so ein Erhaltungssatz für solche inneren Eigenschaften gilt, wie es einen Erhaltungssatz für die Ladungen gibt. Inzwischen wird auch häufig bei einer leichten Verschiebung der Nullstelle diese innere Eigenschaft direkt als Hyperladung charakterisiert. Nun, ich fürchte meine Zeit ist fast verbraucht und es stellt sich heraus, dass zunächst bei denen so studierten verschiedenen neu gefundenen Teilchen man tatsächlich bei diesen beiden neuen inneren Quantenzahlen, einerseits der Parität, das Spiegelungsverhalten der Felder oder der zugeordneten Teilchen beim Übergang vom rechtshändigen zum linkshändigen Koordinatensystem, einerseits, und zweitens durch diese merkwürdige Quantenzahl, die strangeness, man ein Schema bekommen hat, in dem man jedenfalls zunächst alle die Reaktionen so einbauen konnte, dass keine inneren Widersprüche auftraten. Keine inneren Widersprüche von der Art, wie ich charakterisiert hatte, wie Feynman wirklich ganz exklusiv bemerkt hatte und sagte "This is impossible". Und es war wirklich, dieses Erschrecken konnte wieder aufgelöst werden durch die Erfindung eines quantitativen Begriffs einer inneren Eigenschaft, die keineswegs mehr eine okkulte Qualität ist. Nun, ich könnte jetzt in diesem Sinne fortfahren. Inzwischen gibt es also gerade durch solche Quantenzahlen zu charakterisierenden Teilchen die sich dann wieder mit der strangeness zusammenfassen lassen. So gibt es inzwischen eine große Zahl von Elementarteilchen, deren Zahl kaum mehr der Zahl der um die Jahrhundertwende bekannten chemischen Elemente nachsteht, die aber durch diese paar ganz scharf formulierbaren Begriffe immerhin schon so weit in ein Ordnungsschema gebracht werden können, wie es den ersten Versuchen, Ordnung in die chemischen Elemente zu bringen, entspricht. Es besteht die Hoffnung, dass man mittels dieser Begriffe jetzt auch noch diese Ordnung, die zum großen Teil noch qualitativer Natur ist - einige quantitative Vorhersagen kann man machen, man kann häufig angeben die relativen Erzeugungshäufigkeiten des einen oder des anderen Teilchens, wenn man einen Kern mit einer bestimmten Teilchensorte beschießt usw. Dabei sind wir trotzdem noch zwar die Vielfalt der Kerne losgeworden, durch das Gesetz der Nukleonen und der Anti-Nukleonen, aber alle diese Kräfte zwischen den Teilchen, auch zwischen den Nukleonen, die den Kern konstituieren, sind nicht nur bestimmt durch dieses eine Kraftfeld, das Yukawasche-pionische Kraftfeld, sondern durch eine Fülle von Kraftfeldern, die alle diesen seltsamen "strange particles" entsprechen. Diese Kräfte sind außerdem - zunächst möchte ich noch auf einen Punkt hinweisen, dass gerade mit dieser Vorstellung der Komplementarität, dass es also immer Teilchen gibt, zwischen den Teilchen wieder Kräfte wirken, diese Kräfte offensichtlich wieder, nach unserem Programm, durch Felder vermittelt werden, diese Felder aber wieder Quanten haben und durch diese Quanten wieder neue Teilchen entstehen, zwischen denen wieder Wechselwirkungen bestehen könnten, dass das also zu einem Regress ohne Ende führen könnte. Nun, dass tatsächlich auch zwischen den Pionen und Pionen untereinander, also den Pi-Mesonen untereinander, und auch zwischen den strange particles sehr starke Wechselwirkungen entstehen, das ist inzwischen experimentell sichergestellt, gerade dadurch, dass man temporär Zustände herstellen kann, die nachher - also zwar in sehr kurzer Zeit, 10^-18 Sekunden wieder in mehrere Pionen auseinander fallen, bei denen man aber nach dem Energie- und Impulssatz sicher sagen kann, temporär waren das Teilchen. Wenn sie nur aus Pionen auseinander fliegen, dann muss es also durch Kräfte zwischen den Pionen zustande gekommen sein. Es gibt also solche Kräfte. Man könnte also sehr fürchten, jetzt gibt es kein Halten mehr. Diese Kräfte müssen wieder durch Felder vermittelt werden, diese Felder haben Quanten, zwischen diesen Quanten gibt es Kräfte. Und da ist eben der wesentliche Punkt, dass zunächst in Bohrschen Gedanken der Komplementarität gerade schon eine Möglichkeit besteht, diesen Regress in sich zu schließen. Nämlich unter den vielen so gefundenen Teilchen gibt es immer schon solche, deren zugeordnete Felder gerade die Wirkung zwischen anderen Teilchen vermitteln können. Und deshalb ist es nicht notwendig, dass dieser Regress, das Suchen nach neuen Teilchen gar kein Ende nimmt. Daneben aber muss man vielleicht doch an die Tradition der ionischen Naturphilosophen anschließen, an die damals in der ionischen Zeit neue Art, Fragen zu formulieren. Leider kann ich, da liegen unter anderem philologischer Grenzen bei mir vor - Solche Fragen zu formulieren, auf die Thales eine Antwort geben zu können glaubte: Ich finde diese Fragestellung schön. Nun, also diese frühen ionischen Antworten, also die diversen Antworten der ionischen Naturphilosophen können wir natürlich nicht übernehmen. Trotzdem aber ist ihr Traum immer noch lebendig überall in der Physik, gerade angesichts dieser Fülle von Teilchen das Urfeld aufzusuchen, von woher sich alle diese verschiedenen Felder nach einem einheitlichen Prinzip verstehen lassen. Aber auch darüber zu sprechen sind berufenere Leute anwesend.

Caption: J. Hans Jensen delved into how our view of forces and particles changed in light of the concept of fields.
(00:12:08 - 00:17:54)

 


Gravity: Bending Spacetime

Building on his special theory of relativity – which assumed the laws of physics to have the same form and the speed to light to be constant is constant in all systems, leading to a universe where space and the passage of time are not absolute anymore – Einstein wielded field theory to build his general theory of relativity. Where Maxwell’s equations used charges and currents to determine electromagnetic fields, Einstein’s field equations used mass–energy and linear momentum to determine the geometry of space and time (or spacetime) itself.

From this, Einstein uncovered that spacetime is connected to matter: it tells matter how to move and matter tells spacetime how to curve. Gravity, then, is just the curvature of spacetime. More massive objects bend spacetime more, and so have a stronger gravitational pull.
Many distinguished Lindau visitors have lectured on Einstein’s relativity. For example, Subrahmanyan Chandrasekhar (Nobel Prize in Physics 1930) gave his 1988 Lindau lecture on “The Founding of General Relativity and its Excellence”.

 

Subrahmanyan Chandrasekhar (1988) - The founding of general relativity and its excellence

Ladies and gentlemen, Einstein is by all criteria the most distinguished physicist of this century. No physicist in this century has been accorded a greater acclaim. But it is an ironic comment that even though most histories of 20th century physics starts with the proforma statement that this century began with two great revolutions of thought – the general theory of relativity and the quantum theory. The general theory of relativity has not been a stable part of the education of a physicist, certainly not to the extent quantum theory has been. Perhaps on this account a great deal of my ethology has created an own Einstein’s name and the theory of relativity which he founded seventy years ago. Even great physicists are not exempt from making statements which, if not downright wrong, are at least misleading. Let me quote for example a statement by Dirac made in 1979 and on occasion celebrating Einstein’s 100th birthday. This is what he said: he was not claimed to account for some results of observation, far from it. His entire procedure was to search for a beautiful theory, a theory of a type that nature will choose. He was guided only by considerations of the beauty of his equations.” Now this contradicts statements made by Einstein himself on more than one occasion. Let me read what he said in 1922 in a lecture he gave titled “How I Came to Discover the General Theory of Relativity”. I read Einstein’s statement: could be discussed within the framework of the special theory of relativity. I wanted to find out the reason for this but I could not attain this goal easily. The most unsatisfactory point was the following: although the relationship between inertia and energy was explicitly given by the special theory of relativity, the relationship between inertia and weight or the energy of the gravitational field was not clearly elucidated. I felt that this problem could not be resolved within the framework of the special theory of relativity. The breakthrough came suddenly, one day I was sitting on a chair in a patent office in Bern, suddenly a thought struck me. If a man falls freely, he would not feel his weight. I was taken aback, this simple thought experiment made a deep impression on me. This led me to the theory of gravity. I continued my thought: A falling man is accelerated, then what he feels and judges is happening in the accelerated frame of reference. I decided to extend the theory of relativity to the reference frame with acceleration. I felt that in doing so I could solve the problem of gravity at the same time. A falling man does not feel his weight because in his reference frame there is a new gravitational field which cancels the gravitational field due to the earth. In the accelerated frame of reference we need a new gravitational field. Perhaps it is not quite clear from what I have read precisely what he had in mind. But two things are clear. First, he was guided principally by the equality of the inertial and gravitational mass, an empirical fact which has been really accurately determined and in fact probably the most well established experimental fact. The second point is that this equality of the inertial and the gravitational mass led him to formulate a principle which he states very briefly and which has now come to be called ‘the principle of equivalence’. Let me try to explain more clearly what is involved in these statements I have just made. The first point in order to do that I have to go back in time, in fact I have to go back 300 years to the time when Newton wrote the Principia. The fact that the publication of the Principia is 300 years old was celebrated last year in many places. Now,Newton notices already within the first few pages of the Principia that the notion of mass and weight are two distinct concepts based upon two different notions. The notion of mass follows from his second law of motion which states that if the subject is a body till it falls, then it experiences an acceleration in such a way that the quantity, which we call the mass of the body, times the acceleration is equal to the force. Precisely, if you apply a force to one cubic centimetre of water and measure the acceleration which it experiences and then you find that another piece of water, when subjected to the same force, experiences ten times the acceleration, then you can conclude that the mass of the liquid you have used is one tenth cubic centimetre. In other words then, the notion of mass is a consequence of his law of motion, it is a consequence of proportionality in the relation that the force is equal to the mass times the acceleration. But the notion of weight comes in a different way. If you take a piece of matter and it is subject to the gravitational field, say of the earth, then you find that the attraction which it experiences in a given gravitational field is proportional to what one calls the weight. For example, if you take a piece of liquid, say water, and you find that the earth attracts it by force, which you measure and you find that another piece of the same matter experiences gravitational attraction which is, say ten times more, then you say the rate is ten times greater. In other words the notion of weight and the notion of mass are derived from two entirely different sets of ideas. And Newton goes on to say that the two are the same and in fact, as he says, as I have found experiments with pendula made accurately. The way he determined the quality of the inertial and the gravitational mass was simply to show that a period of a pendulum, a certain pendulum, depends only on its length and not upon the weight or the mass or the body or the constitution of it. And he established the equality of the inertial and gravitational mass to a few parts in a thousand. Essentially later Wentzel improved the accuracy to a few parts in several tens of thousands. Earlier in this century yet was shown the equality to one part at ten to the eleven. And more recently the experiments of Dicke and Braginskii have shown that they are equal to one part at ten to the minus thirteen. Now this is a very remarkable fact, the notion of mass and weight are fundamental in physics. And when one equates them by the fact of experience and this of course is basic to the Newtonian theory. Herman Wilde called it an element of magic in the Newtonian theory. And one of the objects of Einstein’s theory is to illuminate this magic. But the question of course is, you want to illuminate the magic, but how? For this Einstein developed what one might call today the principle of equivalence. Now let me illustrate his ideas here. Here is the famous experiment with an elevator or a lift, which Einstein contemplated. Now the experiment is following, here is a lift with a rocket booster. Let us imagine that this lift is taken to a region of space which is far from any other external body. If this elevator is accelerated by a value equal to the acceleration of gravity, then the observer will find that if he drops a piece of apple or a ball, it will fall down towards the bottom with a certain acceleration. On the other hand, if the rockets are shut off and the rocket simply cools, then if he leaves the same body, then it remains where it was. Now you perform the experiment now on the same elevator shaft on the earth and you find that if he leaves the body, then it falls down to the ground in the same way as it did when this was accelerated and not subject to gravity. Now suppose this elevator is put in a shaft and falls freely towards the centre of the earth. Then,when you leave the body there, it remains exactly as it was. In other words, in this case the action of gravity and the action of acceleration are the same. On the other hand you cannot conclude from this that action of gravity and the action of uniform acceleration are the same. Let us now perform the same experiment in which the observer has two pieces of bodies instead of just one. Then if the rocket is accelerated, then he will find that both of them fall along parallel lines. And again, if the acceleration is stopped, then the two bodies will remain at the same point. Now if you go to the earth and similarly you have these two things, then the two will fall but not exactly in parallel lines, if the curvature of the earth is taken into account. The two lines in which they will drop will intersect at the centre of the earth. Now if the same experiment is performed with a lift which is falling freely, then as the lift approaches the centre of the earth, the two objects will come close together. And this is how Einstein showed the equivalence locally of a gravitational field, of a uniform gravitational field, with a uniform acceleration, but showed nevertheless that if the gravitational field is not uniform, then you can no longer make that equivalence. Now, in order to show how from this point Einstein derived his principle of equivalence in a form in which he could use it to find gravity, I should make a little calculation. Now, everyone knows that if you describe the equations of motion in, say Cartesian coordinates, then the inertial mass times the acceleration is given by the gravitational mass times the gradient of the potential, gravitational potential. There are similar equations for X and Y. Suppose we want to realign this equation in a coordinate system which is not XYZ, but a general curvilinear coordinates. That is, instead of XYZ you change to coordinates Q1, Q2, Q3. And you can associate with the general curvilinear system in metric in the following way: The distance between two neighbouring points in Cartesian framework is the DX2 and DZ2. On the other hand, if you find the corresponding distance for general curvilinear coordinates, it will be a certain quantity each alpha beta with the two index quantity which will be functions of the coordinates times DQ Alpha, DQ Beta. For example in spherical polar coordinates it will be DR2 + R2 D Theta2 + R2Psi2Theta D Phi2. But more generally that will be the kind of equation you will have. Now let us suppose you write this equation down and ask what the gravitational equations become, then you find that M inertial times this quantity Q.Beta that is the Q..Beta, the acceleration in the coordinate beta times this quantity contracted is equal to the minus the inertial mass times a certain quantity Gamma, Alpha, Beta, Gamma, called the Christoffel symbols, but it doesn’t matter what they are, they are functions of the coordinate, functions of the geometry, times Q.Beta, Q.Gamma, and then minus the same gravitational mass times the gradient of the potential. You see, the main point of this equation is to show that the acceleration in the coordinate, which is corresponding to that, when you write it down in general curvilinear coordinates, the acceleration consists of two terms. A term which is geometrical in origin which is a co-efficient the inertial mass in a term from the gravitational field. And if you accept the equality between the inertial mass and the gravitational mass, then the geometrical part of the acceleration and the gravitational part are the same. And this is Einstein’s remark, he said And that is the starting point of his work. He wanted to abolish the distinction between the geometrical part of the acceleration and the gravitational part by saying that all acceleration is metrical in origin. Einstein’s conclusion that in the context of gravity all accelerations are metrical in origin is as staggering in its own way as rather for its conclusion when Geiger and Marsden first showed him the result of the experiments on the large angle scattering of alpha-rays, another remark was it was as though you had fired a fifteen inch shell at a piece of tissue paper and it had bounced back and hit you. In the case of Rutherford, he was able to derive his scattering over night but it took Einstein many years, in fact ten years almost, to obtain his final field equations. The transition from the statement that all acceleration is metrical in origin to the equations of the field in terms of the Riemann tensor is a giant leap. And the fact that it took Einstein three or four years to make the transition is understandable, indeed it is astonishing that he made the transition at all. Of course, one can claim that mathematical insight was needed to go from his statement about the metrical origin of gravitational forces to formulating those ideas in terms of Riemannian geometry. But Einstein was not particularly well disposed to mathematical treatments and particularly geometrical way of thinking in his earlier years. For example, when Minkowski wrote, a few years after Einstein had formulated his special theory of relativity by describing the special relativity in terms of what we now call Minkowski geometry, in which we associate geometric in spacetime, which is DT2– DX2- DY 2- DC2. And he showed that rotations in a spacetime with this metric is equivalent to a special relativity. Einstein’s remark on Minkowski’s paper was first that, well, we physicists show how to formulate the laws of physics, and mathematicians will come along and say how much better they can do it. And indeed he made the remark that Minkowski’s work was “überflüssige Gelehrsamkeit” -“unnecessary learnedness”. But it was only in 1911 or 1912 that he realised the importance of this geometrical way of thinking and particularly with the aide and assistance of his friend Marcel Grossmann, he learned sufficient differential geometry to come to his triumph and conclusion with regard to his field equations in 1915. But even at that time Einstein’s familiarity with Riemannian geometry was not sufficiently adequate. He did not realise that the general co-variants of his theory required that the field equations must leave four arbitrary functions free. Because of his misunderstanding here, he first formulated his field equations by equating the rigid tensor with the energy-momentum tensor. But then he realised that the energy-momentum tensor must have its co-variant divergence zero, but the covariant divergence of the digitants is not zero and he had to modify it to introduce what is the Einstein tensor. Now I do not wish to go into the details more, but only to emphasise that the principle motive of the theory was a physical insight and it was the strength of this physical insight that led him to the beauty of the formulation of the field equations in terms of Riemannian geometry. Now I want to turn around and say that why is it that we believe in the general theory of relativity. Of course there has been a great deal of effort during the past two decades to confirm the predictions of general relativity. But these predictions relate to very, very small departures from the predictions of the Newtonian theory. And in no case more than a few parts in a millionth, the confirmation comes from the reflection of light, as light traverses a gravitational field and the consequent time delay. The procession of the perihelion of Mercury and the changing period of double stars, the close double stars as pulsars, due to the emission of gravitational radiation. But in no instance is the effect predicted more than a few parts in a million departures from Newtonian theory. And in all instances it is no more than verifying the values of one or two or three parameters in expression of the equations of general relativity, in what one calls the post-Newtonian approximation. But one does not believe in a theory in which only the approximations have been confirmed. For example, if you take the Dirac theory of the electron and the only confirmation you had was the fine structure of ionised helium in partial experiments, a conviction would not have been as great. And suppose there had been no possibility in the laboratory of obtaining energies of a million electron volts, then the real experiment, the real verification of Dirac’s ideas, prediction of anti-matter, the creation of electron-positron-paths would not have been possible. And of a conviction in the theory would not have been as great. But it must be stated that in the realm of general relativity no phenomenon which requires the full non-linear aspects of general relativity have been confirmed, why then do we believe in it? I think of a belief in general relativity comes far more from its internal consistency and from the fact that, whenever general relativity has an interface with other parts of physics it does not contradict any of them. Let me illustrate these two things in the following way. We all know that the equations of physics must be causal. Essentially what it means is that if you make a disturbance at one point, the disturbance cannot be followed on another point for a time light will take it from one point to another. Technically one says that the equations of physics must allow an initial value formulation. That is to say you give the initial data on a space like surface and you show that the only part of the spacetime in which the future can be predicted is that which is determined by sending out light rays from the boundary of the spacetime region to the point. In other words, if for example, suppose you have a space like slice, then you send a light ray here and you light a region here, it is in that region that the future is defined. Now, when Einstein formulated the general theory of relativity, he does not seem to have been concerned whether his equations allowed an initial value formulation. And in fact to prove, in spite of the non-numerity of the equations, the initial value formulation is possible in general relativity, was proved only in the early ‘40s by Lichnerowicz in France. So that even though, when formulating the general theory of relativity, the requirement that satisfied the laws of causality was not included. In fact it was consistent with it. Or let us take the notion of energy. In physics, the notion of energy is of course central, we define it locally and it is globally concerned. In general relativity for a variety of reasons I cannot go into you cannot define a local energy. On the other hand you should expect on physical grounds that you have an isolated matter and even if it really emits energy, then globally you ought to be able to define a quantity which you could call the energy of the system. And that, if the energy varies it can only be because gravitational waves cross the boundary at a sufficiently large distance. There’s a second point, of course the energy of a gravitating system must include the potential energy of the field itself, but the potential energy in the Newtonian theory has no lower bound. By bringing two points sufficiently close together you can have an infinite negative energy. But in general relativity you must expect that there is a lower bar to the energy of any gravitating system. And if you take a reference with this lower bar as the origin of measuring the energy, then the energy must always be positive. In other words, if general relativity is to be consistent with other laws of physics, you ought to be able to define for an isolated system, yet global meaning for its energy and you must also be able to show that the energy is positive. But actually this has been the so-called positive energy conjecture for more than sixty years. And only a few years ago it was proved rigorously by Ed Witten and Yau. Now, in other words then that, even though Einstein formulated the theory from very simple considerations, like all accelerations must be metrical in origin, and putting it in the mathematical framework of Riemannian geometry, it nevertheless is consistent in a way in which its originator could not have contemplated. But what is even more remarkable is that general relativity does have interfaces with other branches of physics. I cannot go into the details but one can show that if you take a black hole and have the Dirac waves reflected and scattered by a black hole, then there are some requirements of the nature of scattering which the quantum theory requires. But even though in formulating this problem in general relativity no aspect of quantum theory is included, the results one gets are entirely consistent with the requirements of the quantum theory. In exactly the same way general relativity has interfaces with thermodynamics and it is possible to introduce the notion of entropy, for example in the context of what one generally calls Hawking radiation. Now, certainly thermodynamics must not be incorporated in founding general relativity, but one finds that when you find the need to include concepts from other branches of physics in consequences of general relativity, then all these consequences do not contradict branches of other parts of physics. And it is this consistency with physical requirements, this lack of contradiction with other branches of physics, which was not contemplated in its founding, and it´s these which gives one confidence in the theory. Now, I'm afraid I do not have too much time to go into the other aspect of my talk namely why is the general theory an excellent theory. Well, let me just make one comment. If you take a new physical theory, then it is characteristic of a good physical theory, that it isolates a physical problem which incorporates the essential features of that theory and for which the theory gives an exact solution. For the Newtonian theory of gravitation you have the solution to the Kepler problem. For quantum mechanics, relativistic or non-relativistic, you have the predictions of the energy of the hydrogen atom. And in the case of the Dirac theory, I suppose the creation of formula and the pair production. Now, in the case of the general theory of relativity you get asked, is there a problem which incorporates the basic concepts of general relativity in its purest form. In its purest form, the general theory of relativity is a theory of space and time. Now, a black hole is one whose construction is based only on the notion of space and time. The black hole is an object which divides the three dimensional space into two parts, an interior part and an exterior part, bound by a certain surface which one calls a horizon. And the reason for calling it that “the horizon” is that no person, no observer in the interior of the horizon can communicate with the space outside. So your black hole is defined as a solution of Einstein’s vacuum equations which has a horizon, which his convex and which is asymptotically flat, in the sense that this spacetime is minkowskian at sufficiently large distances. It is a remarkable fact that these two simple requirements provide, in the basis of general relativity, a unique solution to the problem. A solution which has just two parameters, the mass and the angular momentum. This is a solution discovered in 1962. The point is that if you ask what a black hole solution consistent to general relativity is, you find that there’s only one simple solution, its two parameters and all black holes which occur in nature must belong to it. One can say the following: If you see macroscopic objects, then you see microscopic objects all around us, if you want to understand them it depends upon a variety of physical theories, a variety of approximations and you understand it approximately. There is no example in macroscopic physics of an object which is described exactly and with only two parameters. In other words one could say that almost by definition the black holes are the most perfect objects in the universe, because their construction requires only the notions of space and time. It is not vulgarised by any other part of physics with which we are mostly dealing with. And one can go on and point out the exceptional mathematical perfectness of the theory of black holes. Einstein, when he wrote his last paper, his first paper announcing his field equations stated, that anyone, scarcely anyone who understands my theory can escape its magic. For one practitioner at least, the magic of the general theory of relativity is in its harmonious mathematical character and the harmonious structure of its consequences. Thank you.

Sehr geehrte Damen und Herren, Einstein ist nach allen Maßstäben der herausragendste Physiker dieses Jahrhunderts. Kein Physiker dieses Jahrhunderts hat jemals mehr Anerkennung erhalten. Es ist aber ein ironischer Kommentar, dass gleichwohl die meisten Geschichtsbeschreibungen der Physik des 20. Jahrhunderts mit der Proforma-Aussage beginnen, dieses Jahrhundert finge mit den beiden großen Gedankenrevolutionen an – der allgemeinen Relativitätstheorie und der Quantentheorie. Die allgemeine Relativitätstheorie war kein fester Bestandteil der Ausbildung eines Physikers, sicher nicht in dem Ausmaß, wie die Quantentheorie es war. Vielleicht hat aus diesem Grund ein großer Teil meiner Ethologie einen eigenen Einstein-Namen geschaffen und die Relativitätstheorie, die er vor siebzig Jahren begründete. Auch große Physiker sind nicht davon befreit, Behauptungen aufzustellen, die vielleicht nicht regelrecht falsch, aber zumindest irreführend sind. Als Beispiel möchte ich eine Aussage von Dirac zitieren, die er 1979 anlässlich Einsteins 100. Geburtstag machte. Er sagte: versuchte er nicht, einige Beobachtungsergebnisse zu erklären, er war weit davon entfernt. Seine gesamte Prozedur bestand darin, eine schöne Theorie zu suchen, eine Theorie der Art, wie sie die Natur wählen wird. Er wurde allein von Überlegungen der Schönheit dieser Gleichungen geleitet.“ Das steht nun im Widerspruch zu den Aussagen, die Einstein selber mehr als einmal getätigt hat. Ich möchte Ihnen vorlesen, was er 1922 in einer Vorlesung sagte, die den Titel hatte „Wie ich dazu kam, die allgemeine Relativitätstheorie zu entdecken“. Ich lese Einsteins Aussage vor: im Rahmen der speziellen Relativitätstheorie diskutiert werden konnten. Ich wollte den Grund dafür herausfinden, aber das Ziel war nicht einfach zu erreichen. Der Punkt, der am unbefriedigendsten war, war der Folgende: Obwohl die Beziehung zwischen Masse und Energie ausdrücklich durch die spezielle Relativitätstheorie beschrieben wurde, war die Beziehung zwischen Masse und Gewicht oder Energie des Gravitationsfelds nicht deutlich erklärt. Ich merkte, dass dieses Problem nicht im Rahmen der speziellen Relativitätstheorie gelöst werden konnte. Der Durchbruch kam plötzlich eines Tages. Ich saß auf meinem Stuhl im Patentamt in Bern und hatte plötzlichen einen Einfall: Wenn sich eine Person im freien Fall befindet, würde sie ihr eigenes Gewicht nicht spüren. Ich war erstaunt, dieses einfache Gedankenexperiment hatte mich stark beeindruckt. Dies führte mich zur Gravitationstheorie. Ich führte meinen Gedanken fort: Eine Person im freien Fall wird beschleunigt, was sie dann fühlt und urteilt, passiert im beschleunigten Bezugssystem. Ich beschloss, die Relativitätstheorie hin zum beschleunigten Bezugssystem zu erweitern. Ich merkte, dass ich dadurch das Problem der Gravitation gleichzeitig lösen konnte. Eine Person im freien Fall spürt ihr Gewicht nicht, da es in ihrem Bezugssystem ein neues Gravitationsfeld gibt, das das Gravitationsfeld der Erde aufhebt. Im beschleunigten Bezugssystem benötigen wir ein neues Gravitationsfeld. Vielleicht geht aus dem Text, den ich vorgelesen habe, nicht ganz deutlich hervor, an was er dachte. Aber zwei Dinge sind klar. Erstens wurde er grundsätzlich von der Gleichheit der trägen und der schweren Masse geleitet, ein empirischer Fakt, der sehr genau ermittelt wurde und in der Tat wahrscheinlich die am besten bewiesene experimentelle Tatsache ist. Zweitens führte ihn diese Gleichheit der trägen und schweren Masse zu der Formulierung eines Prinzips, das er sehr kurz schildert und das mittlerweile Äquivalenzprinzip genannt wird. Lassen Sie mich genauer erklären, worauf sich diese Aussagen beziehen, die ich gerade gemacht habe. Zunächst muss ich dafür einen Zeitsprung machen, nämlich 300 Jahre zurück, in die Zeit als Newton die Principia verfasste. Die Tatsache, dass die Veröffentlichung der Principia 300 Jahre her ist, wurde letztes Jahr vielerorts gefeiert. Newton erwähnt bereits auf den ersten Seiten der Principia, dass der Begriff von Masse und Gewicht zwei unterschiedliche Konzepte sind, die auf unterschiedlichen Auffassungen basieren. Die Auffassung von Masse folgt aus seinem zweiten Bewegungsgesetz, das besagt, dass, wenn man einen Körper einem Fall unterwirft, so beschleunigt er so, dass die Größe, die wir die Masse des Körpers nennen, mal Beschleunigung gleich der Kraft ist. Konkret heißt das, wenn eine Kraft auf einen Kubikzentimeter Wasser einwirkt und man die Geschwindigkeit misst, die darauf wirkt, und man dann ein anderes Teil Wasser findet, das der selben Kraft unterliegt und 10 Mal schneller ist, schließen wir daraus, dass die Masse der Flüssigkeit, die man verwendet hat, ein Zehntel Kubikzentimeter ist. Anders gesagt, ist die Auffassung von Masse eine Konsequenz seines Bewegungsgesetzes, sie ist eine Konsequenz aus dem Verhältnis, dass die Kraft gleich Masse mal Beschleunigung ist. Aber die Auffassung von Gewicht ist anders. Wenn man eine Materie hat, die dem Gravitationsfeld, z. B. der Erde unterliegt, findet man, dass die Anziehung, die auf sie wirkt, in einem vorgegebenen Gravitationsfeld proportional zum sogenannten Gewicht ist. Wenn man zum Beispiel eine Flüssigkeit wie Wasser nimmt und feststellt, dass die Erde sie durch ihre Kraft anzieht, was man misst und wenn man herausfindet, dass auf ein anderes Stück derselben Materie Gravitationsanziehung wirkt, die zehn Mal so hoch ist, sagt man, dass die Rate das Zehnfache beträgt. Anders gesagt, die Auffassung von Gewicht und die Auffassung von Masse gehen von zwei ganz unterschiedlichen Überlegungen aus. Und Newton geht noch weiter und sagt, dass beide identisch sind und in der Tat wie er sagt, hat er es mit Versuchen mit Pendeln herausgefunden, die genau hergestellt wurden. Die Art und Weise, wie er die Gleichheit von träger und schwerer Masse bestimmte, war einfach zu zeigen, dass die Schwingungsdauer eines Pendels allein von seiner Länge und nicht von Gewicht oder Masse des Körpers oder Materialien des Pendels abhängt. Die Genauigkeit, mit der Newton die Gleichheit der trägen und schweren Masse maß, lag bei ein paar Teilen in tausend. Wesentlich später konnte Wentzel die Genauigkeit von Newton um viele Zehnerpotenzen übertreffen. Eine weitere deutliche Steigerung gelang Anfang dieses Jahrhunderts mit einer Genauigkeit von 1:10 hoch 11. Und erst in jüngerer Vergangenheit erzielten Dicke und Bragisnkii eine Genauigkeit von 1:10 hoch -13. Das ist eine bemerkenswerte Tatsache, das Verhältnis von Masse und Gewicht ist ein wesentlicher Bestandteil der Physik. Und man setzt sie gleich durch die Tatsache aus der Erfahrung, und dies ist natürlich die Grundlage für die Newtonsche Theorie. Herman Wilde bezeichnete dies als ein Element der Magie in der Newtonschen Theorie. Und ein Ziel von Einsteins Theorie ist es, diese Magie zu beleuchten. Die Frage ist jetzt aber, wie man diese Magie aufklären will. Zu diesem Zwecke entwickelte Einstein das heute bekannte Äquivalenzprinzip. Seine Ideen möchte ich veranschaulichen. Da ist das bekannte Fahrstuhlexperiment, das Einstein sich überlegte. Das Experiment sieht so aus, wir haben einen Fahrstuhl, mit einem Raketentriebwerk. Nehmen wir an, dass sich dieser Fahrstuhl im Weltraum fernab von allen externen Massen befindet. Wenn dieser Fahrstuhl mit einem Wert, der gleich dem Wert der Gravitationsbeschleunigung ist, beschleunigt wird, wird der Beobachter feststellen, dass ein Gegenstand wie ein Apfelstück oder ein Ball, den er fallen lässt, mit einer gewissen Beschleunigung auf den Boden fällt. Wenn das Raketentriebwerk aber andererseits ausgeschaltet ist und die Rakete nur treibt, dann bleibt derselbe Körper, wo er war, wenn er ihn loslässt. Wenn man das Experiment nun mit dem gleichen Fahrstuhlschacht auf der Erde durchführt, wird man feststellen, wenn er den Körper loslässt, fällt er genauso zu Boden, wie in dem Fall, in dem er beschleunigt wurde und nicht der Gravitation unterliegt. Nehmen wir nun an, dass der Fahrstuhl in einem Schacht ist und frei in Richtung Erdboden fällt. Wenn man den Körper dort loslässt, bleibt er genau dort, wo er war. Anders ausgedrückt: Die Wirkung der Gravitation und die Wirkung der Beschleunigung sind in diesem Fall identisch. Andererseits kann man daraus nicht folgern, dass die Wirkung der Gravitation und die der konstanten Beschleunigung identisch sind. Jetzt führen wir dasselbe Experiment durch, in dem der Beobachter zwei Körper statt einem hat. Wenn die Rakete nun beschleunigt wird, wird er feststellen, dass beide Körper parallel zueinander hinunterfallen. Und wenn die Beschleunigung beendet ist, bleiben beide Körper am selben Punkt. Wenn man jetzt auf dem Erdboden den Versuch mit diesen beiden Körpern macht, fallen sie nicht genau parallel zueinander, wenn man die Erdkrümmung in Betracht zieht. Die beiden Linien, an denen sie hinunterfallen, werden sich auf dem Erdboden kreuzen. Wenn man dasselbe Experiment mit einem Fahrstuhl im freien Fall durchführt, werden sich die beiden Objekte annähern, wenn sich der Fahrstuhl dem Erdboden nähert. Und so zeigte Einstein, dass die Äquivalenz lokal für ein Gravitationsfeld gilt, ein konstantes Gravitationsfeld mit gleichförmiger Beschleunigung, und zeigte nichtsdestotrotz, dass keine Äquivalenz gegeben ist, wenn das Gravitationsfeld nicht gleichförmig ist. Jetzt müsste ich eine kleine Berechnung vornehmen, um zu zeigen, wie Einstein hiervon ausgehend sein Äquivalenzprinzip herleitete, in einer Weise, um die Gravitation zu definieren. Es ist allgemein bekannt, dass, wenn man die Bewegungsgleichungen in kartesischen Koordinaten beschreibt, die träge Masse mal der Beschleunigung gleich der Gravitationsmasse mal dem Potenzialgradient, Gravitationspotential ist. Es gibt verschiedene Gleichungen für X und Y. Angenommen, wir möchten diese Gleichung in einem Koordinatensystem, das nicht aus XYZ besteht, sondern aus allgemein krummlinigen Koordinaten, neu schreiben. Das heißt, dass man statt XYZ zu den Koordinaten Q1, Q2, Q3 wechselt und dem allgemeinen krummlinigen Koordinatensystem eine Metrik wie folgt zuweisen kann: Die Distanz zwischen zwei benachbarten Punkten im kartesischen System ist DX2 plus DZ2. Andererseits, wenn man die entsprechende Distanz für allgemeine krummlinige Koordinaten findet, wird es eine bestimmte Größe H Alpha, Beta, eine Größe mit den beiden Indizes, die Funktionen der Koordinaten mal DQ Alpha, DQ Beta sein werden. Das hieße beispielsweise in räumlichen Polarkoordinaten DR2 + R2 D Theta2 + R2Psi2Theta D Phi2. Aber ganz allgemein wird das die Art der Gleichung sein, die man bekommen wird. Nehmen wir nun an, wir schreiben diese Gleichung auf und fragen uns, wie die Gravitationsgleichungen aussehen werden, dann findet man M träge mal dieser Größe Q Punkt Beta, die Q Punkt Punkt Beta ist, die Beschleunigung in der Koordinate Beta mal diese Größe kontrahiert ist gleich minus der trägen Masse mal einer bestimmte Größe Gamma, Alpha, Beta, Gamma, die sogenannten Christoffelsymbole, aber unabhängig davon was sie sind, sie sind Funktionen des Koordinaten, Funktionen der Geometrie, mal Q Punkt Beta, Q Punkt Gamma und minus derselben Gravitationsmasse mal dem Potenzialgradienten. Sehen Sie, die Hauptsache dieser Gleichung besteht darin zu zeigen, dass die Beschleunigung in den Koordinaten, die dem entsprechen, wenn man es in allgemeinen krummlinigen Koordinaten niederschreibt, besteht die Beschleunigung aus zwei Termen. Einem Term, der geometrischen Ursprungs ist, der ein Koeffizient der trägen Masse ist, und einem Term, der von dem Gravitationsfeld herrührt. Und wenn man die Gleichheit von der trägen Masse und der Gravitationsmasse akzeptiert, sind der geometrische Teil der Beschleunigung und der Gravitationsteil identisch. Und das ist Einsteins Bemerkung, als er sagte „warum diese Unterscheidung machen, warum sagen wir nicht einfach, dass jede Beschleunigung von der Metrik herrührt?“. Und dies war der Ausgangspunkt für seine Arbeit. Er wollte die Unterscheidung zwischen dem geometrischen Teil der Beschleunigung und dem Gravitationsteil abschaffen, indem er sagte, dass jede Beschleunigung ihren Ursprung in der Metrik hat. Einsteins Schlussfolgerung, dass jede Beschleunigung im Zusammenhang mit der Gravitation den Ursprung in der Metrik hat, ist auf ihre Weise genauso unglaublich wie die Aussage von Geiger und Marsden, die ihm die Ergebnisse ihrer Experimente zeigten, in denen sie große Streuwinkel von Alpha-Teilchen beobachteten. Er sagte, es war, als wenn man eine 15-Zoll-Granate auf ein Stück Seidenpapier abgefeuert hätte und diese zurückgekommen wäre und einen getroffen hätte. Rutherford war in der Lage, sein Streuungsgesetz über Nacht herzuleiten, aber Einstein brauchte viele Jahre, um genau zu sein, fast zehn Jahre, um seine endgültigen Feldgleichungen aufzustellen. Der Übergang von der Aussage, dass jede Beschleunigung ihren Ursprung in der Metrik hat, auf die Feldgleichungen des Riemannschen Krümmungstensor, ist ein gewaltiger Sprung. Und die Tatsache, dass Einstein drei oder vier Jahre benötigte, um diesen Übergang zu vollziehen, ist nachvollziehbar, es ist sogar erstaunlich, dass er diesen Übergang überhaupt gemacht hat. Natürlich kann man behaupten, dass mathematische Einsicht nötig war, um von seiner Aussage über den metrischen Ursprung der Gravitationskräfte zur Formulierung solcher Ideen durch die Riemannsche Geometrie zu gelangen. Aber mathematische Verfahren, insbesondere die geometrische Form des Denkens lagen Einstein, zumindest in seinen früheren Jahren, nicht besonders. Minkowski schrieb beispielsweise einige Jahre nachdem Einstein seine spezielle Relativitätstheorie formuliert hatte, durch Beschreibung der speziellen Relativität durch die später so genannten Minkowski-Geometrie, wo man die Geometrie der Raumzeit zuordnet, was DT2– DX2- DY 2- DC2 ist. Und er zeigte, dass Rotationen in dieser Raumzeit in diesem Raum mit dieser Metrik der speziellen Relativität äquivalent sind. Einsteins erste Bemerkung zu Minkowskis These war, dass, Physiker nun mal zeigen, wie man Gesetze der Physik formuliert und Mathematiker kommen daher und sagen, dass sie es viel besser können. Und er äußerte tatsächlich, dass Minkowskis Arbeit „überflüssige Gelehrsamkeit“ wäre. Erst 1911 oder 1912 bemerkte er, wie wichtig diese geometrische Form des Denkens war, und erlernte vor allem mit Hilfe und Unterstützung seines Freundes Marcel Grossmann genug Differentialgeometrie, dass er seinen Triumph und Abschluss seiner Feldgleichungen 1915 erlangte. Aber selbst zu diesem Zeitpunkt war Einstein noch nicht genügend mit der Riemannschen Geometrie vertraut. Er realisierte nicht, dass die allgemeinen Kovarianten seiner Theorie erforderten, dass die Feldgleichungen vier willkürliche Funktionen frei lassen müssen. Aufgrund seines Missverständnisses formulierte er zunächst seine Feldgleichungen durch die Gleichsetzung des Ricci-Tensors mit dem Energie-Impuls-Tensor. Aber dann stellte er fest, dass der Energie-Impuls-Tensor seine kovariante Divergenz Null erhalten muss, aber da die kovariante Divergenz des Ricci-Tensors nicht Null ist, musste er es modifizieren und führte den heute bekannten Einstein-Tensor ein. Ich möchte jetzt nicht weiter ins Detail gehen, sondern nur wieder hervorheben, dass der Hauptbeweggrund der Theorie eine physikalische Erkenntnis war und es war die Stärke der physikalischen Erkenntnis, die ihn zur Schönheit der Formulierung der Feldgleichungen in der Riemannschen Geometrie führte. Jetzt möchte ich zurückkehren und erklären, warum wir an die allgemeine Relativitätstheorie glauben. Natürlich gab es große Anstrengungen in den letzten zwei Jahrzehnten, die Vorhersagen der allgemeinen Relativität zu bestätigen. Aber diese Vorhersagen betreffen sehr, sehr kleine Abweichungen von den Vorhersagen der Newtonschen Theorie. Eine Abweichung, die in keinem Fall mehr ist als 1:1.000.000. Die Bestätigung erfolgte durch die vorherberechneten Lichtablenkung im Schwerefeld und die daraus resultierende Zeitverzögerung, die Periheldrehung des Merkur und die sich ändernden Perioden von Doppelsternen, den nahen Doppelsternsystemen wie Pulsare, durch die Emission von Gravitationswellen. Aber auf keinen Fall ist der vorhergesagte Effekt eine Abweichung von der Newtonschen Theorie um mehr als einige Teile pro Million. Auf jeden Fall ist es nur die Überprüfung der Werte eines, oder zwei oder drei Parameter als Ausdruck der Gleichungen der allgemeinen Relativität, was heute als Post-Newtonsche Näherung bezeichnet wird. Aber man glaubt nicht an eine Theorie, wo nur die Näherungen bestätigt wurden. Wenn man beispielsweise die Dirac-Theorie des Elektrons nimmt, und man als einzige Bestätigung nur die Feinstruktur von ionisiertem Helium in Paschens Experimenten hätte, wäre die Überzeugung nicht so groß gewesen. Und angenommen, es hätte nicht die Möglichkeit gegeben, im Labor Energien von Millionen Elektron Volt zu erreichen, wäre das wahre Experiment, die wahre Bestätigung von Diracs Ideen, die Voraussage von Antimaterie und die Erzeugung von Elektron-Positron-Paaren, nicht möglich gewesen. Und man wäre von der Theorie niemals so überzeugt gewesen. Es muss aber festgestellt werden, dass auf dem Gebiet der allgemeinen Relativität kein Phänomen, das den vollen nichtlinearen Aspekt der allgemeinen Relativität erfordert, bestätigt wurde – warum glauben wir dann daran? Ich denke, dass der Glaube an die allgemeine Relativitätstheorie weitaus mehr aus ihrer inneren Konsistenz stammt und aus der Tatsache, dass sie nicht im Widerspruch mit anderen Bereichen der Physik steht, wenn die allgemeine Relativitätstheorie eine Schnittstelle mit ihnen hat. Lassen Sie mich diese beiden Sachen veranschaulichen. Wir wissen alle, dass die Gleichungen der Physik kausal sein müssen. Was im Wesentlichen bedeutet, wenn man eine Störung an einem Punkt erzeugt, kann die Störung nicht an einem anderen Punkt folgen während eines Zeitraums, den Licht benötigt, um von einem Punkt zum anderen zu kommen. Technisch sagt man, dass die Gleichungen der Physik eine Ausgangswertformulierung erlauben müssen. Das heißt, dass man Ausgangsdaten einer raumähnlichen Oberfläche vorgibt und zeigt, dass der einzige Teil der Raumzeit, in der die Zukunft vorhergesagt werden kann, der ist, der durch das Senden von Lichtstrahlen von der Grenze der Raumzeitregion zu dem Punkt bestimmt wird. Anders ausgedrückt, angenommen, man hat ein raumähnliches Stück, und man sendet hier einen Lichtstrahl und erleuchtet den Bereich hier, dann ist es in diesem Bereich, wo die Zukunft definiert ist. Als Einstein jedoch seine allgemeine Relativitätstheorie formulierte, schien er sich nicht darum gekümmert zu haben, ob seine Gleichungen eine Ausgangswertformulierung erlaubten. Und dass die Ausgangswertformulierung in der allgemeinen Relativität möglich ist, trotz der Nichtlinearität der Gleichungen, wurde erst Anfang der 40er-Jahre von Lichnerowicz in Frankreich nachgewiesen. Und das, obgleich die Forderung, die Kausalitätsgesetze zu erfüllen, bei der Formulierung der allgemeinen Relativitätstheorie nicht enthalten war. In der Tat war sie konsistent mit ihr. Ein anderes Beispiel ist der Begriff der Energie. In der Physik ist der Begriff der Energie natürlich zentral, wir definieren ihn lokal und er wird global erhalten. In der allgemeinen Relativität kann man keine lokale Energie definieren, dafür gibt es zahlreiche Gründe, die ich hier nicht näher erläutern kann. Andererseits sollte man aus physikalischen Gründen erwarten, dass wenn man eine isolierte Materie hat, und auch wenn sie Energie abgibt, sollte man global in der Lage sein, eine Größe zu definieren, die man die Energie des Systems nennen könnte. Und wenn die Energie variiert, dann nur, weil die Gravitationswellen die Grenzen in ausreichend großer Distanz überschreiten. Der zweite Punkt ist, dass die Energie des Gravitationssystems natürlich die potenzielle Energie des Feldes selber enthalten muss, aber die potenzielle Energie in der Newtonschen Theorie hat keine untere Grenze. Wenn man zwei Punkte nahe genug zusammenbringt, kann man unendliche negative Energie erzeugen. Aber bei der allgemeinen Relativität muss man davon ausgehen, dass es eine niedrigere Grenze für die Energie eines Gravitationssystems gibt. Und wenn man auf diese untere Grenze als Ursprung der Energiemessung Bezug nimmt, muss die Energie immer positiv sein. Anders gesagt, wenn die allgemeine Relativitätstheorie mit anderen Gesetzen der Physik im Einklang stehen soll, sollte man in der Lage sein, für ein isoliertes System die globale Bedeutung für dessen Energie zu definieren und außerdem muss man zeigen können, dass die Energie positiv ist. Das war übrigens die so genannte Vermutung der Positivität der Energie über mehr als sechzig Jahre. Erst vor einigen Jahren gaben Ed Witten und Yau den Beweis der Positivität der Energie ab. Anders ausgedrückt heißt das jetzt, dass obwohl sogar Einstein die Theorie aus sehr einfachen Überlegungen formulierte, jede Beschleunigung im Ursprung metrisch sein muss, und wenn man es mathematisch im Rahmen der Riemannschen Geometrie beschreibt, dass sie dennoch in dem Maß konsistent ist, in dem ihr Schöpfer es nie in Erwägung gezogen hätte. Aber etwas noch viel Bemerkenswerteres ist, dass die allgemeine Relativitätstheorie Schnittstellen mit anderen Teilbereichen der Physik hat. Ich kann hier nicht ins Detail gehen, aber man kann zeigen, dass, wenn man ein Schwarzes Loch hat und die Dirac-Wellen von einem Schwarzen Loch reflektiert und gestreut werden, gibt es einige Anforderungen an die Art der Streuung, die die Quantentheorie verlangt. Doch sogar bei der Formulierung dieses Problems in der allgemeinen Relativitätstheorie ist kein Aspekt der Quantentheorie enthalten, die Ergebnisse, die man erhält, sind vollkommen konsistent mit den Anforderungen der Quantentheorie. Genau so hat die allgemeine Relativitätstheorie Schnittstellen mit der Thermodynamik und es besteht die Möglichkeit, das Konzept der Entropie einzuführen, z.B. im Zusammenhang mit der so genannten Hawking-Strahlung. Gewiss darf die Thermodynamik nicht in die Gründung der allgemeinen Relativitätstheorie einfließen, aber wenn man die Notwendigkeit der Einführung von Konzepten aus anderen Teilbereichen der Physik als Folge der allgemeinen Relativitätstheorie ermittelt, erkennt man doch, dass all diese Konsequenzen nicht mit den Teilbereichen anderer Disziplinen der Physik im Widerspruch stehen. Und es ist diese Konsistenz gegenüber physikalischen Anforderungen, der fehlende Widerspruch zu anderen Teilbereichen der Physik, die nicht in ihre Begründung einbezogen worden sind, das ist es, was das Vertrauen in die Theorie gibt. Ich fürchte, ich habe nicht genügend Zeit, um den anderen Aspekt meiner Rede näher zu erläutern, nämlich warum die allgemeine Relativitätstheorie eine außerordentliche Theorie ist. Lassen Sie mich nur eine Bemerkung dazu machen. Mal angenommen, man hat eine neue physikalische Theorie, dann ist es das Merkmal einer guten physikalischen Theorie, dass sie ein physikalisches Problem isoliert, welches die wesentlichen Eigenschaften dieser Theorie enthält und für die die Theorie eine exakte Lösung vorgibt. Mit der Newtonschen Gravitationstheorie erhält man die Lösung für das Problem von Kepler. Bei der relativistischen bzw. nichtrelativistischen Quantenmechanik erhält man die Voraussagen der Energie des Wasserstoffatoms. Und im Fall der Dirac-Theorie die Erzeugung der Klein-Gordon-Gleichung und die Paarerzeugung. Im Fall der allgemeinen Relativitätstheorie kann man fragen, ob es ein Problem gibt, das die Grundkonzepte der allgemeinen Relativität in ihrer reinsten Form enthält. In ihrer reinsten Form ist die allgemeine Relativitätstheorie eine Theorie von Raum und Zeit. Ein Schwarzes Loch ist etwas, dessen Konstruktion allein auf dem Begriff von Raum und Zeit basiert. Das Schwarze Loch ist ein Objekt, das den dreidimensionalen Raum in zwei Bereiche teilt: einen inneren und einen äußeren Raumbereich, welche durch eine Oberfläche getrennt sind, die man Horizont nennt. Der Grund, warum man dies „den Horizont“ nennt, ist, dass im Inneren des Horizonts niemand, kein Beobachter, mit dem äußeren Raumbereich kommunizieren kann. Das Schwarze Loch wird als Lösung der Vakuumfeldgleichungen von Einstein definiert, das einen Horizont hat, der konvex ist und asymptotisch flach ist, in dem Sinne, dass diese Raumzeit der Minkowski-Geometrie bei ausreichend großen Entfernungen entspricht. Es ist eine bemerkenswerte Tatsache, dass diese beiden einfachen Anforderungen auf der Grundlage der allgemeinen Relativität eine einzige Lösung für das Problem darstellen. Eine Lösung, die nur zwei Parameter hat, die Masse und den Drehimpuls. Dies ist eine Lösung, die 1962 entdeckt wurde. Wenn man fragt, was eine Lösung für ein Schwarzes Loch im Einklang mit der Allgemeinen Relativitätstheorie ist, erkennt man, dass es nur eine einfache Lösung gibt, mit zwei Parametern und alle Schwarzen Löcher, die in der Natur vorkommen, müssen dazu gehören. Man kann Folgendes sagen: Wenn man makroskopische Objekte betrachtet, dann sieht man mikroskopische Objekte überall um uns herum. Wenn man sie verstehen will, hängt das von einer Vielzahl physikalischer Theorien ab, eine Vielzahl von Näherungen und man versteht es annähernd. Es gibt kein Beispiel in der makroskopischen Physik für ein Objekt, das exakt und mit nur zwei Parametern beschrieben wird. Anders ausgedrückt könnte man sagen, dass die Schwarzen Löcher fast per Definition die perfektesten Objekte im Universum sind, weil ihre Konstruktion nur die Begriffe von Raum und Zeit benötigen. Es wird von keinem anderen Bereich der Physik, mit dem wir am meisten zu tun haben, vulgarisiert. Weiterführend kann man die außergewöhnliche mathematische Perfektion der Theorie der Schwarzen Löcher hervorheben. Als Einstein seinen letzten Aufsatz schrieb, sein erster Aufsatz, in dem er seine Feldgleichungen verkündete, stellte er fest, dass sich kaum jemand, der seine Theorie versteht, ihrer Magie entziehen kann. Zumindest für einen Fachmann liegt die Magie der allgemeinen Relativitätstheorie in ihrem harmonischen mathematischen Charakter und der harmonischen Struktur ihrer Konsequenzen. Danke.

Subrahmanyan Chandrasekhar expresses his regret for how general relativity has not been taught to the same degree as quantum mechanics. Another interesting account of Einstein’s relativity work is Julian Schwinger’s innovative multimedia presentation in 1979.

The complete video is available here.


And more recently, David Gross (Nobel Prize in Physics 2004) gave a more traditional but no less informative lecture at the 66th Lindau Nobel Laureate Meeting, explaining why, over 100 years after general relativity was first proposed, Einstein’s insights continue to impact the physics community.

 

David Gross (2016) - One Hundred Years of General Relativity - The Enduring Legacy of Albert Einstein

Thank you and good morning everyone. It’s a pleasure to be here once again. I thought it would be appropriate this year, when we celebrate 100 years of general relativity, to talk about the enduring legacy of one of our greatest colleagues: fellow Nobel Laureate Albert Einstein. Albert Einstein, of course, is known to us all and around the world. He is after over 100 years still the most famous physicist - with the possible exception of Steven Hawking. And we all know this picture of Einstein, the wise old man, the kind, passionate exponent of peace and harmony. This is Einstein actually 100 years ago when he formulated his laws of gravity and of dynamical space-time. And this is Einstein as a younger man at his office, the patent office, when he shook up the world in 1905 with his works on special relativity and quantum mechanics. Einstein is known for many things - these pictures are iconic. But what you’re perhaps less aware of is how incredibly eloquent he was. His prose was exquisite. His papers in physics are a joy to read. And to all the young students, by the way, I urge you, go back and read the original papers in all parts of physics. They are usually so much better than the text books. And Einstein is known for his quotes - he is one of the most quotable people in the world. He wrote 4 of my favourite quotes. This is quite appropriate after the British (doesn't say "voted for the exit from the EU" – laughter, applause). And then,"Insanity: doing the same thing over and over again and expecting different results." And then physics, "God is subtle but he is not malicious." God for Einstein meant nature - who is indeed subtle but not malicious, we hope. And then the quote which I took as a guidance for making this talk: Now, Einstein burst onto the world scene of physics in 1905 with his theory of special relativity. He actually hated that name. He knew it would give ammunition to the post modernists. He preferred a theory of invariance. Because what he really did in reconciling Maxwell’s theory of electromagnetism – which he regarded as the paradigm of classical physics - and Newton’s laws of motion. Which together were simply inconsistent and had to be reconciled according to him. And he did that by taking as THE principle that there is no privileged observer, no privileged reference frame. All observers have an equally valid description, the same description, of physical reality. And in order to achieve that there must be underlying symmetries of nature that allow one to transform the point of view of one observer to that of another. It’s interesting that this principle, that there’s no privileged observer, Einstein applied to all of life and to politics: There is no privileged nation, there is no privileged religion, there’s no privileged race. What he took as fundamental, was the principle of symmetry. And he wanted to call this theory the theory of invariance. He revolutionised the way we view symmetry in nature. His great advance was to put symmetry first. Not to take the symmetry as a consequence of dynamical laws, as his contemporaries Lawrence and Parker Ray were want to do. But rather to make the symmetry principle as the primary feature of nature that constrains, restricts, inspires the allowable dynamical laws. A profound change of attitude which lead, by and large, to the realisation that symmetries come first and we should search for new symmetries. And use them in our description of nature which has largely guided the development of our understanding of the fundamental laws of nature throughout the 20th century. And that continues today - a profound change of attitude. He also changed the way we think about space and time – as you know, he unified space and time. The symmetry transformations that were the basis of special relativity transformed space and time together. And, consequently, there was no absolute notion of simultaneity. This was perhaps his most radical modification of our preconceptions that 2 events, well, one happens before the other or vice versa. But in reality there can be events which are, we say 'space-like separated', no signal could be transmitted between them, with a velocity less or equal to the speed of light. And therefore no way of telling which came first. And that depends on the observer, it’s relative. In fact, much of the history of elementary particle physics and the development of the standard model and attempts to go beyond it, are looking for new hidden symmetries of nature. They must be hidden because otherwise we would have seen them already. That might explain and enlarge the scope of our theory. One of the most exciting ideas that still has not been ruled out by experiment, is the idea of super-symmetry. Transformations of an enlarged notion of space-time. A space-time which contains extra quantum dimensions. Dimensions measured with numbers that anti-commute. And the symmetry being rotations in superspace. This symmetry is beautiful mathematically and has the potential of answering many of the problems that we face beyond the standard model. And it unifies the kinds of particles we have in nature, bosons on the one hand and fermions on the other. And we can look for it - and we are. My colleagues are looking for it desperately at Cern - the large hadron collider - and they might very well find it. There’s a little bump at 750 Gv - it might be a sign of supersymmetry, it might be nothing, who knows. We will find out. But if it turns out to be supersymmetry, we will have to accept the fact that we live not just in space-time but in superspace-time. After 1905 there were 2 outstanding issues from Einstein’s point of view. The first was that Newton’s theory of gravity was inconsistent with relativity. This was a contradiction, this was impossible. Everyone who accepted Einstein’s special relativity knew that. And many people tried to reconcile the 2 in obvious ways. But Einstein followed his own path based on his other thing that bothered him after special relativity. Namely, he wanted to extend the principle that there’s no privileged observer to accelerated observers as well. What is special about inertial observers, moving with a constant velocity? He wanted there to be no privileged observer in any sense. Many others knew, that one was going to have change Newton’s theory. But Einstein also wanted not only to do that but to extend the principle of relativity. And this led him, after much thought, to a programme which he enunciated in 1907. In which he imagined that it would be conceivable to extend the principle of relativity to systems that are accelerated with respect to each other. And in this famous paper he based his strategy and his goal on Galileo’s discovery that all bodies fall with the same acceleration. Or, we would say that the gravitational mass, that is the source of the force of gravity, is equal to the inertial mass that you must divide the force by to get the acceleration. This principle was enunciated by Galileo who was, of course, known to Newton who did experiments. Newton established that the equivalence principle to 1 part in a 1000. This was improved over the years by Bessel, by Eotvos famously, by my colleague in Princeton, Bob Dicke, and is now being extended. We now know that the equivalence principle is correct to 1 part in a trillion, a million million - it is amazing. This is what we all love about physics. This is the only place in science where we measure quantities to a precision of 1 part in a trillion. And some colleagues will spend their lives heroically trying to extend that by an order of magnitude or 2 – most likely failing, but what a heroic journey. And then, suddenly, in 1907, sitting at his desk in Bern in the patent office, he had an idea based on the equivalence principle. He thought, what would happen if a man falling off a roof did experiments. He would drop something which would fall and accelerate with him with the same acceleration. He would conclude there is no gravity. This latter is now called the 'elevator thought experiment'. Because when questioned by reporters, after Einstein became famous, they would all ask him: Well, what happened to the man who fell off the roof? So Einstein considered 2 systems. Let’s use the elevator: A rocket going upwards with a constant acceleration g and then an elevator at rest in a uniform gravitational field -g. And he said, consider these 2 systems S1 being accelerated with an acceleration g. And S2 at rest in a gravitational field with an acceleration -g. The physicists in each frame of reference, the moving elevator, the stationary elevator, in a gravitational field, do all the experiments they can do. They get exactly the same results. There is a symmetry, a principle of invariance. This was the principle that he based his search for the relativistic laws of gravity on, the equivalence principle. based on the fact that all bodies are accelerated equally in the gravitational field." And then: "At our present state of experience – notice as a good physicist, he qualifies it, who knows there might be a deviation at the trillionth percent point. But "at our present state of experience we have no reason to assume that these systems differ from each other in any respect. And therefore we shall assume a complete physical equivalence of a gravitational field and a corresponding acceleration of the reference system." If this were true it would achieve its goal of extending the principle of relativity to accelerated observables. And, conversely, it would give a way of understanding the origin of gravity. Which you could always transform to a reference frame in which you didn’t feel the force of gravity. And then, going back, you could deduce what gravity looked like. This was what he pursued with stubbornness for the next 8 years. Others tried to construct theories of relativistic gravity but ignoring this principle which he held on to like a bulldog. He knew now which direction to go. And it wasn’t easy, it was very difficult. Equivalence principle was enunciated in 1907. It wasn’t really until 1912 that he realised that the field that transmitted the mediated gravity, the dynamics of space-time, that enabled one to have this equivalence of accelerated observables, was the metric tensor that determines the distance between points in a curved manifold. He had to learn differential geometry with the help of his mathematical friends. And then it was difficult: mistake after mistake, misconception. But finally, in 1915, and in the article published just a little over 100 years ago, he announced Einstein’s equations. Which relate the curvature of space-time, how space-time is a curve manifold, much like the surface of the earth, a sphere is curved, to the source of gravity which is mass - mass is the same as energy of a body at rest. Energy and momentum - the energy momentum tensor, given by the Einstein tensor, which describes the curvature of gravity. This was announced November 25th 1915, in one of 4 talks he gave at the Prussian academy of science that year. Interesting, the 3 other talks are all on experiments. All the time he was finally getting to the final form of his equations, he knew that he had to compare the predictions of this with experiment. He had done so before. In a previous version of his theory, which was incorrect, he had calculated the deflection of light by the sun. The sun would pull on the light, deflect its curve; you could measure that during a solar eclipse. He predicted what you could have derived from Newton’s theory, 0.87 degrees. And that was wrong. There was an expedition set out to measure that deflection of light in 1914, which, lucky for Einstein on the one hand, the war broke out, the expedition was cancelled. Unlucky for him because he was a pacifist living in Berlin and notoriously opposed to the war. In 1915, in his correct theory, he realised that the deflection would be twice that value. And indeed, after the war an English expedition, led by Eddington, confirmed that and made Einstein a worldwide famous figure. The other experimental verification of his theory was a postdiction of a phenomenon that had been observed already in the 19th century, the advance of the perihelion of mercury. A discrepancy with Newtonian gravity, an outstanding puzzle that many scientists had tried to understand. And he knew that his modification of Newton’s theory would change that calculation. And in his previous version he’d calculated the advance of the perihelion and gotten the wrong result. But when he had his final equations, he sat down and rapidly did the calculation again. And got exactly on the nose the deviation. He must have been in 7th heaven. He predicted the red shift of light in the gravitational field, which was only confirmed later by 1959 and is, of course, an essential part of GPS. Makes all these things work. I want to discuss the legacy of Einstein that persists till today. It still shapes the way we work in fundamental physics. Dynamical space-time: the fact that after Einstein’s theory we’ve had to confront the fact that space-time is not just out there, rigid frame. It's dynamical, it moves, it fluctuates. The ability, for the first time ever in physics, to construct a quantitative theory of the universe, of a cosmos. And the goal which he spent the rest of his life trying to achieve, but still guides us: the search for a unified theory. So Einstein’s theory of gravity is based on the fact that space-time is dynamical, the metric of space-time. And its curvature gives rise to what we call gravity. It obviously, at large distance, reduces to Newtonian gravity, as it must because Newton’s theory is still very good. That’s how we plan and send rockets to the moon. So a guiding principle for any advance in theoretical physics is always that it agree with great precision, in some limit, with the previous theory. And Einstein’s theory is like that. But it has something new. It has a field, the metric tensor of space-time. And the field like any other field can fluctuate, can oscillate. Those oscillations are gravitational waves. That’s what makes his theory of gravity consistent with special relativity. Because when you shake the sun it takes some time for the earth to respond: the waves of gravity spread out from the sun with the speed of light. And miraculously this, 1916 is also the year in which we, finally, observed those waves. At least 2 times. Now with the incredible experiment done by LIGO, the Laser Interferometer Gravitation Wave Observatory. This is one of the facilities in - I think this is in Hanford, in Washington - where we have an interferometer, a few miles long. And the gravitational wave, passing by through the earth, changes the lengths of the arms. And you can measure the minute shift in distance and compare with theory, with Einstein’s theory and the theory of black holes, merging to form a bigger black hole. And these are the signals that are observed in the 2 observatories, one in Louisiana and one in Washington. They are right on top of each other. They’re much, much bigger than the ambient noise. And they agree precisely with the predictions of general relativity of Einstein, 100 years before in a sense, so accurately that they can be used to measure the masses of the black holes that merged and the amount of energy that was radiated - which is immense. And this now will give science, Astrophysics, a tool for exploring the universe with new telescopes. These interferometers which can see gravitational waves and measure and observe the properties of compact objects, like black holes, neutron stars and so on. Black holes were discovered 100 years ago, theoretically, by Schwarzschild. They seemed rather strange. Einstein never believed in them, they had strange properties. But now they’ve turned out, as in this example but many others, to be real astrophysical objects. And they continue to be, in addition, subjects of thought experiments, that "kein Gedanke" experiments that Einstein loved to carry out. Especially after Hawkins' realisation that in quantum theory black holes aren’t black. A black hole is a region of space where there’s so much energy density that light can’t escape, so they’re invisible. But quantum mechanically you can tunnel through and light does escape. Black holes radiate and disappear. And the conundrum - I’ll come to the conundrum. These theoretical objects, which were disbelieved by Einstein, many theorists and all observers until recently, are now believed to be abundant throughout the universe at the centre of every galaxy – this is the black hole and the Keplerian orbits around it - that tell us what its mass is: the centre of the Milky Way. They presumably are the fuel of gamma ray bursts. And they raise theoretical conundrums because if you throw information into them, if you throw stuff into them that contains information, like half of a correlated quantum pair, you seem to be forced into a mixed state. You lose information. And this has provided one of the strongest clues or problems, paradoxes, to those of us who have been trying to understand the reconciliation of dynamical space-time and quantum mechanics. Extrapolating Einstein’s theory to very short distances or very high energies provides another, many other paradoxes and problems. Which are often the guiding principles for people in the kind of game that I am involved in of looking for fundamental laws. Since the extrapolation of Einstein’s theory at very short distances gives fluctuations of space-time, quantum fluctuations that are uncontrollable, 'space-time foam' as it’s sometimes called. We are sure that we will have to go beyond Einstein’s theory, as he expected and as he himself tried to do. And we are faced with one of our major challenges today, my opinion, is to understand the true nature of space and time. Einstein taught us that space-time is dynamical. And at very short distances it fluctuates in an uncontrollable way. Many of us believe that it probably will be, in a beyond Einstein theory, best described as an emergent concept. Good at large distances – 'large' compared with 10^-33 centimetres or something like that – but still not a fundamental concept in physics. We’re asking, in a sense, what space-time is made of. Now I briefly want to describe the other legacies. Physical cosmology is perhaps the most important. Before Einstein cosmology was addressed by religion, by philosophy. We have a lot of beautiful stories. But it wasn’t science. But as soon as Einstein wrote down his equations, he realised, and others immediately, that the structure and the history of the universe is the subject of physics. In fact, Einstein feverishly began to work on a mathematical model of the universe, after 1915. And he constructed a model of the universe which he thought should be static - it’s a bad model. But he wrote to the de Sitter in 1917, "From the standpoint of astronomy, of course, I have erected but a lofty castle in the air. For me, however, it was a burning question, whether the relativity concept can be followed through to the finish or whether it leads to contradictions." You see, he had his equations which govern space-time - and the universe is space-time. He had to apply them. And he was worried that he would get nonsense. Nobody had ever in the history of physics tried to construct a mathematical theory of space-time of the universe. So he was worried. And although his models had problems and were soon discarded, he was satisfied that, Now I’m no longer plagued with the problem which previously gave me no peace." But he knew that he perpetuated something in gravitation theory which What he really didn’t like was introducing a parameter in his theory, the cosmological constant, which really was there - his fundamental principles allowed for it - and he used it to construct a static universe. Some people have called that his "biggest blunder". I don’t believe that. His biggest blunder was not predicting the expansion of universe. He was convinced that the universe was static, unchanging. You go out at night there are stars that look today like they looked yesterday. He was convinced that the universe was static. It isn’t. He could have predicted the expansion of the universe - that was his biggest blunder. He also, by the way, developed the tools that allow us – he never believed that one would ever figure out really what the universe was. And now we have, and partly with his aid. He showed how you can use the deflection of light around massive objects to map out the structure of matter to the universe. And this so-called bullet cluster where 2 clusters of galaxy are colliding. This stuff here is dark matter, the blue stuff which is measured, observed by astrophysicists who measure the deflection of light from these quasars behind the dark matter through it. And that’s how you map out, observe, dark matter in the universe. And today - Einstein would never have believed this -, after only 100 years, we have a complete, extremely detailed, quantitatively successful history of the universe. From the very beginning through a period of rapid accelerated expansion, just the normal expansion structure formation of galaxies, of planets and, we now believe, accelerated expansion dictated by his cosmological constant. We still, however, don’t know how it began, the Big Bang. And Einstein taught us that the universe is the history of space-time. And if you’re going to solve this problem, if you have a solution to the theory that explains the dynamics of space-time, it had better give a consistent description of the beginning. Or what happens at the boundary if there is a boundary and/or at the end. And that is an issue that, again, science has never had to address and, until now, was the realm of religion and philosophy. But we can no longer avoid that question. And in discussing the structure of the cosmic microwave background and the theory of inflation, we must address what happened at the beginning. What is the initial condition for the universe? What are the rules? Never asked this question. We don’t even know what the rules are. I will end briefly with the search for a unified theory which was Einstein’s obsession over the years. He always regarded his specific theory as provisional, to be replaced by a more comprehensive unified theory of space-time and matter. He always, looking at his equations, his famous equations, thought the left hand side was beautiful, the consequence of this profound symmetry of space and time. And the right hand side ugly and arbitrary and singular, the structure of matter. And he laboured for decades unsuccessfully to move the left hand side to the right hand side and explain matter from geometry. Didn’t succeed. Today we have an incredibly successful comprehensive theory of the forces and of the elementary constituents of matter, which describes the constituents of matter as made up of quarks and leptons and the forces inside the atom and the nucleus as electromagnetism. My favourite: the strong nuclear force and the weak nuclear force. Together with the Higgs sector, this completes the standard model which is incredibly successful, the most precise quantitative successful fundamental theory we’ve ever had. It could, in principle, work from the Planck length, where things tend to break down, to the edge of the universe. Extrapolating this theory, we have hints that the forces unify at that energy scale, together with gravity. And we pursue ideas of unification, like string theory. But it is very difficult to go from the large to the small, from the standard model to the grand unified theory, from now to the beginning. It’s much easier to go from the small to the large, from unified to broken, from the beginning to now. But Einstein gave us encouragement, and warning. He said, "The successful attempt to derive delicate laws of nature along a purely mental path, by following a belief in the formal unity of the structure of reality, encourages continuation in this speculative direction. The dangers of which everyone vividly must keep in sight who dares to follow it." So we continue in that direction. We ask about space-time, whose properties seem to be disappearing in this investigation to be replaced by something else, whose rules we don’t really know yet. So Einstein’s legacy - dynamical space-time, physical cosmology, unified theory - continue to shape our exploration of the fundamental laws of physics. Dynamical space-time: we now ask, what is space-time made out of? Physical cosmology: we’re faced with a question, what is the initial, and perhaps final, state? And in our attempts to construct a unified theory, we continue to explore how the forces unify. And I will skip to Einstein’s - so at the end of the 20th century, Time Magazine had to choose a person of the century. And, as theoretical physicists, I’m sure we are especially, but all physicists, all scientists, we’re very proud that the person they chose as person of the century was this theoretical physicist. Who not only was a great scientist but a great humanitarian and who used his fame and celebrity for the good of mankind. Thank you. (Applause)

Vielen Dank und guten Morgen. Es freut mich, wieder hier sein zu dürfen. Ich dachte, es wäre angemessen, in diesem Jahr, in dem wir 100 Jahre allgemeine Relativitätstheorie feiern, über das andauernde Vermächtnis eines unserer bedeutendsten Kollegen zu sprechen: den Nobelpreiskollegen Albert Einstein. Jeder hier und auf der ganzen Welt kennt natürlich Albert Einstein. Er ist auch nach über 100 Jahren immer noch der berühmteste Physiker - vielleicht mit der Ausnahme von Steven Hawking. Wir kennen alle dieses Bild Einsteins, den weisen alten Mann, den liebenswürdigen, leidenschaftlichen Vertreter des Friedens und der Harmonie. Dies ist tatsächlich Einstein vor 100 Jahren, als er die Gesetze der Schwerkraft und der dynamischen Raumzeit formulierte. Und dies ist Einstein als jüngerer Mann in seinem Büro, dem Patentamt, als er im Jahr 1905 die Welt mit seinen Veröffentlichungen über die spezielle Relativitätstheorie und Quantenmechanik aufrüttelte. Einstein ist für viele Dinge bekannt - diese Bilder sind natürlich ikonisch. Aber was vielleicht weniger bekannt ist, ist wie unbeschreiblich eloquent er war. Seine Prosa war vortrefflich. Es ist ein Vergnügen, seine Veröffentlichungen in der Physik zu lesen. Und übrigens, ich lege es Ihnen, den jungen Studenten, ans Herz, lesen Sie die Originalveröffentlichungen auf allen Gebieten der Physik. Sie sind meistens so viel besser als die Lehrbücher. Und Einstein ist für seine Zitate bekannt - er ist einer der am besten zitierbare Menschen in der Welt. Er schrieb 4 meiner Lieblings-Zitate. Das ist sehr angemessen nach dem Britischen ... (impliziert Brexit – Lachen, Applaus). Und dann: „Die Definition von Wahnsinn ist, immer wieder das Gleiche zu tun und unterschiedliche Ergebnisse zu erwarten.“ Und dann über die Physik: „Gott ist subtil, aber er ist nicht böswillig.“ Für Einstein bedeutete Gott die Natur - die zwar subtil ist, aber nicht böswillig - hoffen wir zumindest. Und dann das Zitat, das ich als Leitmotiv für das Zusammenstellen dieses Vortrags nahm: Nun, im Jahr 1905 stürmte Einstein auf die Weltbühne der Physik mit seiner speziellen Relativitätstheorie. In Wirklichkeit hasste er diesen Namen. Er wusste, dass er den Vertretern der Postmoderne Munition liefern würde. Er bevorzugte eine "Theorie der Invarianz". Weil das, was er wirklich machte, war, Maxwells Theorie des Elektromagnetismus – die er als das Beispiel der klassischen Physik betrachtete - und die newtonsche Bewegungsgesetze in Einklang zu bringen. Diese zusammengenommen waren einfach inkonsistent und mussten seiner Ansicht nach in Einklang gebracht werden. Und er tat das, indem er als DAS Prinzip annahm, dass es keine bevorzugten Beobachter gibt, keinen privilegierten Bezugsrahmen. Alle Beobachter geben eine gleichermaßen gültige Beschreibung ab, dieselbe Beschreibung der physikalischen Realität. Und um das zu erreichen, muss es zugrunde liegende Symmetrien der Natur geben, die es erlauben, den Bezugsrahmen eines Beobachters in den eines anderen umzuwandeln. Es ist interessant, dass Einstein dieses Prinzip, dass es keinen privilegierten Beobachter gibt, auf alle Dinge des Lebens und die Politik anwendete: Es gibt keine privilegierte Nation, es gibt keine privilegierte Religion, es gibt keine privilegierte Rasse. Als grundlegend nahm er das Symmetrieprinzip an. Und er wollte diese "Theorie der Invarianz" nennen. Er revolutionierte die Art und Weise, wie wir Symmetrie in der Natur betrachten. Sein großer Fortschritt war, Symmetrie als grundlegend zu nehmen und nicht die Symmetrie als Konsequenz der dynamischen Gesetze anzusehen, wie seine Zeitgenossen Lawrence und Parker Ray es zu tun pflegten. Sondern im Gegenteil das Symmetrieprinzip zum primären Merkmal der Natur zu machen, das die zulässigen dynamischen Gesetze einengt, beschränkt, hervorbringt. Das war eine tiefgreifende Einstellungsänderung, die im Großen und Ganzen zur Realisierung führte, dass Symmetrien das Primäre sind. Und wir nach neuen Symmetrien suchen sollten, um sie in unserer Beschreibung der Natur zu nutzen. Dies hat im Wesentlichen die Entwicklung unseres Verständnisses der fundamentalen Naturgesetze im gesamten 20. Jahrhundert geleitet. Und das setzt sich heute fort - eine tiefgreifende Einstellungsänderung. Er änderte auch die Art und Weise, wie wir Raum und Zeit betrachten – wie Sie ja wissen, vereinigte er Raum und Zeit. Die Symmetrietransformationen, die die Basis der speziellen Relativitätstheorie waren, transformierten Raum und Zeit gemeinsam. Und in der Konsequenz gab es keine absolute Vorstellung einer Gleichzeitigkeit. Das war vielleicht seine radikalste Änderung unserer Vorstellung, dass zwei Vorgänge, nun, einer findet vor dem anderen statt oder anders herum. Aber in Wirklichkeit gibt es Vorgänge, die wir ‚raumähnlich getrennt‘ nennen, d. h. zwischen diesen könnte kein Signal übertragen werden, mit einer Geschwindigkeit kleiner oder gleich der Lichtgeschwindigkeit. Und daher auch keine Möglichkeit festzustellen, welcher zuerst war. Und das hängt vom Beobachter ab, es ist relativ. Tatsächlich suchten wir während eines Großteils der Geschichte der Elementarteilchenphysik und der Entwicklung des Standardmodells und suchten, um über es hinaus zu gehen, nach neuen, versteckten Symmetrien der Natur. Sie müssen versteckt sein, sonst hätte man sie schon längst gesehen. Das könnte den Rahmen unserer Theorie erklären und erweitern. Einer der aufregendsten Ideen, die noch immer nicht experimentell ausgeschlossen wurde, ist die Vorstellung der Supersymmetrie. Transformationen einer erweiterten Vorstellung von Raumzeit. Eine Raumzeit, die zusätzliche Quantendimensionen enthält. Dimensionen, die durch Zahlen gemessen werden, die antikommutieren. Und die Symmetrie wird durch Rotationen im Superraum dargestellt. Diese Symmetrie ist mathematisch wunderschön und hat das Potential, viele der Probleme zu beantworten, die uns jenseits des Standardmodells begegnen. Sie vereinigt die Teilchen, die in der Natur vorkommen: Bosonen einerseits und Fermionen andererseits. Wir können danach suchen - und tun es auch. Meine Kollegen am CERN suchen verzweifelt nach ihr mit dem großen Hadron-Speicherring. Und sie haben jede Chance, sie zu finden. Es gibt da eine kleine Beule bei 750 GeV - es könnte ein Anzeichen der Supersymmetrie sein, es könnte auch nichts sein, wer weiß. Wir finden es heraus. Wenn es sich aber als Supersymmetrie herausstellt, werden wir die Tatsache akzeptieren müssen, dass wir nicht nur in Raumzeit leben, sondern in Superraumzeit. Nach 1905 gab es aus Einsteins Sicht noch 2 ungelöste Fragen. Die erste war, dass die newtonsche Schwerkrafttheorie nicht konsistent mit der Relativitätstheorie war. Das war ein Widerspruch, das was unmöglich. Jeder, der Einsteins spezielle Relativitätstheorie anerkannte, wusste das. Und viele Wissenschaftler versuchten, die 2 auf offensichtlichen Art und Weise in Einklang zu bringen. Aber Einstein verfolgte seinen eigenen Weg, der auf dem anderen Problem beruhte, das ihn nach der speziellen Relativitätstheorie umtrieb. Er wollte nämlich das Prinzip, dass es keine privilegierten Beobachter gibt, auch auf beschleunigte Beobachter ausweiten. Was ist so besonders bei ‚trägen‘ Beobachtern, die sich mit konstanter Geschwindigkeit bewegen? Er wollte, dass es überhaupt keine privilegierten Beobachter gibt. Viele andere Wissenschaftler wussten, dass man dafür die newtonsche Theorie ändern müsste. Aber Einstein wollte nicht nur das tun, sondern das Relativitätsprinzip ausdehnen. Und das führte ihn, nach vielem Nachdenken, zu einem Programm, das er im Jahr 1907 formulierte. In dem er sich vorstellte, dass es denkbar wäre, das Relativitätsprinzip auf Systeme auszudehnen, die gegeneinander beschleunigt sind. Und in dieser berühmten Veröffentlichung gründete er seine Strategie und sein Ziel auf Galileos Entdeckung, dass alle Körper mit dergleichen Beschleunigung fallen. Oder wie wir sagen würden, dass die schwere Masse, das ist die Quelle der Schwerkraft, gleich der trägen Masse ist, durch die man die Kraft teilen muss, um die Beschleunigung zu erhalten. Dieses Prinzip wurde von Galileo formuliert, und Newton, der die Experimente durchführte, natürlich bekannt. Newton bestätigte das Äquivalenzprinzip mit einer Genauigkeit von einem Promille. Über die Jahre wurde das durch Bessel, bekanntermaßen durch Eötvös, durch meinen Princetonkollegen, Bob Dicke, verbessert und wird jetzt erweitert. Wir wissen mit einer Präzision von einem Teil in einer Billion, einer Million Millionen, dass das Äquivalenzprinzip korrekt ist - das ist unglaublich. Das ist es, was wir alle an der Physik so lieben. Es ist die einzige Wissenschaft, wo Größen mit einer Präzision von einem Teil in einer Billion gemessen werden. Und einige Kollegen verbringen ihr Leben heldenhaft damit zu versuchen, dieses um eine Größenordnung oder zwei zu verbessern – und werden wahrscheinlich scheitern, aber was für eine heroische Reise. Und dann plötzlich, im Jahr 1907, er saß an seinem Schreibtisch im Berner Patentamt, hatte er basierend auf dem Äquivalenzprinzip eine Idee. Er dachte, was würde passieren, wenn ein Mann Experimente durchführt, während er von einem Dach fällt. Er würde etwas fallen lassen, das mit derselben Beschleunigung mit ihm fallen würde. Er würde daraus schließen, dass es keine Schwerkraft gibt. Dies ist nun als das ‚Aufzugsgedankenexperiment‘ bekannt. Der Grund ist, dass alle Reporter, die ihn interviewten, nachdem er berühmt geworden war, fragen würden: Was passiert denn mit dem Mann, der vom Dach fällt? Einstein betrachtete daher 2 Systeme. Nehmen wir den Fahrstuhl: Eine Rakete, die sich mit konstanter Beschleunigung g nach oben bewegt, und ein in Ruhe befindlicher Aufzug in einem konstanten Schwerkraftfeld -g. Und er sagte: Betrachten wir diese zwei Systeme. S1, das sich mit einer Beschleunigung g bewegt, und S2 in Ruhe, in einem Schwerkraftfeld mit der Beschleunigung -g. Die Physiker führen alle durchführbaren Experimente in jedem Bezugsrahmen durch – dem sich bewegenden Fahrstuhl, dem stationären Fahrstuhl in einem Schwerkraftfeld. Sie erhalten genau dieselben Ergebnisse. Es gibt eine Symmetrie, ein Invarianzprinzip. Dies war das Prinzip, auf das er seine Suche nach den relativistischen Schwerkraftgesetzen gründete, das Äquivalenzprinzip. basierend auf der Tatsache, dass alle Körper im Schwerkraftfeld gleich beschleunigt werden.“ Und dann: „Soweit unsere Erfahrung derzeit reicht“ - beachten Sie, dass er es als guter Physiker qualifiziert – wer weiß, es gibt vielleicht eine Abweichung bei einem billionstel Prozent -, aber „soweit unsere Erfahrung derzeit reicht, haben wir keinen Grund anzunehmen, dass diese Systeme sich voneinander in irgendeinem Aspekt unterscheiden. Und daher müssen wir eine totale physikalische Äquivalenz eines Schwerkraftfeldes und einer entsprechenden Beschleunigung des Referenzsystems annehmen.“ Wenn das wahr wäre, würde es sein Ziel erfüllen, das Relativitätsprinzip auf beschleunigte beobachtbare Größen auszudehnen. Und umgekehrt lieferte es einen Weg, den Ursprung der Schwerkraft zu verstehen. Was man dann in einen Bezugsrahmen transformieren könnte, in dem man die Schwerkraft nicht fühlt. Und dann, wenn man zurückgeht, kann man darauf schließen, wie die Schwerkraft aussah. Und das hat er hartnäckig über die nächsten 8 Jahre verfolgt. Andere versuchten, Theorien der relativistischen Schwerkraft zu konstruieren, aber ignorierten dieses Prinzip, in das er sich wie eine Bulldogge verbiss. Er wusste jetzt, welche Richtung er einschlagen musste. Und es war nicht leicht, es war sehr schwierig. Das Äquivalenzprinzip wurde im Jahr 1907 formuliert. Erst im Jahr 1912 erkannte er, dass das Feld, welches die Schwerkraft überträgt oder vermittelt, ein metrischer Tensor war, der den Abstand zwischen Punkten auf einer gekrümmten Mannigfaltigkeit bestimmt. Er musste mit der Unterstützung von Freunden aus der Mathematik Differenzialgeometrie lernen. Und dann wurde es schwierig: ein Fehler nach dem anderen, Missverständnisse. Aber endlich, im Jahr 1915, gab er in dem Artikel, der vor gut 100 Jahren veröffentlicht wurde, die einsteinschen Gleichungen bekannt. Die die Krümmung der Raumzeit - wie Raumzeit eine gekrümmte Mannigfaltigkeit ist, etwa wie die Oberfläche der Erde, eine Kugel ist gekrümmt – zur Quelle der Schwerkraft in Beziehung setzen, die die Masse ist - Masse ist dasselbe wie Energie eines ruhenden Körpers. Energie und Impuls – der Energie-Impuls-Tensor, der durch den Einsteintensor gegeben wird und der die Krümmung der Schwerkraft beschreibt. Dies wurde am 25. November 1915 in einem von 4 Vorträgen bekannt gegeben, die er in dem Jahr an der Preußischen Akademie der Wissenschaften hielt. Interessanterweise, sind die 3 anderen Vorträge alle über Experimente. Die ganze Zeit, die er zur finalen Form seiner Gleichungen benötigte, wusste er, dass er die Vorhersagen daraus mit dem Experiment vergleichen musste. Er hatte das schon zuvor gemacht. In einer früheren Version seiner Theorie, die nicht richtig war, hatte er die Ablenkung des Lichts durch die Sonne berechnet. Die Sonne würde am Licht ziehen, seine Bahn ablenken; man könnte das während einer Sonnenfinsternis messen. Er sagte vorher, was man aus der newtonschen Theorie herleiten würde, 0,87 Grad. Und das war falsch. Es gab eine Expedition, die diese Lichtablenkung im Jahr 1914 messen wollte, die, für Einstein einerseits glücklicherweise, abgebrochen wurde, weil Krieg ausbrach. Aber auch unglücklicherweise für ihn, weil er ein Pazifist war, der in Berlin lebte, und er bekanntermaßen gegen den Krieg war. Im Jahr 1915, in seiner richtigen Theorie, erkannte er, dass die Ablenkung das Doppelte des Wertes betragen würde. Und tatsächlich, nach dem Krieg wurde das durch eine englische Expedition unter der Führung von Eddington bestätigt und machte Einstein zu einer weltweit berühmten Persönlichkeit. Die weitere experimentelle Verifizierung seiner Theorie war eine Erklärung eines Phänomens, das schon im 19. Jahrhundert beobachtet wurde, die Perihelbewegung des Merkurs. Eine Diskrepanz zur newtonschen Schwerkraft, ein ungelöstes Rätsel, das viele Wissenschaftler zu verstehen versucht hatten. Und er wusste, seine Modifizierung der newtonschen Theorie würde diese Berechnung ändern. Und in seiner vorherigen Version hatte er die Bewegung des Periheliums berechnet und das falsche Ergebnis erhalten. Aber als er seine endgültigen Gleichungen hatte, setzte er sich daran und machte schnell noch einmal die Berechnung. Und bekam die ganz genaue Abweichung. Er muss sich im siebten Himmel gewähnt haben. Er sagte die Rotverschiebung des Lichts in einem Schwerkraftfeld voraus, was erst später, im Jahr 1959, bestätigt wurde und ein wesentlicher Bestandteil des GPS ist. Das bringt all diese Dinge zum Funktionieren. Ich möchte Einsteins Vermächtnis diskutieren, das bis heute andauert. Es prägt auch heute noch unsere Arbeitsweise in der Grundlagenphysik. Dynamische Raumzeit: Nach Einsteins Theorie müssen wir der Tatsache ins Auge schauen, dass die Raumzeit da draußen nicht nur ein fester Bezugsrahmen ist. Sie ist dynamisch, bewegt sich, fluktuiert. Die Fähigkeit, zum ersten Mal in der Physik überhaupt, eine quantitative Theorie des Universums, eines Kosmos, zu konstruieren. Und das Ziel, das er für den Rest seines Lebens versuchte zu erreichen und das uns immer noch leitet: die Suche nach einer vereinheitlichten Theorie. Einsteins Schwerkrafttheorie basiert also auf der Tatsache, dass Raumzeit dynamisch ist, die Metrik der Raumzeit. Und ihre Krümmung erzeugt das, was wir Schwerkraft nennen. Bei großen Entfernungen reduziert sie sich offensichtlich zur newtonschen Schwerkraft, so wie sie das tun muss, weil die newtonsche Theorie immer noch sehr gut ist. Mit ihr planen und senden wir Raketen zum Mond. Ein Leitprinzip für jeden Fortschritt in der theoretischen Physik ist, dass sie mit großer Präzision, innerhalb irgendwelcher Grenzen, mit der früheren Theorie übereinstimmt. Und Einsteins Theorie tut das. Aber sie hat etwas Neues: Sie hat ein Feld, den metrischen Raumzeittensor. Und das Feld kann wie jedes andere Feld schwanken, kann schwingen. Diese Schwingungen sind Gravitationswellen. Und das macht seine Schwerkrafttheorie konsistent mit der speziellen Relativitätstheorie. Weil es einige Zeit braucht, bis die Erde reagiert, wenn man die Sonne schüttelt: Die Gravitationswellen breiten sich mit Lichtgeschwindigkeit von der Sonne aus. Wundersamerweise ist dieses Jahr, 2016, auch das Jahr, in dem wir diese Wellen endlich beobachtet haben - mindestens zweimal –, durch das unglaubliche Experiment mit dem LIGO, dem Laser Interferometer Gravitation Wave Observatory. Dies ist eine der Anlagen in - ich denke das ist Hanford, in Washington - wo wir ein Interferometer haben, ein paar Meilen lang. Und die Gravitationswelle ändert die Länge der Arme, während sie die Erde passiert. Und man kann die winzige Abstandsänderung messen und mit der Theorie vergleichen, mit Einsteins Theorie und der Theorie der schwarzen Löcher, die fusionieren und ein größeres schwarzes Loch bilden. Dies sind die beobachteten Signale der 2 Observatorien, das eine in Louisiana und das andere in Washington. Sie liegen genau übereinander. Sie sind viel, viel größer als das Umgebungsrauschen. Und sie stimmen präzise mit den Vorhersagen der einsteinschen allgemeinen Relativitätstheorie überein, 100 Jahre vorher, so genau, dass sie genutzt werden können, die Masse der schwarzen Löcher zu messen, die verschmolzen sind, und die Energiemenge, die abgestrahlt wurde - und die enorm ist. Und dies wird jetzt der Wissenschaft, der Astrophysik, ein Werkzeug in die Hand geben, das Universum mit neuen Teleskopen zu erforschen. Diese Interferometer nämlich, die Gravitationswellen sehen können und die Eigenschaften von kompakten Objekten, wie schwarzen Löchern, Neutronensternen usw. messen und beobachten können. Schwarze Löcher wurden theoretisch vor 100 Jahren durch Schwarzschild entdeckt. Sie schienen ziemlich merkwürdig zu sein. Einstein hat nie an sie geglaubt, sie hatten merkwürdige Eigenschaften. Aber sie haben sich inzwischen - wie in diesem Beispiel, aber es gibt viele andere – als reale astrophysikalische Objekte herausgestellt. Und zusätzlich sind sie weiterhin das Objekt für "kein Gedanke"-Experimente, die Einstein gerne durchführte. Besonders nachdem Hawkins erkannte, dass schwarze Löcher in der Quantentheorie nicht schwarz sind. Ein schwarzes Loch ist ein Bereich im All, wo die Energiedichte so hoch ist, dass Licht nicht entkommen kann. Sie sind daher unsichtbar. Aber quantenmechanisch kann man durchtunneln und Licht entkommt. Schwarze Löcher strahlen und verschwinden. Und das Rätsel - ich komme noch zum Rätsel. Diese theoretischen Objekte, an die Einstein, viele Theoretiker und alle Beobachter bis vor Kurzem nicht glaubten, existieren, so der derzeitige Stand, vermutlich zahlreich im ganzen Universum im Zentrum jeder Galaxie. Dies ist das schwarze Loch und die Keplerbahnen um es herum, die uns verraten, was seine Masse ist: das Zentrum der Milchstraße. Sie füttern vermutlich Gammastrahlenausbrüche. Und sie werfen theoretische Rätsel auf, weil, wenn man Information in sie hinein wirft dann wird man anscheinend in einen gemischten Zustand gezwungen, Informationen gehen verloren. Und dies liefert einen der stärksten Hinweise - oder Problem oder Paradox - für diejenigen von uns, die versuchen, die Verbindung zwischen dynamischer Raumzeit und der Quantendynamik zu verstehen. Die Extrapolation der einsteinschen Theorie zu sehr kleinen Entfernungen hin oder sehr hohen Energien liefert viele andere Paradoxe und Probleme, die oft das Leitprinzip für Wissenschaftler bei der Art von Arbeit sind, in die ich involviert bin: die Suche nach Naturgesetzen. Da die Extrapolation der einsteinschen Theorie hin zu kleinen Entfernungen Fluktuationen der Raumzeit erzeugt, Quantenfluktuationen, die unbeherrschbar sind - ‚Raumzeit-Schaum‘, wie es manchmal auch genannt wird -, sind wir sicher, dass wir über die einsteinsche Theorie hinaus gehen müssen, wie er es erwartete und es selbst auch versuchte. Und wir stehen meiner Ansicht nach vor einer unserer Hauptherausforderungen, nämlich die wahre Natur von Raum und Zeit zu verstehen. Einstein hat uns gelehrt, dass Raumzeit dynamisch ist. Und auf sehr kurze Entfernungen fluktuiert sie unkontrollierbar. Viele Wissenschaftler glauben, dass es vermutlich, in einer Theorie jenseits der Einsteinschen, am besten als ein aufkommendes Konzept beschrieben wird. Gut bei großen Entfernungen - groß‘ verglichen mit 10^-33 cm oder so -, aber noch immer kein grundsätzliches Konzept in der Physik. Wir fragen sozusagen, woraus Raumzeit besteht. Nun möchte ich kurz die anderen Vermächtnisse beschreiben. Physikalische Kosmologie ist vielleicht das Wichtigste. Vor Einstein wurde Kosmologie durch die Religion, durch die Philosophie betrieben. Es gibt dazu eine Menge schöner Geschichten, aber es war keine Wissenschaft. Aber sobald Einstein seine Gleichungen aufschrieb, erkannten er und andere sofort, dass die Struktur und die Geschichte des Universums ein Thema der Physik sind. Tatsächlich begann Einstein nach 1915 fieberhaft an einem mathematischen Modell des Universums zu arbeiten. Und er konstruierte ein Modell des Universums, das aus seiner Sicht statisch sein sollte - es ist ein schlechtes Modell. Aber er schrieb an de Sitter im Jahr 1917: Für mich war es aber eine brennende Frage, ob das Relativitätsprinzip bis zum Ende durchgeführt werden kann, oder ob es zu Widersprüchen führt.“ Sehen Sie, er hatte seine Gleichungen, die die Raumzeit beherrschen - und das Universum ist Raumzeit. Er musste sie anwenden. Und er war in Sorge, dass Unsinn herauskommen könnte. Niemand hatte je in der Geschichte der Physik versucht, eine mathematische Theorie der Raumzeit des Universums aufzustellen – er war daher besorgt. Und obwohl seine Modelle Probleme hatten und schnell verworfen wurden, war er zufrieden, dass „ich in der Lage bin, die Idee bis zur Vervollständigung durchzudenken, ohne auf Widersprüche zu treffen. Nun quält mich das Problem nicht länger, das mir keine Ruhe ließ.“ Aber er wusste, dass er in der Schwerkrafttheorie etwas weitergeführt hatte, das ihn „der Gefahr aussetzte, in eine Irrenanstalt eingewiesen zu werden.“ Was er wirklich nicht mochte, war, einen Parameter in seine Theorie einzuführen, die kosmologische Konstante, die es tatsächlich gab - seine grundlegenden Prinzipien ermöglichten sie – und er benutzte sie, um ein statisches Universum zu konstruieren. Einige haben das seinen „gröbsten Fehler“ genannt. Für mich ist das nicht so - sein gröbster Fehler war, die Expansion des Universums nicht vorherzusagen. Er war überzeugt, dass das Universum statisch war, sich nicht änderte. Gehen Sie nachts nach draußen, da sind die Sterne und sie sehen heute genauso aus wie gestern. Er war überzeugt, dass das Universum statisch war. Ist es nicht. Er hätte die Expansion des Universums vorhersagen können - das war sein gröbster Fehler. Er entwickelte übrigens auch die Werkzeuge, die es uns erlauben – er glaubte nie, dass man jemals herausfinden würde, was das Universum war. Und jetzt haben wir das gemacht, und teilweise mit seiner Hilfe. Er zeigte, wie man die Lichtablenkung um schwere Objekte herum ausnutzen kann, die Struktur der Materie im Universum zu kartieren. Und dieser sogenannte Geschosshaufen, wo zwei Galaxienhaufen zusammenstoßen, dieses Zeug hier ist dunkle Materie, das blaue, das gemessen wird, beobachtet durch Astrophysiker, die die Lichtablenkung von diesen Quasaren hinter der dunklen Materie durch sie hindurch messen. Und so kartiert und misst man dunkle Materie im Universum. Und heute,Einstein hätte es nie geglaubt, nach nur 100 Jahren, haben wir eine vollständige, extrem detaillierte, quantitativ erfolgreiche Geschichte des Universums, vom Anfang über einer Periode der schnellen, beschleunigten Expansion, nur die normale Expansionsstrukturbildung der Galaxien, der Planeten. Und, so glauben wir heute, einer beschleunigten Expansion, die durch seine kosmologische Konstante diktiert wird. Wir wissen aber noch nicht, wie es anfing, der Urknall. Einstein hat uns gelehrt, dass das Universum die Geschichte der Raumzeit ist. Und wenn man dieses Problem löst, wenn man eine Lösung für die Theorie hat, die die Dynamik der Raumzeit erklärt, muss sie unbedingt eine konsistente Beschreibung des Anfangs liefern. Oder was an der Grenze passiert, wenn es eine Grenze gibt, und/oder was am Ende passiert. Und das ist wieder eine Frage, die die Wissenschaft noch nie ansprechen musste – bis jetzt war es das Gebiet der Religion und Philosophie. Aber wir können dieser Frage nicht länger aus dem Weg gehen. Und wenn wir die Struktur des kosmischen Mikrowellenhintergrunds und die Theorie der Ausdehnung diskutieren, dann müssen wir ansprechen, was am Anfang geschah. Was ist die Ausgangsbedingung für das Universum? Was sind die Regeln? Wir haben diese Frage nie gestellt. Wir wissen nicht einmal, was die Regeln sind. Zum Schluss noch ganz kurz die Suche nach der Vereinheitlichungstheorie, von der Einstein über die Jahre besessen war. Er betrachtete seine spezifische Theorie immer als vorläufig - sie würde durch eine umfassendere, vereinheitlichte Theorie der Raumzeit und Materie ersetzt werden müssen. Er hat immer gedacht, wenn er sich seine Gleichungen, seine berühmten Gleichungen ansah, dass die linke Seite schön sei, die Konsequenz dieser profunden Symmetrie von Raum und Zeit. Und die rechte Seite hässlich, beliebig und singulär, die Struktur der Materie. Er mühte sich jahrzehntelang ohne Erfolg, die linke Seite auf die rechte Seite zu bringen und Materie aus der Geometrie heraus zu erklären. Es ist ihm nicht gelungen. Heute haben wir eine unglaublich erfolgreiche, umfangreiche Theorie der Kräfte und der Elementarbausteine der Materie, die die Materiebausteine als Komposition aus Quarks und Leptonen beschreibt. Und die Kräfte innerhalb des Atoms und des Kerns als Elektromagnetismus. Mein Favorit: die starke Kernkraft und die schwache Kernkraft. Zusammen mit dem Higgsvektor, komplettiert das das Standardmodell, das unglaublich erfolgreich ist. Die präziseste, quantitativ erfolgreichste, grundlegende Theorie, die wir je hatten. Sie könnte prinzipiell ab der Plancklänge, wo Dinge die Tendenz haben zusammenzubrechen, bis zum Rand des Universums funktionieren. In der Extrapolation dieser Theorie haben wir Hinweise, dass die Kräfte sich auf dieser Energieskala zusammen mit der Schwerkraft vereinigen. Und wir verfolgen Ideen der Vereinheitlichung, wie beispielsweise die Stringtheorie. Aber es ist sehr schwierig, von Großen zum Kleinen zu gehen, vom Standardmodell zur großen vereinheitlichten Theorie, vom Jetzt zum Anfang. Es ist viel leichter, vom Kleinen zum Großen zu gehen, vom Geeinten zum Zerbrochenen, vom Anfang zum Jetzt. Aber Einstein ermutigte uns, und warnte uns zugleich. Er sagte: „Der erfolgreiche Versuch, delikate Naturgesetze entlang eines ausschließlich gedanklichen Wegs abzuleiten, der Glaube an die formale Einheit der Struktur der Realität, ermutigt die Fortsetzung in diese spekulative Richtung. Die Gefahren, die jeder klar im Auge behalten muss, der es wagt, dem zu folgen.“ Also machen wir in dieser Richtung weiter. Wir fragen nach der Raumzeit, ihren Eigenschaften, die in dieser Untersuchung zu verschwinden scheinen, um durch etwas anderes ersetzt zu werden, dessen Regeln wir wirklich noch nicht kennen. Also Einsteins Vermächtnis - dynamische Raumzeit, physikalische Kosmologie, vereinheitlichte Theorie – werden weiterhin unsere Erforschung der Naturgesetze der Physik formen. Dynamische Raumzeit: wir fragen derzeit, aus was besteht Raumzeit? In der physikalische Kosmologie sind wir sind mit der Frage konfrontiert, was ist der anfängliche, und vielleicht der endgültige Zustand? Und in unseren Versuchen, eine vereinheitlichte Theorie zu konstruieren, werden wir mit der Untersuchung fortfahren, wie die Kräfte sich vereinen. Am Ende des 20. Jahrhunderts hatte das Time Magazin die Aufgabe, die Persönlichkeit des Jahrhunderts zu wählen. Und als theoretischer Physiker bin ich sicher - alle Physiker, alle Wissenschaftler, dass wir sehr stolz sind, dass die Person, die zur Persönlichkeit des Jahrhunderts gewählt wurde, ein theoretischer Physiker war. Der nicht nur ein großer Wissenschaftler war, sondern auch ein großer Menschenfreund, und der seinen Ruhm und seine Prominenz zum Nutzen der Menschheit eingesetzt hat. Danke sehr.

David Gross explains how Einstein placed symmetry front and centre in our understanding of the universe.
(00:03:22 - 00:07:09)

The complete video is available here.

General relativity has stood the test of time beautifully, accounting for every phenomenon in which gravity dominates, from planetary orbits to the dynamics of the expanding universe as a whole. The most recent and dramatic of its successes was the discovery of gravitational waves. Nearly 100 years after Einstein’s equations predicted these waves, they were directly detected for the first time on 14 September 2015 by LIGO – the Laser Interferometer Gravitational-Wave Observatory. The waves had come from roughly 1.3 billion light-years away where two black holes (another prediction of relativity) span round each other before violently merging together, sending a shudder through the universe.


In his 2016 Lindau lecture, George Smoot (Nobel Prize in Physics 2006) described how the 2015 detection by the LIGO collaboration of gravitational waves from a merging binary pair of 30-solar mass black holes was the culmination of almost a century of efforts.

 

George Smoot (2016) - Gravitational Waves, Merging Black Holes

Good morning, those of you who could get up this morning and early. I was asked to talk about gravitational waves, even though 2 months and a day ago we were at the first launch for the new Russian space station. And I thought I’d have exciting new data to tell you about. But it took them 7 weeks to turn our instruments on. And I still haven’t heard whether the data is any good. I know they’re working but I haven’t heard any news. Sam is in the front row, he knows the frustration. However, hopefully I am ready to start. And I got at least an interesting topic where we have data that’s available, that’s to talk about gravitational wave and merging black holes, particularly through the LIGO. And so the big event was in February, on February 11th. The executive director of LIGO, Professor David Reitze, made the announcement, "Ladies and gentlemen, we have detected gravitational waves." And he couldn’t contain himself, ‘We did it." And the reason he said 'we did it' is because LIGO had been going on for 40 years, so you know there’s a little bit of frustration involved in that. On the left you see the wave form from the Hanford, which is in Washington, the North West part of the United States. And you see the wave form and you see the predicted or the best-fit sort of wave form in comparison, Livingston, which is in Louisiana, diagonally almost the opposite corner, but not quite. You can see the predicted and you can see the superposition of Hanford data and the Livingston data. The thing that had to be done is, the Hanford data is flipped over, if you look. That’s because if you look at configuration here of the interferometers, you will see they’re actually lined up at different angles. The signal came in from the direction of Florida, and there’s a time delay of just under 7 milliseconds, 6.9 milliseconds. So it had to be shifted by 7 milliseconds, and it had to be inverted so that you could compare them directly. Which you should see there’s a tremendous correlation in the wave forms. This is amazing because this is a half hour after the instrument was sort of left from engineering runs. So people went to bed and this event appeared. And this event was immediately detected by the software, in less than 3 minutes, but you can see it by eye in the data. So this is really spectacular. It turns out this is what we used to call in the old days in particle physics a 'golden event'. You show it in your paper as the typical event, but this is a golden event. So what do we think this is in the wave form? That represents 2 black holes. The black part is the black holes. The event arises from the black hole. And the green is the gravity waves coming out. They’re emitting gravity waves like crazy. They lose orbital distance, potential, and they fall in. This is the gravity wave propagating out across space. So you see the strongest part of the gravity wave is the end. The whole thing is a chirp. Here is the Earth. That’s the gravity wave going through the Earth causing it to oscillate. The amplitude goes up. The Earth oscillates a lot more. It’s exaggerated. This has to do with the question - and Einstein said it when he was trying to predict it. And so if you actually do the history of gravity waves it’s a lot of starts and stops and mistakes. There are 40 years of arguments if there were any gravity waves based on theory. And then there’s another 60 years of trying to detect them. Here, 100 years after, it got to be taken seriously. We actually have seen observations. So here is the concept. We have 2 black holes co-orbiting their centre of mass. They are radiating gravity waves. Black holes are about the only things that radiate gravity waves really efficiently. Have to be very compact objects moving very fast. As they go they inspiral. So they have a very regular frequency but the frequency is getting faster and faster. It’s what we call a chirp. So there is an analogy to birds. The signals you’ll see are done, I’ll show you one later, the same way bird calls are done by ornithologists. You hear the chirp of the bird, you time versus the frequency. So they inspiral until the black hole event horizons just touch, they merge and they then ring down back to the spherical or elliptical, if it’s a curved black hole, kind of a shape. And it happens very quickly, you see it’s not quite critically damped, but it happens incredibly fast that the thing takes the same shape. And one other thing that we know, the laws of physics that we think we know, is the surface area of the black hole always increases. So if you look carefully in the simulations and so forth, you will see the surface area of these 2 black holes - they should be, when they touch - the surface area increases but when they ring down the surface area is even bigger. So keep your eye out for that. It will be a quiz, right. So here is the regular thing. Just in honour of BREXIT, on the left side you see the size of the orbit and the size of England. If you try to get rid of England with the black holes you’re going to get Ireland too and Scotland, so that’s unfortunate. So let me go through this in detail. The distance you can figure out because there’s a binary event and you know the frequency. You can figure out where the signal strength is. You can figure out what the distance is. It's 1.3 billion light years to this event, so the red shift of 0.09. The first black hole was 36 solar masses. The second black hole was 29 solar masses within certain error bars. And the resulting black hole was 62 solar masses. Now this is really surprising. And the experiment that I would tell you about but I haven’t got the data yet: We designed to study neutron star, neutron star merging and producing gamma ray burst. That was the thing that Advanced LIGO was built to detect. That was something where we could predict roughly: the population of neutron star, neutron star binaries and predict what the rate should be. We had no idea that, by 'no idea' plus or minus at least one order of magnitude from the sort of best guesses what the number of black holes - the rate we’re seeing in black holes now is at least at the top range of what people were predicting. So there are many more black holes out there than what all the theorists would tell us. And also stellar evolution theorist would predict that there shouldn’t be so many massive black holes as these. So right away, this first event, it shows a strong gravity. It shows us too many black holes. It shows us a bunch of stuff. We are already learning a lot. The thing that’s impressive is, Einstein was right. But he was right for another reason. This is 3 solar masses of energy coming out in gravity waves. And we barely detected it with the most spectacular thing, which took 40 years to build. So they’re not easy to see, gravity waves. And just to give you an idea. This is 50 times brighter in terms of energy release or flux, luminosity, whatever you want to say, of all the stars in the known universe, that is all the stars inside of our horizon. So if you can’t see that you can’t see anything. And the other thing you’ve got to look at is this green line. It’s the black hole’s relative velocity. Its unit is slightly more than half the speed of light for that last orbit. So in order to make gravity waves you got to be really massive. You got to be going really fast. You know you have to have the quadrupole moment, third derivative, be huge. Now for the ornithology (sound), its frequency on the uprising and on the other axis time. These are the bird chirps. So you actually hear them the way they really are, and you hear them frequency-shifted. So you can hear the noise. So when they are frequency-shifted and boosted, you can hear the white noise from the instrument, and then you can hear the chirp. Now here is, if it was a beautiful star field behind it, here’s the gravitational lensing in the star field behind it. You can see the black holes orbiting. And you can see how it appears to be distorting the space. Quickly, I thought let’s do a calculation. These guys are not very far apart. You need an amazingly big telescope to see this, but it’s still a beautiful thing to see. And it extremely quickly becomes a black hole, a round black hole or a spherical black hole. Let me do a little bit of history, talk a little bit about the early attempts for detecting black holes. How did we know gravity waves exist? Because we just had a theory. And the answer is Hulse and Taylor, who got the Nobel Prize in 1993. They looked at the thing that we didn’t know about before this. That is neutron stars orbiting round each other. One of them was a pulsar that gave out a very regular beat. So you could measure the parameters of this binary system very carefully and you could see its radiating gravity waves. And in 250 million years it’s going to go down to about a third of the size the orbits are now. And it’s a fairly elliptical orbit. So you can measure the advance of the perihelion. You can also measure the time delay. There are 2 slight differences. You can measure parameters and you see the data points coming down from 1975 to 2005. And you can see the general relativity prediction, and you see how amazing it is. And that whole effect is gravity waves. You will note, they gave the Nobel Prize in 1993 – there are no data points from ’93 to ’95. I have to say to the Nobel Committee you got to be careful when you give the prize, you can disrupt it. But, fortunately, they got back to work and you can see the data points going on quite well. You know, the orbital period is very long, it's 7 hours. So think about that: 2 solar mass objects orbiting each other at a 7 hour period. And the change in the orbital period is about 76 milliseconds per year. So this is how we knew that we were really on the right track for gravity waves. If you go through the history of gravity waves you will find they were arguing about whether there are gravity waves or not. Einstein withdrew a paper from Physical Review, claiming there weren’t gravity waves, because the referee told him he made a mistake. And he never published in Physical Review again, but eventually figured out there were gravity waves. But it took even longer for people to realise they carried energy and so forth. So there’s a whole long interesting story there. However,it turned out Feynman was one of the critical people who convinced some of the other scientists. So they had a meeting in 1956 to talk about gravity. And they talked about quantum gravity and a bunch of other stuff. But there was one section on gravity waves. And they were still arguing, do gravity waves carry energy or not? And then Feynman came up with his thought experiment of 2 rings that were tied on a bar. And if the gravity waves moved them they would create friction and would cause energy, and convinced people to do it. At this meeting was a young engineer named Joe Weber, who listened to this, came around and talked to many other people. He came up with the idea of making resonant frequency bars in 1960. That is make a bar, wait for the gravity waves to come through. If the gravity wave has the right frequency it will excite the bar, the signal will build up, and you will get it. So here is Joe Weber back in the 1960s working on this huge aluminium sphere, which was supported on a tower to isolate it, and fixing the sensors to measure the waves when the gravity wave comes through. You’re looking for somebody, a gravity wave to hit the right note. The right note is this - not a very pleasant note. But since this is Germany, it's closer to the right note. So he did a lot of work and excited a lot of people. And in the 1960s he claimed he had detection. And that excited a number of people to create some more resonant bars and so forth, but also theorists to do calculations. And the first set of theory papers claims, assuming that there was waves coming from the centre of the galaxy, that the galaxy was losing mass at least 200 times the rate that you could limit from observing the fact that the galaxy didn’t fall apart. This is even before we did have dark matter. But one of the other things that’s interesting is, he was an early person doing work in masers and lasers. And he actually even thought about a laser and a ferrometer. But he gave the first public talks on gravity waves. So he was a real pioneer. He excited the field. He kept getting the wrong answer, but he still progressed the field. And it’s a classic case in the process of science where people discover stuff and so forth. They get the wrong answer, people check them and so forth but then people figure out how to do it right. So let me switch to LIGO. And I’ll only talk about 40 years of LIGO. When I was a young student - Sam and I were talking about this – when I was a young student at MIT, I met Rai Weiss. He gave a talk - Although I took the course a couple of years later from Steven Weinberg before he moved over to Harvard. But he gave a course about general relativity for the students because they wanted to hear about it. And he wrote a progress report, which I’ll show you in a second, for the idea of using a laser interferometer to measure gravity waves. Now this is an idea, it turned out, 2 Russians had proposed in 1962, Gertsenshtein and Pustovoid. And it was revived by Vladimir Braginskii, back in the days of the Soviet Union. So here’s the actual report, it was this progress report. In the old days we just had to put out a quarterly progress report to the funding agencies. So you were just stuck with the report. So there’s the diagram. That’s his original sketch. This is now historical LIGO document. But I also added a thing. This was a result of the seminar he gave when I was a student in MIT. Then he held discussion sections with the students, just like we’ll have this afternoon. He had a series of discussion sections and the students were asking questions. That’s where he eventually got the idea of making the laser-interferometer. And that’s when he wrote the notes up in his progress report. So students sometimes play an important role in science. And so, depending on how you look at the records, either 1984 or 1992, LIGO gets co-founded by Kip Thorne, Ronald Drever and Rainer Weiss. Kip Thorne actually knew the Russians and he knew Braginskii and he tried to see about hiring Braginskii but he wasn’t allowed to leave the Soviet Union. And so Rai Weiss suggested that he hired Ron Drever from Glasgow. And Ron Drever came half-time and then eventually long-time. So it started out with just the 3 of them and now it’s over 1,000 researchers. It's impressive growth but if you have 40 years you have students and they have students and so on, it gets big. So here is just a little summary. Back in the end of the ‘70s, the National Science Foundation gave a limited amount of money to Caltech and even more money to MIT to develop a laser-interferometer for gravity wave detection. That’s how Drever was able to start building one there, and Rai was making a small one at MIT. And then Rai agreed to make a study with industry and with some other people to see what it would really cost to build the gravity wave interferometer on the scale that he had calculated was necessary to do. So that is what was going to become LIGO. I saw an early version of that and it was estimated to be $30 million. By the time the proposal was put in, in October of ’93, it was $100 million. It cost $200-and-something million by the time the first generation LIGO was built. The construction started in 1992. There was a whole long history that went on. They ran from 2002 to 2010, shut down for 5 years to upgrade to Advanced LIGO. And Advanced LIGO began operating late last fall. In fact, the engineering part wasn’t over when that event came in. They just had to shut down for the day, because it was like 3 o’clock or 4 o’clock in the morning. And they had gone home to rest and the gravity wave happened to come through, the gravity wave event. The total cost so far is $620 million US. Ok, what do you get for that? Well, you get this beautiful thing in Livingston, Louisiana, and in the desert of Hanford. So that’s about as far apart considering the political situation at the time. The person who was head of the committee was a senator from Louisiana. So that’s the reason that one of them ended up in Louisiana. And the other one had to be as far away from Louisiana as could be. And somehow Ted Stevens wasn’t there yet, so Alaska didn’t make it. This is the concept. A laser beam is split and sent down a pair of long perpendicular tubes, each precisely the same length. The 2 beams bounce off mirrors and recombine back at the base. The light waves come back lined up in such a way that they cancel each other out. And you add them together you get nothing. You get a zero’. That’s Rai Weiss But when a gravity wave comes along, it distorts space and changes the distance between the mirrors. One arm becomes a little longer, the other a little shorter. An instant later they switch. This back and forth stretching and squeezing happens over and over until the wave has passed. As the distances change so does the alignment between the peaks and valleys of the 2 returning light waves. And the light waves no longer cancel each other out, when added together in the recombined beam. Now some light does reach the detector with an intensity that varies as the distance between the mirrors varies. Measure that intensity and you’re measuring gravity waves. This reminds me of the movies from the ‘50s. Now the reality is a lot more complicated. So we will talk about this at the discussion but, in fact, there was a talk yesterday morning about quantum squeezed states and so forth. Ultimately, this is limited by the uncertainty principle. And you can actually try and do better if you want to measure the binary neutron stars orbiting. You have to change the frequency a little and you have to do that. So there are tricks that go on. But it’s non-trivial to actually understand how it works. But it seems like it’s ok. So here I’m reminding you what happened. Now here’s another simulation and here you see the 2 black holes and underneath you see the potential that’s colour coded by the time delay. So there’s a time delay from the gravitational potential. There is also potential. You see them orbiting, they’re losing energy. You see the lines of free fall. You will see space is pretty well behaved. This is the incredible linearity of space time. But general relativity is now mainly at the end. And as you get closer and closer, the horizons will get together and they’ll touch. And it actually gets fairly sophisticated, so we’re slowing the movie down. If you realise this whole event takes place in a quarter of a second. They merge, all kinds of destruction. But you notice the free fall lines still go up over the hill and down into it. You see the black hole oscillates, radiates away energy, and leaves basically a spherical black hole or a curved black hole in this case. Because they had orbital angular momentum, that angular momentum has to be conserved someway. So here are the waves again, just to remind you. And from the fact there’s a time delay you should get this arch across the sky. You actually have some additional information, so you can predict where the gravity wave source was in this band, which is a pretty big fraction of the sky. No telescope has a field of view like that, no optical telescope has a field of view like that. But you can see where they thought the event might have come from. Now at the same time, from the Fermi satellite, there was a gamma ray signal, a gamma ray burst. Which is kind of surprising, because 2 black holes weren’t expected to have a gamma ray burst. But it is theoretically conceivable you could do it, although it’s kind of tricky. And here’s where the gamma ray burst was thought to have come from. And you can compare them. There’s overlap between where the biggest signal was. And so there was some - back in February there was some discussion about is the gamma ray burst associated with this event. You don’t hear about that anymore because you will see this and more stuff. So, what is going on? Hanford and Livingston are on the air. VIRGO was off the air for upgrade. So VIRGO was very similar, and it’s near Pisa. In Germany there’s Geo 600 which is on the air. VIRGO should be back on the air by the spring. They just approved making a LIGO in India. And in Japan there’s KAGRA. Unfortunately, during the time this event happened, there was only 2 of them on. So you have only a small band in the sky where you’re doing it. However, this is to say LIGO has - the original LIGO is this little red thing in the centre, the little red area in the centre. The current version of LIGO is, the one we have the results from, is this gold. And when they get to the full sensitivity it’s designed to have, it will expand out there. The first expansion was a factor of 27 with the original LIGO. The full expansion will be a factor of 1000. In our early calculations that was the level where there should be at least several events of neutron star-neutron star. But perhaps up to 100 events per year of neutron star-neutron star. We’ll find out if we’re right about that or not. Well, I got this cartoon and I thought it was too good. There’s the guy with the hammer, right? And the scientists are all excited. LIGO scientists all excited about what they’re seeing. But it turned out, just 10 days or 11 days ago, whatever it was, there was a second set of black holes announced. This is 1.4 million years light years away, it’s the second event. They spun around one another coming closer and closer together, until, finally, they collided. This dance created ripples in the fabric of space and time, also known as gravitational waves. There were a lot of waves out there that are too small to see. And then there’s the big chirp where the amplitude and the frequency increased. In December of 2015 those gravitational waves reached earth and were detected by an instrument known as the Laser Interferometer Gravitational Wave Observatory, or LIGO for short. Scientists at LIGO announced the detection of the 2 black holes on June 15th. So you see the frequency is different, it's higher frequency. This is only the second time that scientists have ever directly detected gravitational waves. The first detection, also made by LIGO, was announced earlier this year. So you learn the bird calls. Currently all other telescopes and space observatories study the cosmos by collecting light or other particles. But the black holes detected by LIGO are not expected to radiate light. So by looking for gravitational waves, LIGO is illuminating otherwise invisible sectors of the universe. That’s the PR. Ok, so here’s the event. And so you will notice something different about this. The signal noise is not nearly as good. You don’t see it by eye. Although the software saw it within 3 minutes because it does outer correlation between the 2. And you see the signal and you see the amplitude, the chirp beginning to form, the amplitude going up. But if you look really closely you will see modulation. That’s precession of the orbit. It means one of the black holes has significant spin, and you have spin-orbit-coupling. Oh my god, you guys are going to have to do atom stuff, where you have spin-orbit-coupling with gravity waves because the spins affect the angular momentum of the orbit. And if you look closely at the black curve you will see that one of them has a spin at least of 0.2 whereas 1 is the maximum black hole spin. So they are significantly spinning. This is all getting interesting. So it turns out there are 3 candidate events. Well there’s 1 candidate event and 2 confirmed events. The first one immediately after the equipment was left alone by the engineers who were testing it, one about a month later. And one about 2.5 months later, 14th of September and then the 26th of December, a late Christmas present. And you will notice the difference, because these are being shown from the time when their frequency is 30 Hz to the present. Now the smaller the black holes the faster the orbital frequency because they can get closer before they merge. And so what you see is - you saw the big ones first and you saw the little ones last and this kind of thing, although they’re not that little. Here is the primary black hole and the secondary black hole - 36 solar masses, 23 solar masses, 14 solar masses. All of these are still bigger than the average. But now we’re starting to build up a population of black hole masses that people are seeing. But we’re biased to see the big ones. You have to take that into account. And you see the secondary black hole, not much difference. And you see the gravitational wave energy. The first event was 3 solar masses. The next one was 1.5 solar masses. The last one was only 1 solar mass of energy which is about what a really big Type II super nova puts out in a month. That’s kind of the scale of what’s going on. So this is fairly impressive, even though difficult to detect, even with this $600 million instrument. Well, you want to hear the sounds again. Here is the pure sound. Listen carefully. Ah, the speaker system is better than on my computer. Here is frequency shifted so you can hear it. So frequency shifted so you can hear it really does sound like a bird call. Chirp. How do we know what’s going on? How do we know what we saw or, in this case, heard? Here is the best fit and this is a LIGO thing. They really mean GW15, but whoever typed it wrote the thing wrong. Here is the predicted wave form from a numerical general relativity model, where you have the loss, the increase in amplitude of the gravity waves. And the increase in frequency as the orbit gets closer. That’s for the December one, that’s for the September one. Here is what a binary neutron star should look like. The frequency is set by 1 over the effective reduced mass of the system. That tells you what the frequency is. Because the physical size of the black hole is proportional to the mass and that tells you what the limiting orbit size can be and so forth. Just by measuring the last minute frequency, you can estimate the mass, reduced mass of the system and vice versa. So you can tell these are not the binary neutron stars. These are really black holes just by the frequencies that you see. And here is where they appear in the sky. I showed you the one before. The first one down here in the green. The 2 others, the candidate event and the recent event that was released this month. I remind you: the range, the initial LIGO range and the bigger LIGO range, it’s 1000 times the volume that we’re heading towards. We’re not there yet, we’re 26 times the volume. We expect the event rate to go up by a factor of 10 - 40, depending on how well it is done, as LIGO is improved towards its design. And that means if we were seeing one a month, we should be seeing 10 a month. This is going to be a change in the way astronomy is done. This is not the only place, not only as more detectors so you can get the localisation better, but there are other wavelength bands in which you can look. On the bottom axis it's frequency and the top axis is the strain per square root of hertz. And you see the expected sensitivities and signal levels for the space based interferometers, what we call LISA, and for the Pulsar Timing Array. So this is something that you can do. You have pulsars that give you very good clocks. You can look at them as the gravity passes by. They should Doppler-shift back and forth. You should be able to measure their performance. So this is the kind of thing I want to show you on a different scale. On the top scale is the Big Bang, the events that produce it. Those are quantum fluctuations in the Big Bang. There was a report a year ago from BICEP that they saw that. It’s not clear because it also could have been dust. You can see the other things that might go on, and what sort of scale. I wanted to say 2 more things to conclude. We had not expected that there would be 10 to 30 solar mass black holes. But if you have 30, you have a lot of distribution in there. You can start seeing them with LISA 10 years before they merge. So if LISA is up, you can start seeing these black holes, 10 years as they start spiralling down. You are in the LISA band from 10 year to about 1 day before the collision. But certainly about 1 week, you can predict ahead by at least a week. You can predict to within 10 seconds of when it’s going to coalesce. And you can predict within 1 degree, you can tell other observers where to look. It’s not only are we testing strong field gravity. We’re doing census of black holes. We’re actually going to be doing a lot of other things. This is going to turn into a whole new field of astronomy. So I finish and only 32 seconds late.

Denen von Ihnen, die heute Morgen schon so früh aufstehen konnten, einen guten Morgen. Ich wurde gebeten, mit Ihnen über Gravitationswellen zu sprechen, obwohl wir vor zwei Monaten und einem Tag beim ersten Abschuss der neuen russische Raumstation waren. Und ich dachte, ich würde interessante neue Daten haben, über die ich mit Ihnen sprechen könnte. Aber sie haben sieben Wochen gebraucht, um unsere Instrumente anzuschalten. Und ich habe noch immer nicht erfahren, ob die Daten überhaupt gut sind. Ich weiß, dass sie daran arbeiten, aber ich habe noch keine Neuigkeiten gehört. Sam ist hier in der ersten Reihe, er kennt den Frust. Nichtsdestotrotz kann ich nun hoffentlich beginnen. Und ich habe zumindest ein interessantes Thema mitgebracht, zu dem Daten verfügbar sind. Ich spreche über Gravitationswellen und verschmelzende schwarze Löcher, speziell über solche, die wir mittels LIGO beobachtet haben. Und das große Ereignis fand nun also im Februar statt, am 11. Februar. Der Generaldirektor von LIGO, Professor David Reitze, gab etwas bekannt: dass das LIGO-Projekt da schon seit 40 Jahren lief, Sie verstehen also, dass da ein klein wenig Frustration eine Rolle spielte. Links sehen Sie die Wellenform des Hanford Observatoriums in Washington, im nordwestlichen Teil der Vereinigten Staaten. Sie sehen die Wellenform und Sie sehen die vorhergesagte bzw. die passendste Wellenform im Vergleich. Dann Livingston, fast quer auf der gegenüberliegenden Seite, aber nicht ganz. Sie können die vorhergesagte Wellenform sehen und die Überlagerung der Daten aus Hanford und Livingston. Was getan werden musste: Die Hanford-Daten wurden umgedreht, wenn Sie hier schauen. Der Grund dafür ist, dass, wenn Sie hier die Konfiguration der Interferometer betrachten, werden Sie feststellen, dass diese eigentlich in verschiedenen Winkeln angeordnet sind. Das Signal kam aus Richtung Florida herein und es gibt eine Zeitverzögerung von nur etwas unter 7 Millisekunden, nämlich 6,9 Millisekunden. Die Daten mussten also um 7 Millisekunden versetzt werden und sie mussten umgekehrt werden, damit man sie direkt vergleichen konnte. Was Sie hier sehen sollten, ist eine enorme Korrelation zwischen den Wellenformen. Das ist erstaunlich, denn das ist eine halbe Stunde nachdem das Instrument nach der Montage allein gelassen wurde. Also die Leute gingen ins Bett und dieses Ereignis fand statt. Und das Ereignis wurde sofort von der Software bemerkt, in unter 3 Minuten, aber man kann es mit bloßem Auge aus den Daten herauslesen. Das ist also wirklich spektakulär. Es zeigt sich, dass es sich hierbei um etwas handelt, was wir zu Zeiten der Teilchenphysik einen „Golden Event“ nannten. In den Arbeiten wird es als gewöhnliches Ereignis dargestellt, aber das ist ein „Golden Event“. Was denken wir also, worum es sich bei der Wellenform handelt? Das hier stellt zwei schwarze Löcher dar. Das Schwarze sind die schwarzen Löcher. Das Ereignis geht vom schwarzen Loch aus. Und das Grüne sind die Gravitationswellen, die herauskommen. Sie stoßen wie verrückt Gravitationswellen aus. Sie verlieren orbitalen Abstand, Potential, und sie fallen ineinander. Das ist die Gravitationswelle, die sich hinaus durch den Raum verbreitet. Sie sehen also, dass die Gravitationswelle am Ende am stärksten ist. Das Ganze ist ein Zirpen. Hier ist die Erde. Das ist die Gravitationswelle, wie sie durch die Erde läuft und diese oszillieren lässt. Die Amplitude steigt. Die Erde oszilliert viel stärker. Das ist übertrieben. Und Einstein sagte das, als er versuchte das vorherzusagen. Also wenn Sie sich also wirklich mit der Geschichte der Gravitationswellen befassen, die bis jetzt 25 Seiten umfasst – treffen Sie auf viele Anfänge, Unterbrechungen und Fehler. Vierzig Jahre wurde gestritten, ob es auf theoretischer Grundlage Gravitationswellen überhaupt gibt. Und dann wurde weitere sechzig Jahre lang versucht, diese aufzuspüren. Jetzt, einhundert Jahre später, müssen sie ernst genommen werden. Wir haben tatsächlich Beobachtungen gemacht. Hier ist also das Konzept. Wir haben zwei schwarze Löcher, die gemeinsam ihr Massezentrum umkreisen. Sie strahlen Gravitationswellen aus. Schwarze Löcher sind mehr oder weniger die einzige Sache, die wirklich effizient Gravitationswellen ausstößt. Es muss sich dabei um sehr dichte Objekte handeln, die sich sehr schnell bewegen. In ihrer Bewegung nähren sie sich immer weiter an. Sie haben also eine sehr gleichmäßige Frequenz, aber die Frequenz wird immer schneller. Das ist es, was wir als ein Zirpen bezeichnen. Es gibt also eine Analogie zu den Vögeln. Sie werden sehen, die Signale werden – ich zeige Ihnen später eines - auf dieselbe Weise gehandhabt wie Vogelrufe von Ornithologen. Man hört das Vogelzwitschern, man stellt Zeit und Frequenz gegenüber. Sie kreisen also aufeinander zu, bis die Ereignishorizonte der schwarzen Löcher sich einfach berühren, sie verschmelzen und dann gehen sie, während des Ringdowns, zurück in die elliptische oder Kugelform, wenn es sich um ein gekrümmtes schwarzes Loch handelt. Und das geschieht sehr schnell. Sie sehen, es wird nicht wirklich bemerkenswert gedämpft, aber es geschieht unglaublich schnell, dass es die gleiche Form annimmt. Und eine andere Sache, die wir wissen – gemäß den Gesetzen der Physik, glauben zu wissen, – ist, dass die Oberfläche eines schwarzen Loches stetig größer wird. Wenn man sich also genau die Simulationen usw. ansieht, werden Sie sehen, dass die Oberfläche dieser beiden schwarzen Löcher – sie sollten, wenn sie sich berühren – die Oberfläche nimmt zu, aber während des Ringdowns ist die Oberfläche sogar noch größer. Halten Sie also danach Ausschau. Das wird ein Quiz. Hier haben wir die übliche Situation. Zu Ehren des Brexit sehen Sie auf der linken Seite die Größe des Orbits und die Größe von England. Falls Sie versuchen, England mit Hilfe der schwarzen Löcher loszuwerden, erwischen Sie auch Schottland und Irland. Das ist wäre bedauernswert. Lassen Sie mich die Sache im Detail durchgehen. Die Entfernung kann man errechnen, weil ein binäres Ereignis vorliegt und man die Frequenz kennt. Man kann errechnen, wo die Signalstärke liegt. Man kann die Entfernung herausfinden. Sie beträgt 1,3 Mrd. Lichtjahre bei diesem Ereignis, also beträgt die Rotverschiebung 0,09. Das erste schwarze Loch hatte 36 Sonnenmassen. Das zweite schwarze Loch hatte 29 Sonnenmassen innerhalb gewisser Fehlerbalken. Und das daraus entstehende Loch hatte 62 Sonnenmassen. Nun, das ist wirklich überraschend. Und das Experiment, von dem ich Ihnen erzählen wollte, aber zu dem wir noch keine Daten haben, haben wir konzipiert, um Neutronensterne, Neutronensternverschmelzungen und die produzierten Gammablitze zu studieren. Das waren die Dinge, zu deren Erkennung Advanced LIGO gebaut worden war. Das war etwas, was wir grob vorhersagen konnten: die Anzahl der Neutronensterne, Neutronensterndoppelsysteme und wie hoch die Rate sein sollte. Wir hatten keine Ahnung – mit 'keine Ahnung' meine ich, die besten Schätzungen zur Anzahl von schwarzen Löchern lagen mindestens eine Größenordnung daneben. Die Anzahl der schwarzen Löcher liegt heute mindestens im obersten Bereich der früheren Schätzungen. Es gibt also mehr schwarze Löcher da draußen, als uns die Theoretiker weismachen wollen. Und auch ein Theoretiker auf dem Feld der Sternenentwicklung würde voraussagen, dass es nicht so viele massive schwarze Löcher geben sollte. Also gleich dieses erste Ereignis weist eine starke Gravitation auf. Es zeigt uns zu viele schwarze Löcher. Es zeigt uns eine Menge Dinge. Wir lernen bereits sehr viel. Was eindrucksvoll daran ist: Einstein hatte recht. Aber er hatte aus einem anderen Grund recht. Das sind drei Sonnenmassen an Energie, die als Gravitationswellen abgestrahlt werden. Wir haben das fast nicht bemerkt, nicht einmal mit dem spektakulärsten Gerät, dessen Bau fast 40 Jahre in Anspruch genommen hat. Sie sind also nicht leicht zu erkennen diese Gravitationswellen. Nur um Ihnen einen Eindruck zu vermitteln. Das ist 50-mal heller in Hinsicht auf den Energieausstoß oder Energiefluss oder die Leuchtkraft Das sind alle Sterne innerhalb unseres Horizonts. Also wenn man das nicht sieht, ist man blind. Und die andere Sache, die man sich ansehen muss ist diese grüne Linie. Das ist die relative Geschwindigkeit des schwarzen Lochs. Sie ist etwas höher als halbe Lichtgeschwindigkeit bei dieser letzten Umkreisung. Um also Gravitationswellen zu produzieren, muss es wirklich massiv sein. Es muss wirklich schnell sein. Das Quadrupolmoment, dritte Ableitung, muss gewaltig sein. Nun also zur Vogelkunde (Geräusch). Die Frequenz auf der vertikalen und auf der anderen Achse die Zeit. Das ist das Vogelzwitschern. Tatsächlich hören Sie sie, wie sie wirklich sind und Sie hören sie in der Frequenz verschoben. Sie hören also das Geräusch. Wenn es frequenzverschoben ist und verstärkt, hören Sie das weiße Rauschen des Messinstruments und dann können Sie das Zirpen bzw. Zwitschern hören. Nun hier ist, wenn das hinter mir ein schönes Sternenfeld wäre, der Gravitationslinseneffekt im Sternenfeld dahinter. Sie können sehen, wie die schwarzen Löcher einander umkreisen. Und Sie können sehen, wie sie den Raum dahinter zu verzerren scheinen. Schnell, dachte ich mir, ich muss eine Berechnung machen. Die beiden sind nicht weit voneinander entfernt. Man benötigt ein unglaublich großes Teleskop, um das zu sehen, aber es ist dennoch ein wunderschöner Anblick. Und es wird extrem schnell zu einem schwarzen Loch, einem runden bzw. kugelförmigen schwarzen Loch. Lassen Sie mich ein wenig auf die Geschichte eingehen, ein wenig über die frühen Versuche schwarze Löcher zu entdecken sprechen. Woher wussten wir, dass Gravitationswellen existieren? Wir hatten eine Theorie. Und die Antwort kam von Hulse und Taylor, die 1993 den Nobelpreis erhielten. Sie schauten sich die Sache an, von der wir zuvor nichts wussten, nämlich Neutronensterne, die einander umkreisten. Einer davon war ein Pulsar, der in einem sehr regelmäßigen Takt schlug. Man konnte also die Parameter dieses Doppelsystems sehr sorgfältig messen, und man konnte die Gravitationswellen beobachten, die es aussendete. Und in 250 Millionen Jahren wird sich der Orbit um ein Drittel der heutigen Größe reduziert haben. Es ist ein recht elliptischer Orbit. Man kann also die Wanderung des Perihels messen. Man kann auch die Zeitverzögerung messen. Da gibt es zwei kleine Unterschiede. Man kann die Parameter messen, und man sieht wie die Datenpunkte zwischen 1975 und 2005 hier nach unten laufen. Man kann die Vorhersagen aus der allgemeinen Relativitätstheorie beobachten, und Sie sehen wie erstaunlich das ist. Und dieser ganze Effekt hier sind Gravitationswellen. Sie werden bemerken, dass der Nobelpreis 1993 verliehen wurde. Es gibt keine Datenpunkte von 1993 bis 1995. Ich muss dem Nobelpreiskomitee sagen, dass sie vorsichtig sein müssen, wann sie den Preis verleihen. Sie können die Arbeit unterbrechen. Aber glücklicherweise haben sie sich wieder an die Arbeit gemacht und Sie sehen, dass die Datenpunkte hier recht schön weiterlaufen. Wissen Sie, die Umlaufperiode ist sehr lang, nämlich 7 Stunden. Denken Sie darüber nach: Zwei Objekte mit der Masse von Sonnen, die einander in siebenstündigen Zeitspannen umkreisen. Und die Veränderung der Umlaufperioden beträgt in etwa 76 Millisekunden pro Jahr. So wussten wir, dass wir den Gravitationswellen wirklich auf der Spur waren. Wenn Sie sich die Geschichte der Gravitationswellen ansehen, werden Sie feststellen, dass darüber gestritten wurde, ob es Gravitationswellen gibt oder nicht. Einstein zog einen Artikel aus der Physical Review zurück, in dem er behauptete, es gebe keine Gravitationswellen, da der Kollege, der den Artikel prüfte, meinte, er habe einen Fehler gemacht. Und Einstein veröffentlichte danach nie wieder etwas in der Physical Review, aber irgendwann begriff er, dass es Gravitationswellen gab. Aber es dauerte sogar noch länger, bis die Menschen begriffen, dass sie Energie usw. in sich tragen. Es gibt eine eigene lange Geschichte dazu. Am Ende war Feynman einer der entscheidenden Leute, die ein paar der anderen Wissenschaftler überzeugten. Und sie sprachen über Quantengravitation und eine Menge anderer Dinge. Aber es gab auch ein Segment über Gravitationswellen. Und sie stritten noch immer, ob Gravitationswellen Energieträger sind oder nicht. Und dann hatte Feynman die Idee für sein Gedankenexperiment, in dem zwei Ringe an einen Stab gebunden wurden. Und wenn die Gravitationswellen sie bewegen würden, dann würden sie Reibung erzeugen und so auch Energie. Und er überzeugte Leute davon, das zu machen. Auf diesem Treffen war ein junger Ingenieur, Joe Weber, der sich das anhörte, herumkam und mit vielen anderen Leuten sprach. Er hatte 1960 die Idee, Resonanzfrequenzstäbe herzustellen. Das bedeutet, einen Stab herzustellen und zu warten, bis Gravitationswellen durchkommen. Wenn die Gravitationswelle die richtige Frequenz hat, bringt sie den Stab zum Schwingen, das Signal baut sich auf und dann hat man es. Hier haben wir Joe Weber, als er 1960 an diesem riesigen Aluminiumzylinder, der zur Isolierung auf einem Turm angebracht ist, arbeitete und die Sensoren einrichtet, um die Gravitationswellen zu messen, wenn sie durchkommen. Man sucht nach etwas, einer Gravitationswelle, die den richtigen Ton trifft. Das hier ist der richtige Ton – nicht gerade ein angenehmer Ton. Aber da wir hier in Deutschland sind, ist es näher an der richtigen Note. Er arbeitete also viel und begeisterte eine Menge Menschen. Und in den 1960ern behauptete er, dass er sie entdeckt habe. Und das hat eine Menge Menschen dazu ermuntert, noch weitere Resonanzstäbe zu bauen usw., aber auch Theoretiker, Berechnungen anzustellen. Und in den ersten dieser theoretischen Abhandlungen wird behauptet, dass, angenommen Gravitationswellen kämen aus dem Zentrum der Galaxie, die Galaxie Masse mindestens 200-mal schneller verliert, als dies durch die Tatsache eingeschränkt werden kann, dass die Galaxie noch nicht auseinander gefallen ist. Das war sogar noch, bevor wir dunkle Materie hatten. Aber eine interessante Tatsache ist, dass er eine der ersten Personen war, die an Masern und Lasern arbeitete. Und er hat sogar über einen Laser und ein Ferometer nachgedacht. Aber er hielt die ersten öffentlichen Vorträge über Gravitationswellen. Er war somit ein echter Pionier. Er hat das Fachgebiet aufgerüttelt. Er kam weiterhin auf die falsche Lösung, aber er brachte den Fachbereich voran. Dies ist ein klassischer Fall im wissenschaftlichen Prozess, wo die Leute Dinge entdecken und so weiter. Sie kommen auf die falsche Lösung, die Leute prüfen das usw., aber dabei findet man heraus, wie es richtig gemacht wird. So, lassen Sie mich zu LIGO überleiten. Und ich werde über 40 Jahre von LIGOs Geschichte sprechen. Als ich ein junger Student war – Sam und ich haben uns darüber unterhalten – als ich ein junger Student am MIT war, traf ich Rai Weiss. Er hielt einen Vortrag. Ich habe den Kurs jedoch ein paar Jahre später bei Steven Weinberg belegt, bevor er nach Harvard wechselte. Aber er bot den Studenten einen Kurs über die allgemeine Relativität an, weil diese etwas darüber hören wollten. Und er schrieb einen Entwicklungsbericht, den ich Ihnen gleich zeigen werde, über die Idee, ein Laser-Interferometer zu verwenden, um Gravitationswellen zu messen. Das ist eine Idee, wie sich herausstellte, die zwei Russen 1962 vorgeschlagen hatten, nämlich Gertsenshtein und Pustovoid. Und diese wurde damals zu Zeiten der Sowjetunion von Vladimir Braginskii wiederbelebt. Das hier ist nun der eigentliche Bericht, es ist ein Entwicklungsbericht. Früher mussten wir den Förderorganisationen vierteljährlich einen Bericht vorlegen. Man bekam also einfach den Bericht aufgehalst. Das hier ist das Schema. Das ist seine Originalzeichnung. Das ist nun ein historisches LIGO-Dokument. Aber ich habe auch etwas dazu beigetragen. Das war das Ergebnis des Kurses, den er gab, als ich Student am MIT war. Er veranstaltete damals Diskussionsrunden mit den Studenten, so wie wir das diesen Nachmittag tun. Er veranstaltete eine Reihe von Diskussionsrunden und die Studenten stellten ihm Fragen. Dort kam er irgendwann auf die Idee, das Laser-Interferometer zu bauen. Und dort arbeitete er seine Notizen für den Entwicklungsbericht aus. Studenten spielen also manchmal eine wichtige Rolle in der Wissenschaft. Und schließlich, je nachdem wie man die Aufzeichnungen deutet, wurde LIGO entweder 1984 oder 1992 gemeinsam von Kip Thorne, Ronald Drever und Rainer Weiss gegründet. Kip Thorne kannte übrigens die Russen, und er kannte Braginskii, und er versuchte Braginskii anzuheuern, aber dem wurde es nicht gestattet die Sowjetunion zu verlassen. Und so schlug Rai Weiss vor, dass er Ron Drever aus Glasgow ins Boot holen solle. Und Ron Drever kam zunächst in Teilzeit und später in Vollzeit dazu. Es begann also nur mit diesen drei Leuten und heute sind es über 1.000 Forscher. Das ist ein beeindruckendes Wachstum, aber wenn man 40 Jahre hat, dann hat man Studenten und die haben selbst Studenten usw., und es wird groß. Hier ist nun eine kleine Zusammenfassung. Damals in den 1970ern gab die National Science Foundation der Caltech einen begrenzten Geldbetrag und dem MIT sogar noch mehr Geld, um ein Laser-Interferometer zur Erkennung von Gravitationswellen zu entwickeln. Damit konnte Drever anfangen, dort eines zu bauen, und Rai baute ein kleines am MIT. Und dann erklärte sich Rai bereit zu einer Studie mit der Industrie und ein paar anderen Leuten, um zu sehen, was es wirklich kosten würde, ein Gravitationswellen-Interferometer von der Größe zu bauen, die seinen Berechnungen nach nötig wäre, um das Ziel zu erreichen. Daraus würde dann später LIGO werden. Ich habe eine frühe Version davon gesehen und die Kosten dafür wurden auf 30 Millionen Dollar geschätzt. Zum Zeitpunkt als der Antrag eingereicht wurde, im Oktober 1993, waren es 100 Millionen Dollar. Es kostete letztlich 200 plus Millionen Dollar zu dem Zeitpunkt als die erste Generation von LIGO gebaut wurde. Der Bau begann 1992. Es gibt eine eigene lange Geschichte dazu. Es lief von 2002 bis 2010, sie schalteten es für fünf Jahre ab, um zum Advanced LIGO aufzurüsten. Und Advanced LIGO wurde letztes Jahr im Spätherbst in Betrieb genommen. Eigentlich war die Konstruktion noch gar nicht abgeschlossen, als dieses Ereignis verzeichnet wurde. Sie hatten gerade für diesen Tag aufgehört, weil es drei oder vier Uhr am Morgen war, und sie waren nach Hause gegangen, um sich auszuruhen. Und dann kam diese Gravitationswelle zufällig vorbei, das Gravitationswellenereignis. Die Gesamtkosten belaufen sich bisher auf 620 Millionen US-Dollar. Was bekommt man dafür? Nun, man bekommt dieses wunderschöne Ding in Livingston, Louisiana, und das in der Wüste von Hanford. Das ist der ungefähre Abstand aufgrund der politischen Situation zu dieser Zeit. Der damalige Leiter des Komitees war ein Senator aus Louisiana. Das ist also der Grund, warum eines davon nach Louisiana kam. Und das andere musste so weit wie möglich von Louisiana entfernt gebaut werden. Und Ted Stevens war zu der Zeit irgendwie noch nicht da, also ist es nicht Alaska geworden. Das ist das Konzept. Jede davon genau gleich lang. Die beiden Strahlen werden von Spiegeln zurückgeworfen und kommen an der Basis wieder zusammen. Wenn die Lichtwellen zurückkommen, sind sie so ausgerichtet, dass sie einander aufheben. Und man fügt sie zusammen und erhält nichts. Man erhält null.“ Das ist Rai Weiss. Aber wenn eine Gravitationswelle des Weges kommt, verzerrt sie den Raum und ändert den Abstand zwischen den Spiegeln. Einer der Arme wird ein wenig länger, der andere ein wenig kürzer. Einen Augenblick später tauschen sie die Rollen. Dieses Hin und Her zwischen Ausdehnen und Stauchen geschieht immer wieder, bis die Welle vorbeigezogen ist. So wie sich der Abstand verändert, verändert sich auch die Ausrichtung zwischen den Spitzen und Tiefpunkten der beiden zurückkehrenden Lichtwellen. Und die Lichtwellen heben einander nicht mehr auf, wenn sie im gemeinsamen Strahl wieder zusammengebracht werden. Jetzt erreicht ein wenig Licht den Detektor mit einer Intensität, die variiert, je nachdem wie sich der Abstand zwischen den Spiegeln ändert. Messen Sie diese Intensität und Sie messen Gravitationswellen.“ Das erinnert mich an die Filme der 1950er. Nun, die Wirklichkeit ist viel komplizierter. Wir werden darüber in der Diskussionsrunde sprechen, aber eigentlich war gestern eine Gesprächsrunde über gequetschte Quantenzustände usw. Letztlich ist das von der Heisenberg'schen Unschärferelation begrenzt. Und man kann eigentlich versuchen, es besser zu machen, indem man die sich umkreisenden Doppelneutronensterne misst. Man muss die Frequenz ein wenig verändern. Es gibt da gewisse Tricks dafür. Aber es ist nicht trivial, tatsächlich zu verstehen, wie es funktioniert, aber es scheint in Ordnung zu sein. Hier erinnere ich Sie noch einmal daran was passiert ist. Hier ist eine weitere Simulation. Hier sehen Sie die beiden schwarzen Löcher, und darunter sehen Sie das Potential, das entsprechend der Zeitverzögerung farbcodiert ist. Es gibt also eine Zeitverzögerung durch das Gravitationspotential. Es gibt auch Potential. Sie sehen, wie sie sich umkreisen, sie verlieren Energie. Sie sehen die Linien des freien Falls. Sie werden sehen, dass der Raum sehr manierlich ist. Das ist die unglaubliche Linearität der Raumzeit. Aber die allgemeine Relativität hat nun größtenteils den Endpunkt erreicht. Und während die Ereignishorizonte immer näher kommen, kommen sie zusammen und berühren sich. Und es wird tatsächlich recht kompliziert, also verlangsamen wir den Film. Machen Sie sich klar, dass das ganze Ereignis sich in einer viertel Sekunde vollzieht. Sie fallen zusammen, jede Menge Zerstörung. Aber wie Sie sehen, gingen die Freifalllinien über den Hügel und wieder in ihn hinein. Sie sehen das schwarze Loch oszilliert, strahlt Energie ab. Und im Grunde bleibt ein kugelförmiges schwarzes Loch oder in diesem Fall ein gekrümmtes schwarzes Loch, denn sie hatten einen Drehimpuls und dieser Drehimpuls muss irgendwie erhalten bleiben. Hier sind wieder die Wellen, nur um Sie daran zu erinnern. Und aufgrund dieser Zeitverzögerung sollte man diesen Bogen am Himmel erhalten. Man hat sogar zusätzliche Informationen, somit kann man vorhersagen, wo die Gravitationswelle in diesem Band war, welches einen ziemlich großen Ausschnitt des Himmels darstellt. Kein Teleskop hat ein solches Blickfeld, kein optisches Teleskop zumindest. Aber man sieht, wo man dachte, dass das Ereignis stattgefunden hat. Nun, zur gleichen Zeit meldete der Fermi-Satellit ein Gammastrahlensignal, einen Gammablitz. Das ist ein wenig überraschend, denn es wurde nicht erwartet, dass zwei schwarze Löcher einen Gammablitz erzeugen. Aber es ist theoretisch denkbar, obwohl es ein bisschen knifflig ist. Und hier ist, wo man glaubte, dass der Gammablitz herkam. Und man kann sie vergleichen. Es gibt eine Überschneidung an der Stelle, wo das stärkste Signal war. Und im Februar gab es einige Diskussionen darüber, ob der Gammablitz mit dem Ereignis in Verbindung steht. Man hört heute nichts mehr darüber, den Grund erfahren Sie hier und bei späteren Vorträgen. Wie ist also die momentane Lage? Hanford und Livingston arbeiten. VIRGO war wegen eines Upgrades abgeschaltet. VIRGO war recht ähnlich und ist in der Nähe von Pisa. In Deutschland steht GEO600 und ist angeschaltet. VIRGO sollte im Frühjahr wieder laufen. Der Bau eines LIGO in Indien ist gerade genehmigt worden. Und in Japan gibt es KAGRA. Leider waren, als das Ereignis geschah, nur zwei von ihnen angeschaltet. Man hat also nur ein schmales Band am Himmel, das überwacht wird. Das ursprüngliche LIGO ist dieser kleine rote Bereich im Zentrum. Die aktuelle Version von LIGO, von der wir die Ergebnisse haben, ist dieser goldene Bereich. Und wenn sie die volle Empfindlichkeit erreichen, für die sie ausgelegt sind, wird es sich bis hierhin ausweiten. Der erste Ausbau war ein Faktor von 27 verglichen mit dem ursprünglichen LIGO. Der volle Ausbau wird einen Faktor von 1000 bringen. In unseren frühen Berechnungen war das der Bereich, in dem mindestens einige Ereignisse mit zwei Neutronensternen auftreten sollten. Vielleicht bis zu 100 Ereignisse pro Jahr mit zwei Neutronensternen. Wir werden herausfinden, ob wir damit recht haben oder nicht. Ich habe hier diese Karikatur, und ich fand sie einfach richtig gut. Da ist der Kerl mit dem Hammer. Und die Wissenschaftler sind alle aufgeregt. Die LIGO-Wissenschaftler sind alle aufgeregt wegen dem, was sie sehen. Und es kam so, dass vor nur zehn oder elf Tagen ein weiteres Paar schwarzer Löcher bekanntgegeben wurde. Das ist 1,4 Mrd. Lichtjahre entfernt, das ist das zweite Ereignis. Dieser Tanz erzeugte kleine Wellen im Gefüge von Raum und Zeit, die auch als Gravitationswellen bekannt sind.“ Es gab eine Menge Wellen da draußen, die alle zu klein waren, um sie zu sehen. Und dann ist da ein starkes Zirpen, als die Amplitude und die Frequenz anstiegen. das als Laser-Interferometer-Gravitationswellen-Observatorium oder kurz LIGO bekannt ist. Wissenschaftler am LIGO gaben die Entdeckung zweier schwarzer Löcher am 15. Juni bekannt.“ Sie sehen, die Frequenz ist anders, es ist eine höhere Frequenz. So lernt man die Vogelrufe. Aber die von LIGO entdeckten schwarzen Löcher werden voraussichtlich kein Licht abstrahlen. LIGO bringt also, indem es nach Gravitationswellen sucht, auf andere Art Licht in die ansonsten unsichtbaren Bereiche des Universums.“ Das ist die PR. Ok, also hier ist das Ereignis. Und Sie werden feststellen, dass daran etwas anders ist. Das Signalgeräusch ist nicht annähernd so gut. Man sieht es nicht mit bloßem Auge. Die Software sah es jedoch innerhalb von drei Minuten, denn es gab eine Korrelation zwischen den beiden. Und Sie sehen das Signal und die Amplitude, wie sich das Zirpen beginnt aufzubauen und die Amplitude steigt. Aber wenn Sie ganz genau hinschauen, werden Sie eine Veränderung sehen. Das ist eine Präzession des Orbits. Das bedeutet, eines der schwarzen Löcher hat einen beachtlichen Spin und man es gibt eine Spin-Bahn-Kopplung. Oh mein Gott, Sie werden sich mit Atom-Zeugs beschäftigen müssen, wo man Spin-Bahn-Kopplung mit Gravitationswellen hat, denn der Spin beeinflusst das Drehmoment des Orbits. Und wenn Sie sich die schwarze Kurve genau anschauen, werden Sie sehen, dass eines von ihnen einen Spin von mindestens 0,2 aufweist, während 1 der maximale Spin schwarzer Löcher ist. Sie weisen also einen beachtlichen Spin auf. Das wird alles interessant. Es stellt sich also heraus, dass es drei mögliche Ereignisse gibt. Nun, ein mögliches Ereignis und zwei bestätigte. Das erste gleich nachdem die Gerätschaften von den Ingenieuren, die sie testeten, allein gelassen wurden, ein weiteres ungefähr einen Monat später. Und eines ungefähr zweieinhalb Monate später, am 14. September und am 26. Dezember. Ein verspätetes Weihnachtsgeschenk. Und Sie werden den Unterschied feststellen, denn sie sind von dem Zeitpunkt an, als ihre Frequenz bei 30 Hz lag, bis zum heutigen Zeitpunkt abgebildet. Nun, je kleiner die schwarzen Löcher, desto schneller ist ihre Umlauffrequenz, da sie sich näher kommen können, bevor sie verschmelzen. Sie haben die Großen zuerst gesehen und die Kleinen zuletzt und dieses Ding hier, obwohl sie nicht so klein sind. Hier sind das primäre schwarze Loch und das sekundäre schwarze Loch – 36 Sonnenmassen, 23 Sonnenmassen, 14 Sonnenmassen. Alle sind noch immer größer als der Durchschnitt. Aber jetzt fangen wir an, eine Bestandsaufnahme der Massen der schwarzen Löcher zu machen, die die Leute sehen. Aber wir neigen dazu die Großen zu sehen. Das müssen Sie berücksichtigen. Und Sie sehen das sekundäre schwarze Loch, nicht viel Unterschied. Und Sie sehen die Gravitationswellenenergie. Beim ersten Ereignis waren es drei Sonnenmassen. Beim nächsten sind es 1,5 Sonnenmassen. Beim letzten Ereignis war es nur eine Sonnenmasse an Energie, was in etwa dem entspricht, was eine wirklich große Typ-II-Supernova in einem Monat ausstößt. Das ist die Skala, auf der sich das abspielt. Das ist also ziemlich beeindruckend, obwohl es schwierig aufzuspüren ist, selbst mit diesem 600 Millionen Dollar teuren Instrument. Gut, Sie wollen nochmal die Geräusche hören. Hier ist das reine Geräusch. Hören Sie genau hin. Ah, das Lautsprechersystem ist besser als an meinem Computer. Hier ist die verschobene Frequenz, damit Sie es hören können. Das wegen der Hörbarkeit frequenzverschobene Geräusch klingt wirklich wie ein Vogelruf. Zwitscher. Wie wissen wir, was vor sich geht? Wie wissen wir, was wir sehen oder in diesem Fall hören? Hier ist die beste Anpassung und das ist eine LIGO-Angelegenheit. Sie meinen eigentlich GW15, aber wer auch immer das geschrieben hat, hat es falsch geschrieben. Hier ist die vorhergesagte Wellenform aus einem numerischen allgemeinen Relativitätsmodell, wo man den Verlust hat, den Anstieg der Amplitude der Gravitationswellen und den Anstieg der Frequenz, wenn die Umlaufbahn enger wird. Das ist für das Ereignis im Dezember, das für das im September. So sollte der binäre Neutronenstern aussehen. Die Frequenz liegt 1 über der effektiven reduzierten Masse des Systems. So erfahren Sie die Frequenz, denn die physikalische Größe des schwarzen Lochs ist proportional zur Masse und so erfahren Sie, wie die begrenzende Orbitgröße aussehen kann usw. Indem Sie nur die Frequenz in der letzten Minute messen, können Sie die Masse schätzen, die reduzierte Masse des Systems und andersherum. Sie können also sagen, dass das nicht die binären Neutronensterne sind. Das sind wirklich schwarze Löcher, allein wegen der Frequenz, die Sie sehen. Und das ist die Stelle, wo sie am Himmel auftauchen. Ich habe Ihnen das eine schon gezeigt. Das erste hier unten in grün. Die beiden anderen, das potentielle Ereignis und das letzte Ereignis, das diesen Monat veröffentlicht wurde. Ich erinnere Sie nochmal: Die ursprüngliche LIGO-Reichweite und die größere LIGO-Reichweite, es geht um die 1000-fache Reichweite, auf die wir zusteuern. Da sind wir noch nicht angekommen, wir sind jetzt beim 26-fachen. Wir erwarten, dass die Ereignisrate um einen Faktor von 10 - 40 ansteigt, je nachdem wie gut die Verbesserung von LIGOs Design umgesetzt wird. Das bedeutet, wenn wir jetzt ein Ereignis pro Monat sehen, sollten wir zehn pro Monat sehen. Das wird einen Wandel in der astronomischen Arbeit darstellen. Das ist nicht der einzige Ort. Da mehr Detektoren entstehen, wird die Lokalisierung besser, aber es gibt noch andere Wellenlängenbereiche, die man sich ansehen kann. Auf der unteren Achse liegt die Frequenz und auf der vertikalen Achse die Rauschspannung pro Wurzel Hertz. Und Sie sehen die zu erwartenden Messempfindlichkeiten und Signalstärken für das im Weltraum stationierte Interferometer, das wir LISA nennen, und für das Pulsar Timing Array. Das ist etwas, was man tun kann. Es gibt Pulsaren, die sehr gut als Uhren verwendet werden können. Man kann sie sich ansehen, während die Gravitation vorbeizieht. Ihre Frequenz sollte sich durch den Doppler-Effekt hin und her verschieben. Man sollte in der Lage sein, das zu messen. Das ist die ganze Sache, ich möchte Sie Ihnen auf einer anderen Skala zeigen. Auf der oberen Skala ist der Big Bang. Die Ereignisse die es auslösen. Das sind Quantenfluktuationen im Big Bang. Vor einem Jahr berichtete BICEP, dass sie das gesehen haben. Es ist nicht ganz sicher, denn es könnte auch Staub gewesen sein. Sie sehen die anderen Dinge die ablaufen könnten und auf welcher Skala. Ich wollte noch zwei Dinge sagen, um abzuschließen. Wir hatten nicht erwartet, dass da zehn bis dreißig schwarze Löcher mit Sonnenmassen sein würden. Aber wenn man dreißig hat, dann hat man da ein großes Vorkommen. Man kann mit LISA anfangen sie zu sehen, bevor sie verschmelzen. Wenn LISA läuft, kann man also anfangen, diese schwarzen Löcher zehn Jahre, bevor sie ineinander stürzen, zu sehen. Zwischen zehn Jahren und einem Tag vor der Kollision ist man auf der LISA-Bandbreite. Aber sicherlich eine Woche, man kann mindestens eine Woche vorhersagen. Man kann auf zehn Sekunden genau vorhersagen, wann die Vereinigung stattfinden wird. Und man kann bis auf ein Grad genau vorhersagen, wo andere Beobachter ihren Blick hinrichten sollten. Wir beobachten nicht nur ultrastarke Gravitationsfelder. Wir führen auch eine Zählung schwarzer Löcher durch. Wir machen eigentlich eine Menge verschiedene Dinge. Das wird zu einem ganz neuen Feld in der Astronomie werden. Damit schließe ich. Und nur 32 Sekunden zu spät.

Artist’s rendition of gravitational waves from two merging black holes.
(00:02:59 - 00:04:24)

The complete video is available here.

And in 2019, Rainer Weiss – who won the 2017 Nobel Prize in Physics alongside Kip Thorne and Barry Barish “for decisive contributions to the LIGO detector and the observation of gravitational waves”[4] – provided Lindau attendees with a first-hand account of the momentous discovery, as well as subsequent gravitational wave discoveries.

 

Rainer Weiss explains the first detection of gravitational waves.
(00:11:46 - 00:14:55)

The complete video is available here.

 

Weak Force: Powering Stars and Creating Elements

From our everyday experience, electromagnetism and gravity are the only forces we can feel. But investigating the nature of matter at smaller and smaller scales slowly led scientists to the realisation that two additional forces were necessary for a complete understanding of the world around us – the strong and weak nuclear force.

The need for the weak force can be traced back to radioactive decay experiments in the late 19th and early 20th centuries. Ernest Rutherford (Nobel Prize in Chemistry 1908) classified rays emitted by radioactive substances according to their ability to penetrate matter, naming them α (now known to be equivalent to helium nuclei), β (emitting electrons) and γ (highly energetic electromagnetic waves) rays. The energy spectra of α and γ rays were discrete, meaning the rays could only have certain fixed energies. This would soon be explained by physicists’ burgeoning understanding of quantum mechanics. But β-rays were an oddity – experiments by James Chadwick (Nobel Prize in Physics 1935) in 1914 showed that β-rays have a continuous energy spectrum[5].

It took 20 years for a theory to be devised that started to explain the β-ray anomaly. Enrico Fermi (Nobel Prize in Physics 1938) defined a new type of force – later called the weak interaction – that was responsible for β decay, transforming a neutron into a proton, expelling an electron (the β particle) and (anti-)neutrino in the process. His theory also showed that a proton can transform into a neutron by emitting a positron and a neutrino. Fermi had explained the continuous energy spectrum of β-rays by using the then hypothetical neutrino to conserve momentum and energy in the process, and exposed the weak interaction’s crucial role in powering stars and creating elements. But his theory did not illuminate the nature of the interaction. It would take decades to unpick the details of the weak force.

 

Fermi’s first doctoral student Emilio Segrè regarded Fermi’s β-ray explanation as his “theoretical masterpiece”.
(00:30:59 - 00:32:29)

The complete video is available here.

 

Strong Force: Matter’s Glue

Chadwick, who had identified the continuous energy spectrum of β-rays that would lead to the concept of the weak force, also played a crucial early role in the history of the strong force. His discovery of the neutron in 1932 signalled the beginning of our modern understanding of the nucleus, where nuclei consist of protons and neutrons. But physics understanding at that time suggested nuclei would fly apart due to the repulsive electromagnetic force between positively charged protons. To hold them together, a force was needed that was strong enough to counteract electromagnetic repulsion but also extremely short range.

In 1935, field theory was once again wielded – this time by Hideki Yukawa (Nobel Prize in Physics 1949) – to suggest that a strong force is transmitted by the exchange of particles Yukawa called mesons[6]. This way, the strong nuclear force is transmitted between a proton and neutron by the creation and exchange of mesons. And the force remains short range due to the fact that the meson can only exist for a short time because of Heisenberg’s uncertainty principle. In 1949, Yukawa received the Nobel Prize in Physics “for his prediction of the existence of mesons on the basis of theoretical work on nuclear forces”.

 

Hideki Yukawa (1953) - Attempt at a Unified Theory of Elementary Particles

Meine sehr geehrten Damen und Herren, ich freue mich sehr über die Gelegenheit, auf meinem Rückweg von New York nach Kyoto hier in Lindau sprechen zu können. Es tut mir nur leid, dass ich den Vortrag nicht auf Deutsch halten kann. Ich musste mich für Englisch entscheiden; diese Sprache habe ich einige Jahre vor Deutsch gelernt. Jedenfalls aber fällt mir der Vortrag nicht leicht, da meine Muttersprache ganz anders ist als alle europäischen Sprachen. Ich werde Ihnen etwas über die Arbeit berichten, mit der ich mich seit einigen Jahren befasse. Die moderne Atomtheorie hat versucht, mit so wenigen Elementarbausteinen wie möglich ein möglichst vollständiges Bild der materiellen Welt zu zeichnen. Wie es aussieht, sind wir diesem Ziel näher als je zuvor, seit im Jahr 1932 das Neutron entdeckt wurde. Die Elektronen, Protonen und Neutronen erwiesen sich als die einzigen Bausteine der gewöhnlichen Materie. Die Protonen wurden mit dem elektromagnetischen Feld in Verbindung gebracht. Das Positron wurde im selben Jahr entdeckt, was als Bestätigung der bereits erfolgreichen Theorie des Elektrons von Professor Dirac begrüßt wurde. Andererseits war jedoch schon damals klar, dass das Bild noch nicht vollständig war. Zwei Probleme waren noch ungelöst: Das eine war der Betazerfall, das andere waren die Kernkräfte. Der Erfolg von Fermis Theorie über den Betazerfall brachte uns dazu, die Existenz des von Pauli postulierten Neutrinos zu akzeptieren. Eine relativistische Feldtheorie der Kernkräfte führte uns zu einem weiteren Elementarteilchen. Die Feld- und Teilchentheorie scheint die Existenz desjenigen Teilchens vorauszusetzen, das heute Meson genannt wird. Mesonen sind mit dem Kernkraftfeld in Verbindung zu bringen. Eine Art von Meson, später mu-Meson genannt, wurde im Jahr 1937 von Anderson und Neddermeyer entdeckt, hatte jedoch, wie sich herausstellte, wenig bis gar nichts mit den Kernkräften zu tun. Stattdessen soll es sich bei dem von Professor Powell im Jahr 1947 entdeckten Pi-Meson um dasjenige handeln, das in erster Linie für Kernkräfte oder zumindest für einen beträchtlichen Teil der Kernkräfte verantwortlich ist. Das schien schon etwas zu kompliziert zu sein, um als etwas Endgültiges akzeptiert zu werden. Im Gegenteil – wie sich später herausstellte, war das erst der Beginn weiterer Komplikationen. Wie Professor Powell vorgestern darlegte, wurde seit 1947 eine Vielzahl instabiler Teilchen in kosmischen Strahlen entdeckt, eins nach dem anderen. Einige von ihnen wurden künstlich durch Hochenergiebeschleuniger erzeugt. Es scheint, dass bei unserem fortgesetzten Streben nach der Hochenergiefusion immer mehr neue Teilchen ans Tageslicht kommen. Professor Powell machte mich dafür verantwortlich, doch ich benötige tatsächlich nur eine Art von Meson. Professor Powell dagegen entdeckte eine große Zahl zusätzlicher Teilchen, die ich nicht brauchte. Jedenfalls sieht es so aus, als würden wir uns sozusagen in einer offenen Welt befinden – in dem Sinn, dass eine kleine Zahl von Elementarteilchen, die uns vertraut waren, nicht die einzigen elementaren Bausteine unserer Welt sind, sondern nur die stabileren Mitglieder einer großen Familie von Elementarteilchen. Natürlich kann man immer noch argumentieren, dass die meisten der neu entdeckten instabilen Teilchen nicht wirklich elementar sind, sondern dass es sich um Verbundsysteme handelt, die in Wirklichkeit aus zwei oder mehr Elementarteilchen bestehen. Unabhängig davon jedoch, ob wir uns bei der Darstellung der Theorie von Elementarteilchen dieser etwas konservativen Auffassung anschlossen oder eine radikalere Ansicht vertraten und eine Vielzahl von Teilchen in dem Sinn als elementar akzeptierten, dass sie alle elementar waren – um eine Frage kamen wir nicht herum: Was ist das Elementarteilchen? Auf den ersten Blick ist es schwieriger, das Elementarteilchen mathematisch präzise zu definieren. Nach der schon im Jahr 1930 hauptsächlich von Professor Dirac, Heisenberg und Pauli begründeten relativistischen Quantenmechanik wird die Idee von Gewicht und Korpuskel am besten durch das Konzept quantisierter Felder ausgedrückt. Die klassische Physik definiert ein Feld als die Funktion der drei Raumvariablen und einer Zeitvariablen. Man könnte auch sagen, es ist die Gesamtheit unendlich vieler Mengen mit Raum-Zeit-Koordinaten als Parameter. In der Quantentheorie der Felder müssen wir die Funktion dadurch ersetzen, dass wir ein Feld durch eine große Zahl von Operatoren definieren, um die Dualität von Gewicht und Teilchen zu berücksichtigen. Das quantisierte Feld ist also die Gesamtheit unendlich vieler Operatoren oder es kann eine Anzahl von Komponenten aufweisen. Damit die Feldtheorie mit dem Prinzip der Relativität in Einklang steht, müssen die Feldmengen nach der Lorentz-Transformation linear transformieren. Nennen wir ein solches von uns verwendetes Feld ein lokales Feld – im Unterschied zu einem nicht-lokalen Feld, das später erörtert wird. Nun könnte man ein Elementarteilchen als dasjenige definieren, das mit einem irreduziblen lokalen Feld verbunden ist. Ein Feld wird dann irreduzibel genannt, wenn es nicht mehr in selbständig und nach der Lorentz-Transformation linear transformierende Teile zerlegt werden kann. Das ist die abstrakte mathematische Darstellung der Tatsache, dass das Teilchen elementar ist, dass es nicht in noch elementarere Bestandteile zerlegt werden kann. Auf diese Weise wird der sogenannte Spin des Elementarteilchens genau definiert. Das Skalarfeld zum Beispiel bzw. das Skalarfeld, dem wir in der Theorie der Mesonen begegnen, insbesondere in der Theorie der pi-Mesonen mit nur einer Komponente, ist mit Teilchen verbunden, die einen Spin von null aufweisen, wohingegen das Feld, welches das Elektron beschreibt, Spinoff-Feld genannt wird und mit Teilchen verbunden ist, die eine Spin von ein halb aufweisen. Ein quantisiertes Feld ist die Gesamtheit jener Operatoren, die den gewöhnlichen Gesetzen der Algebra bzw. der gewöhnlichen Zahlen nicht gehorchen; es handelt sich vielmehr um Operatoren, die untereinander im Allgemeinen nicht kommutativ sind. Die Kommutationsabweichungen zwischen diesen Mengen sind daher in quantisierten Feldtheorien von größter Bedeutung. Die Kommutationsabweichungen bestimmen die Statistik des entsprechenden Aufbaus der Teilchen. Eine der attraktivsten Eigenschaften der Quantentheorie von Feldern bestand darin, dass sie uns in die Lage versetzte, die allgemein bekannte Abweichung zwischen Spin und Verteilung von Elementarteilchen herzuleiten – der Teilchen mit einem Spin von null oder einem ganzzahligen Spin der Bose-Einstein-Statistik bzw. mit einem ganzzahligen Spin der Fermi-Dirac-Statistik. Das ist eine allgemein bekannte empirische Regel, die keine Ausnahmen kennt und von der mathematischen Theorie quantisierter Felder abgeleitet werden kann. Wir gehen außerdem davon aus, dass jede Art von Elementarteilchen seine eigene, einzigartige Masse hat. Die Problematik der gegenwärtigen Feldtheorien entsteht im Zusammenhang mit einem anscheinend sehr einfachen Problem der Masse. Für gewöhnlich beginnt man mit der Feldgleichung für das Feld – in unserem Fall für das quantisierte Feld – in Form der allgemein bekannten Wellengleichung zweiter Ordnung. Wir gehen also von der Annahme einer einzigartigen Masse für die mit dem Feld verbundenen Teilchen aus. In den heutigen Feldtheorien, im Rahmen der heutigen Feldtheorien besteht jedoch kein Grund, warum wir von vornherein für die Masse einen bestimmten eindeutigen Wert festlegen sollten. Der Wert der Masse ist vollkommen willkürlich. Das ist mit Sicherheit das Manko der heutigen Feldtheorie. Was tut man also? Man setzt einfach die in der Feldgleichung vorkommende Masse mit der beobachteten Masse des fraglichen Teilchens gleich. Das wiederum ist jedoch unzulässig – einfach deshalb, weil das fragliche Teilchen genau aus dem Grund beobachtet werden kann, weil es nicht frei ist. Unser Ausgangspunkt war die Feldgleichung für ein vollkommen freies Teilchen, doch wenn es vollkommen frei ist, kann es niemals beobachtet werden. Es wird beobachtet, weil es mit anderen Teilchen in Wechselwirkung tritt. In der Quantentheorie von Elementarteilchen lässt sich also das Problem der Masse eines Elementarteilchens nicht vom Problem der Wechselwirkung zwischen Teilchen oder zwischen quantisierten Feldern trennen. In der gewöhnlichen Feldtheorie nehmen wir an, dass es sich bei der Wechselwirkung zwischen den Feldern oder zwischen den Teilchen um die lokale Wechselwirkung handelt – lokale Wechselwirkung ist der bessere Ausdruck; man kann sie auch die Punktwechselwirkung nennen. Da uns das Bild von Punktteilchen vorschwebt, halten wir Elementarteilchen für Punkte ohne Ausdehnung oder interne Struktur, so dass sie nur dann miteinander in Wechselwirkung treten, wenn sie einander sehr nahe kommen. Die Auswirkungen eines anderen Felds auf das Feld, des zweiten Felds auf das erste Feld, sind nur an ein und demselben Punkt zu spüren. Der mathematische Ausdruck für die Wechselwirkung in der lokalen Feldtheorie – mit der lokalen Wechselwirkung – lautet also: Es gibt eine bestimmte zusätzliche Größe in der Feldgleichung, die vom Produkt einer Zahl von Feldmengen am selben Raumzeitpunkt abhängt. Nennen wir das die lokale Wechselwirkung. Wenn wir nun eine derartige Wechselwirkung einführen, wird die Masse des Teilchens, das mit dem Feld verbunden ist – sagen wir mit Feld 1, dem ersten Feld – wegen der Wechselwirkung um einen bestimmten Betrag geändert. In der klassischen Elektrodynamik zum Beispiel war bekannt, dass die Energie des elektromagnetischen Felds um eine Punktladung unendlich war, weil sich das Feld, das elektromagnetische Feld, sehr nahe an der Punktladung befindet – es ist sehr groß, weshalb sich der Gesamtbetrag der Feldenergie als unendlich groß erwies. Doch die Gesamtenergie des Systems einschließlich der Punktladung und des sie umgebenden Felds zusammengerechnet muss C2-mal der Gesamtmasse des Systems entsprechen. In der klassischen Elektrodynamik stoßen wir also auf das ernste Problem der unendlichen Masse oder, anders ausgedrückt, der unendlichen Selbstenergie – der vom Teilchen erzeugten Energie des Feldes. In der allgemeinen Quantenfeldtheorie stellten sich die Selbstenergien von Teilchen erneut als unendlich heraus. Im Fall des Elektrons ist die Energie des das Elektron umgebenden elektromagnetischen Feldes noch immer unendlich, obwohl der Grad der Unendlichkeit stärker als in der klassischen Elektrodynamik reduziert ist. Dieses Problem war bereits im Jahr 1930 bekannt, als die Quantenfeldtheorie, insbesondere die Quantenelektrodynamik, begründet wurde. Aus Sicht der Wechselwirkung zwischen Feldern oder Teilchen ist es nicht möglich, die Masse des Elementarteilchens durchgängig zu bestimmen. Man kann von einem bestimmten vorgegebenen Wert für die Masse eines Teilchens ausgehen, dann führt man Wechselwirkung ein, woraufhin die Veränderung der Masse grundsätzlich unendlich groß ist, weshalb die zu Beginn vorgenommene erste Bestimmung der Masse bedeutungslos ist. Man muss also anerkennen, dass die genaue Bestimmung der Masse eines Elementarteilchen unmöglich ist, solange man nicht in der Lage ist, die unbegrenzte Energie auf die eine oder andere Weise loszuwerden. Es gab viele Versuche, dieses äußerst schwerwiegende Problem in der Feldtheorie von Elementarteilchen zu überwinden. Einer davon war die sogenannte gemischte Feldtheorie, die Pais und Sakata während des letzten Krieges unabhängig voneinander vorschlugen. Beschäftigen wir uns noch einmal mit dem uns bereits bekannten Fall des mit dem elektromagnetischen Feld in Wechselwirkung tretenden Elektrons. Wie ich schon sagte, ist die Selbstenergie des Elektrons aufgrund des vom Elektron selbst produzierten elektromagnetischen Feldes unendlich. Wenn wir jedoch außerdem annehmen, dass das Elektron gleichzeitig mit einem anderen Feld geeigneter Art auf geeignete Weise in Wechselwirkung tritt, haben wir Grund zu der Hoffnung, dass die aufgrund der späteren Wechselwirkung auftretende Selbstenergie der elektromagnetischen Selbstenergie des Elektrons genau entgegenwirkt, so dass die daraus resultierende Selbstenergie endlich werden kann. Tatsächlich ist das dann der Fall, wenn wir als zweites Feld ein Skalarfeld wählen, an das neutrale Partikel mit einem Spin von null und mit einer Masse in der Größenordnung der Masse von Mesonen gebunden sind, die mit dem Elektron genauso stark in Wechselwirkung treten wie das elektromagnetische Feld. Wenden wir außerdem den gleichen Gedanken auf den Fall des Protons an, erhalten wir das attraktive Ergebnis, dass die Masse des Protons um einen geringfügigen Betrag in der Größenordnung der Elektronenmasse kleiner sein wird als das neutrale Gegenstück, bei dem es sich um das Neutron handeln soll. Im Fall des Elektrons ist die Masse des Elektrons zweifellos größer als die Masse des neutralen Gegenstücks, bei dem es sich um das Neutrino handeln soll. Das liegt daran, dass die Masse des Protons oder zunächst des Neutrons als größer angenommen wird als die Masse des an das Skalarfeld gebundenen Teilchens. Wobei im Fall des Elektrons die Masse zunächst sicherlich kleiner ist als die des an das neue Skalarfeld gebundenen Teilchens mit dem Spin von null. All das weckte neue Hoffnungen im Hinblick auf die Konstruktion einer konsistenten Feldtheorie, die von den sozusagen pathologischen Problemen des Auftretens der Unendlichkeiten, von Divergenzproblemen befreit wäre, indem man die Koexistenz einer Anzahl bekannter und unbekannter Felder in der Weise annahm, dass die Selbstenergien all der an diese Felder gebundenen Teilchen endlich würden, weil sie sich gegenseitig aufhoben. Genau wie im Fall der Kombination des elektromagnetischen Felds mit dem Skalarfeld. Der Versuch war einigermaßen erfolgreich, doch es besteht wenig Hoffnung, dass sich alle Unendlichkeiten, alle Divergenzen beseitigen lassen, so lange wir uns nicht von den lokalen Feldtheorien mit lokalen Wechselwirkungen lösen. Unter den bei den Feldtheorien auftretenden Divergenzen gibt es nämlich eine namens Vakuumpolarisation, die sich ein wenig von den einfacheren Divergenzen von der Art der Selbstenergie unterscheidet. Auf die Definition der Vakuumpolarisation und die damit zusammenhängenden Themen wollen wir jetzt nicht im Einzelnen eingehen. Ich kann nur sagen, dass sich diese Art von Divergenz durch die Annahme einer Koexistenz verschiedener Arten von Teilchen nicht beseitigen lässt. Wir glauben also nicht, dass es eine zutreffende Kombination einer Anzahl dieser Teilchen gibt, die alle Divergenzprobleme bei Feldtheorien beseitigt. Trotz dieses Mangels weist jedoch die Idee einer gegenseitigen Aufhebung deutlich darauf hin, dass die Koexistenz verschiedener Felder und der daran gebundenen Teilchen nicht zufällig ist, sondern dass sich möglicherweise ein zwingender Grund dafür finden lässt. Im Zusammenhang damit möchte ich erwähnen, dass die jüngste, auf Tomonaga, Schwinger und viele andere zurückgehende Entwicklung in der Quantenelektrodynamik wirklich bemerkenswert ist – alle bisher im Zusammenhang mit der Quantenelektrodynamik bekannten experimentellen Ergebnisse wurden reproduziert. Und zwar mit großer Genauigkeit, worauf Professor Dirac bereits gestern hingewiesen hat. Das war jedoch erst möglich, nachdem man die theoretisch unendlichen Massen und die theoretisch unendliche elektrische Ladung durch die beobachteten endlichen Massen und die endliche Ladung ersetzt hatte. Diese Ersetzung – wir nennen sie üblicherweise Renormierung von Masse und Ladung – war also völlig gerechtfertigt. Dem theoretischen Rahmen selbst lässt sich die vollständige Rechtfertigung nicht entnehmen. Im Zusammenhang mit diesem Verfahren der Ersetzung einer theoretisch unendlichen Masse oder anderer Größen wie der elektrischen Ladung, vielleicht auch anderer physikalischen Größen, die endlich sein sollten, theoretisch aber unendlich sind, die Ersetzung dieser theoretisch unendlichen Größen durch die beobachteten endlichen… Im Zusammenhang mit diesem Verfahren der Renormierung lassen sich verschiedene Arten von Wechselwirkungen, die normalerweise bei Feldtheorien wie der Quantenelektrodynamik oder der Mesonentheorie auftreten, in zwei Kategorien unterteilen. Die erste Kategorie enthält alle Wechselwirkungen, die als renormierbar bezeichnet werden. Es ist schwierig, in der begrenzten für meinen Vortrag zur Verfügung stehenden Zeit genau zu definieren, was renormierbare Wechselwirkung ist und was nicht. Grob lässt sich sagen, dass im Fall der Dynamik, mit der zum Beispiel das Elektron eine Wechselwirkung ausübt, das Elektron einfach als ein von Diracs Wellengleichung beschriebenes Teilchen angesehen wird, als Teilchen mit einem Spin ein halb ohne zusätzliche Wechselwirkung. Diese Wechselwirkung zwischen dem Elektron, zwischen Diracs Elektron und dem elektromagnetischen Feld, wird renormierbar genannt, weil wir bereits gesehen haben, dass dann, wenn man die Massen und die elektrische Ladung des Elektrons, die sich in der Theorie als unendlich erwiesen haben, durch die beobachtete endliche Masse und elektrische Ladung ersetzt… wenn man an diesem Punkt beginnt, kommt man zu befriedigenden Ergebnissen, die sehr genau mit unserem bekannten Experiment übereinstimmen. In diesem Sinn kann man also sagen, dass die in der gewöhnlichen Quantenelektrodynamik auftretenden Wechselwirkungen renormierbar sind. Es gibt aber noch andere Arten von Wechselwirkungen, die komplizierter sind – so kompliziert, dass das Renormierungsverfahren scheitert. Mit anderen Worten: Wen man das Renormierungsverfahren endliche Male wiederholt, kann man nie die gleichen Ergebnisse erzielen. Ein paar Unendlichkeiten bleiben immer noch übrig. Wenn man immer weitermacht, wenn man das Verfahren unendliche Male wiederholt, läuft es auf das Gleiche hinaus – wenn man die Wechselwirkungen nacheinander einführt, immer singulärer. Mathematisch ausgedrückt kann man sagen, dass die Wechselwirkungen mit immer höheren Ableitungen der Feldgrößen nacheinander in alle Ewigkeit auftreten müssen. In diesem Fall ist die Interaktion im Allgemeinen nicht mehr lokal, denn man kann einfach die Taylorentwicklung der Feldgröße an einem Punkt betrachten, der sich in einer endlichen Entfernung vom Ausgangspunkt befindet. Dann kann man die Feldgröße an einem bestimmten Punkt entwickeln, der sich im Sinne der Feldgröße des Ausgangspunkts in der Nähe eines bestimmten Ausgangspunkts befindet. Daraufhin treten Ableitungen beliebig höherer Grade auf, so dass dann, wenn man die Wechselwirkung zwischen zwei Feldern nimmt – nicht nur an ein und demselben Punkt, sondern an zwei Punkten in endlichem Abstand – dass dann diese Wechselwirkung auf die Wechselwirkung am selben Punkt zurückgeführt werden kann, jedoch nur mit unendlich vielen Ableitungen beliebiger Grade. Man kann also sagen, dass im Allgemeinen auch die lokale Wechselwirkung die nicht-lokale Wechselwirkung hervorrufen kann, wenn man das Verfahren der Renormierung wiederholt, was im Fall der Quantenelektrodynamik bei bestimmten Mesonentheorien erfolgreich war. In diesem Zusammenhang kann man sich die Frage stellen, ob es möglich ist, atomare und nukleare Phänomene ausschließlich in Form von renormierbaren Wechselwirkungen zu beschreiben. Ist das der Fall, kann man sich mit der Quantentheorie der Felder in ihrer gegenwärtigen Form einigermaßen zufrieden geben, ohne so etwas wie eine nicht-lokale Wechselwirkung einzuführen. Doch die Antwort lautet sehr wahrscheinlich nein. Die Wechselwirkung zwischen dem Elektron-Neutrino-System bzw. dem Elektron-Neutrino-Feld und dem Neutron-Proton-System, das wir insgesamt als Nukleon bezeichnen… man weiß, dass das Nukleonfeld zwischen dem Elektron-Neutrino-Feld und dem Nukleon-Feld, das in Fermis Theorie des Betazerfalls auftaucht, eine lineare Kombination aus fünf selbständigen Wechselwirkungen ist. Auf die mathematische Formulierung der Theorie des Betazerfalls können wir nicht im Einzelnen eingehen. Nur so viel: Es gibt fünf Arten verschiedener Wechselwirkungen, unter anderem die so genannte Tensor-Wechselwirkung, die für die Erklärung zahlreicher experimenteller Ergebnisse im Zusammenhang mit dem Betazerfall unerlässlich ist. Diese bestimmte Art der Wechselwirkung, die Tensor-Wechselwirkung, ist aber leider nicht renormierbar. Selbst wenn wir den von mir ganz zu Beginn der Mesonentheorie eingenommenen Standpunkt akzeptieren, dass der Betazerfall kein Elementarprozess ist, sondern in zwei weitere Phasen unterteilt werden kann, bei denen die Bildung und Migration eines virtuellen Mesons unbekannter Art stattfindet – selbst wenn man einen derartigen Standpunkt akzeptiert, benötigen wir dennoch eine renormierbare Wechselwirkung. Ist also die Wechselwirkung zwischen Feldern nicht renormierbar im gewöhnlichen Sinn, läuft dies, wie ich bereits ausgeführt habe, auf das Gleiche hinaus – auf die Einführung einer Wechselwirkung, die nicht nur das Produkt einer Feldquantisierung an einen Punkt ist. Eine Wechselwirkung, die Ableitungen enthält, eine Wechselwirkung, zu der die Wechselwirkung zwischen Feldquantisierungen an verschiedenen Punkten gehört, wird nicht-lokale Wechselwirkung genannt. Die Einführung einer nicht-lokalen Wechselwirkung in Feldtheorien kann als Wiederbelebung der Theorie der Fernwirkung gelten, von der man annahm, dass sie dem Begriff des Feldes in der klassischen Physik widerspricht. Der einzige Grund, warum wir an Feldtheorien festhielten, war nämlich der, dass wir so die Fernwirkung vermeiden konnten. In der Quantentheorie ist das aber möglicherweise anders, da das quantisierte Feld nicht nur aus dem Feld besteht, sondern bereits Feld und Teilchen als zwei Erscheinungsformen derselben Substanz enthält. In der Quantentheorie der Felder kann die Situation also eine andere sein. Und vielleicht kann man die nicht-lokale Wechselwirkung einführen – die erinnert uns zwar an den Widerspruch zwischen der Theorie der Fernwirkung und der Feldtheorie, aber in der Quantentheorie kann das dennoch möglich sein. Auf die mathematische Formulierung einer derartigen Theorie möchte ich nicht im Einzelnen eingehen. Man kann aber sagen, dass es dann, wenn man die nicht-lokale Wechselwirkung einführt, eine große Anzahl von Möglichkeiten gibt. In der Tat sind die Wahlmöglichkeiten im Hinblick auf eine solche allgemeine oder lokale Wechselwirkung derart zahlreich, dass die Theorie der nicht-lokalen Wechselwirkung im derzeitigen Stadium so willkürlich ist, dass es auf viele Fragen im Zusammenhang mit Feldtheorien keine endgültige Antwort gibt. Doch es gibt ein attraktives Merkmal, das unlängst in Kopenhagen von Müller und Christensen entdeckt wurde – einige pathologische Merkmale der herkömmlichen Feldtheorien ließen sich durch die Einführung bestimmter Arten nicht-lokaler Wechselwirkung beseitigen. So kann man sich zum Beispiel in den einfachen Fällen der Mesonentheorie der Unendlichkeiten bei den Selbstenergien oder in der Masse der Nukleonen entledigen, indem man die nicht-lokale Wechselwirkung zwischen ihnen einführt. Das gilt sowohl für die Nukleonen als auch für die miteinander in Wechselwirkung tretenden Mesonen. Beide konnten endliche Werte annehmen, so dass man die beobachtete Masse mit der theoretisch hergeleiteten endlichen Masse gleichsetzen kann. Führt man allerdings irgendeine Art nicht-lokaler Wechselwirkung ein, kann man es damit nicht einfach bewenden lassen, denn dann wird eine grundlegende Änderung des Systems der relativistischen Quantentheorie erforderlich. Es ist nämlich überhaupt noch nicht klar, was dann aus der Schrödinger-Gleichung in der Quantenmechanik wird. Die Schrödinger-Gleichung war ja erforderlich, um die Wellenfunktion bzw. die Schrödinger-Funktion für ein quantenmechanisches System zu einem bestimmten Zeitpunkt T – zu einem beliebigen Zeitpunkt T – in Bezug auf die Wellenfunktion zum vorherigen Zeitpunkt zu bestimmen. Das war möglich, weil die Schrödinger-Gleichung im Hinblick auf die Differenzierung hinsichtlich der Zeit eine Differentialgleichung erster Ordnung war. Gibt man also den Anfangszustand zu einem bestimmten Zeitpunkt in die Wellenfunktion ein, wird das Verhalten der Wellenfunktion zu einem späteren Zeitpunkt durch Einbeziehung der Schrödinger-Gleichung bestimmt. Als ein gegebener Anfangszustand. Möglich war das aufgrund der Eigenschaft der Wechselwirkung, die als lokal erschien. Wenn man die nicht-lokale Wechselwirkung einführen möchte, breitet sich die Wechselwirkung aus, die Elementarteilchen selbst breiten sich sozusagen in gewissem Umfang aus. Sie sind dann nicht mehr Punktteilchen, die nur dann miteinander in Wechselwirkung treten, wenn sie am selben Punkt zusammentreffen, sondern sie können auch dann miteinander in Wechselwirkung treten, wenn sie sich in endlicher Entfernung voneinander befinden. Diese Situation ist nicht in einfachen Worten auszudrücken, aber sehr wahrscheinlich werden wir uns von der Schrödinger-Gleichung im eigentlichen Sinn verabschieden. Wahrscheinlich müssen wir für die Schrödinger-Gleichung einen Ersatz finden. Ein Vorschlag wurde vor einigen Jahren von Professor Heisenberg unterbreitet. Er wies darauf hin, dass es bei künftigen Theorien vielleicht nicht möglich ist, die Schrödinger-Funktion als solche zu bestimmen, dass wir aber wahrscheinlich weiterhin die als S-Metrik bezeichnete Masse bestimmen können, von der wir die Relation zwischen Anfangszustand und Endzustand erhalten – mit der Einschränkung, dass wir unter einem Anfangszustand den Zustand in einer sehr weit entfernten Vergangenheit und unter dem Endzustand den Zustand in sehr weit entfernter Zukunft verstehen. In jedem der realen Experimente verfügen wir nur über Informationen, die sich auf sehr lange Zeiträume beziehen. Wir haben bestimmte Kenntnisse zu einem bestimmten Zeitpunkt, und zu einem anderen Zeitpunkt haben wir andere Kenntnisse. Diese Zeitspanne ist vom mikroskopischen Standpunkt aus sehr groß. Was wir also im Zusammenhang mit der tatsächlichen Beobachtung wahrscheinlich benötigen, ist nicht die minütliche Veränderung der Substanz von einem Zeitpunkt zum anderen – vielleicht reicht uns schon die Kenntnis des statistischen Zusammenhangs zwischen dem Zustand der Substanz zu einem bestimmten Zeitpunkt und einem anderen Zustand zu einem anderen Zeitpunkt, wobei die dazwischen liegende Zeitspanne sehr groß ist – vom mikroskopischen Standpunkt aus betrachtet. Ein derartiger statistischer Zusammenhang kann durch die S-Metrik genannte Masse charakterisiert werden. Die S-Metrik lässt sich auch dann theoretisch bestimmen und kalibrieren, wenn wir die herkömmliche lokale Wechselwirkung durch eine allgemeinere nicht-lokale Wechselwirkung ersetzen. In der Tat gilt das, was man im Zusammenhang mit der Endlichkeit der Masse, der Endlichkeit der Selbstenergie sagt, auch im Zusammenhang mit der S-Metrik. Jedenfalls bescherte die Einführung der nicht-lokalen Wechselwirkung den Feldtheorien mehr Alternativen. Außerdem verleiht sie uns neue Impulse, in diese Richtung weiterzugehen, in der Hoffnung auf eine einheitlichere, zufriedenstellendere Theorie der Elementarteilchen. Der zweite Schritt in diese Richtung könnte darin bestehen, das Konzept des Feldes einzuführen bzw. weiter zu generalisieren. Wir haben das quantisierte Feld definiert als die Gesamtheit der durch die Raum-Zeit-Punkte als Parameter charakterisierten Operatoren. An jedem Punkt der Raumzeit haben wir also ein Quantenfeld... die Gesamtheit des Feldes, unendlich viele Feldgrößen geben uns eine Vorstellung vom quantisierten Feld. Und es zeigte sich, dass sie auf das Punktteilchen reagieren. Die Frage ist – wir kennen eine Vielzahl von Teilchen mit unterschiedlichen Eigenschaften, und wir fragen uns, ob wir dieser großen Vielfalt von neu entdeckten Teilchen gerecht werden, wenn wir uns auf die relativ einfache Vorstellung eines Feldes beschränken. In der lokalen Feldtheorie werden die Eigenschaften der Elementarteilchen im Zusammenhang mit den Eigenschaften des quantisierten Feldes definiert. Wie ich schon sagte, lassen sich Spin, Statistik und Masse in Verbindung mit dem quantisierten Feld mathematisch ausdrücken. Doch wie es aussieht, reichen sie zur Charakterisierung der kürzlich entdeckten Elementarteilchen nicht aus. Sie unterscheiden sich sehr voneinander; die Transformation von einem zu einem anderen ist ein sehr kompliziertes Verfahren. Und wir wissen noch nicht, ob eine einfache mathematische Definition der Elementarteilchen im Zusammenhang mit dem quantisierten Feld für diesen Zweck ausreicht. Wir fürchten, dass das wahrscheinlich nicht der Fall ist. Wir fürchten außerdem, der Hauptfehler der gegenwärtigen Theorie besteht darin, dass wir keinen Grund dafür angeben können, warum es in der Natur so viele Teilchen mit unterschiedlichen Massen gibt, die noch dazu anscheinend nicht sehr regelmäßig sind. Eines der grundlegendsten Probleme der theoretischen Physik besteht heute darin, auf die eine oder andere Art das so genannte Massenspektrum von Teilchen herzuleiten. Von den meisten dieser Teilchen wird angenommen, dass sie elementar sind. Viele Teilchen sind in der Tat elementar; es gibt keine Möglichkeit, die Beziehungen zwischen Massen herzuleiten. Wir beginnen einfach mit beliebigen Werten für die Massen, wir setzen sie mit den beobachteten Massen gleich oder wir renormieren sie später, oder ein ähnlicher sehr unbefriedigender Prozess ist erforderlich. Es wäre also sehr schön, wenn wir uns eine Vorstellung von den Massen der Elementarteilchen verschaffen könnten. Die herkömmliche Feldtheorie war dazu sicherlich nicht in der Lage. Selbst wenn man die nicht-lokale Wechselwirkung einführt und sich größte Mühe gibt, auf die endlichen Massen zu kommen, versteht man immer noch nicht, warum es eine Anzahl von Elementarteilchen mit diesen und jenen Massen gibt. Denn man kann zwar eine theoretische Interpretation sozusagen in Gestalt der Feinstruktur im Massenspektrum anbieten, doch es ist sehr unwahrscheinlich, dass zum Beispiel der auffallende Unterschied zwischen der Masse des Elektrons und der Masse der Mesonen und der Masse des Protons und des Neutrons als schwerere Teilchen... man kann sich schwer vorstellen, dass diese großen Unterschiede ausschließlich auf die durch die Wechselwirkung hervorgerufenen Unterschiede zurückzuführen sind. Ein wesentlicher Teil zumindest der Massen des Protons und des Neutrons muss etwas sein, das zu den Teilchen selbst gehört und nicht auf die Wechselwirkung mit anderen Feldern zurückzuführen ist. Wir wünschen uns also eine Theorie, die von Anfang an den wesentlichen Teil der Massen der Elementarteilchen liefert. Zu diesem Zweck habe ich vor einigen Jahren den Begriff des nicht-lokalen Feldes eingeführt. Das ist sozusagen die mathematische Formulierung eines elementaren Objekts – elementar in dem Sinn, dass es nicht mehr in weitere elementare Bestandteile zerlegt werden kann, gleichzeitig aber so viel Substanz hat, dass es eine große Vielzahl von Teilchen mit verschiedenen Massen, Spins und anderen inhärenten Eigenschaften enthalten kann. Etwas bildhafter kann man sagen, dass wir Teilchen mit einer Art innerer Struktur haben, dass die innere Struktur je nach Elementarteilchen verschieden sein kann, die Gesamtheit all dieser Teilchen mit unterschiedlichen inneren Strukturen jedoch durch eine bestimmte Art von Feld beschrieben werden kann, wobei es sich hierbei nicht um das herkömmliche lokale Feld handelt. Anhand des herkömmlichen Feldes kann man nämlich die verschiedenen inneren Strukturen der verschiedenen Teilchen nicht beschreiben. Aus diesem Grund habe ich den Begriff des nicht-lokalen Feldes eingeführt. Ich habe die bei Feldtheorien weit verbreitete Zurückhaltung aufgegeben, wonach es sich bei dem Quantenfeld um eine Punktfunktion handelt. Stattdessen kann es von zwei Punkten in der Raum-Zeit-Welt abhängen. Es sieht so aus, aus würde der klassische Begriff des Feldes vollständig aufgegeben. Allerdings ist das Quantenfeld in der Quantentheorie keine gewöhnliche Zahl oder Funktion mehr ist, sondern ein Operator, so dass es vielleicht möglich ist, den Begriff des Feldes so zu verallgemeinern, dass das Feld die Gesamtheit einer unendlichen Zahl von Quanten darstellt, bei denen es sich um eine Punktfunktion handeln kann oder auch nicht, und den Punkt zu definieren. Es kann aber auch etwas Allgemeineres sein. Die Einzelheiten der mathematischen Formulierung nicht-lokaler Feldtheorien möchte ich Ihnen ersparen. Stattdessen möchte ich auf eine Anzahl charakteristischer Eigenschaften nicht nicht-lokaler Feldtheorien in bekannten mathematischen Ausdrücken hinweisen. Zunächst einmal: Wenn man die nicht-lokalen Theorien einführt, bedeutet das die Einführung einiger innerer Freiheitsgrade, die es bei der herkömmlichen Feldtheorie nicht gab. Man kann also ein für die inneren Freiheitsgrade charakteristisches Eigenwertproblem bestimmter Art einführen. Sodann kann man annehmen, dass die Massen der Teilchen ein bestimmtes, für die inneren Freiheitsgrade charakteristisches Eigenwertproblem darstellen. Wenn es also richtig ist, für die Elementarteilchen eine innere, durch das nicht-lokale Feld charakterisierte Struktur anzunehmen, so erhält man vielleicht als Ergebnis der Lösung eines bestimmten Eigenwertproblems ein bestimmtes diskretes Spektrum, ein Massenspektrum. Das ist möglich – ein Beispiel dafür wurde bereits vor einigen Jahren von Max Born angeführt, unabhängig vom Begriff des nicht-lokalen Feldes. Ich glaube aber, dass ich seinen Ansatz in der jetzigen Form nicht akzeptieren kann, da sich dagegen einige erhebliche Einwände im Zusammenhang mit der relativistischen Invarianz erheben lassen. Wenn wir stattdessen sein Modell im Hinblick auf die interne Struktur im Zusammenhang mit dem nicht-lokalen Feld interpretieren, dann können wir verstehen, dass man dann, wenn man ein bestimmtes Modell für die innere Struktur übernimmt, das Massenspektrum für die Elementarteilchen herleiten kann. Das von Born angewandte Modell kann man Oszillatormodell nennen. Wir betrachten die innere Struktur, so etwas wie die Oszillation des Teilcheninneren, doch die Oszillationen müssen vierdimensional sein. Wir werden versuchen, eine vollständig relativistische Theorie zu konstruieren; deshalb müssen die Vibrationen selbst vierdimensional sein. Nicht nur die Vibrationen im dreidimensionalen Raum; auch die Oszillation im Raum einschließlich der Zeit muss enthalten sein. Wir haben es also mit einem vierdimensionalen Eigenwertproblem zu tun. Doch wie bei jedem vierdimensionalen Problem taucht ein weiteres Problem auf, nämlich die Degeneration – das bedeutet, dass es für die Masse 2.000 Eigenwerte gibt, und es gibt unendlich viele, grundsätzlich unendlich viele Zustände. Grundsätzlich kann es also unendlich viele verschiedene Arten von Elementarteilchen mit der gleichen Masse geben. Dieses Problem ist nur schwer zu lösen. Wir wissen noch nicht, ob wir das einfache Oszillatormodell durch die Einführung einiger anderer Ausdrücke von Grund auf modifizieren müssen, oder ob wir mit dem einfachen Modell beginnen und die Wechselwirkung zwischen nicht-lokalen Feldern einsetzen können. Dann muss die unerwünschte Degeneration als Folge der Wechselwirkung verschwinden. Ich kann darüber nichts Endgültiges sagen, und ich habe keine Zeit, dieses ziemlich komplizierte Problem weiter zu erörtern. Nur so viel: Wenn wir auf diesem Weg weitergehen, wird möglicherweise die Formulierung einer vereinigten Theorie der Elementarteilchen gefunden – wenn wir sehr viel Glück haben. Jedenfalls ist das erst der Anfang einer bestimmten Art von Theorie, und ich glaube nicht, dass es der einzige Weg ist. Oder dass der Begriff des nicht-lokalen Felds im Zusammenhang mit der inneren Struktur der Elementarteilchen für unseren Zweck ausreicht. Wahrscheinlich brauchen wir noch etwas Anderes, denn wir kennen andere Dinge, die in Verbindung mit einem anderen Begriff vielleicht gut erklärt werden können. Ich muss außerdem anmerken, dass das, was wir hier erörtert haben, nur eine Eigenschaft der Feldtheorien ist. Gewöhnlich begann man mit dem Begriff des freien Feldes. Wir glauben, dass die Teilchen zu Beginn vollständig voneinander getrennt sind, dann führen wir Wechselwirkung ein und sehen, was aufgrund der Wechselwirkung geschieht. Doch dieser Ansatz setzt voraus, dass die Wechselwirkungen zwischen ihnen ziemlich schwach sind, dass die durch die Wechselwirkung hervorgerufenen Veränderungen ziemlich klein sind. Wir sagen also, dass wir bei den so genannten Näherungswerten der schwachen Kopplung bleiben. Wir sind uns der Grenzen dieser Näherungswerte der schwachen Kopplung im Zusammenhang mit dem Problem der nuklearen Kräfte sehr wohl bewusst. Die nuklearen Kräfte sind äußerst stark, und wir haben Zweifel daran, dass die Näherungswerte der schwachen Kopplung gültig sind. Leider verfügen wir aber noch nicht über eine relativistische Theorie, die von der Annahme der schwachen Kopplung frei ist. Wenn wir darauf abstellen, dass die Wechselwirkungen sehr stark sind, wird möglicherweise eine ganz neue Eigenschaft der Feldtheorie sichtbar. Doch das ist ein sehr schwieriges mathematisches Problem, und niemand weiß, was dabei herauskommt. Wir mussten also gewissermaßen am Begriff der schwachen Kopplung festhalten. Deshalb sind unsere Erörterungen stark eingeschränkt, und genau aus diesem Grund stellt meine eigene Arbeit nur eine Möglichkeit aus einer Vielzahl anderer Möglichkeiten der Konstruktion einer vereinigten Theorie von Elementarteilchen dar. Vielen Dank.

Hideki Yukawa’s 1953 lecture reveals how the detection of his predicted mesons in 1947 created more questions than answers, adding to the already swelling particle zoo that was poorly understood at a time before the Standard Model.
(00:04:01 - 00:07:34)

The complete video is available here.

It was later found that the strong force not only stops nuclei from flying apart but, at a much smaller scale, is also responsible for binding fundamental particles called quarks together to make protons and neutrons through the exchange of massless particles called “gluons”. So the strong force is not mediated via mesons

 


The Importance of Quantum Field Theory

A deeper understanding of electromagnetism, and the weak and strong nuclear forces was to come from the parallel development of quantum mechanics over the course of the 20th century. A glaring problem quantum pioneers faced early on was that the paradigm was not capable of accounting for photons, the basic unit of light and a prime case of relativistic particles. What was needed was a quantum mechanical formalism that contained an explicit description of photons. Paul Dirac (Nobel Prize in Physics 1933) provided it in his seminal 1927 paper ‘The quantum theory of the emission and absorption of radiation’[7]. There, Dirac treated photons as excited states, or quanta, of their underlying electromagnetic fields, naming his procedure quantum electrodynamics (QED).

QED was the first application of quantum field theory (QFT), a theoretical framework that combines classical field theory, quantum mechanics and special relativity – but, importantly, not general relativity, which describes gravity. Despite general relativity’s omission, further development of QED in subsequent decades culminated in a full description of how light and matter interact. The likes of Sin-Itiro Tomonaga, Julian Schwinger and Richard Feynman – who received the 1965 Nobel Prize in Physics for their work on the topic[8] – elaborated on QED, providing tools to calculate concrete processes, and extraordinary agreement with experimental results was found.

 

Paul Dirac – a regular guest at the Lindau Physics meetings – outlines efforts to apply quantum mechanics to difficult problems, speaking about QED and QFT.
(00:13:18 - 00:16:25)

The complete video is available here.

Spurred on by the success of QED, physicists applied QFT methods to the other known forces of nature in the 1960s and 70s. And through these efforts, they were successful in achieving a quantum mechanical understanding of the weak and strong forces. The quantum field theories for the weak and strong forces are named quantum electroweak theory and quantum chromodynamics (QCD), respectively.

Quantum electroweak theory was developed by 1979 Nobel Prize for Physics winners Sheldon Glashow, Abdus Salam and Steven Weinberg, among others. Their theory revealed that the weak and electromagnetic forces – two apparently dissimilar interactions – were actually two different aspects of the same force, a property that only becomes apparent when they become indistinguishable at extreme energies[9]. These insights were extended by 1999 Nobel Prize in Physics winners Gerardus 't Hooft and Martinus Veltman, who elucidated the quantum structure of electroweak interactions to allow physicists to wield electroweak theory and make empirical predictions[10]. Veltman’s 2019 Lindau talk provides a detailed background to his and t’Hooft’s groundbreaking work.

 

Martinus Veltman outlines the ‘infinities’ problem his Nobel Prize winning research on electroweak theory addressed.
(00:16:05 - 00:27:00)

The complete video is available here.

Like electroweak theory, QCD had a tortuous birth, requiring collective efforts from a range of physicists. Its formulation began when in 1964 Murray Gell-Mann (Nobel Prize in Physics 1969) and George Zweig independently used a scheme dubbed the ‘eight-fold way’ to propose the existence of a new type of particle that makes up bigger particles such as neutrons and protons[11]. Naming them ‘quarks’, their existence was confirmed at the Stanford Linear Accelerator Center (SLAC) in the US just four years later.

The discovery of quarks meant that the strong attraction between protons and neutrons that Yukawa had modelled in 1935 was just a side-effect of a more fundamental force that bound quarks together into protons and neutrons. But what was this force? The introduction of the property of quark ‘colour’ (a type of charge) was a huge step towards an answer. Heinrich Leutwyler, Harald Fritzsch and Gell-Mann suggested colour as the source of a ‘strong field’ in quarks in 1973. The same year, 2004 Nobel Prize winners Frank Wilczek and David Gross, and David Politzer independently, discovered an important property of certain particle interactions called ‘asymptotic freedom’, which meant that the closer quarks are to each other, the less the strong interaction (or colour charge) between them[12]. This property allowed the researchers to develop the theory of QCD.

 

Frank Wilczek (2005) - The Universe is a Strange Place

I won’t be able to do justice in half an hour to all the ways in which the universe is a strange place, but I’d like to show you a few highlights. First of all, I’m going to talk about the ordinary world, the world, the matter we’re made out of, the world that supports chemistry and biology as well as condensed matter and most of practical physics. The foundations of that world are actually quite strange and wonderful, as we understand them in the deepest way today. The picture of matter that modern physics provides is strange in many ways. In quantum mechanics atoms appear as musical instruments, not metaphorically but almost literally. When Bohr proposed his famous model of the hydrogen atom, based on an analogy with planetary orbits but with only certain orbits allowed, and jumps between them, that explained the hydrogen spectrum. Einstein called it the highest form of musicality in the sphere of thought. I think Einstein was referring back to ideas of Kepler and all the way back to Pythagoras about the music of the spheres, the idea that as planets revolve around the sun, they emitted musical tones. But here there was another additional element to that which was that the key feature of Bohr's atom was to predict that the frequencies to be sure in light, not sound, that the atom emitted or absorbed were discrete units, so they liked the tones of a musical instrument and were characteristic of this form of matter. But this was only the beginning. Shortly afterwards, when modern quantum mechanics developed, it turned out that the proper equations to describe atoms are very much the same equations as one uses to describe the vibrations of musical instruments, partial differential equations of the wave type. But even that was only the beginning, as I’ll now elaborate. With the success of quantum mechanics in the 1920s and early ‘30s, there was a successful picture of atomic and molecular physics and the foundations of those subjects, based on the idea that ordinary matter is made from electrons and photons, for which there was a very good theory of quantum electrodynamics, and inside the atoms, as their centre, the nuclei, which were made out of nucleons, protons and neutrons But the forces that held together the nuclei were quite obscure. And it became the top of the agenda of physics to try to understand what those forces were, what these new forces that held together the atomic nuclei were. And in a rather complicated history, one learned that when you bashed protons and neutrons together, they didn’t just deflect one another, but the collisions resulted in sprays of new particles that could include many protons and many neutrons themselves together with their anti particles and many, many new kinds of strongly interacting particles, ? mesons, ? mesons, ? mesons, ?s ... There was a whole alphabet soup with hundreds of particles and all of these looked more or less like protons and neutrons in their basic properties, just heavier and unstable. So the idea came that protons and neutrons were not the most, necessarily the fundamental particles, that they had to be understood as part of a larger picture and so we no longer knew what were the other ingredients of ordinary matter. In the 1960s, Gell-Mann, primarily, and Zweig introduced the idea that you could understand a lot about all these new strongly interacting particles by postulating that they were made out of things called quarks. But there was no clear theory of what the forces between the quarks were, and that’s where things stood until the early ‘70s. Now we know what the other ingredient is, it´s gluons. What does it mean to say that, what is this operational content? Quarks are famous for not being observable. What about gluons? Are they observable and how do you come to the extraordinary conclusion that protons and neutrons are made out of these more, these particular more basic objects? And in fact, with a particularly simple and beautiful theory, that’s a mathematical generalisation of quantum electrodynamics, so called quantum chromodynamics or QCD. Well, although its commonly said that you can’t see quarks or that quarks don’t exist, that’s a total lie. Here’s a picture of quarks and gluons. If you collide electrons and positrons at high energies, then you don’t see quarks and gluons as individual particles, but you see the imprint of their energy and momentum on the structure of the underlying event. That is, if you add up the energy and momentum of all these particles in a jet, and assign it to be the energy and momentum of a quark, and add up all the energy and momentum of this jet, and assign it to be the energy and momentum of a gluon and this one to be an anti quark, for example, you find that you get a proper description of everything that happens at that experiment. And the theory tells you what the relative distribution of the energy should be, what the relative probability of different angles emerging should be, what the relative probability of finding 2 jets versus 3 jets can be, because 3 jets can be understood as a quark and an anti quark accompanied by radiation of a gluon. And so you can check out the fundamental interaction between quarks and gluons in all detail by making this identification that it’s these jets of particles that are the materialisation of the quarks and gluons, the visible materialisation. One aspect of this that I think is really profound and not commented on frequently, but I think is appropriate here, is that this is a fantastic illustration of the basic principle of quantum mechanics, that is its indeterminacy, that it only gives probabilistic results. Because what’s done at an accelerator like LEP is collide over and over again electrons and positrons, which are structureless pointlike objects in our equations, and seeing what comes out. So you're doing the same thing over and over again, you spend hundreds of millions of Euros to do this, but doing the same thing over and over again you don’t get the same result each time, you get different results. And so it’s hard to avoid the basic implication of quantum mechanics here, that you only get probabilistic results, you can’t predict deterministically from what you put in exactly what you're going to get out. The theory only predicts probabilities, and it predicts the probabilities successfully. The theory though going back to the original problem of understanding matter and understanding protons and neutrons, seems very odd, because it tells you the basic building blocks are massless gluons, strictly massless, they have to be massless to ensure the consistency and symmetry of the theory for similar reasons to why physicists understand the photon to be massless or understand gravitons to be massless. And when you fit the details of these events, you find that the quarks are almost massless. And so we have a real challenge to build up protons and neutrons, which are famous for not being massless, in fact, they contain all of the mass, essentially of ordinary matter from essentially massless building blocks. It flies in the face, by the way, for chemists of Lavoisier’s discovery, that mass is conserved. We’re starting with massless things and building up things that have mass. Lavoisier couldn’t have been more wrong. How is this possible? Well, it´s possible because of Einstein’s second law. Now, what do I mean by Einstein’s second law? This was inspired by the first chapter of the army’s field manual, training radio engineers during World War II, when they had to bring people who weren’t necessarily very sophisticated, up to speed rapidly. And the first chapter of that manual is devoted to Ohm’s 3 laws, Ohm’s first law is V=IR, Ohm’s second law is I=V/R, and there’s an Ohm’s third law which I’ll leave you to conjecture or derive. In a similar vein, we have Einstein’s famous law, E=Mc2 , but then a second law, M=E/c2. Now, that may seem a little silly, and maybe it is, but it´s not quite as silly as it seems, because different ways or writing the same equation can suggest very different things. E=MC2 famously suggests the possibility of deriving a lot of energy from a relatively small amount of mass and calls to mind things like atomic bombs or nuclear reactors. This form of writing the equation calls to mind a very different thing, it calls to mind the idea that you can build up mass out of energy, out of pure energy. And actually this is the form you’ll find in Einstein’s original paper, it should be called, you won’t find E=Mc2, you’ll find this in Einstein’s original paper and the title of that paper was So right from the beginning he was concerned with the idea that energy is the source, is the fundamental source of mass. That’s because in modern physics, even in the physics of 1905, energy is a much more basic and primary quantity than mass, it´s really, energy that’s conserved, energy that appears in the laws of thermodynamics, energy that appears in Schrödinger’s equation and so forth and so on. In any case, the answer we have now to Einstein’s question, Yes, exclamation point. Double exclamation point, because the mass of the protons and neutrons, which is the bulk of the mass of ordinary matter, derives entirely from the energy of the quarks and gluons that make them up moving around, the quarks and the gluons themselves have no intrinsic mass, so all the mass of the protons and neutrons, and essentially all the mass of ordinary matter, comes from that energy of motion. That’s a very interesting story, how that works in detail, but it’s certainly not a story I can tell in anything like half an hour. However, let me show you that I’m not just talking through my hat by displaying the numerical calculations that back up those assertions. So we have a very precise, very constrained fundamental theory of how quarks and gluons interact, a theory who’s equations are a direct generalisation of the equations of electrodynamics and are very tight, can’t be really changed without destroying the theory. And then we have to solve those equations to see what the masses of the particles are, what the possible things you can build up out of quarks and gluons are. And to solve those equations turns out to be quite challenging, and in fact, the only workable approach that’s been successful has been to feed this problem into a gigantic computing machine, to just put the equations in discretised form on a computing machine. And in fact, this problem has driven the frontier of massively parallel computing. To do a decent job, to do the job I’ve shown you here - I’m calculating the masses of different particles – requires that you build a computer which contains roughly 10 to the 30th protons and neutrons, run it full speed, which means a few teraFLOPS now And then you get accurate equations which tell you what the proton manages to do, one proton every 10 to the -24 seconds, that is decide how much it´s going to weigh. But the results are worth it. So it suggests that there may be more clever ways to calculate things than we know so far. But in any case, these are the results and I think they’re one of the greatest achievements in science ever. From a fundamental theory that contains exactly 3 parameters here, fixed to the mass of the light quarks, the mass of the strange quark and the one coupling constant that characterises the theory. You use the mass of the light quark to fit the pion mass, one of the mesons, because that’s the most sensitive to the mass of the light quark. You fix the strange quark mass by fitting it to the ? meson, since that’s most sensitive to the strange quark mass. You fit the coupling constant to a splitting in the heavy quark system. The details aren’t so important but those are the diamonds. And then everything is fixed, there’s no more wriggle room, you have to have the calculations agree with the real world value of the masses, or else the theory is incorrect. And as you see the theory does give the correct values within errors, these are the errors of the numerical calculations indicated here and the boxes indicate the actual values of the masses. One does get the masses over the particles from the fundamental theory. And that includes as a special case here N - N stands for nucleon - these are the protons and neutrons, and in fact, the mass of the protons and neutrons arises as claimed from the pure energy of essentially massless quarks, that is the quarks have masses much, much smaller than the masses of the nucleon and the truly massless gluons. So it really is Einstein’s second law in action. So let me deconstruct this a little bit to show you what's going on under the hood inside these numerical calculations, because it’s really quite profound. In quantum field theory, which is the basis of everything I’m saying, we discover that what appears to us as empty space is in reality a widely dynamical medium. So here is a picture of what the computer is doing as it computes the mass of the proton and so forth. What you´re seeing here is what you would see if you had eyes that could resolve distances of order 10 to the -14 centimetres and times of order 10 to the -24 seconds. And then you would see - according to the theory which gives so many successful predictions, we should believe it also here – if you had eyes that were suitable, this is what you would see, you would see gluon fields coming to be and passing away. This is what's going inside the computer, this is not an artist impression, this is an actual but it´s an actual picture of the gluon fluctuations. For experts what this is is the smooth distribution of topological charge density. And that’s what's going on in empty space, inside you and me all the time and everywhere in the universe. And it’s really that that conditions the properties of the particles we see. The different particles we observe correspond to the vibration-patterns that occur in this dynamical void when it is disturbed in various ways. So for instance, if you plunk down 3 quarks, 2 up quarks and a down quark and let them loose in this dynamical medium, they’ll settle down into a proton. And that’s our fundamental understanding of what a proton is. These fluctuating fields keep the quarks together and it’s the fact that the presence of the quarks disturbs those fields a bit and changes the energy content that generates the mass of the proton. This is actually also not a metaphor, it´s rigorously true. Here I show you not the proton, that’s a little complicated for technical reasons but the pion. You plunk down a quark and an anti quark, just let them loose, you average over those fluctuations that I showed you before and just see the net disturbance in the fields because you want to calculate the difference between the energy in the presence of the quark and the anti quark, that's what we call a pion, versus empty space. So you subtract off the empty space part, just see the disturbance in the fields and this is the disturbance, this is what a pion is. It’s this disturbance in these fields and it’s the energy that’s made by this disturbance, that corresponds to the mass of the pion according to Einstein’s second law. And the proton would look very similar but it’s technically more difficult to generate. You see, the calculations are still a little ragged, there’s statistical noise in this. It really should be smooth and symmetrical, but even letting loose a gigantic computer to do teraFLOP operations, teraFLOPS of operations per month, you can’t, the medium is so wildly fluctuating that there’s still noise in the output. So let me put this altogether. We had Einstein’s second law, m=E/c2, and then we can put this together with the Planck Einstein relationship between energy and frequency to get m=hv /c2, E=hv and then we can rearrange this a bit to get new equals mc2/h. This is a direct connection between the masses of the particles we observe and frequencies. And in fact, this is the way that the masses are calculated in these numerical calculations. You only have space and time to refer to, you don’t have a scale, you don’t have any apparatus that directly measures energy or weight. You need to measure something in space and time to determine the masses and this is the relationship that’s exploited to determine the masses in those numerical calculations, quite literally. So, instead of Kepler’s music of the sphere’s or Bohr and Einstein’s musicality in the hydrogen atom, we now have that the masses of particles are the tones, the frequencies of the vibration patterns of empty space, as its disturbed in different ways, they are exactly corresponding to those frequencies, just multiplied by universal constant c2 over h. And so, instead of the ancient music of the spheres, which was a mystical concept that never was made precise, we put it in quarks, put it in quotations. Now we have a very precise notion of the music of the void, and the masses of the different particles that we observe are quite literally the tones emitted by empty space as its disturbed in various ways. So that’s what ordinary matter is at the deepest level and I hope you’ll agree it’s strange and beautiful. Now, that’s the part we understand. Now let me switch to the part that we don’t yet understand, just as we’re celebrating our triumph in understanding how the world works, the astronomers pull some surprises on us. Astronomers have found that ordinary matter, the stuff we’ve understood, actually only contributes about 5% of the total mass of the universe, averaged on large scales. Of course, it totally dominates on earth or in the solar system or even in the galaxy, but such is the vast emptiness of space that a small amount of matter sprinkled around space, a small density of matter sprinkled around space, can dominate averaged over the whole universe. So the part of matter we understand, the part based on electrons, photons, quarks and gluons is only 5% of the total mass of the universe. That's what makes what astronomers have traditionally studied, stars, galaxies, nebulae and so forth. But 95% is something else and in fact we’ve discovered, or astronomers have discovered that that 95% itself has 2 components. It clumps, but not as tightly as ordinary matter. So around each galaxy you have a distribution of dark matter that’s more diffuse surrounding the galaxy and even now one sees galaxies in quotes, made out entirely of dark matter with very little ordinary matter inside. And 70% is in some mysterious “dark energy” that’s evenly spread as if it were an intrinsic property of space. And the strangest thing about this of all is that - unlike any other form of matter we’ve encountered today – it exerts negative pressure. Negative pressure blows things apart and what was observed is that the expansion of the universe, instead of slowing down – as one would expect from positive pressure and gravitational interactions - is actually, the rate of expansion is actually increasing with time and it’s assigned to this negative pressure. What is the dark stuff? We don’t know. The reason it´s called dark is that the standard probes of matter fail to reveal its existence. It doesn’t absorb light, it doesn’t scatter light, it doesn’t cause matter to emit light. All it does is cause gravitational deflections, that’s the way we know about it. So how do you think about a question like this? You’ve encountered something really strange and very difficult to study and you have no idea what it is. Well, you can do experiments and people have done the experiments and experiments have told us that it´s dark, you know (laugh). So what do we do then? Well, there’s another way, we can try to improve the equations of physics. We think we understand matter in extreme conditions, and in fact we’ve managed to simulate the Big Bang in a laboratory and show that to a good extent our assumptions in early universe cosmology can be proved experimentally. I am running out of time, so I won’t. Of course I could beautifully explain that but I don’t have time (laugh). We can calculate, because we think we understand the early universe very well, we can calculate the experimental and cosmological consequences of our suggested improvements of the equations. Now what does it mean to improve the equations? Well, for modern physicists it typically means to improve the symmetry of the equations. And there are several concrete suggestions for how to improve the symmetries of the equations, to make a more unified description of nature. One is to try to take the interactions that seem separate, the strong electromagnetic and weak interactions and gravity, and put them into a unified theory, and that requires changing the equations or adding to them. Another is to try to unify the description of particles of different spin that requires super symmetry which expands the equations in a different way. And there are other examples of improving the equations, the symmetries of the equations or understanding why the symmetries these postulated don’t manifest themselves in the world, that lead to direct experimental testable consequences. I don’t have time to elaborate on all of these, in fact, really I don’t have time to elaborate on any of them, but let me just say a word about the first, because it’s particularly exciting and timely. So I said our goal is to unify the description of the different interactions and when you try to do that you find many things click into place. If you make a unified gauge symmetry that extends the colour gauge symmetry of the strong interactions and the gauge symmetry of electrodynamics and the weak interactions – if you try to make an over-encompassing symmetry, a lot of things click into place, but one thing doesn’t click into place immediately. That is the intrinsic strength of those different interactions really is different. That's why the strong interaction is strong, whereas the other interactions aren’t called strong and that’s why a nucleus which is held together by the strong interaction is much smaller than an atom. However, we’ve learned that empty space is a dynamical medium and that dynamical medium changes the properties of particles that are embedded in it and it opens the possibility that there’s a fundamental unification at short distances which is reflected at long distances after modification by empty space as a disparity. And you can compare what we see to an extrapolation to short distances and what we see reflects unification at short distances. If you do that using just the particles we know about as fluctuations in empty space, then you find that it almost but not quite works. But if you extend, up the ante so to speak, by also including super symmetry at low energies, then you find it works quite accurately, and as a bonus, if I put gravity in this, it would also unify with gravity. These ideas have experimental consequences. In order to make that unification work, the super symmetric particles that are contributing to the modification of the coupling strengths can’t be too heavy. They have to do that job and they can’t do that job if they’re too heavy, they won’t produce enough fluctuations. And in fact they have to be sufficiently light that they’ll be observable at the next great accelerator, now being constructed at Cern, the LHC, Large Hadron Collider, due to start operating in 2007. So at that time we’ll know whether these dreams of unification really are true, and as a consequence get profound insight into the dark matter, because one aspect of super symmetry is that it predicts the existence of a stable particle whose properties are just right to provide the dark matter. So to summarise let me draw 3 great lessons from this story. The part of the world we understand is strange and beautiful, we’ve carried what Einstein thought was the highest form of musicality in the sphere of thought to much higher levels. If we work to understand we can understand. It seemed hopeless to many people that we could ever understand atomic nuclei, they’re so small, fundamentally they’re so small and so hard to study. And in fact Freeman Dyson in the mid ‘60s predicted that it would be 100 years before we understood the strong interactions, but 10 years later we understood it very well. If we work to understand, then we can understand. And then finally, we still have a lot to learn. Thank you. Applause

Ich werde in einer halben Stunde nicht die zahlreichen Möglichkeiten aufzeigen können, warum das Universum ein seltsamer Ort ist, aber ich möchte Ihnen ein paar Highlights zeigen. Zunächst möchte ich Ihnen etwas über die gewöhnliche Welt erzählen, die Welt, die Materie, aus der wir bestehen, die Welt, die ebenso Chemie und Biologie hervorbringt wie kondensierte Materie und den Großteil der angewandten Physik. Unserem heutigen tiefen Verständnis nach sind die Grundlagen dieser Welt tatsächlich ziemlich seltsam und wunderbar zugleich. Das Bild der Materie, das die moderne Physik wiedergibt, ist in vielerlei Hinsicht seltsam. In der Quantenmechanik erscheinen Atome wie Musikinstrumente, nicht metaphorisch, sondern fast buchstäblich. Als Bohr sein berühmtes Wasserstoffatommodell vorstellte, das auf dem Vergleich mit Planetenbahnen basiert, wobei jedoch nur bestimmte Umlaufbahnen zur Verfügung stehen, auf denen es hin und her springt, erklärte das die Linienspektren des Wasserstoffs. Einstein nannte dies die höchste Form von Musikalität in der Gedankenwelt. Ich denke, Einstein bezog sich auf die Ideen von Kepler bis Pythagoras‘ Vorstellung von der Sphärenmusik, die so aussah, dass bei der Bewegung der Planeten um die Sonne Musiktöne entstehen. Aber dann gab es hier noch ein zusätzliches Element, nämlich, dass das Hauptmerkmal im Bohrschen Atom, dass es vorhersagbar war, dass die Frequenzen, die sicher Lichtwelle, kein Ton waren, welche das Atom emittiert oder absorbiert, diskrete Einheiten waren, sie waren also wie Töne eines Musikinstruments und waren charakteristisch für diese Form der Materie. Aber das war erst der Anfang. Kurz darauf, als die moderne Quantenmechanik entwickelt wurde, stellte sich heraus, dass die entsprechenden Gleichungen zur Beschreibung von Atomen ziemlich dieselben Gleichungen wie diejenigen waren, die man zur Beschreibung der Vibration von Musikinstrumenten verwendete, partielle Differentialgleichung vom Wellentyp. Aber auch das war nur der Anfang, wie ich Ihnen jetzt näher erläutern werde. Mit dem Erfolg der Quantenmechanik in den 20er- und frühen 30er-Jahren entstand ein erfolgreiches Bild der Atom- und Molekularphysik und der Grundlagen dieser Themen, die auf der Vorstellung beruhten, dass gewöhnliche Materie aus Elektronen und Photonen besteht, für die es eine sehr gute Theorie der Quantenelektrodynamik gab, und des Inneren der Atome, der Kerne, die aus Nukleonen, Protonen und Neutronen bestehen. Aber die Kräfte, die diesen Kern zusammenhielten, waren ziemlich unklar. Es wurde die Priorität der Physik, zu verstehen, was das für Kräfte waren, was das für neue Kräfte waren, die die Atomkerne zusammenhielten. In einer ziemlich komplizierten Geschichte fand man heraus, dass bei einer Kollision von Protonen mit Neutronen, sich diese nicht nur gegenseitig ablenken, sondern in Zerfallsprodukte auflösen, die aus vielen Protonen und vielen Neutronen mit ihren Antiteilchen und sehr vielen neuen Arten von stark wechselwirkenden Teilchen bestehen, Pi Mesonen, Rho Mesonen, Kappa Mesonen, Delta‘s ... Das ist eine ganze Buchstabensuppe mit Hunderten von Teilchen und alle sahen in ihren Grundeigenschaften mehr oder weniger wie Protonen und Neutronen aus, nur schwerer und instabil. So entwickelte sich die Vorstellung, dass Protonen und Neutronen nicht unbedingt die elementaren Grundbausteine waren, sie mussten als Teil eines größeren Bilds angesehen werden und so wusste man nicht mehr, welche die anderen Bestandteile der gewöhnlichen Materie waren. In den 60er-Jahren brachte hauptsächlich Murray Gell-Mann, unabhängig von ihm aber auch George Zweig, die Idee hervor, dass man von diesen neuen stark wechselwirkenden Teilchen viel erfahren kann, und postulierte, dass sie aus sogenannten Quarks bestehen. Bis Anfang der 70er-Jahre gab es keine genaue Theorie darüber, welche Kräfte zwischen den Quarks wirkten. Mittlerweile kennen wir die anderen Bestandteile, es sind Gluonen. Was bedeutet das, was ist dieser operative Inhalt? Quarks sind dafür bekannt, dass sie sich nicht beobachten lassen. Was ist mit Gluonen? Können sie beobachtet werden und wie kommt man zu der außergewöhnlichen Schlussfolgerung, dass Protonen und Neutronen aus diesen speziellen, grundlegenden Bausteinen bestehen? Tatsächlich mit einer besonders einfachen und schönen Theorie, einer mathematischen Verallgemeinerung der Quantenelektrodynamik, der sogenannten Quantenchromodynamik, kurz QCD. Auch wenn allgemein gesagt wird, dass Quarks nicht sichtbar sind oder Quarks nicht existieren, ist das eine komplette Lüge. Hier ist ein Bild von Quarks und Gluonen. Wenn man Elektronen und Positronen bei hoher Energie kollidieren lässt, sieht man Quarks und Gluonen nicht als einzelne Teilchen, sondern als Abdruck ihrer Energie und Impuls in der Struktur des zugrunde liegenden Ereignisses. Wenn man die Energie und Impuls all dieser Teilchen in einem Strahl oder Jet bündelt und ihm die Energie und Impuls eines Quarks zuordnet, und die ganze Energie und Impuls dieses Strahls hinzufügt und der Energie und Impuls eines Gluons zuweist und dieser ein Antiquark sein soll, erkennt man, dass man eine passende Beschreibung von allem erhält, was bei diesem Laborexperiment passiert. Und die Theorie besagt, wie die relative Verteilung der Energie sein sollte, wie die relative Wahrscheinlichkeit unterschiedlicher auftretender Winkel sein sollte, wie groß die relative Wahrscheinlichkeit ist, 2 Strahlen im Vergleich zu 3 Strahlen zu finden, denn 3 Strahlen können als ein Quark und ein Antiquark begleitet von der Strahlung eines Gluons verstanden werden. So kann man die elementare Wechselwirkung zwischen Quarks und Gluonen detailgenau überprüfen, indem man identifiziert, dass es diese Teilchenstrahlen sind, die die Materialisierung von Quarks und Gluonen, die sichtbare Materialisierung sind. Ein Aspekt dabei, der meiner Meinung nach profund ist und nicht oft erläutert wird, aber hier angemessen ist, ist, dass dies eine fantastische Illustration des Grundprinzips der Quantenmechanik ist, es ist dessen Unbestimmtheit, die nur probabilistische Ergebnisse ergibt. In Beschleunigern wie dem LEP werden immer und immer wieder Elektronen und Positronen aufeinander geschossen, strukturlose punktartige Objekte in unseren Gleichungen, und angeschaut, was herauskommt. Man macht also immer und immer wieder dasselbe, man gibt Hunderte Millionen Euro dafür aus, aber auch wenn man immer wieder dasselbe macht, erhält man jedes Mal ein anderes Ergebnis. Deshalb ist es schwierig, hier die wesentliche Implikation der Quantenmechanik zu vermeiden, dass man nur probabilistische Ergebnisse bekommt, man kann nicht deterministisch, ausgehend von dem, was man hineingibt, genau das vorhersagen, was man herausbekommt. Die Theorie sagt nur Wahrscheinlichkeiten voraus, aber die Wahrscheinlichkeiten sagt sie erfolgreich voraus. Die Theorie, wenn wir zu dem ursprünglichen Problem des Verständnisses von Materie und des Verständnisses von Protonen und Neutronen zurückgehen, erscheint sehr sonderbar, weil sie besagt, dass die wesentlichen Bausteine masselose Gluonen sind, strikt masselos, sie müssen masselos sein, um die Konsistenz und Symmetrie der Theorie aus ähnlichen Gründen zu gewährleisten, aus denen Physiker das Photon als masselos oder das Graviton als masselos verstehen. Und wenn man die Details dieser Ereignisse anpasst, stellt man fest, dass Quarks fast masselos sind. Es ist also eine richtige Herausforderung, Protonen und Neutronen zu erzeugen, die dafür bekannt sind, nicht masselos zu sein und in der Tat enthalten sie die gesamte Masse, im Grunde der gewöhnlichen Materie, von hauptsächlich masselosen Bausteinen. Für Chemiker widerspricht es übrigens der Lavoisier-Entdeckung, dass Masse erhalten bleibt. Wir fangen mit masselosen Dingen an und bauen Dinge auf, die Masse haben. Lavoisier hatte nicht falscher liegen können. Wie ist das möglich? Nun, das ist dank Einsteins zweitem Gesetz möglich. Was meine ich mit Einsteins zweitem Gesetz? Dies ist eine Anlehnung an das erste Kapitel des Armee-Handbuchs, mit dem Radioingenieure im Zweiten Weltkrieg ausgebildet wurden, um Leute, die nicht unbedingt sehr gebildet waren, auf den neuesten Stand zu bringen. Das erste Kapitel dieses Handbuchs behandelt die 3 Ohmschen Gesetze, das erste Ohmsche Gesetz ist U=IR, das zweite Ohmsche Gesetz ist I=U/R und ich überlasse es Ihnen, das dritte Ohmsche Gesetz abzuleiten. In ähnlicher Art haben wir Einsteins bekanntes Gesetz, E=Mc2 , und das zweite Gesetz, M=E/c2. Das mag nun etwas albern erscheinen, ist es vielleicht auch, aber es ist nicht so albern, wie es scheint, denn unterschiedliche Schreibweisen derselben Gleichung können ganz unterschiedliche Dinge suggerieren. E=Mc2 suggeriert bekanntlich die Möglichkeit, viel Energie von einer relativ kleinen Menge Masse zu bekommen und ruft oft die Verbindung mit der Atombombe oder Atomreaktoren hervor. Diese Art, die Gleichung zu schreiben, ruft etwas ganz Unterschiedliches ins Bewusstsein, es erinnert an die Vorstellung, dass man Masse aus Energie erzeugen kann, aus purer Energie. Das ist auch die Form, die man in Einsteins Originaltext findet, es müsste also heißen, man findet nicht „E=Mc2“, in Einsteins Originaltext steht diese Formel (m=E/c²) und der Titel dieses Aufsatzes lautete „Ist die Trägheit eines Körpers von seinem Energieinhalt abhängig?”. Er befasste sich also von Anfang an mit der Idee, dass Energie die Quelle ist, die wesentliche Quelle der Masse. Der Grund dafür ist, dass in der modernen Physik, sogar in der Physik von 1905, Energie eine viel grundlegendere und primäre Menge als Masse ist, es ist die Energie, die erhalten wird, Energie, die in den Gesetzen der Thermodynamik erscheint, Energie, die in der Schrödingergleichung vorkommt und so weiter und so fort. Jedenfalls lautet die Antwort, die wir auf Einsteins Frage Ja, Ausrufezeichen. Doppeltes Ausrufezeichen, denn die Masse von Protonen und Neutronen, die den Großteil der Masse der gewöhnlichen Materie ausmacht, stammt vollkommen von der Bewegungsenergie zwischen Quarks und Gluonen ab, die Quarks und Gluonen selber haben keine eigene Masse, das heißt, dass die gesamte Masse der Protonen und Neutronen, und im Wesentlichen die gesamte Masse der gewöhnlichen Materie von dieser Bewegungsenergie abstammt. Das ist eine sehr interessante Geschichte, aber wie das genau funktioniert, kann ich Ihnen leider nicht in einer halben Stunde erklären. Um Ihnen jedoch zu beweisen, dass ich keine Märchen erzähle, werde ich numerische Berechnungen zeigen, die diese Behauptungen unterstützen. Wir haben also eine sehr präzise, begrenzte Grundlagentheorie über die Wechselwirkung zwischen Quarks und Gluonen, eine Theorie, deren Gleichungen eine direkte Verallgemeinerung der Gleichungen der Elektrodynamik sind und sehr streng sind, d. h. nicht verändert werden können, ohne die Theorie zu zerstören. Dann müssen wir diese Gleichungen lösen, um herauszufinden, wie die Massen der Teilchen sind, was die möglichen Dinge sind, die man aus Quarks und Gluonen erzeugen kann. Es stellt sich heraus, dass es eine ziemlich große Herausforderung ist, diese Gleichungen zu lösen, und tatsächlich war der einzige praktikable Ansatz, der von Erfolg gekrönt war, der, dieses Problem in einen gigantischen Computer einzuspeisen, die Gleichungen in einer diskreten Form einfach in einen Computer einzugeben. Und tatsächlich hat dieses Problem die Entwicklung von massiv-parallelen Rechnerstrukturen vorangetrieben. Um meine Arbeit anständig zu erledigen, um die Arbeit, die ich Ihnen hier gezeigt habe, zu machen der grob gesagt 1x10 hoch 30 Protonen und Neutronen enthält, ihn bei voller Leistung laufen lassen, was mittlerweile mehrere Teraflop bedeutet, Teraflop heißt 1x10 hoch 12 Gleitkommaoperationen pro Sekunde – und das über Monate hinweg. Dann bekommt man präzise Gleichungen, die einem verraten, was das Proton macht, ein Proton jede 10 hoch -24 Sekunden, das heißt, wie schwer es sein würde. Aber die Ergebnisse sind es wert. Das suggeriert, dass es schlauere Wege geben könnte, um Dinge zu berechnen, als wir bisher wussten. Aber in jedem Fall sind dies die Ergebnisse und ich denke, sie gehören zu den größten Errungenschaften in der Wissenschaft. Von einer grundlegenden Theorie, die exakt drei Parameter hier enthält, die an die Masse der leichten Quarks, die Masse der Strange-Quarks und die einzige Kopplungskonstante festgesetzt sind, die die Theorie beschreiben. Man verwendet die Masse des leichten Quarks, um die Pionen-Masse anzupassen, das zur Gruppe der Mesonen gehört und am stärksten von der Masse des leichten Quarks abhängig ist. Die Masse des Strange-Quarks kann man festsetzen, in dem man es an die Kappa -Mesonen anpasst, da das am stärksten von der Strange-Quarkmasse abhängig ist. Die Kopplungskonstante wird an einer Aufspaltung im System von schweren Quarks angepasst. Die Details sind nicht so wichtig, aber es sind die Glanzstücke. Und dann steht alles fest, es gibt keinen Bewegungsraum mehr, die Berechnungen müssen mit den real gemessenen Werten der Massen übereinstimmen, anderenfalls ist die Theorie nicht korrekt. Wie Sie sehen, gibt die Theorie die korrekten Werte innerhalb von Fehlergrenzen an, hier sind die Fehler der numerischen Kalkulation angegeben und die Kästchen geben die richtigen Werte der Massen an. Man erhält die Massen für die Teilchen von der grundlegenden Theorie. Das bezieht sich auf einen speziellen Fall, N hier, N steht für Nukleon, dies sind Protonen und Neutronen und tatsächlich geht die Masse der Protonen und Neutronen, wie behauptet, aus der puren Energie der hauptsächlich masselosen Quarks hervor, das heißt, dass Quarks viel kleinere Massen als die Massen des Nukleons und die wirklich masselosen Gluonen haben. Einsteins zweites Gesetz findet hier also wirklich statt. Lassen Sie mich das etwas aufschlüsseln, damit ich Ihnen zeigen kann, was sich hinter diesen numerischen Kalkulationen verbirgt, denn das ist ziemlich profund. In der Quantenfeldtheorie, die die Grundlage von allem ist, was ich sage, entdecken wir, dass das, was uns als leerer Raum erscheint, in Wirklichkeit ein wild dynamisches Medium ist. Hier ist ein Bild davon, was der Computer macht, wenn er die Masse der Protonen und so weiter berechnet. Man sieht hier, was man sehen würde, wenn man Augen hätte, die Entfernungen von der Größenordnung 10 hoch -14 cm und Zeiten von 10 hoch -24 Sekunden auflösen könnten. Gemäß der Theorie, die so viele erfolgreiche Vorhersagen macht - wir sollten es also auch hier glauben Das passiert also im Innern des Computers, das ist kein Bild eines Künstlers, dies ist ein tatsächliches - nun es ist natürlich die falsche Farbe - aber es ist ein aktuelles Bild der Gluonenfluktuation. Für Experten ist dies die glatte Verteilung der topologischen Ladungsdichte. Und das ist es, was im leeren Raum passiert, in Ihrem und in meinem Körper, überall im Universum. Und es sind wahrlich diese Zustände, die Eigenschaften der Teilchen, die wir sehen. Die verschiedenen Teilchen, die wir beobachten, entsprechen den Schwingungsmustern, die in diesem dynamischen Leerraum entstehen, wenn er auf unterschiedliche Art gestört wird. Wenn man beispielsweise 3 Quarks, 2 Up-Quarks und 1 Down-Quark hineinwirft und sie in diesem dynamischen Medium loslässt, werden sie sich zu einem Proton verbinden. Und das ist unser grundlegendes Verständnis davon, was ein Proton ist. Diese fluktuierenden Felder halten die Quarks zusammen und die Präsenz der Quarks stört solche Felder etwas und verändert den Energieinhalt, wodurch die Masse des Protons erzeugt wird. Auch das ist keine Metapher, sondern die reine Wahrheit. Ich zeige Ihnen hier kein Proton, das ist aus technischen Gründen ziemlich kompliziert, sondern ein Pion. Man wirft ein Quark und ein Antiquark hinein, lässt einfach los, man mittelt über diese Fluktuationen, die ich Ihnen zuvor gezeigt habe, und man sieht nur die Nettostörung in den Feldern, weil man den Unterschied zwischen der Energie bei Vorhandensein des Quarks und des Antiquarks berechnen will, das nennen wir ein Pion im Unterschied zum leeren Raum. Man zieht also den Teil des Leerraums ab, dann sieht man die Störung in den Feldern, und das ist die Störung, das ist ein Pion. Es ist diese Störung in diesen Feldern und es ist die Energie, die durch diese Störung entsteht, das entspricht der Masse des Pions gemäß Einsteins zweitem Gesetz. Und das Proton würde sehr ähnlich aussehen, aber es ist technisch schwieriger zu erzeugen. Diese Kalkulationen sind noch zerrissen und beinhalten statistisches Rauschen. Es sollte wirklich glatt und symmetrisch sein, aber selbst wenn man mit einem gigantischen Computer Teraflop-Operationen durchführen lässt, monatliche Teraflop-Operationen, es geht nicht, das Medium ist so stark schwankend, dass es immer noch Rauschen im Ergebnis geben wird. Lassen Sie mich das zusammenfassen. Wir haben Einsteins zweites Gesetz, M=E/c2, und das können wir mit der Planck Einstein-Gleichung zwischen Energie und Frequenz zusammensetzen und erhalten m=h x Ny / c2, E=h Ny und das können wir so umstellen, dass wir Ny=mc2/h erhalten. Dies ist eine direkte Verbindung zwischen den Massen der Teilchen, die wir beobachten und Frequenzen. Und tatsächlich werden auf diese Art die Massen mit diesen numerischen Kalkulationen berechnet. Man hat nur Raum und Zeit als Referenz, man hat keinen Maßstab, man hat keine Geräte, mit denen man Energie oder Gewicht direkt messen kann. Man muss etwas in Raum und Zeit messen, um die Massen zu bestimmen und dies ist das Verhältnis, das genutzt wird, um Massen in solchen numerischen Kalkulationen zu bestimmen, im wahrsten Sinne des Wortes. Statt Keplers Sphärenmusik oder Bohrs und Einsteins Musikalität im Wasserstoffatom haben wir nun festgestellt, dass die Massen der Teilchen die Töne, die Frequenzen des Schwingungsmusters im leeren Raum sind, wie es auf verschiedene Art und Weise gestört wird, entsprechen sie exakt diesen Frequenzen, nur multipliziert mit der Naturkonstante c2 durch h. Anstatt der antiken Sphärenmusik, die ein mystischer Ansatz war, der nie konkretisiert wurde, setzen wir sie in Quarks, in Anführungszeichen. Wir haben jetzt eine sehr genaue Vorstellung von der Musik des leeren Raumes und die Massen der verschiedenen Teilchen, die wir beobachten, sind im engen Sinne die Töne, die im leeren Raum ausgesendet werden, wenn er auf unterschiedliche Weise gestört wird. Das ist also, was die gewöhnliche Materie auf tiefster Ebene ist, und ich hoffe, Sie stimmen mir zu, wenn ich sage, dass das seltsam und schön zugleich ist. Das ist der Teil, den wir verstehen. Lassen Sie mich jetzt zu dem Teil übergehen, den wir noch nicht verstehen, gerade als wir unseren Triumph feierten über das Verständnis, wie die Welt funktioniert, sorgten die Astronomen noch für einige Überraschungen. Astronomen haben herausgefunden, dass die gewöhnliche Materie, also der Teil, den wir verstanden haben, nur 5% der Gesamtmasse des Universums ausmacht, gemittelt über große Skalen. Natürlich dominiert die gewöhnliche Materie auf der Erde, im Sonnensystem oder sogar in der Galaxie, aber die große Leere des Raums ist so, dass eine kleine Menge Masse im Raum verteilt, eine geringe Dichte an Masse im Raum verteilt, kann dominieren, wenn es gemittelt wird über das ganze Universum. Der Teil der Materie, den wir verstehen, der auf Elektronen, Photonen, Quarks und Gluonen beruhende Teil, macht nur 5% der Gesamtmasse des Universums aus. Das ist es, was Astronomen herkömmlich untersucht haben, Sterne, Galaxien, Nebel und so weiter. Aber 95% sind etwas anderes und wir haben entdeckt, bzw. Astronomen haben entdeckt, dass diese 95% selbst aus 2 Komponenten bestehen. Sie verklumpt, aber nicht so stark wie die gewöhnliche Materie. Um jede Galaxie herum verteilt sich dunkle Materie, die diffuser ist und die Galaxie umgibt, und sogar jetzt sieht man „Galaxien“, die vollkommen aus dunkler Materie bestehen und sehr wenig gewöhnliche Materie enthalten. Und 70% stecken in der mysteriösen „dunklen Energie“, die gleichmäßig verteilt ist, als wenn sie eine wesentliche Eigenschaft des Raumes wäre. Und das Seltsamste bei dieser ganzen Sache ist, anders als bei irgendeiner anderen Materieform, die wir bis heute kennengelernt haben, dass sie negativen Druck ausübt. Negativer Druck treibt Dinge auseinander und was dabei beobachtet wurde, ist, dass die Ausdehnung des Universums, anstatt langsamer zu werden, wie man es vom positiven Druck und Gravitationswechselwirkungen erwarten würde, steigt die Ausdehnungsrate mit der Zeit und wird diesem negativen Druck zugeordnet. Was ist dieses dunkle Zeug? Wir wissen es nicht. Der Grund dafür, dass diese Materie als dunkle Materie bezeichnet wird, ist darauf zurückzuführen, dass Standardtests nicht ihre Existenz nachweisen konnten. Sie absorbiert kein Licht, sie streut kein Licht, sie veranlasst Materie nicht Licht auszusenden. Das Einzige, was sie erzeugt und wodurch wir von ihr wissen, ist die gravitative Ablenkung. Was halten Sie von dieser Frage? Sie sind mit etwas konfrontiert, das wirklich seltsam und sehr schwer zu untersuchen ist, und haben keine Ahnung, was es ist. Sie können jetzt Experimente machen und Leute haben die Experimente gemacht und die Experimente haben gezeigt, dass es dunkel ist (lacht). Also was machen wir dann? Es gibt einen anderen Weg, wir können versuchen, die Gleichungen der Physik zu verbessern. Wir denken, dass wir Materie unter extremen Bedingungen verstehen, und haben es tatsächlich geschafft, den Urknall im Labor zu simulieren und zu zeigen, dass unsere Hypothesen in der frühen Universumskosmologie experimentell nachgewiesen werden können. Die Zeit ist knapp, deshalb werde ich es nicht machen. Natürlich könnte ich Ihnen das wunderbar erklären, aber ich habe keine Zeit (lacht). Weil wir denken, dass wir das frühe Universum sehr gut verstehen, können wir die experimentellen und kosmologischen Konsequenzen unserer vorgeschlagenen Verbesserungen der Gleichungen berechnen. Was heißt das denn, unsere Gleichungen zu verbessern? Für moderne Physiker heißt das typischerweise, die Symmetrie der Gleichungen zu verbessern. Es gibt mehrere konkrete Vorschläge, wie man die Symmetrien der Gleichungen verbessern kann, um eine mehr einheitliche Beschreibung der Natur zu geben. Eine davon sieht so aus, dass man die Wechselwirkungen nimmt, die scheinbar getrennt sind, die starke, die elektromagnetische und die schwache Wechselwirkung und die Gravitation und sie in eine vereinheitlichte Theorie setzt, und das verlangt eine Änderung der Gleichungen oder Ergänzung. Eine andere besteht darin, die Beschreibung der Teilchen mit unterschiedlichen Spins zu vereinheitlichen, dies macht Supersymmetrie erforderlich, die die Gleichungen auf eine unterschiedliche Art entwickelt. Und es gibt weitere Beispiele zur Verbesserung der Gleichungen, Symmetrien der Gleichungen oder Verständnis dessen, warum die postulierten Symmetrien auf der Welt nicht in Erscheinung treten, das führt zu direkten experimentell prüfbaren Konsequenzen. Ich habe keine Zeit, all diese Vorschläge auszuarbeiten, ehrlich gesagt habe ich keine Zeit, überhaupt einen von ihnen darzulegen, aber lassen sie mich ein paar Worte zum ersten Vorschlag sagen, weil er besonders spannend und zeitgemäß ist. Wie ich bereits sagte, ist unser Ziel die Vereinheitlichung der Beschreibung der unterschiedlichen Wechselwirkungen, und wenn man versucht, dies zu tun, fügen sich mehrere Dinge zusammen. Wenn man eine einheitliche Eichsymmetrie erstellt, die die Farb-Eichsymmetrie der starken Wechselwirkungen und die Eichsymmetrie der Elektrodynamik und der schwachen Wechselwirkungen erweitert – wenn man versucht, eine all-umfassende Symmetrie zu erstellen, fügen sich viele Dinge zusammen, aber eine Sache fügt sich nicht sofort ein. Das heißt, die intrinsische Stärke dieser unterschiedlichen Wechselwirkungen ist wirklich unterschiedlich. Deshalb ist die starke Wechselwirkung stark, während die anderen Wechselwirkungen nicht stark genannt werden und das ist der Grund dafür, dass ein Atomkern, der von der starken Wechselwirkung zusammengehalten wird, viel kleiner als ein Atom ist. Wir haben jedoch gelernt, dass der leere Raum ein dynamisches Medium ist und dass das dynamische Medium die Eigenschaften seiner ihm eingebetteten Teilchen ändern kann, und dies eröffnet die Möglichkeit, dass es eine grundlegende Vereinheitlichung über kurze Entfernungen gibt, die über lange Entfernungen nach der Modifikation durch den leeren Raum als Disparität wiedergegeben ist. Das, was wir sehen, können wir mit einer Extrapolation auf kurze Entfernungen vergleichen und was wir sehen, spiegelt die Vereinheitlichung über kurze Entfernungen wider. Wenn man es so macht, und nur die Teilchen verwendet, die wir als Fluktuation im leeren Raum kennen, erfährt man, dass es fast, aber nicht ganz funktioniert. Aber wenn man erweitert, sozusagen den Einsatz erhöht, indem man die Supersymmetrie bei niedriger Energie einschließt, stellt man fest, dass es ziemlich präzise funktioniert und wenn ich, als Bonus, Gravitation hinzufüge, würde es sich auch mit der Gravitation vereinigen. Diese Ideen haben experimentelle Konsequenzen. Damit diese Vereinheitlichung funktioniert, dürfen die supersymmetrischen Teilchen, die zur Modifizierung der Kopplungsenergie beitragen, nicht zu schwer sein. Sie sind dafür verantwortlich und sie können ihren Job nicht ausführen, wenn sie zu schwer sind, sie würden dann nicht ausreichende Fluktuationen erzeugen. Und sie müssen leicht genug sein, damit man sie im nächsten großen Beschleuniger beobachten kann, dem LHC, der große Hadronen-Speicherring, der zurzeit im CERN gebaut wird, und 2007 in Betrieb genommen werden soll. Zu jenem Zeitpunkt werden wir also wissen, ob die Träume der Vereinheitlichung Wirklichkeit sind, und folglich tiefe Einblicke in die dunkle Materie erhalten, denn ein Aspekt der Supersymmetrie ist, dass sie die Existenz eines stabilen Teilchens vorhersagt, dessen Eigenschaften geeignet sind, um dunkle Materie zu erzeugen. Abschließend möchte ich drei wichtige Schlussfolgerungen ziehen: Der Teil der Welt, den wir verstehen, ist seltsam und schön, wir haben Einsteins Gedanken von der höchsten Form der Musikalität in der Gedankenwelt auf höhere Ebenen übertragen. Wenn wir arbeiten, um zu verstehen, können wir verstehen. Es schien vielen Leuten hoffnungslos, jemals die Atomkerne zu verstehen, weil sie so klein sind, im Prinzip sind sie so klein und so schwer zu untersuchen. Freeman Dyson sagte Mitte der 60er-Jahre voraus, dass es 100 Jahre dauern würde, bis wir die starken Wechselwirkungen verstehen, doch schon 10 Jahre später verstanden wir sie sehr gut. Wenn wir arbeiten, um zu verstehen, dann können wir verstehen. Und dann schließlich, gibt es noch eine Menge zu lernen. Danke.

Frank Wilczek’s Lindau lecture gives an introduction to QCD.
(00:04:09 - 00:07:51)

The complete video is available here.

 

The Standard Model and Beyond

By the 1970s, particle physicists were replete with quantum field theories for the strong, weak and electromagnetic forces, meaning they could reduce all of the known particles down to just a few elementary ones, and place them into lists and groups, much like the periodic table of elements. By the mid-1970s, this classification scheme was so well-established it became known as the Standard Model. Yet, at the time, over half of its 17 constituent particles had not even been discovered

Between 1975 and 2012, all of the missing particles were found. The most elusive and final of these was the Higgs boson. The Higgs boson is a particle that mediates the interaction of all matter with the Higgs field, which in turn gives all particles mass. Its discovery on 4 July 2012 at the Large Hadron Collider was the crowning achievement of the Standard Model, recognised by Nobel Prizes awarded for two of the six scientists who first proposed the Higgs boson in 1964.

 

François Englert (Nobel Prize in Physics 2013) presents the data that showed the world that the Higgs boson had been discovered in 2012.
(00:25:57 - 00:27:53)

The complete video is available here.

Despite its success, the completion and experimental verification of the Standard Model does not mark the end of particle physics. With the theoretical prediction and experimental verification that, at high energy, the electromagnetic interaction and weak interaction unify into a single electroweak interaction, many physicists believe that a more complete model will show that at even higher energy, the strong interaction and the electroweak interaction unify into a single electronuclear interaction.

Theories beyond the Standard Model that predict such a unification of three of the four fundamental forces are called Grand Unified Theories (GUTs). Many attempts at GUT models invoke the concept of supersymmetry, which uses quantum variables to describe space and time, and suggests that every known particle has a yet-undiscovered superpartner particle.

Steven Weinberg’s Lindau talk in 1982 is a time capsule back to soon after the Standard Model was finalised. Already, Weinberg expresses his and his contemporaries’ frustrations at progress to extend our understanding beyond the Standard Model, stating how it seems clear that there is an energy scale at which the electroweak and strong forces unify but no convincing explanation as to how. He goes on to point out that supersymmetry, an idea “invented out of the richness of the imagination” involving a whole new family of undiscovered particles, might offer a route to a GUT; an opinion that is still popular now, as exemplified during a 2016 Lindau panel discussion on “Glimpses beyond the Standard Model”.

Steven Weinberg (1982) - Prospects for further unification in the theory of elementary particles

Physicists naturally try to see phenomena in simple terms. You might say that the primary justification for doing elementary particle physics with all its expense and difficulty is the opportunity it gives us of seeing all of nature in somewhat simpler terms. Great progress had been made a few years ago, say from the late 1960’s to the mid 1970’s, in clarifying the nature of the elementary particles and their interactions. Then starting about the mid 1970’s, we began to confront a series of problems of much greater difficulty. And I would have to say that very little progress has been made. I would like first of all today to remind you of what the present understanding of elementary particle physics is, as it was already formulated by the mid 1970’s. And then for the larger part of my talk discuss the attempts that have been made since the mid 1970’s to go beyond this to the next level of simplicity. The present understanding of elementary particle physics, I would say, is based on three chief elements. First of all, there is a picture of the interactions of the elementary particles as being all extremely similar to the one interaction that was earlier well understood, the electromagnetic interaction. You know that the electromagnetic interaction is carried by a massless particle of spin-1, the photon, which for example is exchanged between the electron and the proton in the hydrogen atom. In the present understanding of elementary particle physics there are 12 photons. And I should do this, meaning that the word is put in quotation marks. There are 12 photons which carry all the forces that we know of between the elementary particles. These 12 photons comprise first of all the familiar old photon which is emitted say by an electron or by any charged particle, and then by three siblings, three family members called intermediate vector bosons, a W-, a W+ and a Z0, which are emitted for example when leptons change their charge. When electrons turn into neutrinos or neutrinos turn into electrons. And the neutral one, the Z0 is emitted by electrons and neutrinos when they don’t change their charge. Similarly the W and the Z are also emitted by quarks when they do or do not change their charge respectively. In addition to the four “photons” of the electro weak interactions, there are eight similar particles known as gluons, that Sam Ting has already mentioned, which are emitted when quarks change, not their charge, but a different property which has been humorously named their “colour”, so that a green quark may turn into a red quark emitting a red-green gluon. There are three colours and hence there are eight gluons. You may ask why not nine gluons and I will tell you if you ask me privately later. Now, in electromagnetism we have not only the general idea of a photon but a very clear picture of a symmetry principle of nature which determines the properties of the photon and determines in particular all of its interactions. The principle known as gauge invariance. In a sense, from the point of view of the theoretical physicist, the photon is the way it is because gauge invariance requires it to be that way. The 12 photons of the elementary particle interactions as we know them are also governed by a principle of gauge invariance, but the group of gauge transformations is larger and it is known mathematically as SU(3)x SU(2)x U(1). The SU(2)x U(1) is a 4-dimensional group which governs the four particles of the electroweak interactions, the W and the Z transmit the weak nuclear force, which gives rise to radioactive beta decay. So this whole set of interactions are called the electroweak interactions. And the SU(3) governs the eight gluons which give rise to the strong nuclear forces. This is sometimes called the 321 theory. The theory of the eight gluons by itself is what is known as quantum chromo dynamics. The electric charge of the electron say is in fact just a peculiar weighted average of coupling constants, G and G prime associated with these two groups, SU(2) and U(1), G and G prime play the same role for these groups of gauged transformations that the electric charge played in the older theory of quantum electrodynamics, and the electro charge in fact is given by a simple formula in terms of them. And similarly there is another coupling constant. A coupling constant is just a number that tells you the strength with which these particles are emitted and absorbed. There’s another coupling constant that tells us how strongly gluons are emitted, say when quarks change their colour, known as G sub S for the group SU(3). Now, this is a very pretty picture, especially since, based as it is on familiar old ideas of gauge invariance, it requires us really to learn very little new. Always to be preferred. But there’s an obvious difficulty with it, that is that gauge invariance requires, that the vector particles, the spin-1 particles that transmit the force, have zero mass. Just as for example electromagnetic gauge invariance requires the photon to have zero mass. But of course the W and the Z do not have zero mass. They have masses which are so large that no one so far has been able to produce them, although we have strong reasons to think we know where they are. The explanation for this is now universally believed to be, that the gauge symmetry, although precise and exact, in no sense approximate, is subject to a phenomenon known as spontaneous symmetry breaking. That is these are symmetries of the underlying equations but they are not realised in the physical phenomena. This is a lesson that elementary particle physicists learn from solid state physicists who understood it much earlier than we did. That symmetries can be present at the deepest level and yet not apparent in the phenomena. The symmetries are just as fundamental as if they were not broken but they’re much harder to see. Because the electroweak symmetry of SU(2)x U(1) is spontaneously broken, the W and the Z have masses, the W mass is greater than 40 GeV, the Z mass is greater than 80 GeV and the precise values are determined by an angle which just basically tells you the ratio of these two coupling constant. The angle is measured in a great variety of experiments and on the basis of that we believe the W will be at a mass of about 80 GeV and the Z will be at a mass of about 90 GeV. Of course we anxiously await confirmation of that. The second of the three ingredients,or the three elements on which our present understanding is based, is the menu of elementary particles. I won’t dwell on this, there are six different varieties of quarks, of which five have been discovered and the sixth is anxiously awaited. Each one of these varieties, sometimes called flavours of quarks, according to quantum chromo dynamics comes in three colours, so that altogether there are 18 quarks. And then in parallel to the quarks there are doublets of leptons, neutrino-electron and then the muon behaving like a heavier electron has its own associated neutrino and the tau lepton has its associated neutrino. Physical processes are most simply seen in terms of these quarks and leptons. So for example, when a neutron decays, a state which was originally an up quark and two down quarks of three different colours, turns into two up quarks and a down quark of three different colours, a W- being emitted, which then turns into an electron and an antineutrino. This menu of elementary particles is in no sense forced on us by theory, except for the structure of doublets of quarks and leptons and colour triplets of quarks. The fact that there are 6 flavours is just taken from experiment. And it has to be regarded as just an independent empirical foundation of our present understanding. The third of the foundations of the present understanding of physics is more mathematical but I think equally important. The idea of renormalisability, renormalisability is very simply the requirement that the physical laws must have the property that whenever you get, calculate a physically relevant quantity, you don’t get nonsense, you don’t get divergent integrals, you get an integral which converges, that is a finite number. I think we’ll all agree that that is a desirable quality of a physical theory. The physical theories that satisfy that requirement are actually very easy to distinguish. If an interaction of some sort has a coupling constant G, like the coupling constants G and G prime and GS that I discussed earlier. And if that coupling constant has the dimensions of mass to some power minus D, let’s say a negative power, D is positive. And when I talk about dimensions, I will always be adopting the physicists system of units in which Planck’s constant and the speed of light are one. Then, because the coupling constant has the dimensions of a negative power of mass, the more powers of coupling constant you have in the matrix element for any physical process, the more powers of momentum which have the dimensions of a positive power of mass, mass to the first power, the more powers of momentum you will have to have in the integrals. So that as you go to higher and higher order in the coupling constant, you get more and more powers of momentum in the integrals and the integrals will therefore diverge worse and worse. That’s a bad thing, that’s not a renormalisable theory. The allowed interactions, the renormalisable theories are those with coupling constants therefore, which are not negative powers of mass, but which are either dimensionless like the electric charge of the electron or positive power of mass like for example any mass. A physically satisfactory theory ought to be one which contains only such coupling constants. Now, that is enormously predictive because the energy densities or the Lagrangians that determine physical laws always have a fixed dimensionality, mass to the 4th power. And I remind you that I am using units in which Planck’s constant and the speed of light are one. So energy has the unit of mass and length has the unit of inverse mass. So therefore, if a coupling constant appears in an energy density and it multiplies an operator, a function F with a dimensionality mass to some power D, then the dimensionality of the coupling constant must be just the dimensionality of the Lagrangian 4 minus D. So therefore, in order to keep the dimensionality of the coupling constant positive or zero, we must have the dimensionality of the operators 4 or less. But almost everything has positive dimensionality, fields have dimensionality 1 for boson fields or 3 half for spino fields. Derivatives, space-time derivatives have dimensionality 1, and therefore, as you make an interaction more and more complicated, its dimensionality inevitably increases. But the allowed interactions have dimensionality only 4 or less. And therefore the principle of renormalisability limits the complexity of interactions that are allowed in physics. This is just what physicists need, they need something to tell them The limited set of simple theories that we allow ourselves to think about are those with interactions whose dimensionalities are 4 or less and therefore are sharply limited in the number of fields and derivatives that they can have. In fact so powerful are these limitations that principles A, B and C determine a physical theory uniquely, except for a few free parameters. The free parameters are things like the electric charge of the electron, the Fermi coupling constant of beta decay, the mixing angle between the Z and the photon, a scale parameter of quantum chromo dynamics which tells us where the strong coupling constant begins to become very large. And of course all the quark and lepton masses and masses for other particles called Higgs bosons, that I haven’t mentioned. But aside from this fairly limited set of free parameters, not as limited as we would like but still not enormous number of free parameters, the physical theory of elementary particles in their observed interactions is completely determined. And not only determined but agrees as far as we know with experiment. One of the features of this understanding, which I think is perhaps not as widely emphasised as I would like, to me it seems one of themost satisfactory aspects of what we know about physics, is that the conservation laws of physics, that were painfully deduced from experiment in the 1930’s, 1940’s and 1950’s and 1960’s are now understood as often approximate consequences of these deeper principles. The theory, as constrained by gauge invariance and by renormalisability and other fundamental principles, cannot be complicated enough to violate this symmetry principle. So for example, as long as you assume that certain quark masses are small, the strong interactions must obey the symmetries of isotopic spin invariants chirality in the "eightfold way" of Gell-Mann and Ne'eman, which were previously deduced on the basis of data. Whatever the values of the quark masses, the strong and the electromagnetic interactions must conserve the quantities known as strangeness, charge conjugation invariance and with certain qualifications, parity and time reversal invariance. And independently of the values of the quark masses, and without any qualifications at all, the strong, weak and electromagnetic interactions must conserve baryon and lepton number, there is no way of writing down a theory complicated enough to violate these conservation laws, a theory that would be consistent with the principles that I’ve described. This understanding of the physical origin of the symmetry principles leads us to a further reflection. We now understand why, let us say, strangeness is conserved. Strangeness, the property that distinguishes a K meson from a Pi meson or a hyperon from a nucleon is not conserved because the laws of nature contain on some fundamental level a principle of strangeness. Strangeness is conserved as a more or less accidental consequence of the theory of strong interactions known as quantum chromo dynamics. The theory simply cannot be complicated enough to violate the principle of strangeness conservation. Because strangeness conservation can be understood without invoking strangeness as a fundamental physical conservation law, we are led to reflect that perhaps it is not a fundamental symmetry and perhaps when you widen your scope beyond the strong interactions you will see that strangeness is not conserved. That’s in fact of course true and it’s been known to be true since the first days that people started talking about strangeness conservation. The weak interactions don’t conserve strangeness, for example a hyperon is able to decay into an ordinary proton or neutron violating the conservation of the strangeness quantum number that distinguishes the two. In exactly the same way, because we now understand that baryon and lepton number. By the way, baryon number is just a number which counts the number of quarks, it´s 1/3 for each quark, and lepton number is a number which counts the number of leptons, it´s 1 for each lepton. The conservation of baryon and lepton number for example prohibits processes like the proton decaying into a positron and a Pi 0, which would otherwise be allowed. Because the conservation of baryon and lepton number is understood as a dynamical consequence of the present theory of electroweak and strong interactions and the principle renormalisability, there is no reason to doubt that, when we go to a wider context, that this conservation law will be found to be violated. Because it is not needed as a fundamental conservation law. It is understood without it´s being needed on a fundamental level. A great deal of attention has been given to this possibility, that baryon and lepton number are not conserved. Suppose for example that there are exotic particles with masses much greater than the W or the Z. Let me take the mass capital N as just some characteristic mass scale for a new world of exotic particles that have not yet been discovered, and by exotic I mean rather precisely particles with different quantum numbers for the gauge symmetries, SU(3)x SU(2)x U(1) than the known quarks and leptons and gauge bosons. The world that we know of is just the world of those particles that have much smaller masses than this new scale capital N. And that world is described, since we’re not looking at all at physics, we’re only looking at part of physics, not by a fundamental field theory but what's called an effective field theory. We should describe our present physics in terms of an effective Lagrangian. That effective Lagrangian, since it’s not the ultimate theory of physics, might be expected to contain non-renormalisable as well as renormalisable terms. In the same way that when Euler and Heisenberg in the mid 1930’s wrote down an effective Lagrangian for the scattering of light by light at energies much lower than the mass of the electron, they wrote down a non-renormalisable theory because they weren’t working at a fundamental level but only with an effective theory that was valid as a low energy approximation. The effective theory should contain non-renormalisable terms, and as I indicated before, these are terms whose coupling constant has the dimensionalities of a negative power of mass. That is we have operators O with dimensionality D and coupling constants with dimensionality 1 over mass to the D minus 4. And what mass would this be? Well, it would have to be the mass of the fundamental scale of the particles that have been eliminated from the theory the same way the electron is eliminated from electrodynamics in the Euler-Heisenberg theory of the scattering of light by light. This tells us then that the reason, that physics appears to us to be dominated by renormalisable interactions at low energies, is not because the non-renormalisable interactions aren’t there, but because they’re greatly suppressed by negative powers of some enormous mass. And we should expect in the physics of low energies to find not only the renormalisable interactions of the known electroweak and strong interactions but much weaker, subtler effects due to non-renormalisable interactions suppressed by very large masses in the denominator of the coupling constant. There has been work by myself and Wilczek and Zee to catalogue all possible interactions of this sort up to dimension-6 or -7 operators. The lowest dimensional operators that can produce baryon violation turns out are dimension-6operators and hence according to the general rules I’ve given you, are suppressed by two powers of a super large mass. A catalogue has been made, of - these dimension-6 operators of the form quark, quark, quark, lepton. A catalogue has been made of all of these interactions and it turns out that they all satisfy the principle that, although they violate baryon and lepton conservation, they violate them equally, so that for example the proton can decay into an antilepton.The neutron can also decay into an antilepton, neutron can decay into e+ Pi-, but the neutron cannot decay into a lepton, neutron cannot decay into e- Pi+. And there are other consequences of the simple structure of these operators, something like aDelta I =1/2 rule. The decay rate of the proton into a positron is 1/2 the decay rate of the neutron into a positron. We can say all these things with great confidence without being at all sure that protons and neutrons actually decay. The decay rate of the proton and the neutron, that is decay at an observable rate, the decay rate of the proton, let us say, will be suppressed in the matrix element by two powers of a super large mass, and there’s sure to be a coupling constant factor like the fine structure constant. You square the matrix element and multiply by a phase space factor, the proton mass to the 5th power to get a decay rate. The big unknown in this formula for the proton decay rate is of course the super heavy mass scale. We know the proton is more stable than, well its lifetime is longer than 10 to the 30th years and therefore this mass must be very large indeed, it must be larger than about 10 to the 14thGeV. There are other effects that violate known symmetries. Lepton number is violated by an operator that has dimensionality, not 6 but only 5. And this produces neutrino masses of the order of 300 GeV2 divided by the super heavy mass scale, that’s a very low neutrino mass, that’s less than 1 volt if the mass scale is greater than 10 to the 14thGeV. Now, there is other debris, which might be expected to be found in the low energy world and I simply won’t have time to discuss this. In a sense gravity itself can be regarded as the debris in our low energy effective field theory of a more fundamental theory that describes physics at a mass scale above 10 to the 14thGeV. Why in the world should there be a mass scale so much larger, twelve orders of magnitude larger than the highest masses that we’re used to considering? A possible answer comes from the general idea of grand unification. Grand unification is very simply the idea that the strong and electroweak gauge groups are all parts of a larger gauge group, which is here simply denoted G. Just as the electroweak gauge group is spontaneously broken, giving masses to the W into the electromagnetic gauge group, and that’s why the W and the Z are so heavy and have not yet been discovered, the grand gauge group G is assumed to be broken at a very high energy scale, M, into its ingredients SU(3)x SU(2)x U(1). And one coupling constant will turn out hopefully to generate the strong and the electroweak coupling constants in the same way that the two electroweak coupling constants combine together to give the electric charge. Another hope here, equally important, is that the quarks and leptons would be unified into a single family so that we wouldn’t have red, white, blue and lepton colours but we would have one quartet for each flavour of quarks and leptons. Models which realise some of these ideas were proposed, beginning in 1973, starting with the work of Pati and Salam, and then Georgi and Glashow, and then Fritsch and Minkowski, and then many other people. But an obvious difficulty with any model of this sort is the fact that the strong coupling constant, as its name implies, is much stronger than the electroweak couplings. Sam Ting told us that the fine structure constant for the strong interactions is about .2 and we all know the fine structure constant for the electromagnetic interactions is 1 over 137. How can two such different strengths of force arise from the same underlying coupling constant G sub G. The answer which is now I think the most popular was proposed in 1974 by Georgi, Quinn and myself, our answer was that these coupling constants are indeed related to a fundamental coupling constant, but they’re related only at a super large mass scale M. The strong and electroweak couplings, which are indicated here as these three curves, are not really constants, they’re functions of the energy at which they’re measured. This is well known in quantum electrodynamics, the property of asymptotic freedom means that the coupling constant shrinks with energy. The coupling constants of the electroweak force, one of them shrinks, one of them increases. One imagines there might be a point at which they all come together, at some very high energy. Indeed there is such a point but since this variation with energy is very slow, it´s only logarithmic, the energy at which the coupling constants come together is exponentially large. It’s given by the formula that the logarithm of the ratio of this fundamental mass scale to the W mass is something like 4 Pi square over 11 e square, where e is the electric charge, with this correction due to the strong interactions. And that comes out to be about 4 to 8 times 10 to the 14thGeV. So we see now why there has to be a scale of energies greater than 10 to the 14thGeV. It’s to give the strong interactions time to get as weak as the electroweak interactions. These three curves are coming together at one point, it’s not easy to get three curves to intersect at a single point, and in fact the way it’s done is by carefully adjusting the data at the low energy end to make them aimed in the right direction so that they’ll all hit at the same point. That careful adjustment of the data I can put in a slightly more complementary way, as saying that we predict and this was done by Georgi, Quinn and me, we predict certain ratios of these coupling constants which can be expressed as a prediction of the value of the mixing angle between the Z and the photon. That prediction was in conflict with experiment in 1974, in agreement with experiment now and it’s the experiment that changed, not the theory. There are a great many problems, I would say in fact that this prediction of this mixing angle is the only tangible success, quantitative success so far of grand unification. There are a number of problems with further progress. One problem is that we have had no convincing explanation of the pattern of quark and lepton masses. By convincing explanation I mean more than a theory in which you’ll have enough free parameters to rearrange things the way you want. But something that really gives you a feeling you understand it. There’s been no convincing explanation of the pattern of generations that we have not only an up down electron generation and a charm strange muon generation but a third generation, maybe a fourth generation, we don’t know why any of that is true. Perhaps the most puzzling problem of all, we have no fundamental explanation of the hierarchy of forces, that is that there is a ratio of 12 orders of magnitude between the symmetry breaking scale of the grand gauge group and the electroweak gauge group. We know that that’s true, we think we know it’s true because the strong force at low energy is so much stronger than the electroweak force. But where this number of 10 to the 12thcomes from is endlessly speculated about, there are many, many ideas but there’s no one idea that really convinces people. And finally there’s no one model that stands out as the obvious model. There are many candidate models of grand unification but since all of them leave A, B and C un-understood, we can’t really attach our allegiance to any one of these models. There is a further development which started in 1974 which has occupied a large part of the attention of theoretical physicists in the succeeding years, this is a symmetry called supersymmetry, invented, although there were precursors, invented by Wess and Zumino and then carried on by Salam and Strathdee and many other people. Supersymmetry is a symmetry which operates in a sense orthogonally to the symmetries that I’ve been discussing up till now. The electroweak gauge symmetry for example connects the neutrino and the electron, both particles of the same spin but different charge. Supersymmetry connects particles of different spin but the same charge, flavour, colour etc. For example supersymmetry would connect the electron which has spin ½ with another particle that might have spin-0 or spin-1. It had been thought that such symmetries were impossible and in fact they’re almost impossible. There is a theorem by Haag, Lopuszanski and Sohnius, terribly important theorem that tells us that the kind of supersymmetry, which was invented out of whole cloth, just out of the richness of their imagination by Wess and Zumino turns out to be unique. It is the only mathematically allowed way of having a symmetry that connects particles of different spin. And therefore, without too much arbitrariness, we can fasten our attention on a particular kind of symmetry which is simply called supersymmetry and explore the consequences of it. And we know that, whether it’s right or wrong, there isn’t anything else that could unify particles of different spin. Now, we don’t see any trace in nature of supermultiplets of this sort, that is the electron does not seem to have a partner of spin-0 or spin-1. Well, that in itself should not convince us the idea is wrong, we’re used by now to the idea that symmetries can be true at a fundamental level and yet spontaneously broken. Supersymmetry must be spontaneously broken. In fact there is not a trace in nature of any supermultiplet that is visible to us. Sometimes it’s said that supersymmetry is the symmetry that unifies every known particle with an unknown particle. Supersymmetry is surely spontaneously broken, the big question is: Where is it broken? And I’ve been giving a lot of attention to this question lately and I think I will close by just summarising my conclusions, you might think perhaps that supersymmetry is broken at the same sort of energies at which the electroweak gauge symmetry is broken, that is energies like MsubW or of the order of 100 GeV. There are many reasons why that doesn’t work. The partners of the quarks, which are scalar particles, spin-0 particles and hence are called squarks, would give very fast proton decay. This could be avoided by inventing new symmetries. The squarks and the sleptons would be too light, that is they would be light enough to have been observed and as I already told you they haven’t been observed. This also can be avoided by inventing new symmetries, in particular Fayet has explored this possibility. These unwanted new symmetries and other new symmetries that you can’t avoid in such theories lead to light spin-0 particles called Goldstone bosons, which are apparently impossible to get rid of, and Glennys Farrar and I have been exploring their properties. And we have come to the conclusion, or I should say I have come to the conclusion, I’m not sure if Glennys agrees, that supersymmetry broken at these low energies is really hopeless. Another possibility is that supersymmetry is broken at medium high energy. That is supersymmetry is broken at energies which are much larger than the W mass, much smaller than the mass scale at which the grand unified symmetry is broken. Now,supersymmetry is a gauge symmetry like the electroweak gauge symmetry, it has an intermediate vector boson but because of the peculiarity of supersymmetryit’s not a vector particle spin-1, it’s a spin-3 half particle called the gravitino. The gravitino like the W particle has a mass and the mass is related to the scale at which the supersymmetry is broken. And in fact the mass of the gravitino which is a super partner of the graviton, the quantum gravitational radiation, the mass of the gravitino is the symmetry breaking scale square divided by 10 to the 19thGeV. If the symmetry breaking scale is in a very broad intermediate range, from 10 to the 6 GeV up to 10 to the 11th, it would wreck the universe, its mass density would reduce much too large a deceleration of the expansion of the universe. And yet the gravitino’s would be much too light to have decayed by now, so that they would be present in very large numbers. It would be a cosmological disaster. So we can conclude therefore that this large range of intermediate scales of supersymmetry break down are forbidden and therefore that supersymmetry, if valid at all, can only be broken at the very highest energies, energies comparable to the energies at which the grand unified group is broken or perhaps even higher. This means that supersymmetry is going to be primarily of importance, not to the experimentalist but to the poor theorist who is struggling to produce a more satisfactory theory. Nevertheless I feel that supersymmetry must survive as an ingredient in a final theory because sooner or later we must ultimately have a unification, not only of electromagnetism with the weak interactions and electrons with neutrinos, but we must have a unification of all the particles of nature, the W boson with the electron, with the graviton. And within a very broad mathematical context we now have a theorem that tells us that the only way that that’s possible is through supersymmetry. So in the end I’m very optimistic about supersymmetry but I’m afraid that the problems of supersymmetry are going to be solved only when a larger class of problems having to do with grand unification are solved. Theoretical physicists in the last few years have not been making rapid progress in solving these problems. I would say that this has been one of the most frustrating periods that I have seen during my period in physics. At the present moment the theorists, somewhat through exhaustion, are waiting for the completion of a series of heroic experiments which we hope will break the logjam and get us started again. There are a number of key experiments that deal with the problems that I have been discussing here. Well, first of all of course there are the experiments like the experiments that Sam Ting was discussing and other experiments to find the W and the Z particle as isolated physical particles, which are crucial in pinning down the parameters and in confirming the existing understanding. But to go beyond the existing understanding, I would say there are three chief classes of experiments which are being actively pursued. There are experiments on proton decay, which test the conservation of baryon number, there are experiments on the mass of the neutrino which test the conservation of lepton number. And finally there is the question of whether the magnetic monopole, which was discovered perhaps a few months ago at Stanford, is real. And that will be tested by continuing those experiments at Stanford with a larger apparatus. The grand unified theories, as pointed out by Polyakov and ´t Hooft characteristically predict the existence of magnetic monopoles with masses of the order of 137 times the grand unified mass scale. So roughly speaking 10 to the 16thGeV. The grand unified theories themselves of course don’t tell us how many of these particles there are in the universe, they just tell us that they can exist. At Stanford there is a possibility that such a particle has been discovered and we eagerly await confirmation of its existence. These experiments have all so far in fact yielded positive results, there are a few proton decay experiments in an experiment in the Kolar gold field in India. There are preliminary indications of a neutrino mass in an experiment in Russia and in another one in California, or rather in Georgia. And then of course there is the magnetic monopole, for which we have exactly one candidate. We are now in the position of sitting at the edge of our chairs, waiting to see whether these preliminary indications of proton decay and neutrino masses and magnetic monopoles will in fact be born out by further experiments. And I will be happy to tell you my predictions for this after the experiments are completed.

Natürlich sind Physiker bestrebt, Phänomene einfach auszudrücken. Man könnte sagen, die eigentliche Begründung dafür, Elementarteilchenphysik mit all den damit verbundenen Kosten und Schwierigkeiten zu betreiben, ist die Möglichkeit, die gesamte Natur etwas einfacher zu betrachten. Vor einigen Jahren, ungefähr Ende der 1960er bis Mitte der 1970er Jahre, wurden große Fortschritte in der Aufklärung der Natur der Elementarteilchen und ihrer Wechselwirkungen gemacht. Ab Mitte der 1970er Jahre sind dann zahlreiche größere Schwierigkeiten aufgetreten. Und ich möchte behaupten, dass seitdem kaum noch Fortschritte erreicht wurden. Ich möchte Ihnen heute zunächst das gegenwärtige Verständnis der Elementarteilchenphysik in Erinnerung bringen, wie es bereits bis Mitte der 1970er Jahre formuliert worden war. Und dann möchte ich im größeren Teil meines Vortrags die Versuche erläutern, die seit Mitte der 1970er Jahre unternommen wurden, um im Sinne der nächsten Simplizitätsebene weiterzukommen. Ich würde sagen, dass das derzeitige Verständnis der Elementarteilchenphysik auf drei Hauptelementen basiert. Erstens gibt es eine Vorstellung von den Wechselwirkungen der Elementarteilchen, die alle der einzigen bereits früher gut verstandenen Wechselwirkung sehr ähnlich sind, der elektromagnetischen Wechselwirkung. Sie wissen, dass die elektromagnetische Wechselwirkung durch ein masseloses Spin-1-Teilchen, das Photon, übertragen wird, das beispielsweise zwischen dem Elektron und dem Proton im Wasserstoffatom ausgetauscht wird. Im derzeitigen Verständnis der Elementarteilchenphysik gibt es zwölf Photonen. Und ich sollte dies [Handbewegung] dazu machen, was bedeutet, dass das Wort zwischen Anführungsstrichen zu verstehen ist. Es gibt zwölf Photonen, die die gesamten uns bekannten Kräfte zwischen den Elementarteilchen übertragen. Diese zwölf Photonen umfassen zunächst das bekannte alte Photon, das – sagen wir – von einem Elektron oder einem geladenen Teilchen abgegeben wird, und drei Geschwister, drei Familienmitglieder, die Zwischenvektorbosonen genannt werden, ein W-, ein W+ und ein Z0, die beispielsweise emittiert werden, wenn Leptonen ihre Ladung verändern, wenn Elektronen zu Neutrinos oder Neutrinos zu Elektronen werden. Und das neutrale, das Z0, wird von Elektronen und Neutrinos emittiert, wenn sie ihre Ladung nicht verändern. Vergleichbar werden das W und das Z ebenfalls durch Quarks emittiert, wenn sie ihre Ladung verändern bzw. nicht verändern. Zusätzlich zu den vier „Photonen“ der elektroschwachen Wechselwirkungen gibt es acht vergleichbare, als Gluonen bezeichnete Teilchen, die Sam Ting bereits erwähnt hat. Diese Teilchen werden emittiert, wenn Quarks nicht ihre Ladung, sondern eine andere Eigenschaft, die humorvoll als ihre „Farbe“ bezeichnet wird, verändern. Dabei kann sich ein grünes Quark in ein rotes Quark verwandeln, wobei ein rot-grünes Gluon emittiert wird. Es gibt drei Farben und daher acht Gluonen. Sie fragen sich vielleicht, warum nicht neun Gluonen. Das erkläre ich Ihnen gerne, wenn Sie mich später privat darauf ansprechen. Nun, im Elektromagnetismus existiert nicht nur die allgemeine Vorstellung von einem Photon, sondern eine sehr klares Bild von einem Symmetrieprinzip der Natur, das die Eigenschaften des Photons und insbesondere seine gesamten Wechselwirkungen festlegt. Dieser Grundsatz ist als Eichinvarianz bekannt. Aus der Sicht des theoretischen Physikers ist das Photon so, wie es nun einmal ist, weil die Eichinvarianz dies vorgibt. Die zwölf Photonen der Elementarteilchen-Wechselwirkungen in der uns bekannten Form unterliegen ebenfalls einem Eichinvarianz-Prinzip. Aber hier ist die Gruppe der Eichtransformationen größer und das ist mathematisch als Formel SU(3) x SU(2) x U(1) bekannt. SU(2) x U(1) ist eine vierdimensionale Gruppe, die die vier Teilchen der elektroschwachen Wechselwirkungen prägt. Und das W und das Z übertragen die schwache Kernkraft, die den radioaktiven Beta-Zerfall bewirkt. Diese Gesamtreihe von Wechselwirkungen wird als elektroschwache Wechselwirkungen bezeichnet. Und SU(3) regelt die acht Gluonen, die die starken Kernkräfte hervorrufen. Dies wird auch als 321-Theorie bezeichnet. Die Theorie der acht Gluonen selbst ist unter der Bezeichnung Quantenchromodynamik bekannt. Die elektrische Ladung des Elektrons ist faktisch nur ein auffällig gewichteter Durchschnitt der Kopplungskonstanten G und G Prime in Verbindung mit diesen beiden Gruppen Su(2) und U(1). Und G und G Prime spielen für diese Gruppen von Eichtransformationen dieselbe Rolle, wie sie die elektrische Ladung in der älteren Theorie der Quantenelektrodynamik gespielt hat. Die elektrische Ladung wird tatsächlich in diesem Sinne durch eine einfache Formel vorgegeben. Und in vergleichbarer Weise existiert eine weitere Kopplungskonstante. Eine Kopplungskonstante ist einfach eine Zahl, die etwas über die Stärke aussagt, in der diese Teilchen emittiert und absorbiert werden. Es gibt eine weitere Kopplungskonstante, die uns sagt, in welcher Stärke Gluonen ausgesendet werden, beispielsweise, wenn Quarks ihre Farbe verändern, bekannt als G Sub S für die Gruppe SU(3). Das ist eine ganz nette Geschichte, insbesondere, weil sie auf bekannten alten Vorstellungen von der Eichinvarianz basiert und uns deshalb wenig Neues abverlangt. So etwas haben wir immer gerne. Aber es gibt da eine offensichtliche Schwierigkeit, nämlich die, dass die Eichinvarianz voraussetzt, dass die Vektorteilchen, die Spin1-Teilchen, die die Kraft übertragen, eine Nullmasse aufweisen. So setzte die elektromagnetische Eichinvarianz beispielsweise eine Nullmasse des Photons voraus. Aber das W und das Z haben natürlich keine Nullmasse. Ihre Massen sind so groß, dass bisher niemand in der Lage war, sie herzustellen, wenn wir auch gute Gründe für die Annahme haben zu wissen, wo sie sich befinden. Die Erklärung dafür wird nun allgemein darin gesehen, dass die Eichsymmetrie, obwohl sie präzise und exakt, also in keiner Weise ein Näherungswert ist, einem als spontane Symmetriebrechung bekannten Phänomen unterliegt. Das heißt, dass es sich hier um Symmetrien der zugrunde liegenden Gleichungen handelt, die sich aber in den physikalischen Phänomenen nicht realisiert haben. Diese Lektion haben die Elementarteilchen-Physiker von den Festkörper-Physikern gelernt, die viel früher als wir verstanden hatten, dass diese Symmetrien auf tiefster Ebene vorhanden sein können und dennoch im Phänomen nicht offensichtlich werden. Die Symmetrien sind genauso fundamental, als ob sie überhaupt nicht gebrochen wären, nur eben viel schwieriger zu erkennen. Weil die elektroschwache Symmetrie von SU(2) x U(1) spontan gebrochen ist, haben das W und das Z Massen. Die W-Masse ist größer als 40 GeV und die Z-Masse größer als 80 GeV. Die genauen Werte werden durch einen Winkel ermittelt, der nur etwas Grundlegendes über das Verhältnis dieser beiden Kopplungskonstanten aussagt. Der Winkel wurde in einer Vielzahl von Experimenten gemessen. Basierend darauf nehmen wir an, dass das W eine Masse von rund 80 GeV und das Z eine Masse von rund 90 GeV aufweist. Mit Bangen warten wir natürlich noch auf die Bestätigung dieser Annahmen. Der zweite dieser drei Bestandteile bzw. das zweite dieser drei Elemente, auf denen unser derzeitiges Verständnis basiert, ist das Elementarteilchen-Menü. Ich möchte mich damit nicht zu lange aufhalten. Es gibt sechs verschiedene Varianten von Quarks, von denen fünf entdeckt wurden und das sechste mit Bangen erwartet wird. Jede dieser Varianten, die manchmal als Quark-Aromen bezeichnet werden, gibt es in Anlehnung an die Quantenchromodynamik in drei Farben, was insgesamt 18 Quarks ergibt. Und dann gibt es parallel zu den Quarks noch Dubletten von Leptonen, Neutrino-Elektron, sowie das Muon, das sich wie ein schwereres Elektron verhält und sein eigenes verbundenes Neutrino hat, sowie das Tau-Lepton mit seinem verbundenen Neutrino. Physikalische Prozesse werden am einfachsten im Sinne dieser Quarks und Leptonen betrachtet. Zerfällt also beispielsweise ein Neutron, wird aus einem ursprünglichen Zustand mit einem Up-Quark und zwei Down-Quarks in drei verschiedenen Farben ein Zustand mit zwei Up-Quarks und einem Down-Quark in drei verschiedenen Farben, wobei ein W- emittiert wird, was sich dann in ein Elektron und ein Antineutrino verwandelt. Dieses Elementarteilchen-Menü wird uns in keiner Weise von einer Theorie aufgezwungen, mit Ausnahme hinsichtlich der Struktur der Doubletten von Quarks und Leptonen und der Farb-Tripletten von Quarks. Das Faktum, dass es sechs Aromen gibt, ist lediglich das Ergebnis eines Experiments sechsund wird deshalb einfach als eine unabhängige, empirische Grundlage unseres derzeitigen Verständnisses betrachtet. Die dritte Grundlage des derzeitigen Verständnisses der Physik ist eher mathematischer Art, aber ich halte sie für gleichermaßen wichtig – die Vorstellung von der Renormalisierbarkeit. Die Renormalisierbarkeit meint ganz einfach die Anforderung, dass physikalische Gesetze die Eigenschaft haben müssen, dass sie bei Berechnung einer physikalisch relevanten Menge keinen Unsinn ergeben, dass man also kein divergentes Integral, sondern ein konvergentes Integral erhält, also eine endliche Zahl. Ich denke, dass wir uns darauf einigen können, dass das eine wünschenswerte Qualität einer physikalischen Theorie ist. Die physikalischen Theorien, die diese Anforderung erfüllen, lassen sich in der Tat sehr leicht erkennen. Wenn eine Wechselwirkung einer bestimmten Art eine Kopplungskonstante G aufweist – wie die Kopplungskonstanten G und G Prime und GS, die ich früher erläutert habe – und diese Kopplungskonstante Massedimensionen in einer gewissen Potenz minus D aufweist, also eine negative Potenz, und D positiv ist (und wenn ich hier über Dimensionen rede, beziehe ich mich immer auf das Einheitssystem der Physiker, in dem Planck-Konstante und Lichtgeschwindigkeit eins sind), dann gilt, weil die Kopplungskonstante die Dimensionen einer negativen Potenz der Masse annimmt: Je größer die Potenzen der Kopplungskonstante im Matrixelement jedes physikalischen Prozesses sind, umso größer müssen die Potenzen des Impulses, die die Dimensionen einer positiven Potenz der Masse aufweisen, eine Masse erster Potenz, sein, umso größere Potenzen des Impulses hat man zwangsläufig in den Integralen. Je höher also die Größenordnung der Kopplungskonstante wird, umso größer werden die Potenzen des Impulses in den Integralen, weshalb die Integralen zunehmend schlechter divergieren. Das ist schlecht, das ist keine renormalisierbare Theorie. Die zulässigen Wechselwirkungen, die renormalisierbaren Theorien sind deshalb Theorien mit Kopplungskonstanten, die keine negativen Potenzen der Masse aufweisen, sondern dimensionslos sind, wie etwa die elektrische Ladung des Elektrons oder die positive Potenz der Masse, beispielsweise irgendeiner Masse. Eine physikalisch befriedigende Theorie müsste eine Theorie sein, in der nur solche Kopplungskonstanten vorkommen. Das ist übrigens überaus vorhersagbar, weil die Energiedichten oder die Lagrange-Dichten, die die physikalischen Gesetze festlegen, immer eine feste Dimensionalität aufweisen, nämlich eine Masse der vierten Potenz. Und ich erinnere Sie daran, dass ich Einheiten verwende, bei denen die Planck-Konstante und die Lichtgeschwindigkeit eins sind. Die Energie ist also die Einheit der Masse und die Länge die Einheit der inversen Masse. Wenn also in einer Energiedichte eine Kopplungskonstante auftritt und einen Operator, eine Funktion F, mit einer Dimensionalitätsmasse in einer gewissen Potenz D multipliziert, muss die Dimensionalität der Kopplungskonstante genau die Dimensionalität des Lagrangian 4 minus D ergeben. Soll also die Dimensionalität der Kopplungskonstanten positiv bleiben oder null sein, müssen wir die Operatorendimensionalität bei 4 oder darunter halten. Aber fast alles hat eine positive Dimensionalität. Felder haben eine Dimensionalität von 1 für Boson-Felder oder drei Halben für Spinor-Felder. Derivate, Raumzeitderivate haben die Dimensionalität 1. Wenn man eine Wechselwirkung zunehmend verkompliziert, nimmt deren Dimensionalität deshalb zwangsläufig zu. Aber die zulässigen Wechselwirkungen haben eine Dimensionalität von höchstens 4. Deshalb schränkt das Prinzip der Renormalisierbarkeit die Komplexität von zulässigen Wechselwirkungen in der Physik ein. Und genau das brauchen Physiker. Sie brauchen etwas, das ihnen sagt: Die begrenzte Anzahl von einfachen Theorien, die wir uns selbst zugestehen, sind solche mit Wechselwirkungen, deren Dimensionalitäten bei 4 oder darunter liegen und die deshalb in der Anzahl der möglichen Felder und Derivate stark begrenzt sind. Diese Einschränkungen sind in der Tat so wirksam, dass die Grundsätze A, B und C eine physikalische Theorie eindeutig festlegen – mit Ausnahme einiger freier Parameter. Die freien Parameter sind Dinge wie die elektrische Ladung des Elektrons, die Fermi-Kopplungskonstante des Beta-Zerfalls, der Mischungswinkel zwischen Z und dem Photon, ein Skalierungsparameter der Quantenchromo-Dynamik, der uns sagt, wo die starke Kopplungskonstante sehr groß zu werden beginnt. Und natürlich all die Quark- und Lepton-Massen und die Massen für andere Teilchen, die Higgs-Bosonen genannt werden und die ich noch nicht erwähnt habe. Aber abgesehen von dieser recht begrenzten Zahl freier Parameter, die nicht so begrenzt ist, wie wir uns das wünschen würden, aber bei der es sich dennoch nicht um eine enorm große Zahl freier Parameter handelt, ist die physikalische Theorie der Elementarteilchen in ihren beobachteten Wechselwirkungen vollständig festgelegt. Und sie ist nicht nur festgelegt, sondern stimmt unseres Erachtens auch mit experimentellen Ergebnissen überein. Eines der Merkmale dieses Verständnisses, das meiner Ansicht nach nicht oft genug betont werden kann und für mich einer der zufriedenstellendsten Aspekte dessen erscheint, was wir über die Physik wissen, ist die Tatsache, dass die Erhaltungssätze der Physik, die in den 1930er, 1940er, 1950er und 1960er Jahren mühsam aus Experimenten abgeleitet wurden, heute als oft approximative Konsequenzen dieser tieferen Grundsätze verstanden werden. Die Theorie kann, mit den Begrenzungen der Eichinvarianz und der Renormalisierbarkeit sowie anderer fundamentaler Grundsätze, nicht kompliziert genug sein, um diesen Symmetriegrundsatz zu verletzen. Solange man beispielsweise annimmt, dass bestimmte Quark-Massen klein sind, müssen die starken Wechselwirkungen den Symmetrien der isotopischen Spin-Invarianz-Chiralität in der „achtfachen Weise“ von Gell-Mann und Ne’eman folgen, die vorher auf der Grundlage von Daten abgeleitet wurden. Wie auch immer die Werte der Quark-Massen sind: Die starken und die elektromagnetischen Wechselwirkungen müssen die als Fremdheits-, Ladungsspiegelungsinvarianz und, unter bestimmten Voraussetzungen, als Paritäts- und Zeitumkehrinvarianz bekannten Quantitäten erhalten. Und unabhängig von den Werten der Quark-Massen und ohne irgendwelche Einschränkungen müssen die starken, schwachen und elektromagnetischen Wechselwirkungen die Baryon- und Lepton-Zahl erhalten. Es gibt keine Möglichkeit, eine Theorie zu erfinden, die kompliziert genug ist, um diese Erhaltungssätze zu verletzen, eine Theorie, die mit den von mir beschriebenen Grundsätzen übereinstimmen würde. Dieses Verständnis vom physikalischen Ursprung der Symmetrieprinzipien führt uns zu einer weiteren Überlegung. Wir verstehen jetzt, warum beispielsweise Fremdheit erhalten bleibt. Fremdheit, die Eigenschaft, die ein K-Meson von einem pi-Meson oder ein Hyperon von einem Nukleon unterscheidet, wird nicht deshalb erhalten, weil die Naturgesetze auf einer gewissermaßen fundamentalen Ebene ein Grundgesetz der Fremdheit erhalten. Fremdheit wird als eine mehr oder weniger zufällige Konsequenz der Theorie starker Wechselwirkungen erhalten, bekannt unter der Bezeichnung Quantenchromodynamik. Die Theorie kann einfach nicht komplex genug sein, um den Grundsatz der Fremdheit zu verletzen. Weil sich die Erhaltung der Fremdheit verstehen lässt, ohne die Fremdheit als einen fundamentalen physikalischen Erhaltungssatz einzuführen, gelangen wir zu der Überlegung, dass die Symmetrie vielleicht gar nicht fundamental ist und man vielleicht, wenn man den Bereich über die starken Wechselwirkungen hinaus öffnet, erkennt, dass Fremdheit nicht erhalten wird. Das ist natürlich richtig und bekannt, seit Menschen über die Erhaltung von Fremdheit sprechen. Die schwachen Wechselwirkungen erhalten Fremdheit nicht, so kann beispielsweise ein Hyperon in ein normales Proton oder Neutron zerfallen, was die Erhaltung der Fremdheitsquantenzahl verletzt, die die beiden unterscheidet. Genauso, weil wir jetzt diese Baryon- und Lepton-Zahl verstehen. Nebenbei erwähnt, ist die Baryon-Zahl nur eine Zahl, die die Anzahl von Quarks angibt, es ist ein Drittel für jedes Quark, und ist die Lepton-Zahl eine Zahl, die die Anzahl der Leptonen angibt, sie lautet 1 für jedes Lepton. Die Erhaltung der Baryon- und der Lepton-Zahl verbietet beispielsweise Prozesse wie den Protonen-Zerfall in ein Positron und ein pi 0, was ansonsten zulässig wäre. Weil die Erhaltung der Baryon- und der Lepton-Zahl als dynamische Folge der derzeitigen Theorie elektroschwacher und starker Wechselwirkungen und des Grundsatzes der Renormalisierbarkeit verstanden wird, gibt es keinen Grund daran zu zweifeln, dass dieser Erhaltungssatz bei Eröffnung eines weiteren Kontextes verletzt werden dürfte; weil er nicht als grundlegender Erhaltungssatz benötigt wird. Er versteht sich, ohne dass er auf grundlegender Ebene erforderlich ist. Man hat sich viel mit der Möglichkeit beschäftigt, dass die Baryon- und die Lepton-Zahl nicht erhalten bleiben. Nehmen wir beispielsweise an, dass es exotische Teilchen mit über W oder Z liegenden Massen gibt. Lassen Sie mich den Massebuchstaben N als eine charakteristische Massenskala für eine neue Welt exotischer Teilchen annehmen, die bisher noch nicht entdeckt wurden. Und mit „exotisch“ meine ich ziemlich konkret Teilchen mit anderen Quanten-Zahlen für die Eichsymmetrien, SU(3) x SU(2) x U(1), als die bekannten Quarks und Leptonen und Eichbosonen. Die Welt, die wir kennen, ist einfach die Welt der Teilchen, die wesentlich geringere Massen aufweisen als diese neue Skala N. Und diese Welt ist, da wir nicht auf die gesamte Physik, sondern auf einen Teil der Physik schauen, nicht durch eine fundamentale Feldtheorie, sondern durch das, was wir als eine effektive Feldtheorie bezeichnen, beschrieben. Wir sollten unsere aktuelle Physik im Sinne eines effektiven Lagrangian beschreiben. Dieser effektive Lagrangian könnte, da es sich dabei nicht um die ultimative Theorie der Physik handelt, sowohl nicht-renormalisierbare als auch renormalisierbare Terme enthalten. Genauso, wie Euler und Heisenberg Mitte der 1930er Jahre beim Aufschreiben eines effektiven Lagrange-Wertes für die Streuung des Lichts durch Licht Energien angaben, die wesentlich geringer waren als die Masse des Elektrons, und somit eine nicht-renormalisierbare Theorie aufschrieben, weil sie nicht auf fundamentaler Ebene arbeiteten, sondern nur mit einer effektiven Theorie, die als Niedrigenergie-Annäherung gültig war. Die effektive Theorie sollte nicht-renormalisierbare Terme enthalten, und wie ich bereits andeutete, sind dies Terme, deren Kopplungskonstante die Dimensionalitäten einer negativen Potenz der Masse aufweisen. Das heißt, wir haben Operatoren O mit einer Dimensionalität D und Kopplungskonstanten mit einer Dimensionalität 1 durch Masse hoch D minus 4. Und welche Masse wäre das dann? Es müsste die Masse der fundamentalen Skala der Teilchen sein, die in derselben Weise aus der Theorie eliminiert worden sind, wie das Elektron in der Euler-Heisenberg-Theorie der Lichtstreuung durch Licht eliminiert wurde. Das besagt, dass der Grund dafür, dass die Physik bei Niedrigenergien offensichtlich von renormalisierbaren Wechselwirkungen beherrscht wird, nicht der ist, dass keine nicht-renormalisierbaren Wechselwirkungen vorhanden sind, sondern der, dass sie durch negative Potenzen einer enormen Masse stark unterdrückt werden. Und wir sollten in der Physik der Niedrigenergien nicht nur auf die renormalisierbaren Wechselwirkungen der bekannten elektroschwachen und starken Wechselwirkungen stoßen, sondern auf noch wesentlich schwächere, subtilere Effekte, weil nicht-renormalisierbare Wechselwirkungen durch sehr große Massen im Nenner der Kopplungskonstante unterdrückt werden. Ich selbst sowie Wilczek und Zee haben an der Katalogisierung aller möglichen derartigen Wechselwirkungen mit Operatoren der Dimension 6 bis 7 gearbeitet. Es hat sich herausgestellt, dass die Operatoren in den niedrigsten Dimensionen, die eine Baryon-Verletzung erzeugen können, Operatoren in der Dimension 6 sind und dementsprechend nach den allgemeinen Regeln, die ich Ihnen erläutert habe, durch zwei Potenzen einer supergroßen Masse unterdrückt werden. Es wurde ein Katalog mit diesen Operatoren der sechsten Dimension in der Form Quark, Quark, Quark, Lepton erstellt. Es wurde ein Katalog all dieser Wechselwirkungen erstellt. Und dabei hat sich herausgestellt, dass sie alle das Grundprinzip erfüllen, dass sie – obwohl sie die Baryon- und Lepton-Erhaltung verletzen – diese gleichmäßig verletzen, sodass zum Beispiel das Proton in ein Antilepton zerfallen kann, das Neutron auch in ein Antilepton zerfallen kann, das Neutron in ein e+ Pi- zerfallen kann, aber das Neutron nicht in ein Lepton zerfallen, das Neutron nicht in ein e- Pi+ zerfallen kann. Und die simple Struktur dieser Operatoren hat weitere Folgen, so etwas wie eine „Delta I =1/2“-Regel. Die Zerfallsrate des Protons in ein Positron beträgt die Hälfte der Zerfallsrate des Neutrons in ein Positron. Wir können all diese Aussagen mit großer Konfidenz treffen, ohne uns überhaupt sicher zu sein, dass Protonen und Neutronen tatsächlich zerfallen. Die Zerfallsrate des Protons und des Neutrons, das heißt der Zerfall bei beobachtbarer Geschwindigkeit, die Zerfallsrate des Protons beispielsweise, wird im Matrixelement durch zwei Potenzen einer supergroßen Masse unterdrückt. Und es dürfte mit Sicherheit einen Kopplungskonstanten-Faktor wie die Feinstrukturkonstante geben. Man quadriert das Matrixelement und multipliziert die Protonmasse der fünften Potenz mit einem Phasenraumfaktor, um eine Zerfallsrate zu erhalten. Die große Unbekannte in dieser Formel für die Proton-Zerfallsrate ist natürlich die superschwere Massenskala. Wir wissen, dass das Proton stabiler ist als, seine Lebenszeit länger ist als 10^30 Jahre und dass diese Masse deshalb sehr groß sein muss. Sie muss größer als 10^14 GeV sein. Es gibt weitere Effekte, die bekannte Symmetrien verletzen. Die Lepton-Zahl wird durch einen Operator mit einer Dimensionalität von nur 5 statt 6 verletzt. Und dies ergibt Neutrino-Massen der Größenordnung 300 GeV², geteilt durch die superschwere Massenskala. Das ergibt eine sehr geringe Neutrinomasse, das ist weniger als 1 Volt, wenn die Massenskala größer als 10^14 GeV ist. Nun, es gibt weiteren Unrat in der Niedrigenergiewelt. Ich habe einfach nicht die Zeit, das alles hier zu erläutern. Im gewissen Sinne kann die Schwerkraft selbst als der Unrat in unserer effektiven Niedrigenergie-Feldtheorie einer fundamentaleren Theorie betrachtet werden, die die Physik mit einer Massenskala über 10^14 GeV beschreibt. Warum sollte es eine so viel größere Massenskala, zwölf Mal größer als die größten Massen, die wir zu denken gewohnt sind, geben? Eine mögliche Antwort stammt aus der grundsätzlichen Vorstellung von der Theorie der Großen Vereinheitlichung. Die Große Vereinheitlichung ist ganz einfach die Vorstellung, dass die starken und elektroschwachen Eichgruppen allesamt Bestandteil einer größeren Eichgruppe sind, die hier einfach als G bezeichnet wird. Und ebenso, wie die elektroschwache Eichgruppe spontan gebrochen wird und Masse an W in die elektromagnetische Eichgruppe abgibt – und das ist auch der Grund dafür, dass das W und das Z so schwer sind und noch nicht entdeckt wurden – wird angenommen, dass die große Eichgruppe G bei einer sehr hohen Energieskala, M, in ihre Bestandteile SU(3) x SU(2) x U(1) aufgebrochen wird. Und eine Kopplungskonstante wird dann am Ende hoffentlich die starken und die elektroschwachen Kopplungskonstanten in gleicher Weise erzeugen, sodass die beiden elektroschwachen Kopplungskonstanten zusammen die elektrische Ladung ergeben. Eine weitere, genauso wichtige Hoffnung besteht darin, dass die Quarks und Leptonen sich in einer einzigen Familie vereinheitlichen lassen, so dass wir keine roten, weißen, blauen und Lepton-Farben, sondern ein Quartett für jedes Quark- und Lepton-Aroma erhalten. Modelle, die einige dieser Ansätze realisieren, sind vorgeschlagen worden, erstmalig 1973 mit der Arbeit von Pati und Salam und dann von Georgi und Glashow und später von Fritsch und Minkowski und noch vielen anderen. Aber eine offensichtliche Schwierigkeit aller derartigen Modelle ist die Tatsache, dass die starke Kopplungskonstante, wie ihr Name schon impliziert, sehr viel stärker ist als die elektroschwachen Kopplungen. Sam Ting sagte uns, dass die Feinstrukturkonstante für die starken Wechselwirkungen bei 0,2 liegt. Und wir alle wissen, dass die Feinstrukturkonstante für die elektromagnetischen Wechselwirkungen bei 1 durch 137 liegt. Wie können zwei so unterschiedliche Kraftstärken aus der gleichen zugrunde liegenden Kopplungskonstanten G sub G hervorgehen? Die heute meines Erachtens populärste Antwort auf diese Frage wurde 1974 von Georgi, Quinn und mir selbst vorgeschlagen und bestand darin, dass diese Kopplungskonstanten in der Tat mit einer fundamentalen Kopplungskonstanten zusammenhängen, aber dieser Zusammenhang nur bei einer supergroßen Massenskala M besteht. Die starken und elektroschwachen Kopplungen, die hier als diese drei Kurven abgebildet sind, sind nicht wirklich Konstanten, sondern Funktionen der Energie, bei der sie gemessen wurden. Das ist in der Quantenelektrodynamik gut bekannt als die Eigenschaft der asymptotischen Freiheit. Das heißt, dass die Kopplungskonstante mit zunehmender Energie abnimmt. Die Kopplungskonstanten der elektroschwachen Kraft – eine nimmt ab, eine nimmt zu. Man kann sich vorstellen, dass es einen Punkt geben könnte, an dem sie alle bei einer sehr hohen Energie zusammentreffen. In der Tat gibt es einen solchen Punkt, aber da diese Veränderung der Energie sehr langsam verläuft, ist es nur ein logarithmischer Wert. Die Energie, bei der die Kopplungskonstanten zusammentreffen, ist exponentiell groß. Das hat mit der Formel zu tun, nach der der Logarithmus des Verhältnisses dieser fundamentalen Massenskala zur W-Masse ungefähr bei 4 pi Quadrat durch 11 e Quadrat liegt, wobei e die elektrische Ladung ist und diese Korrektur aufgrund der starken Wechselwirkungen eingeführt wird. Und das führt zu 4 bis 8 mal 10^14 GeV. Wir sehen also jetzt, warum es eine Energieskala von über 10^14 GeV geben muss. Das ist nötig, um den starken Wechselwirkungen Zeit einzuräumen, genauso schwach zu werden wie die elektroschwachen Wechselwirkungen. Diese drei Kurven treffen an einem Punkt zusammen. Es ist nicht einfach, drei Kurven zu erhalten, die sich an einem einzelnen Punkt treffen. Dies erfolgt durch sorgfältige Anpassung der Daten im unteren Niedrigenergiebereich, damit sie sich in die richtige Richtung ausrichten und somit alle denselben Punkt treffen. Diese sorgfältige Anpassung der Daten erfolgt – das kann ich hier ergänzend beschreiben – durch Vorhersage die man als Vorhersagewert des Mischungswinkels zwischen dem Z und dem Photon ausdrücken kann. Diese Vorhersage widersprach den experimentellen Daten 1974 und stimmt heute mit der experimentellen Datenlage überein. Die Experimente haben sich verändert, nicht die Theorie. Es gibt enorm viele Probleme. Ich würde sogar sagen, dass diese Vorhersage dieses Mischungswinkels bisher der einzig greifbare Erfolg, quantitative Erfolg im Sinne der Großen Vereinheitlichung ist. Es gibt zahlreiche Problemen mit dem weiteren Vorgehen. Ein Problem besteht darin, dass wir keine überzeugende Erklärung des Musters von Quark- und Lepton-Massen hatten. Mit „überzeugender Erklärung“ meine ich mehr als eine Theorie mit genügend freien Parametern, um die Dinge so umzusortieren, wie man sich sie wünscht. Ich meine etwas, das einem wirklich das Gefühl gibt, dass man es verstanden hat. Bisher gab es keine überzeugende Erklärung für das Generationenmuster, dass wir also nicht nur eine Up/Down-Elektronengeneration und eine Charm-Strange-Muon-Generation haben, sondern eine dritte Generation, vielleicht sogar eine vierte Generation. Und wir wissen nicht, warum das so ist. Aber das wohl rätselhafteste Problem ist, dass wir keine fundamentale Erklärung für die Hierarchie der Kräfte haben, also dafür, dass es ein Verhältnis in einer Größenordnung des Zwölffachen zwischen der Symmetriebrechungsskala der großen Eichgruppe und der elektroschwachen Eichgruppe gibt. Wir wissen, dass das wahr ist, wir glauben zu wissen, dass das wahr ist, weil die starke Kraft bei niedriger Energie so viel stärker ist als die elektroschwache Kraft. Aber woher diese Zahl 10^12 stammt, ist endlos spekuliert worden. Es gibt viele, viele Ideen, aber eigentlich keine, die wirklich überzeugend ist. Und schließlich gibt es kein Modell, das als das offensichtliche Modell hervorsticht. Es gibt viele mögliche Modelle der Großen Vereinheitlichung. Weil aber alle keine Erklärung für A, B und C liefern, können wir eigentlich keinem dieser Modelle wirklich treu sein. Eine weitere Entwicklung hat 1974 ihren Anfang genommen und die theoretischen Physiker in den Folgejahren stark beschäftigt – eine Symmetrie, die als Supersymmetrie bezeichnet wird und, wenn es auch Vorläufer gab, schließlich von Wess und Zumino gefunden wurde und dann von Salam und Strathdee sowie vielen Anderen weiterentwickelt wurde. Die Supersymmetrie ist eine Symmetrie, die in einem gewissen Sinne orthogonal zu den Symmetrien funktioniert, die ich bis jetzt erläutert habe. Die elektroschwache Eichsymmetrie verbindet beispielsweise das Neutrino und das Elektron, beides Teilchen mit gleichem Spin, aber unterschiedlicher Ladung. Die Supersymmetrie verbindet Teilchen mit unterschiedlichem Spin, aber mit gleicher Ladung, gleichem Aroma, gleicher Farbe usw. Die Supersymmetrie würde beispielsweise das Elektron mit einem Spin von 1/2 mit einem anderen Spin-0- oder Spin-1-Teilchen verbinden. Man hatte solche Symmetrien für unmöglich gehalten und in der Tat sind sie fast unmöglich. Es gibt ein von Haag, Lopuszanski und Sohnius aufgestelltes Theorem, ein enorm wichtiges Theorem, das besagt, dass die Art der Supersymmetrie, die sich Wess und Zumino aus der Reichhaltigkeit ihrer Vorstellungskraft ausgedacht haben, offensichtlich einzigartig ist. Es ist der einzige mathematisch zulässige Weg für die Existenz einer Symmetrie, die Teilchen mit unterschiedlichem Spin verbindet. Und deshalb können wir ohne zu viel Willkür unsere Aufmerksamkeit an eine spezielle Art der Symmetrie heften, die einfach Supersymmetrie genannt wird, und ihre Folgen erforschen. Und wir wissen, dass es – ganz egal, ob richtig oder falsch – nichts anderes gibt, was Teilchen mit unterschiedlichem Spin vereinheitlichen könnte. Nun finden wir in der Natur keine Spur von Supermultipletts dieser Art, das heißt, das Elektron scheint keinen Spin-0- oder Spin-1-Partner zu haben. Nun sollte uns das an sich nicht davon überzeugen, dass die Idee falsch ist. Wir haben uns jetzt der Vorstellung angenähert, dass Symmetrien auf einer fundamentalen Ebene bestehen können und spontan brechen können. Supersymmetrie muss spontan gebrochen sein. Tatsächlich gibt es in der Natur keine Spur von einem Supermultiplett, das für uns sichtbar wäre. Manchmal wird gesagt, dass Supersymmetrie die Symmetrie sei, die jedes bekannte Teilchen mit einem unbekannten Teilchen vereinheitlicht. Die Supersymmetrie ist sicherlich spontan gebrochen und die große Frage lautet: Wo ist sie gebrochen? Ich habe mich in letzter Zeit intensiv mit dieser Frage beschäftigt. Und ich möchte Ihnen zum Abschluss einige meiner Schlussfolgerungen dazu präsentieren. Man könnte vielleicht denken, dass die Supersymmetrie bei derselben Art von Energien gebrochen ist wie die elektroschwache Eichsymmetrie, das heißt, Energien wie MsubW oder in der Größenordnung von 100 GeV. Es gibt viele Gründe dafür, warum das nicht funktioniert. Die Partner der Quarks, die Skalar-Teilchen, Spin 0-Teilchen, die deshalb Squarks genannt werden, würden einen sehr schnellen Proton-Zerfall ergeben. Dies könnte durch Erfindung neuer Symmetrien vermieden werden. Die Squarks und die Sleptons wären zu leicht, das heißt, sie wären leicht genug, um beobachtet worden zu sein. Wie ich bereits erwähnte, wurden sie aber nicht beobachtet. Auch dies kann durch die Erfindung neuer Symmetrien vermieden werden, insbesondere Fayet hat diese Möglichkeit untersucht. Diese unerwünschten neuen Symmetrien und andere neue Symmetrien, die sich bei solchen Theorien nicht vermeiden lassen, führen zu leichten Spin-0-Teilchen mit der Bezeichnung Goldstone-Bosonen, die man offensichtlich nicht los wird. Und Glennys Farrar und ich haben ihre Eigenschaften untersucht. Wir sind zu dem Schluss gekommen – oder vielleicht sollte ich eher sagen, ich bin zu dem Schluss gekommen dass eine Brechung der Supersymmetrie bei diesen niedrigen Energien wirklich aussichtslos ist. Eine weitere Möglichkeit wäre, dass Supersymmetrie bei einer mittelhohen Energie gebrochen wird, d.h. bei Energien, die wesentlich größer sind als die W-Masse, aber wesentlich kleiner als die Massenskala, bei der die große vereinheitlichte Symmetrie bricht.

Steven Weinberg asks whether supersymmetry might lead to a theory beyond the Standard Model.
(00:23:16 - 00:37:26)

 

 

Panel Discussion (2016) - Glimpses Beyond the Standard Model; Panelists Steven Chu, David Gross, Takaaki Kajita, Carlo Rubbia; Moderator: Felicitas Pauss

I’d like to welcome you to this first panel discussion during this year’s Lindau Nobel Laureate Meeting. My name is Felicitas Pauss, I am an experimental particle physicist at ETH Zurich and I am going to be your moderator. It’s now my great pleasure to introduce to you our panel members. Three of them you have heard already this morning during their talks in the morning. We start with Professor Kajita, followed by Professor David Gross, Professor Carlo Rubbia and our fourth panel member is not a particle physicist, he will give his talk on Wednesday. So the subject of today’s panel is Glimpses Beyond the Standard Model which is, of course, a very vast subject. And there are, I am sure, very many questions associated with that. We have heard this morning that our standard model of particle physics is a beautiful theory, extremely well verified by experiments. And so far the two match very well together. However, we have also heard that it cannot be our ultimate theory because it leaves nevertheless some very important fundamental questions open. For many years experimentalists have been trying to find hints for new physics and their respective experiments, and we all hope, and also expect, that some of those glimpses and hints for new physics, and eventually discovery, we will have at CERN. And this is the reason why we have today a direct link to CERN. Do you hear us at CERN? Can we see them also on the screen? So we have on the other side in the room at CERN Fabiola Gianotti, she is since this year the Director General of CERN. And we have next to her three young scientists from ATLAS, LHCb and CMS Experiment: Jamie Boyd, Daniele del Re, and Mika Vesterinen. Before we enter our discussion, I would like to recall for those of you who might not know that on July 4th, 2012 we also had such a panel discussion about the subject of particle physics, just on the day when CERN announced, and made a press conference, about the discovery of the Higgs boson by ATLAS and CMS. Unfortunately, today there was no press conference at CERN. You can’t have everything at the same time. But nevertheless we have this unique opportunity to have this link to CERN. And we will have, of course, the possibility to ask the Director General and the young scientists about the latest news we can have from CERN. Before we start, with the idea to warm up, I will ask our panel members a few questions and then also pose questions to CERN so they can have some, make some statements. And then we start the general discussions. You in the audience, you also are kindly asked to participate, to make a very lively afternoon discussion session. And we have been entering modern times now also in this Lindau Meeting. You have the new app on your mobile where you can type in questions. And by one miracle or another those questions arrive at my desk here next to me and I will read them to you. So we are today first time doing this. So think about the questions you want to pose to anybody, either panel or the people at CERN. Ok, so we start now with the first short introduction, warm up to the subject, Glimpses Beyond the Standard Model, starting with Carlo Rubbia. Carlo, I remember very well the time, the beginning of the LHC project, which you really pushed very hard that it really become a reality. So, therefore to you as the father of the LHC, I would like to know from you, have you done so far, you experimentalists at CERN, done everything so far correctly that we are on the right way to “Glimpses Beyond the Standard Model”? Clearly, we have this very monumental result, which was discussed several times yesterday and today, which is the standard model, in which effectively you can give a good prediction to all kinds of experimental situations and theory situations. And the question is, is there any deviation of that standard model at sight? And if so, how do we find it? First of all everybody is convinced that the discovery of the Higgs is a very fundamental step forward. And certainly the Higgs will be a platform in which people will try very hard to see how well the standard model will shape up after the observations of the Higgs, which is a brand new type of particle, with the scale of particles coming out. But we all know, we are all convinced that these things, if any, most likely will be very small. Everybody prepare himself to something like the tiny contribution that the standard model – of course, this is not necessarily true, I mean nature may decide otherwise. We have natural philosophers, many of the greatest discoveries came up unprecedented, unprepared by all of us. But still the point is that it’s most likely the effect of standard model will be small. Now, how small? Well, I mean the situation is that a few percent may be a good number to get as a reference point to say whether within the framework of the Higgs particle stories, whatever it was, and therefore we need a substantial accuracy. Now, the question is will LHC, which now is the real living activity that we have in our hands for now and also the future, be capable to see the accuracy that we would like to see in order to get ourselves probably this quantity or this magnitude. Most likely it will not be enough. We will ask this maybe later. Let me finish what I have to say. I mean, we have 87 minutes to talk about it. Now it’s obvious therefore that the question now is whether this effect can be done with the Higgs itself and all this physics of it, probably require, in my view, another machine. Let me give you the example W and Z which we already had used at CERN, another important CERN discovery, like the Higgs was a CERN discovery. And in that particular case there was a hadron discovery done with W and Z - and you were there, both of us were there, members of this experiment, younger people. And then there was the LEP which really did perfect beautiful work of cleaning billions of events etc., etc. In my view, I would expect that the experimental search for deviation of the standard model might demand to have a similar situation of a major discovery done at CERN with the hadrons, which is the one I had 2 years ago, followed by the equivalent of LEP, namely, in my case, a muon collider which should be able to produce the large number of particles having the Higgs all by itself alone. Just like the zero, all by itself alone, was the reason for LEP. I finish at this point, thank you very much. Thank you very much, Carlo. Turning now to David Gross. David, I also remember very well your brilliant talks when you talked about the discovery potential of the LHC. Over many years we were fascinated about the potential of discovery of supersymmetry at the LHC. Today what do you know? Do you still count that you are going to discover supersymmetry at the LHC? I certainly hope so. I am going to lose some very big bets if we don’t. Who knows? I mean the excitement of physics is not knowing what's going to happen. One has clues. We have clues. Some of them might suggest something like supersymmetry. For example the discovery by astronomers of a new form of matter. Most of the matter in the universe is dark matter, which they see gravitationally but we haven’t been able to produce yet at the LHC or observe underground. So it’s waiting to be discovered and analysed. Supersymmetry gives a nice scenario for making such a particle. That’s one of the clues we have for such speculations. So we have some clues, not many, but some very important ones. Dark matter, neutrino masses which hint at another scale of physics. And then we have the clues that motivate theorists like me: the completion of our theoretical framework in cooperation of quantum gravity. The unification of the forces, which is suggested to us by experiment, by the structure of the forces that we have discovered and understood and their apparent unification at a very high scale. And the mystery of matter: why do we have quarks and leptons and their masses, with a strange spectrum which we can’t calculate at all? And there are mixings which were discussed today at great length. Those are wonderful features of the world which we’ve measured with precision but don’t understand. We should, our theory should do better. So we have all sorts of wonderful speculations, even more important, we have wonderful experimental clues. But the answer is in nature’s hands. I can only urge my colleagues who are working so hard at LHC to make sure not to miss the discovery of supersymmetry. Thank you. Professor Kajita, you have so nicely explained today in your talk that the standard model with massless neutrinos is incomplete. We know now neutrinos have a mass. What other hints would you expect from the neutrino sector to come in the hopefully near future? Other hints, ok. Well, before going to talk about the other hints in the neutrino sector I just want to say that the observation of the large mixing angle was kind of unexpected. And this mixing angle alone could tell us what is the real, say, elementary particle physics. Nature, well, I don’t know but anyway, well, to me honestly this has been the driving force for my study because I was really excited about the large mixing angle. Now, I am coming to the future, other observations to be made in neutrino physics. I discussed this morning that we should experimentally observe if the mass state, the third-generation mass state which is usually assumed to be heaviest but we do not know. If we look back at the neutrino history we had a lot of surprises going on. So maybe the third-generation neutrinos could be actually the lightest instead of heaviest. We have to measure. In addition now people are thinking seriously that neutrino physics could be able to explain the matter in the universe. Therefore experimentally would we would like to try to measure the CP violation effect as much as possible. Also in addition a neutrinoless double-beta decay is, in my opinion, fundamentally important. So there are lots of things to be measured in neutrino physics. And they are really kind of beyond the standard model. Thank you. And, last but not least, Professor Chu. I said already you are not a particle physicist, however you are very well aware what this community is doing. So what would you answer to the question about hints beyond the standard model? Well, first let me say that there are at least half a dozen Nobel Laureates who are much more qualified than I to be sitting here. And I think the only reason I am here is to encourage students to ask questions because if they can have someone as ignorant as me here surely you can have interesting questions. I would respectfully disagree with David a little bit on hints. As an experimentalist we hope for hints but I would say so far there aren’t compelling hints in the sense that in the neutrino sector anything that I know of still fits very well with the Kobayashi-Maskawa matrix. But David can correct me, as I’m sure he will. (Laughter) But let me tell you a little bit about, in my field, how we try to look at glimpses for breakdown of the standard model. My thesis advisor spent many years of his life, this is Eugene Commins, trying to look for electric dipole moments of atoms that could say that there would be an electric dipole moment of an electron. Electron has a magnetic dipole moment but does it actually have a little bit of charge separation. All the people have been looking for decades for a neutron having an electric dipole moment, although the particle is neutral, can there be a slight difference in distance between a positive or negative component. This is well beyond the standard model. Indeed the symmetry, it violates both parody and time conservation. We know CP is violated, there is a lot of attention being paid to the CP sector to what extent it’s violated but no hint yet of parity in time reversal that will go beyond the standard model. The most recent results out of a collaboration between Yale and Harvard on electron dipole moment are beginning to close down the exclusion of what one calls naïve supersymmetry model, the minimalist supersymmetry model phase base is running a little bit slim on that. And so there’s a nervousness. But of course there are many other variants on supersymmetry that allow you to go well beyond that. And the standard model prediction, by the way, it does have a prediction for dipole moment but it is well out of experimental reach. So people look for precision measurements like EDM measurements. The other thing I should say that touches on my field, or my former field, of atomic physics is in quantum information and quantum fluctuations. And in quantum information there are conundrums about actually when you have coherent quantum pure states falling in and out, you know, partly in and out of a black hole. And then the fact that you can have Hawking radiation. There are dilemmas there where we know that our views of quantum mechanics, our views of what happens in a black hole, don’t match. So there seems to be a contradiction. And so that is a glimpse of something where, ok, there’s something. Just like there was a contradiction of weak interactions and unitarity. Excellent. David wants immediately to answer. I just want to respond to, it’s nice that you think so much of theoretical experiments. Neutrino masses as such are outside the standard model. The standard model predicts a zero mass neutrino. And it turns out that neutrinos have a finite mass. And the question of, we have a nice speculation as to what the origin of that mass might be and why it’s so small. It’s called the seesaw mechanism. It requires that the neutrino be a Majorana particle. That Majorana suggested and now condensed matter physicists claim to have observed in solid state. But we don’t know. Neutrino’s beta decay would test that hypothesis which is extremely important, I agree with my colleague, but that has not yet been determined. It’s totally unknown and whatever their origin, the neutrino mass is certainly outside the standard model. Dark Matter is a hint, it’s been experimentally observed and we don’t know what it is or what its properties are. But I applaud your support of precision experiments. And I think it’s somewhat unfortunate that the AMO community lost its interest in doing such high precision experiments. They used to be the source of many high precision tests. And now they’re sort of doing more many-body theory. They can indeed shed light, but there are always long shots, stabs in the dark. Thank you very much, David. We should now turn to CERN. Again a very warm welcome to our friends in Geneva, some 400 kilometres south west from here, close to Geneva at CERN. So first of all maybe not everyone knows but Fabiola Gianotti, our present General Director of CERN. She has been very influential in the ATLAS experiment, a very key person, and therefore also very important related to the discovery of the Higgs boson. So Fabiola, we are very, very keen about hearing news from you. You heard what I said at the beginning. We have a very specific topic on this panel, so please tell us. Good afternoon everybody, hello Felicitas. Can you hear me well? Yes, we have a little bit of a delay but it’s ok, 400 kilometres one way, you know. Ok, so good afternoon to everybody, to your very distinguished scientists and all the people who are with you, in particular the young people. The first thing that I would like to tell you is that yesterday the LHC achieved for the first time the design luminosity, 10^34 cm-2 s-1. So it’s a great thing. It’s the results of the effort for years, decades of work, hard work and it’s really a remarkable accomplishment. Then the other thing that I would like to tell about the research for physics beyond the standard model, I usually prefer to put the problem in the following way. We are not running behind any theory, we are not running behind supersymmetry or dimension or other things. We are addressing a direct fundamental question. So the problem today is that the standard model works beautifully and we don’t understand why it works so beautifully because there are so many open questions that the standard model is not able to address. So we can think about the dark universe, 95% of the universe is made of matters and energy we don’t know. We have the famous flavour problem. Why neutrinos have large mixing and quarks have a very small mixing. Why neutrinos are so light and (inaudible) so heavy. So we don’t know. And many of these questions have been mentioned before by more distinguished scientists that you have with you there. So, of course, I am a strong supporter of high-energy colliders. I’ve been working on high-energy colliders since I was a young student and they are very close to my heart. And, of course, now as Director General of CERN, I am very proud to be in the laboratory where we run the so-called Energy-frontier Machine. However, let me be clear that the questions are so intriguing, so important and so intertwined that the only way to address them with the hope of finding some answer, is to really deploy all approaches that this discipline has developed: High-energy colliders, precision measurement, underground searches for dark matter, cosmic survey. Professor Chu was mentioning precise EDM measurement. Searches for rare decays, searches for weakly coupled, low mass particles. So I think really we have to deploy all the approaches that we have developed, thanks also to very strong advances of technology in terms of detector, in terms of accelerators, in terms of other instruments. So it’s an exciting time with many important questions, with technological developments that enable us now to address them. We should be as broad as possible. Thank you very much, Fabiola. I am turning now to, I stay with ATLAS and turning to the person on your left, namely Jamie Boyd from ATLAS. So he sits 10 years in this experiment, now holding a staff position at CERN. He has been very strongly involved in different aspects of running the experiment, and, David will be happy, he loves to do searches for supersymmetry with the ATLAS experiment. And actually since this year he does something more, he is the key link between all experiments at the LHC and the accelerator. So Jamie, are you having exciting times now? Hi, yes so as you say it’s really a lovely time at the moment because we raised the energy of the collisions in the LHC last year. And last year was a bit of a testing year of these new energy collisions, whereas this year we’ve really started running with very strong luminosity. And in fact in something like 2 weeks, 2 good weeks now, we can take as much data as we took in all of last year. So now we’re really in the position where we can start testing, searching in the data for heavy new particles that were produced in these high-energy collisions that couldn’t be seen in one of the LHC, because of the lower energy. So as you mentioned I am very much involved in searches for supersymmetry. So here we are looking for heavy supersymmetric particles that are being produced in the collisions and they decay into standard model particles. And then in the most common theories of supersymmetry, the lighter supersymmetric particle that’s produced in the decay chain doesn’t interact with the detector. And what we look for is the so-called energy signature where these particles pass through the detector and take energy away from the collision. This has a nice link with dark matter because in many of these theories this lighter supersymmetry particle is a candidate particle that could make up the dark matter in the universe. So for me this is why supersymmetry is a nice theory, why we can try and link together the measurements we made in astrophysics with what we can produce in the LHC. Thank you very, Jamie. Turning now to the other person next to Fabiola, namely Daniele del Re from the CMS experiment. He also is about 10 years now in this experiment, holding now an associate professor position at the university “La Sapienza” in Rome. He also has been involved in lots of activities within the collaboration. He has been involved in the Higgs discovery, because he worked on the data analysis for the Higgs search, and also is a fan of supersymmetry. Daniele, how do you like now your work, what is the most exciting part of your analysis, now, this moment? Thank you very much, Felicitas, for the introduction. Yes, this is a very special moment for me. Actually, I am coordinating the effort which is called "Exotic searches in CMS". But exotic doesn’t mean you are in some exotic place or something, it means that you want to go beyond the standard model and find new particles. These events are happening now because we doubled the energy, as Jamie was saying before. We doubled the energy with respect to previously and it is important to have more space to find new particles. Various particles we have is under GeV 100 time the proton. But now we can run a machinery which goes up to 13 TeV, which is 1,000 times the proton. Now we have plenty of space to find these new particles. It is exciting because the run started very recently and it is a lot easier to find these new heavy particles. Thank you very much, Daniele. And, last but not least, on the very right side on the screen is Mika Vesterinen from LHCb. He has been for 5 years in this experiment. He is holding now a position as a Humboldt Fellow, hosted by Heidelberg University but he is Finnish and British, both nationalities. We lost you. You are back, I hope you are back? Do you hear us? Yes. Sorry, MIka, we lost you briefly. Besides all your responsibilities also you, of course, love labour physics. You are in LHCb, you love beauty quarks and you love to search for deviations from the standard model which might be a hint of supersymmetry. So David, you see this young generation, they all love supersymmetry. So just now, Mika, are you having fun with your data of 13 TeV? Absolutely, so it was quite entertaining actually to listen to the discussion on precision studies of quantum effects as somehow a portal to new physics because the LHC is actually a great opportunity for precision studies. There’re so many particles at such a high rate. For example, the LHC produces millions and billions of beauty particles every year and that means that you can make very precise measurements of them. So my experiment is LHCb stands for LHC beauty. And the idea is that because we’ve produced so many of these beauty particles we can study very rare phenomena. So you can look in particular at phenomena that don’t happen very easily in the standard model, in particular because they involve force. Now these types of phenomena can be easily helped by contributions from new particles. And the hope is that by making very precise measurements and comparing with theory then you can see some deviations that would be the indirect effects of new particles. Now in our existing data set from Run 1 at half the energy we started to see a couple of hints of possible anomalies. But what's exciting is that we now, we had this very long Run 2 of the LHC, we actually produced beauty particles at twice the rate, we have a very long Run. With improvements to our detectors. we’ll be able to make even more precise measurements. So the dream is that we will already be able to see compelling evidence for physics in these precision studies of beauty. Thank you very much, Mika. So now the floor is open for discussion. I have already some from the audience but Carlo is really burning. I have a single question here since we have so many important people from CERN here, coming and telling us the latest news. I would like to know what about that experiment of 750 GeV signal which is part of the unthinkable stories. But still it's of great interest to all of us to know whether the new statistics which you have collected now in the recent times have improved or eliminated such a question. So can you get some latest news on this 750 GeV resonance? So may I hand it over to Fabiola and her neighbours? Since I am neutral, because I am not in ATLAS anymore and I have never been in CMS, let me tell you, Carlo, it’s a very good question. It's, of course, THE question that everybody is asking. First of all I will not call it a signal, it was a hint, an inconclusive hint. At the moment experiments are analysing the data that they have recorded. Today the exhibit was delivered to each of us at CMS, as of today about 7, 7.5, last year it was 4 each. So the statistics is almost doubled. But experiment supplies only part of those data. And they have not produced official results yet, so they are working and I hope we will know soon. The time scale of a few weeks, I hope. Are they smiling or are they crying? (Laughter) I have tried in the corridor to detect any kind of emotion in one sense or the other. But I can tell you they are extremely prudent and extremely cautious. So I can’t read from their faces. So Jamie, why don’t you show your face? Are you smiling, Jamie from ATLAS? (Laughter) I am trying my best to do a poker face. (Laughter) What about Daniele, CMS? I am smiling, actually looking for it, it’s a pleasure. So I am happy. And Mika is the observer. As another unbiased person it’s funny for me to look at this from the outside as well. I mean fingers crossed for ATLAS and CMS friends. Maybe just to add to what Fabiola said. So I think at least the results for the ICHEP Conference which will be at the beginning of August. So by this time we hope that we will have enough data to be able to really say something conclusive. And fingers crossed it’s something exciting. Excellent. I'm at the same time trying to find out which type of questions you from the audience have been sending. So therefore just that I have time to look at this and I give now the floor first to the panel to ask questions to CERN. We again have lost you. Do you hear us? Yes. We hear you also but we don’t see you, which is a pity. But nevertheless we can ask you questions. So someone from the audience. Carlo has already asked. You're back. Someone else from the audience direct questions? No questions to CERN? Well, Carlo’s question. The key question. But we’re not going to get an answer. Looks like it. So now the audience question I have now. The first question which I received was from India, someone with I think family name Mondal. So you ask, we might have already hints for beyond the standard model because of this 750 GeV bump into photons. But your question is if we do not see any conclusive evidence of beyond the standard model at the LHC at 13, 14 TeV in the years to come, should we go to higher energies or do we need more precision, that means more luminosity? Fabiola, maybe a question for you. Both, we need higher energy and we need higher precision. (Laughter) And again not only through colliders, we need, of course, higher energy, higher luminosity colliders but also as I said before also through other approaches because we don’t know where this new physics is. We know it’s there. We don’t know whether this new particles, new phenomena, new forces, are hiding themselves. So we will have to find them and we will have to know for sure. CERN clearly is a laboratory that has an historical and tradition and history and the capabilities of building high-energy accelerators and high-energy colliders. So I think we will continue in these directions. But we will also continue to promote a scientific diversity programme, studying for instance matter-antimatter differences, contributing also facilities elsewhere in the world etc. But we need everything. Ok, as expected. So now I have a question from UK, from the University of Cambridge. So this is a very general question: data obtained from this project has to be subjected to reproducibility tests. And these tests have to be done by independent people in independent set up. Isn’t this part of a scientific enquiry?" So how would you answer this question at CERN and then my experimental colleagues here on the stage? Did you hear, that you need in order to have a reproducibility test, you need independent people to repeat this thing, experimental results? So what would you answer to this young person's question from the audience? According to the text book – yes, the answer is “yes”. Definitely we need the result to be produced by someone independent. But now the question is each experiment is getting more and more expensive. And sometimes it’s getting more and more difficult to have the 2 independent experiments. So this is I think going to be a very important issue that we as a community have to discuss. So I don’t have any answer. David, maybe you have, as a theorist, an answer to this. Theories also need to be confirmed by other theorists. You know the discovery of gravitational waves is perhaps the best recent example of a discovery which was so conclusive, so expected and so in agreement with precise theoretical calculation that it seems that everyone accepted it without any independent confirmation. Although the experiment itself, LIGO, has now come up with continuing observations. That helps to make the case even stronger. But it does prove that it is possible to convince the world of the reality of a discovery. The same is true, by the way, of the first indirect observation of gravitational radiation by Hulse and Taylor. There was no other confirmation of that and they received a Nobel Prize without an independent confirmation. So if the theory is really good and predicts something then it’s conceivable that we accept it without checking. But in a facility like CERN where they’re exploring unexplored territory and theorist tell them all sorts of speculations like supersymmetry, they shouldn’t take theory too seriously. And they should go ahead and explore and then independent confirmation is really very important, I think. And we can take an example from again atomic physics and precision measurements. In the early days after QED there was great activity to try to see if there’s a breakdown in QED by testing higher order corrections. I think the precision measurements and the B-physics are going to go after looking, you know, higher order rate of corrections to various diagrams and whether there’s going to be a breakdown. If there is that’s going to be great but there may not be. There is all sorts of things. But going to the fundamental question, as you go to more and more expensive - at least they have 2 different detectors. But if you go to more and more, looking into the future it’s getting harder, it’s even getting harder in quantum electrodynamics. There’s one person who does the QED calculations now. And there’s maybe another person. The precision measurements and EDM thankfully they are inexpensive enough that if there is a hint there will be a half dozen that will quickly emerge with slightly different technologies. If there’s any hint of what dark matter is about there will be enough low-budget experiments to actually descend on it. But the highest energy ones, you know, what comes after LHC, what other collider, IF there will be one, it will be, you know, ONE collider. But hopefully more than one experiment. Hopefully more than one experiment, at least having fundamentally different detectors. Yes, this is what I mean. That’s very important. Thank you. I should also now tell you a secret that we have, if you have an urgent question and you want to interrupt, to make a lively discussion, we have some microphones. And so you wave your hand, you make yourself visible and then we can hand over the microphone to you. So I have now another question from Boris Bolliet from University of Grenoble. He asked the following: "Today what is regarded as the most relevant explanation to the non-zero mass of neutrinos?" That is the question for the theorist. Lucky we have a theorist in charge today. In the standard model the neutrino is described as a left-handed particle with no right-handed partner. Now, if you’re massless that’s ok, but if you have a mass you can be brought to rest and then rotated and become a right-handed particle. So you can’t have a particle with mass that has a definite chirality. For many years neutrinos had such a small mass that it was undetectable, and, in fact, originally when parity was discovered to be violated, people thought, ah, now they understood why neutrinos don’t have a mass. Mass was then discovered. The neutrinos oscillate, one neutrino turns into another and therefore they actually must have a mass. We don’t know the absolute value of their mass, that’s one of the great unanswered questions experimentally or theoretically. But they have a mass for sure. The origin of that mass requires that there be a right-handed neutrino. You can easily add on to the standard model a right-handed neutrino. And in fact in some simple unifications they naturally occur. Then there’s the question of why the neutrinos are so light. Both issues were addressed in a lovely theoretical suggestion by Gell-Man and Ramond and Slansky way back, the so-called seesaw mechanism, which says that if the neutrino is a Majorana particle and there’s a right-handed partner which is very heavy then the neutrino we observe will be very light. That requires a new scale of high-energy physics, around 10^10 GeV, slightly higher than the LHC but not as bad as the Planck mass. But that’s an open possibility. There is a direct test as to whether neutrinos are Majorana particles or not: Majorana particles are their own antiparticles. Therefore in nuclear decays where a neutrino, 2 neutrinos are admitted they could annihilate and you’d have neutrinoless beta decay. That’s been searched for experimentally for years and years. Now we’re at the stage where conceivably within the next 10 years we’ll settle the issue. Anyway, that’s the idea, the theory, the speculation as to where the neutrinos might acquire their mass but it is not settled yet experimentally. Are you happy with the answer? Could I make a small comment on that? Yes, of course. Now I want to say one simple remark that neutrino mass differences are known. Neutrino masses per se are totally unknown, and there are some experiments going on at the 1-electron-volt level. But this is probably too far in respect of what nature is. So there is tremendous gap, lack of knowledge about neutrino masses. We still have to have renewable experiments to get the result there. Yeah, there are eV scale end-point measurements, there are astrophysical limits that say it’s, as you say, below 1 eV but where below that we don’t know. And then the double-beta decay, actually, has been seen but not the one you want yet, neutrinoless double-beta decay. So it’s a fixed end-point energy. But there, again, 20 years ago we didn’t even know whether we had the sensitivity to see a second-order beta decay. And we see that. Thank you. I should say that Fabiola will have to leave us at 4 o’clock, so in about 10 minutes from now. If you have here some questions still to Fabiola, this is your chance. The other three are staying till the end of our session. And maybe it is also now the moment where we can ask you, all four of you, if you have questions to the panel members from CERN. No? I would be happy to ask a question related to their opinion of the next future facility for high-energy physics, so the same questions that were asked of Fabiola. What’s the next step in their opinion to try and understand going beyond the standard model? So who wants to answer? David? Carlo? You? You? David. I am, like Fabiola, a great fan of colliders. It’s true that everything would be good and everything is necessary. But we’ve seen with the LHC, the range of new phenomena that just higher energy buys you. So I believe strongly that no matter what happens in the next few years with Run 2 and the future years that it is incumbent upon the human race to build a further next-generation 100 TeV-ish particle collider. Because with energy, with high precision, you can test our basic principles and perhaps get signals of new physics. They are difficult to interpret and they don’t necessarily tell you where to look next. Whereas with high-energy colliders history has shown that when you get beyond the threshold for new physics, totally new worlds open and new phenomena that you didn’t dream of appear. That’s how we’ve made progress in the past. And 10 TeV, 13 TeV, is really just the beginning of the right scale to probe the electro-weak regime of physics. The field in which I worked initially, the strong nuclear force, the relevant energy scale is about a few hundred MeV. And to really understand the strong force and to test our QCD, and we still have a lot to learn about the strong interactions, we needed machines that ran with 1000 times more energy. The scale of the electro-weak sector is more like 100 GeV, we need to go to 100 TeV to truly understand, I think, physics at what we now call the low-energy scale. So I’m a strong advocate of higher-energy machines at CERN or elsewhere. When I was US Secretary of Energy for 4 1/3 years, the debate, the feeling was that muon colliders, the issue is luminosity. And so at least at that time it didn’t look like it was imminent. And then the question is an electron collider or a proton, anti-proton collider. And I think whether it gets built or not with a world collaboration, we don’t know. But the feeling was that for a discovery machine, exactly what David was talking about, just go to raw high power rather than put it into an electron collider. Let me also add a little bit. This is the first time I think in history of human civilisation, in the last 500 years certainly, where one is faced with very open scientific, clear scientific questions, deep scientific questions – dark matter, dark energy, all sorts of things where the world might collectively say, we’re not going to go there, we can’t afford it. And this never happened really before. You know you could, you know Columbus can appeal to the Queen of England and say hey, you know, where he wasn’t getting this - sorry Queen of Spain, I am sorry. I had England on my mind, very different from - separated now, but never mind. And it would be tragic if we could not be able to build 100 TeV accelerator or whatever scale would be appropriate. Society can afford it, it’s just whether they choose to build it is the real question. Thank you, any other comment from the panel to this question from CERN? Certainly I agree that it is important to have the higher-energy colliders but please do not forget about the underground experiments. (Laughter) So perfect transition to the next question which I have here from Eduardo Olivia from Spain, from Madrid. He asks, "If you had to bet on neutrinos being Dirac or Majorana particles which one would you choose and what would be then the consequence of your choice?" I certainly choose Majorana. Otherwise, well, according to theorist, we have no way to understand the smallness of the neutrino masses. Anyone has a different opinion? It’s also Majorana particles are really cool! (Laughter) I have to say that with the Majorana I just saw three days ago in a quantum computer that they’re having Majorana quasiparticles being used now to do quantum calculations. They're beginning to go and search. So it’s a really crazy mixture of fields. On the surface of various materials, Majoranas are actually anions. They have strange statistics when you move them around and they can be used to store protected quantum information. In three dimensions, however, in the world we live in, Majorana particles are ordinary fermions. I have the next question from the audience, from India. Your question was, the direct detection dark matter nucleus cross section is very small and eventually will hit coherent neutrino background. Now, you pose the question how can we design experiment where this neutrino background is irreducible? But I think you want to say “reducible”, that you get rid of it? You want to have an experiment where you have no neutrino background anymore, is this your question? I understand the question. And do you know the answer? No, I am not an experimentalist. But you know, the question is in dark-matter detectors underground, there is, you can shield against neutrons and radioactive emissions that give you a background to what you’re looking for, the dark matter particles. But neutrinos can’t be shielded against them. They will give, at a certain level of detection, a background that is unshieldable. But my answer to that would be, experimentalists are extremely clever, number one. Number two, backgrounds are backgrounds. And if theorists work very hard and experimentalists measure a lot, you can calculate the backgrounds. After all at CERN they try to pick out one event of a billion background events and they use theory and measurement. So I am not that worried, besides which I expect that dark matter will be seen before they get to that level. Yes thank you, we all hope that this is true. So since we are approaching 4 o’clock, Fabiola, you want to say something, contribute to the discussion? Well, thank you, at least concerning the last question actually, I am not an expert of underground detection. But as far as I know to defeat, you know reducible background the way would be to measure the direction, the rationality of the signal because of course this could point toward dark matter clusters. And clear localisation in the galaxies would have neutrino backgrounds more diffuse. So as David was saying experimentalists have quite, you know, a lot of fantasy and so people are already thinking about the so-called reducible neutrino background. And now coming to your question, Felicitas, to repeat what I said before. I think for the young people there, you know it’s a fantastic moment. It’s a fantastic moment because we have this beautiful thing that is too successful because it works so well but we don’t understand why. And there are so many exciting questions out there. And at the moment we human beings have to develop our ideas and our ingenuity to find the best way to address them. Thank you very much. Also thank you very much, Fabiola, that you took the time in you’re very, very busy schedule to talk to us here all for one hour. And all the best wishes. And everyone is now tuned to listen to whatever news when we start the ICHEP conference beginning of August in Chicago. So there we will get the news about the questions Carlo was posing. So thank you very much and the other three please stay on. Thank you, bye-bye. There is a question from Logan Clarke from Chicago University. - Okay, so I don't have to repeat. There is a question which is really not quite the theme of "Beyond the standard model" but it’s a question to Professor Carlo Rubbia: So shouldn’t we try to look towards fusion reactors instead?" I think fusion is a number of – if you want me to answer. Fusion as is intended on the Sun is a non-aneutronic weak interaction process which emits no neutrons and runs for billions of years, 8 billion years more or less before being distinguished. The fusion reactor then on earth is based on combining deuterium and tritium together into a strong interaction process. So there is a fundamental difference between what happens today with ether and whatever is possible worldwide, you know, cosmoswise from the point of view of productions of fusion. In fact there are many, many fusion reactions which are now around, every reaction like nuclear is a fusion reaction. I am a strong believer of aneutronic fusion reaction, fusion reaction which emits no neutron. For instance there is one process in which you take boron 11 plus a proton and that gives you 3 alpha particles with it. This is a process which is not much more complicated to the one which is done by ether but it has a tremendous advantage of producing zero gammas, zero betas and 3 alphas, which are of energy of a few MeV, which can be slowed down to create electricity. Such a system has absolutely no risk for producing background emissions and is in my view the right place. So I would use less effort and less money and less difficulty in going to ether and put more money in looking at unthinkable ideas like aneutronic process as one example I gave you. Could I just add a little to that? So there is a start-up company in Southern California called Tri Alpha that is actually trying to develop it. And its order of magnitude harder, if you kind of the loss in criteria scale. They have decided in the next embodiment of what they’re going to do, actually going to try tritium deuterium just to see if they can get a high enough, you know, time energy density temperature to see if it will work. But, yes, because the standard fusion that is being explored at ether or inertial fusion creates high-energy neutrons that have huge material damage that is an unsolved problem. So the neutrons will essentially create engineering problems that we do not know how to solve yet. Correct, there are 5 times more neutrons coming from fusion than there are coming from fission. And the fusion neutrons are high energy. Is that not the right direction to go? Thank you. So turning back to particle physics, Andreas Mayer from CERN, where are you? Unfortunately your question arrived a bit too late for me because it would have been interesting for Fabiola. So the question is, "Is there already a compelling reason why we have not seen the 750 GeV hint in 2012? And secondly, have we seen the Higgs boson at 13 TeV already?" So we have still two experimenters there, represented by our two young colleagues, can you answer the question first? Can you repeat the first part, we had lost the connection. The first question was, is there already a compelling reason why we should not have seen the 750 GeV hint in 2012 at 8 TeV centre-of-mass? I think the question is, why we didn’t see the 750 GeV excess before in the previous run, right? In 2012, yes. Actually, we analysed both data sets and what we have seen so far is quite consistent between the two data sets. So there are no inconsistencies. Things can fluctuate at the end, everything is driven by statistics. I mean, you see a smaller hint at 8 TeV in 2012, and you can see larger hint of Sigma and then you can see lower hint in the future. Everything is governed by statistics. And it’s very consistent at the moment. Jamie, you would agree with that? Maybe just to add. True. The ratio of what you had in the 2012 data, 8 TeV, depends also on the production mechanism. So if you expect this new particle was made by a gluon fusion the data sets are more compatible than if you expect it to be made by a quark fusion. And this is, of course, something we don’t know. So in the long term this could give us a hint, if we see more evidence for this particle, we could learn something about this from the ratio of the production cross section in these two data sets. Thank you. And what about the Higgs confirmation at 13 TeV centre of mass? This was the second part of the question. Do you see the Higgs now? The point is that it is not yet given the statistics smaller. So despite what has been said before, at the energies of the 8 TeV data set is much larger than the 13 TeV data set, the way the Higgs is produced. And for this reason I mean we have clearly evidence that data is there but we cannot say it is more than 5 Sigma. I don’t know if this question has been solved because we know very well the Higgs is there. So I am quite sure, very confident that we are going to see it. From an ATLAS perspective, actually, if you look at the results that were released at the end of 2015 with the Run 2 data, in fact, ATLAS saw what I will say is an under-fluctuation in the number of Higgs bosons. So what we saw was consistent with the Higgs, with what we expect, just due to the size of the data set. Whereas if I look at the CMS data I think they see exactly the number of Higgs bosons that they would expect, the plots look nicer and it looks more convincing, but in fact both experiments are consistent with the hypothesis that is there with the expected rate. Thank you very much. It’s very interesting for the young students amongst you, how one talks about the results of the other's experiment without really wanting to tell too much in detail because everything is rumours for the time being. Isn’t it so? But, again, in the beginning of August we are going to have very likely new results, also on the Higgs sector at the conference in Chicago. Now another question from Arizona State, Steven Sailor. The question is, "What do you think about the potential of plasma accelerators as a promising alternative, particularly in terms of cost efficiency as a means for reaching higher-energy scales than the LHC in the near future?" Carlo, perfect question for you. Well, first of all let me say plasma accelerator is a very interesting question which has been going for very many years. And a lot of people have developed very interesting ideas on this subject but still it is a very small scale situation and we would like to see the plasma physics to operate with much higher energy. We are talking about GeV per metre but on a small scale within a realistic experiment before going to a much bigger one. The second problem associated with plasma is the beams are very small and very tiny. And to create the necessary luminosity requires a certain substantial amount of evidence. And therefore the plasma business not only has to solve the question of making a bigger machine, a more expensive machine, a more practical machine but also solve the question of luminosity, because luminosity now is going to be the real limit. Today every time we go up a factor of 10 in energy, we are going to go down a factor 100 in luminosity because the luminosity is like a square of the energy. And therefore there will be a fundamental luminosity limit which will come along, which will be as serious to fight as many other limits. The energy per se is possible but the luminosity is really the question which makes you see the real physics which will occur only a very tiny little property because the cross section of colliding in two particles depends on the cross section of the particles themselves. The higher in energy, the smaller the particles are, the smaller is the cross section. And this is a big problem which the plasma physics will have to solve in order to become competitive. At least not in the near future. Let’s be optimistic. Thank you, Carlo, for the answer. Next question comes from a participant from Australia, Jackson Clark. So your question is, "In your opinion, are rumours of tentative or new physics’ signals dangerous for the application of the scientific method or damaging to the credibility of the experiment?" So what would you say? Who wants to answer to that? You can’t stop rumours. Physics is a human activity and big science is a big human activity with many humans and they talk. But what you can do is behave correctly. And we have seen different examples in the last few years of both good examples - I think the Higgs discovery and the way it was done by CERN is a great example, LIGO is a magnificent example - and we’ve seen bad examples, BICEP is perhaps the most notable. And there is much to be learned by the scientific community from the good examples and from the bad examples but it is impossible to suppress rumours and one shouldn’t try. But the scientific groups should behave themselves. And, for example, not release by press conference new discoveries before they have a peer-reviewed paper. Let me add a little bit to that. And that is there is more of what we call blind methods of analysing the data. It’s especially true in precision experiments, but you can go in there and scramble something and you analyse the data and you don’t know what’s going to, and then it comes together at the end, so that you prevent people from emotionally chasing after little bumps and things of that nature. Those methods of blind analysis are improving and getting better, deliberately, to try to take out the hope that there might be something here or might be something there. And they’re getting more sophisticated as well. Thank you. Do you want to add something to this? It’s an important question of contact in science, of scientists. Next one, again from Australia, Joe Cullingham. He asks - maybe a question to David - You don’t want to have ruled out the supersymmetry, I suppose, but nevertheless what would you say? There are many ideas that people put forward, not as compelling as supersymmetry which, being a symmetry, is incredibly predictive. One of the reasons these people at CERN like supersymmetry is even though there are enormous range of allowable parameters but it’s quite predictive, it tells you what kinds of events to look like but not necessarily at what rate they will occur. There are many, many other possibilities and it’s interesting, the 750 bump shows very little signs of being something specific. Very little information about these excess of events but it did generate 200 or more, 280, 300 I don’t know, many, many theoretical papers. And some of them, actually, had some interesting new ideas. So theorists are, you know, clever and can respond to observation, to nature. And if supersymmetry is bounded, ruled out in the current range of parameters explored at the LHC, that will be a very important discovery, the discovery of how nature works. And we’ll learn actually how nature works. And I’m sure some young people sitting in the audience perhaps will, with that added knowledge, come up with some new ideas, better than anything I can come up with at the moment. Thank you. Another question from the audience, namely from Katrin Kröger, ETH Zürich: is a very fascinating and beautiful goal. But do you think that mankind will at some point actually arrive at the complete theory or that it will be a never-ending quest, always leading to new questions?" I think you are the best candidate. I'd give an hour-long lecture on this topic which I’ll spare you. And I’m totally agnostic. I often compare it to exploring the Earth. If the Earth had been flat you would explore it forever which is good, actually, it means you always have new lands to explore and new things to discover. It turned out to be round and we have a final map of the world, at least at some scale. And that’s very satisfying but it actually had meant the end of explorer societies. I don’t know about knowledge and the structure of physical reality. It might go on forever, it might stop - who knows? All I can say is there’s absolutely no sign for curvature. It looks pretty flat as far as we can tell. There are always new questions and they’re wonderful. So if you confine it to what we call high-energy or fundamental physics that’s one thing but there are other things. You know, David talked about, is space and time an emergent phenomena that comes out of fluctuations of the vacuum? Well, there are many other forms of emergent phenomena like life. You know, how do you go from molecules to something that self-organises in a way that is life how you define it? So what we are going to be learning about dark energy and dark matter, what we know about quantum mechanics and beyond and the higher complexity will tell us more about what’s going to happen with life and what we need to know in chemistry and biology. So there are many, many stages of things to explore. Yes, there are cartographers, we now have Google maps and so we don’t need explorers of that sense. But then if you dip a spoon into the ocean, if you dip a spoon into the soil you find microbes that you can’t culture in the laboratory, that you don’t know what they’re doing, you don't know how they’re working with each other to help in the feeding of a plant. Just as we are only getting a glimpse of the microbes in our gut and how that is intimately intertwined with the immune system and, we now think, mental processes. So there are emergent phenomena that aren’t at the most fundamental physics level, that are also very exciting. If I could add to that, not only in biology but even in, more old-fashioned, non-living matter, solid state matter. I’m not sure that we have, you know, begun to understand the possible forms of matter. Now that we can manipulate individual atoms and put them in different positions, we’re no longer restricted to the type of matter we found stable on earth. And the vistas there are quite possibly enormous. So even in physics - we don’t necessarily have to go to living matter. We still don’t understand that there’s several newer classes of superconnectivity, as an example. So I turn to the last question from the audience, from Nicholas Iris from the University of Sussex: Well, perhaps my answer is, yes, but not within my lifetime. I am afraid that the situation of the expectation to get a real new standard model is so good, that things are so nice that the chances that we have to divert those things in a revolutionary way, it’s something which will take a very long time. Look at the situation we just heard at the beginning. We said until 2035 we are going to have a high-luminosity LHC. Then after that I suppose we’re going to have high-energy LHC and then maybe that will give you 50 TeV and then the question is we want to make 100 TeV machine, is 100 enough, do you need 200 - I don’t know. It seems to me that we should be very proud of the fact that the standard model works so well. In a certain sense be content with it and say that, in fact, although we can always expect nature to be different with the probability that such happens within a reasonable lifetime, is extremely small as far as I am concerned. Since we do not know what to be beyond the standard model, so I think it’s important to have various directions we go. And I realise that I have one thing to mention. That is the search for proton decays, that is obviously evidence for the unification of the forces. Therefore this is one of the things that we should not forget about. Very important question, I still remember when these gentlemen theoreticians were telling us guaranteed within 10^30 years. And now we are about 10^34 years and still we have a problem to go higher with that and so forth and so on. So it seems to me that nature is much tougher than we expect when it comes to it. And I agree proton decay is an important question but you know a factor 10 is a big factor because we are not working in logarithmic paper, ok, linear paper. So I assume that your neutrino physics will give us a good story about proton decay, certainly one of the most important ones. But the question is whether, as was said, diamonds are forever, as Shelly Glashow was saying, that is still an open question and will remain so for a long time as far as I am concerned. Thank you. Don’t confuse me with Shelly Glashow. Proton decay would be fantastic because it’s a direct window to the unification scale. Unfortunately, the rate appears to vary quadratically with the energy scale. So it’s really difficult but it would be wonderful. So I’m not sure what 'favourite' means. I think the most likely is to understand the nature of dark matter since we know that dark matter exists. And the second most likely is to understand the origin of the mass of neutrinos which we know exists. My favourite, I must say, continues to be supersymmetry because it’s the most – it’s a new symmetry and it’s beautiful and it explains many things and fits nicely into our far-out speculations about unification. Well, these are speculative wish lists but I would somewhat agree with David in the sense that dark matter - there are fishing expeditions but they are important fishing expeditions. There are many ingenious ways one can look for these things but who knows what nature is really going to be like. But we’ll see in the next 5, 10, 20 years. Hopefully one of these fishing expeditions finds something. And it is unequivocal, we know there is stuff there. So before we close this session I would like to invite the panel members to just, in a few words, a few sentences, say what you take home from this session, what you like, what you think this is a new thing, what you learned. But I don’t only want that the panel members say this, I would like to have also a few of you young participants of the audience. Think about that and if there are not some who say, yeah, I’ll just take someone of you and then you come here on stage. We'll do it the old fashioned way, you get the microphone and you can give your personal conclusion of this panel discussion. So first panel members. Carlo, so what would you say? I stay last this time. So then we start here. So what are we supposed to talk about now? (Laughter) What do you think is the message you take home from this discussion, this panel discussion. How would you summarise this? Maybe you say, ah, it was just a waste of time (laughter) or you found it interesting. I always find these interesting. I think we’re always physicists – I think, to the students, that scientists, not just physicists but scientists in general, are always very excited, very hopeful that they will have a new surprise. Something not predicted, something totally new, because that’s the thing which we really live for. If you are just verifying something else and it gets better and better that’s important. That is how science progresses. But what we were really talking about today, beyond the standard model in all its various forms, is we want a surprise and we’re desperate for a surprise because that’s what really gets us excited. Yeah, you know, so the people who are sitting up here are old. I mean we’ve had – Speak for yourself. (Laughter) But the particle physicists up here have lived through - we are old enough to have been in a period before the standard model was confirmed. And that was exciting as well. There were discoveries all the time and we had no really good theory at all. And that was a lot of fun. So everyone is looking beyond the standard model for something new. But I want to say a word about the standard model. And you know after that period we’ve ended up with a pretty good theory. With a few parameters that explains in the reductionist sense just about everything we’ve observed with incredible precision. That’s also very satisfying. So physics, you know, goes from not understanding anything, discovering new things, being totally confused, understanding and completing this incredible theory and then being frustrated because we haven’t explained everything. And there are a few new phenomena and now we’re ignorant again. That’s how physics progresses. And if you’re lucky enough like I was, you can live through all of those stages of confusion, ignorance, glimpses of understanding, confirmation of understanding, standard model and now, once again, perhaps we will be lucky enough, or you will all be lucky enough, to go through a similar cycle. I think basically I am going to repeat, yes, standard model is so great. But we have already some kind of hints beyond the standard model. And therefore I think it’s important to look at various ways to go beyond the standard model. So I think we have a lot of things to do. If I may add quickly the answer. It seems to me that first of all as an area for great unexpected discoveries, I will certainly prime neutrinos. The neutrino seems to be the right horse to go and figure out things. And it seems to me that one thing we haven’t discussed, which I think we should have discussed a little more, was the connection with dark matter. We know that dark matter is an existing phenomenon which has had revolutionary results over the last several years, beautiful results have shown that the dark matter is a reality. Now, it seems to me in a certain sense that the question of standard model should also have some function to do with the question of dark matter. For instance, are neutrinos part of dark matter? If so what kind of role do they have in dark matter or is neutrino one thing and dark matter something else? And if it is something else what is it? I mean we sooner or later will have to know that. So that seems to me is the kind of problem which I personally find most exciting: the possible relationship between neutrinos and neutrino oscillations,and dark matter. Thank you. Now I am going to look into the audience. Can you come up to the stage, please? Say your name, where you come from and then... Julieta Gruszko from University of Washington in USA. Something that struck me listening to all of your discussions is how pervasive the nation of elegance is in what theories we prefer. And I think this is something that’s really special about physics. Other sciences don’t seem to expect that the universe will hang together in this kind of beautiful way. And I find myself wondering whether the experience of going from all these new particle discoveries, without a unifying theory behind them, to the standard model has trained us to expect an elegance that we shouldn’t always expect. That whether this particular experience of the last century has created a false promise of elegance. Just as something to think about. Thank you very much. Excellent. Second one. My name is Patrick Bracy, I’m a graduate student at Johns Hopkins in the USA. What I have kept thinking about during this session is the quote that David shared with us this morning about Einstein saying, "Nature is subtle but not malicious." And it kind of feels like we’re living in this exciting but also slightly frustrating time where we have all these really tantalising hints of new stuff. And some of them are going to turn out to be interesting. Some of them are going to turn out to be statistics. And if nature isn’t malicious some of them will turn out to be worldchanging. So it was a really interesting session, thanks a lot. Thank you very much. Next one, here. My name is Guy Marcus, I’m also a graduate student at Johns Hopkins. But I’m in kinetics matter, solid state specifically. So just to let that shade how you hear my comments. So I am also someone who has, not struggled, but had had the problem of liking lots of things and being very interested. I was actually first inspired by Bera and Genesis. So I’ve sort of gone through that process of thinking about particles and such. But it’s for me, now having settled on where I am, an exciting time for a solid state physicist to see particle physicists sort of struggle around a little bit because that’s all we ever do. And we’re still making progress. So I was very glad to hear, I mean, just seeing this kind of conversation at this kind of stage is very, very fun. And also very informative to sort of see how you guys talk amongst yourselves. And also women, for that matter. Now, I appreciated the fact that particle physics stars as well as condensed matters bringing back in the fact that, hey, we’ve talked about Majoranas already, we sort of see these sort of particle physics claimed ideas in something we can touch. So this is sort of hard to bring to the public, but I’m glad to see that we could at least talk about it amongst ourselves. Thank you very much. One more? We had three. Excellent. Thank you very much. I am going to close in a couple of seconds this afternoon session, but first, of course, I would like to thank everyone who has been involved in this – our fantastic panel members, all three of you thank you very much for being so lively in the discussion. Also a great thanks to you in the audience. You have had also more questions to pose but unfortunately for time reason I couldn’t - at the end there were many more coming in and I couldn’t really say all of them, read all of them. Thank you for your participation. Thank you very much and still enjoy this week. Have great fun with physics.

Guten Tag, meine Damen und Herren. Ich begrüße Sie hier zur letzten Podiumsdiskussion der diesjährigen Nobelpreisträgertagung. Ich bin Christian Meier, freier Wissenschaftsjournalist aus der Region Frankfurt in Deutschland und habe Artikel zur Quantentechnologie verfasst, dem Thema, das wir hier heute diskutieren. Zunächst möchte ich Ihnen die Diskussionsteilnehmer vorstellen: Serge Haroche, Gerardus t’Hooft, William Philips und David Wineland. Herzlich willkommen. (Applaus.) Die Quantenphysik ist bereits vor Jahrzehnten in Form von Lasern, Computerchips oder Kernspintomographiegeräten als Technologie bekannt geworden. Wir bezeichnen das, mehr oder weniger rückwirkend, als erste Quantenrevolution. Viele Menschen meinen, dass wir jetzt eine zweite Quantenrevolution erleben. Das Besondere daran ist, dass die Technologie zentrale Phänomene der Quantenphysik zu nutzen beginnt, wie beispielsweise Schrödingers Katze, also die Überlagerung von Quantenzuständen und -verschränkungen. Viele können sich vorstellen, dass Quantencomputer beispielsweise die Supercomputer weit hinter sich lassen werden. Zumindest bei einigen speziellen Anwendungen wie der Datenbanksuche oder der Simulation komplexer Moleküle und komplexer Festkörperkristalle. Das könnte zu neuen Arzneimitteln und zu neuen intelligenten Materialien wie Supraleitung bei Raumtemperatur führen, Und manche können sich sogar eine Art von Quanteninternet vorstellen, dessen Kommunikation den Gesetzen der Quantenphysik folgt. Und sogar Cloud-Computing könnte über ein Konzept erfolgen, das als „Blind Quantum Computing“ bezeichnet wird. Dabei weiß nicht einmal der Service-Provider, der einen Quantencomputer besitzt, welche Art von Berechnung auf seinem eigenen Quantencomputer durchgeführt wird. Auch ultra-sensitive, schnelle und sehr kleine Sensoren sind vorstellbar. Beispielsweise Nanodiamanten, die mit magnetischen Sensoren ausgestattet sind, die den Körper durchforsten und beispielsweise das Gehirn sehr detailliert abbilden. Heute kann man bereits Quantentechnologien dieser Quantenkommunikationssysteme der zweiten Generation kaufen. Sie werden von Regierungen, dem Militär oder der Bankenindustrie verwendet. In China sowie in Südkorea wird derzeit eine Quantenkommunikationsinfrastruktur aufgebaut. Überall in der Welt entstehen Quantenzentren, Quantenwissenschaftszentren und Quantentechnologiezentren. Die Frage lautet also: Ist die Quantentechnologie die Zukunft des 21. Jahrhunderts? Das ist eine sehr gewagte Frage. Und natürlich ist es nicht einfach, die Zukunft vorherzusagen. Denkt man beispielsweise an die Star Trek-Serie aus den 1960er-Jahren, so sahen die Bordcomputer der Enterprise wie IBM-Maschinen aus den 1960er-Jahren und nicht so aus, wie Computer vielleicht in 300 oder 400 Jahren aussehen könnten. Aber heute haben wir den großen Vorteil, dass hier Pioniere der Quantentechnologie anwesend sind. Die Experten hier auf dem Podium zählten zu den ersten, die Messungen in Bezug auf diese wilde Quantenwelt angestellt haben und Konzepte in die Labors gebracht haben, bei denen es sich zunächst mehr oder weniger nur um eine Philosophie gehandelt hat, wie Schrödingers Katze. Und die Verfahren geliefert haben, mit denen sich einzelne Atome, einzelne Photonen oder Ionen messen, steuern oder manipulieren lassen. Sie haben Quantenphysik in Technologien umgesetzt. Ihre Erfahrungen werden uns also helfen, die Auswirkungen der Quantentechnologie besser zu verstehen. Und danach werden wir hoffentlich eine lebhafte Diskussion erleben. Dafür nutzen wir natürlich moderne Technologie. Sie haben Smartphone-Apps, über die Sie Ihre Fragen eingeben können. Die gehen dann bei mir ein und ich werde sie in die Diskussion einbringen. Nach der Diskussion hätte ich gerne zwei oder drei Freiwillige aus dem Publikum, die ihr eigenes Fazit darüber formulieren, ob die Quantentechnologie die nächste große Sache ist oder ob sie überbewertet wird – oder was auch immer. Mindestens zwei Personen für eine „Pro“- und eine „Kontra“-Stellungnahme. Aber zunächst möchte ich die Podiumsteilnehmer zu ihrer Meinung fragen. Ist die Quantentechnologie die Zukunft des 21. Jahrhunderts? Es ist eine geschlossene Frage, aber ich möchte Sie fragen, wie Sie darüber denken und warum. Und ich würde gerne mit Serge beginnen. Ich denke, Sie haben zu Beginn zurecht gesagt, dass wir uns bereits in einer Quantentechnologie befinden. Die Apparate, die wir in unserem täglichen Leben verwenden, vom Mobiltelefon bis zum Computer, zu Lasern, GPS-Systemen, Atomuhren, basieren auf Quantengesetzen. Und diese Gesetze wurden in der ersten Hälfte des 20. Jahrhunderts entdeckt. Ich finde es interessant, darüber nachzudenken, dass eine solche Diskussionsrunde wie diese zur damaligen Zeit nicht stattgefunden hätte. Ich glaube nicht, dass man Menschen wie Schrödinger, Bohr oder Einstein gefragt hätte, wie die Quantentechnologien der Zukunft aussehen. Sie haben das einfach gemacht und sie haben das aus Neugier gemacht. Und einer der Gründe dafür, warum wir diese Diskussion jetzt führen, ist der, dass sich die Perspektive in einer Welt, in der nicht alles immer gut ist, verändert hat. Wenn wir ausschließlich durch Wissensdurst motivierte Physik, Grundlagenphysik betreiben, werden wir immer gefragt, wofür das nützlich ist. Und ich glaube, dass es darüber hinaus einfach deshalb sinnvoll ist, weil es unseren Wissensdurst und unsere angeborene Neugier befriedigt, besser zu verstehen, wie die Dinge funktionieren. Bei der Manipulation von isolierten Quantensystemen in den Experimenten, wie wir sie durchführen, waren wir also von der Herausforderung motiviert, es einfach zu tun, bevor wir überhaupt über Anwendungen nachdenken. Uns hat beispielsweise ein Satz von Schrödinger motiviert, der die Durchführung dieser Experimente in der realen Welt für lächerlich hielt. Und wir wollten beweisen, dass es nicht lächerlich ist und dass wir ein solches Experiment durchführen können. Das war unsere grundlegende Motivation. Und wenn man über die Ereignisse in der Zukunft nachdenkt, sollte man vorsichtig sein. Wenn man auf die Geschichte zurückblickt, so wäre meines Erachtens kein Physiker zu Beginn des 20. Jahrhunderts in der Lage gewesen, auch nur irgendetwas von dem vorherzusagen, was seitdem passiert ist. Lord Kelvin ist für seine Aussage im Jahr 1900 bekannt geworden, dass wir alles wissen und dass es in der Physik nichts mehr zu entdecken gibt. Niemand dachte damals an Computer, Laser oder den Transistor. Vor diesem Hintergrund sollten wir etwas bescheiden bleiben, wenn wir uns die Zukunft vorstellen. Ich bin sicher, dass wir durch die Manipulation eines Quantensystems in der Lage sein werden, Dinge zu erreichen, die höchstwahrscheinlich von dem abweichen werden, was wir uns heute vorstellen. Wenn wir uns wirklich die Zukunft vorstellen wollen, sind meiner Meinung nach Dinge wie Quantensimulationen, die hier in mehreren Vorträgen behandelt wurden, sehr vielversprechend. Die Tatsache, dass wir in der Lage sind, von der Basis Systeme mit Atomen, Ionen oder einfachen Quantenschaltungen aufzubauen, die miteinander interagieren, und zu simulieren, was in echten Materialien geschieht. Und sobald man 20 oder 30 Partikel erreicht, wird es mit dem klassischen Computer unmöglich zu verstehen, was geschieht. Das ist also die Quantensimulation. Und das ist eine Hochrechnung, die man heute anstellen kann. Der Quantencomputer ist ein weit darüber hinausgehender Schritt. Es ist noch zweifelhaft, ob er eines Tages klassische Computer ersetzen wird oder nicht. Ich halte also die Quantensimulation tatsächlich für etwas sehr Interessantes. Aber es ist sicherlich nichts, was jeder auf seinem Schreibtisch haben wird. Es ist eine Forschungsmaschine, die uns dabei helfen kann, Materialien zu synthetisieren, die wiederum nützlich sein werden und möglicherweise in 20 oder 30 Jahren weit verbreitet sind. Und ich glaube auch, dass die Anwendungen wie immer nicht aus einer einzigen Grundlagenwissenschaft kommen werden. Sie entstehen aus der Konvergenz verschiedener Domänen der Grundlagenwissenschaft, wobei sich sehr schwer voraussagen lässt, welche das sein werden. Ein Mensch wie Edward Purcell, der die Kernspintomographie entwickelt hat, lebte lang genug, um die Entwicklung der Kernspintomographie zu erleben. Ihn hat das erstaunt, weil er darüber nie nachgedacht hätte, denn 1945 gab es noch keine Computer. Deshalb war es unmöglich, aus den Rohsignalen seiner NMR-Maschine Bilder herzustellen. Es mussten also zunächst Computer entwickelt werden. Es mussten supraleitende Magnete für hohe Magnetfelder und NMR entwickelt werden. Und die Konvergenz dieser Technologien führte dann zu diesem Gerät. Was wir uns also versuchen müssen vorzustellen, wäre die zukünftige Konvergenz der Technologien. Und das ist ganz schön schwer. Das war mir wichtig, zu Beginn zu sagen. Danke. Gerardus. Ja. Auch ich möchte einen Vergleich mit der Vergangenheit anstellen. In den 1950er-Jahren, in denen ich aufgewachsen bin, war gerade die Atombombe gefallen und wurde Kernenergie entwickelt. Und deshalb hatten wir grundsätzlich den Eindruck, dass die Kernenergie oder die Kernphysik unser Leben in naher Zukunft dominieren würde. Dass man also nicht nur Kernenergie und Atombomben, Atomwaffen hätte, sondern auch Atomautos, -flugzeuge, -schiffe. Man dachte, dass in Zukunft alles nuklear sein würde. Und wir sehen auch, dass die Nuklearenergie heute wichtig ist. So verwendet man beispielsweise heute in Krankenhäusern Isotope für Diagnosen usw. Neben der Kernenergie und der Bedrohung durch Atombomben. Aber nein, es gibt keine Atomflugzeuge, keine Atomautos. Es gab also eindeutig Grenzen für das, was mit der Nuklearenergie möglich ist. Und in ähnlicher Weise werden wir meiner Ansicht nach auch Grenzen für das erleben, was man mit Quantum Computing und solchen Dingen machen kann. Wenn man natürlich über Quantenmechanik spricht, ist Quantenmechanik überall. Die gesamte Chemie ist Quantenmechanik. Viele Materialeigenschaften lassen sich nur über Quantenmechanik verstehen. Supraleiter, Sie erwähnten sie bereits, eines Tages wird es vielleicht eine Supraleitfähigkeit bei Raumtemperatur geben. Man kann sich gut vorstellen, dass so etwas geschehen könnte. Und das wird unsere Leben wiederum verändern. Also ja, aber die große Frage ist doch, ob es in unserer Zukunft Qubits geben wird. Und da bin ich mir nicht so sicher. Dazu habe ich mindestens vier Punkte anzumerken. Es könnte eine Grenze dafür geben, was man mit Qubits machen kann. Das ist eine Mutmaßung, die ich bereits vor langer Zeit formuliert habe, dass der Quantencomputer Wunder bewirken wird, dass es aber eine Grenze geben wird. Und die Grenze ist die, dass er von einem klassischen Computer übertroffen wird, sobald man die klassischen Computer auf Plancksche Dimensionen erweitern kann. Die Verarbeitungszeit dafür wäre 10^-44 Sekunden, wenn die Speicherbits nicht mehr als 10^-33 Quadratzentimeter in Anspruch nehmen würden. Ja, dann würde dieser Computer jeden Quantencomputer übertreffen, weil die Welt in dieser Größenordnung tatsächlich klassisch sein könnte. Heute kann natürlich niemand einen solchen klassischen Computer herstellen und niemand wird je in der Lage sein, einen solchen klassischen Computer herzustellen. Und deshalb werden Quantencomputer Wunder bewirken können, insbesondere bei Suchanforderungen, wie beispielsweise in Datenbanksuchen, wie Sie bereits sagten. Aber viele Probleme könnten mit Quantencomputern nicht so einfach adressiert werden. Und eine weitere Warnung ist die Tatsache, dass ein Quantencomputer grundsätzlich ein analoger Computer wäre. Denn Qubits formen ein Kontinuum und man muss immer sehr präzise in Bezug darauf sein, wo im Kontinuum man sich mit seinen Qubits befindet. Es sind also analoge Computer und zumindest im klassischen Sinne waren analoge Computer nie so erfolgreich, zumindest nicht in Bezug auf ihre Geschwindigkeit und Präzision. Es gibt hier also eine Gefahr und die Tatsache, dass es eine Grenze für Quantum Computing gibt. Man kann dann natürlich fragen, welche Grenze. Ich denke, dass es sehr viele praktische Grenzen in der Dekohärenz usw. geben wird. Sie kennen die Probleme von heute. Diese Schwierigkeiten können zu einem Großteil durch Fehlerkorrekturverfahren gelöst werden, aber nicht komplett. Es werden Probleme bestehen bleiben, die man nicht mehr korrigieren kann. Und die begrenzen die Verwendungsmöglichkeiten für Quantencomputer. Aber dennoch werden sie im Vergleich zu den Supercomputern, die man in dieser Weise herstellen kann, Wunder bewirken. Davon bin ich überzeugt. Die andere Sache ist die, dass Qubits instabil sind. Zum Erreichen von Quanten-Kohärenz muss die Energie der verschiedenen Zustände, in denen sich der Computer befinden kann, exakt gleich sein. Ansonsten wird E zu I, E1 minus E2, geteilt durch HI, wird dieser Faktor die Signale komplett dekohärieren. Deshalb braucht man ein fantastisches Kohärenzniveau. Dazu braucht man volle Kontrolle über die Energie der Zustände. Und als Theoretiker erwarte ich dort eine potentielle Schwierigkeit. Andererseits, um das positiv anzumerken, sehe ich eine ziemlich gute Zukunft für klassische Computer. Das Mooresche Gesetz ist überhaupt nicht am Ende. Wir können auf unseren Chips immer noch eine dritte Richtung einschlagen. Es wird ein Dissipationsproblem für Erhitzer geben, das ist etwas anderes. Aber die Größe der Speicher kann gigantisch werden. Ich glaube die Grenze, die formelle Grenze ist nur die Avogadro-Konstante. Das heißt, dass alle heutigen Daten überall, die größten Datenbanken alle zusammengepackt, in einen winzigen Speicherstick dieser Größe passen, wenn man nur die Avogadro-Konstante als unüberschreitbare Grenze nimmt. Klassischen Rechnern steht also eine aussichtsreiche Zukunft bevor. Und ich denke da auch an die künstliche Intelligenz. Nicht die Roboter, die wir hier gesehen haben, die amüsante, aber nicht wirklich intelligente Sachen gemacht haben. Aber ich glaube, dass eines Tages eine menschliche Form der Intelligenz kommen wird. Und dafür braucht man keine Quantencomputer, davon bin ich überzeugt. Das kann alles mit klassischen Rechnern geschehen. Anders gesagt: Nach meiner Einschätzung werden klassische Computer praktisch in vielen Fällen viel besser sein als Quantencomputer. Das heißt aber nicht, dass die Quantenmechanik nicht in vielen Fällen in naher Zukunft in vielen Technologien sehr wichtig sein wird. Danke. Bill. Es gibt einige Aussagen von Professor t’Hooft, mit denen ich nicht einverstanden bin. Aber vielleicht sprechen wir später darüber. Ich bin mir nicht sicher, dass ich einen Quantencomputer als analogen Computer bezeichnen würde, jedenfalls nicht in der simplifizierenden Weise. Aber er hat offensichtlich solche Merkmale, weil man ein Kontinuum erzeugen kann. Aber dennoch gibt es zwei Zustände und ich halte das für ein sehr wichtiges Merkmal. Und selbst bei dieser Tagung haben mehrere Leute gesagt, dass wir bereits in der klassischen Halbleiterelektronik in einigen Aspekten das Ende des Mooreschen Gesetzes erreicht haben. Aber lassen Sie mich davon einmal absehen und einfach versuchen, die Frage zu beantworten, ob das 21. Jahrhundert das Jahrhundert der Quantentechnologie sein wird. Und ich glaube, die Frage zielt tatsächlich darauf ab: Wird die zweite Quantenrevolution die Technologie des 21. Jahrhunderts in der Weise dominieren, wie die erste Quantenrevolution die zweite Hälfte des 20. Jahrhunderts dominiert hat? Und das war eine ziemlich weitgehende Beherrschung, die auch weiterhin besteht. Nun, einige Leute haben das bereits deutlich gemacht, aber ich will das noch einmal bekräftigen. Sie erinnern sich an den Vortrag von Steve Chu, der den großen amerikanischen Philosophen Yogi Berra erwähnte, der als Baseballspieler für die New York Yankees aktiv war. Er erwähnte eine der philosophischen Beobachtungen des Yogis, dass man nämlich die Welt durch Anschauen sehen kann. Eine weitere philosophische Beobachtung des Yogi Berra war, dass Vorhersagen besonders schwierig sind, wenn sie die Zukunft betreffen. (Lachen) Ich glaube also, dass alles, was hier gesagt wird, vor diesem Hintergrund betrachtet werden sollte. So ist es beispielsweise einfach, die Frage zu beantworten, ob die zweite Quantenrevolution das 21. Jahrhundert so dominieren wird, wie die erste den letzten Teil des 20. Jahrhunderts, und darauf aufgrund all der Probleme, die Professor t’Hooft genannt hat, mit nein zu antworten. All diese Schwierigkeiten werden es wirklich schwer machen, eine so verbreitete zweite Quantenrevolution in der Technologie zu erleben. Aber man erinnere sich daran, dass in den 1970er-Jahren niemand daran geglaubt hat, dass Menschen zu Hause Computer haben werden. Und bekanntlich sagte das auch der Chef einer der größten Computerfirmen der damaligen Zeit. Diese Computerfirma existiert nicht mehr und besteht schon seit einigen Jahrzehnten nicht mehr. Spekulationen gegen eine breite Durchsetzung von Technologie sind also oft wirklich schlecht. Es wäre einfach, alle möglichen Gründe zu nennen, warum es für eine derartige Technologie schwierig wird, Einfluss zu nehmen. Ich möchte aber ein Beispiel nennen, wo sie meines Erachtens einen großen Effekt haben wird. Wie wir bereits erwähnten, hat die erste Quantenrevolution, also der Teil der Quantenmechanik, der uns sagt, dass Teilchen Wellen sind und dass Dinge durch Quantenstatistiken beeinflusst werden, enorm weitergebracht hat. Die meisten Dinge, die wir als Teil unserer modernen Gesellschaft betrachten, stützen sich auf diese Art von Quantenmechanik. Aber wenn wir in der Materialentwicklung andere und bessere Funktionen aus Quantenmaterialien herausholen wollen, müssen wir diese Quantenmaterialien auf einer Ebene verstehen, die über eine solche grundlegende Quantenmechanik hinausgeht. Und genau darüber hat Professor Haroche gesprochen. Wenn es um mehr als ein paar Dutzend Teilchen geht, kann kein heutiger Computer die Ergebnisse berechnen. Wir können also nicht berechnen, welches Verhalten ein Material zeigt, in dem mehr als ein paar Dutzend Teilchen miteinander korrelieren. Wenn sie alle unabhängig im Mittelfeld aller anderen Teilchen agieren, ist es im Grunde ein Einzelteilchenproblem. Und das ist die Art von Problem, die wir bis heute mehr oder weniger gelöst haben und zur Entwicklung von Materialien verwenden. Wenn wir das beispielsweise besser machen wollen, wenn wir die Hochtemperatur-Supraleitfähigkeit verstehen wollen und bessere Hochtemperatursupraleiter herstellen wollen, die unsere Gesellschaft revolutionieren könnten, müssen wir wahrscheinlich die dahinter steckende Physik auf Vielkörperebene verstehen, die wir in der Vergangenheit nicht verstanden haben, und zwar mit einer Vielzahl von Körpern in diesem Vielkörperproblem. Und eine der realistischsten Hoffnungen für das Verständnis von Vielkörperproblemen ist die Quantentechnologie. Entweder Quantencomputer oder wahrscheinlicher wenigstens in nächster Zukunft die Quantensimulation, wie Haroche sagte. Das könnte einen enormen Einfluss auf unsere Gesellschaft haben. Aber ob das tatsächlich der Fall sein wird? Das ist völlig offen. Fragen Sie Yogi. Das kann ich kurz machen, weil ich grundsätzlich mit fast allem übereinstimme, was bereits gesagt wurde. Was ich auf jeden Fall gerne sagen möchte: Auch wenn es schön ist, über eine zweite Quantenrevolution zu reden, geht es meiner Ansicht nach eher um eine Art von allmählicher Entwicklung. Worauf man hinweisen könnte, ist, dass wir jetzt in Systemen wie einem Quantencomputer versuchen, die Vorteile der Kohärenz im System zu nutzen. Man könnte sagen, dass der Laser bereits ein kohärentes System war. Aber hier versuchen wir meiner Meinung nach diese Fähigkeit zu erweitern, Quantenzustände zu formen und genügend Kontrolle zu behalten, damit sich das System in einer kohärenten Weise entwickeln kann, bevor wir die Messungen anstellen. Das ist vielleicht so ein bisschen die Trennlinie zwischen dem, was bereits gemacht wurde, und dem, was wir hoffentlich in Zukunft machen können. Und ich stimme mit Bill und Serge darin überein, dass eines der Dinge ist, über das viele Physiker nachdenken, dass wir vielleicht ein Simulationsgerät entwickeln können, das uns bei der Lösung von Problemen helfen wird. Interessant ist, dass insbesondere in den USA, insbesondere durch staatliche Finanzierung, die Idee einer „Factoring Machine“ so viel Interesse gefunden hat, die offensichtlich enorme Auswirkungen auf die Verschlüsselung, die Sicherheit der Verschlüsselung hätte. Aber vielleicht lässt sich auch das Problem überwinden. Ich sitze in einem Ausschuss mit Peter Shor und es gibt inzwischen so genannte quantenresistente Verschlüsselungssysteme. Und natürlich gibt es keinen Beweis für irgendetwas. Aber er würde sagen, dass er nicht wüsste, wie ein Quantencomputer eine Verschlüsselung knacken könnte, die auf diesen neueren Methoden basiert. Möglicherweise verschwindet also auch die erste große Anwendung. Ich denke, er würde wohl auch sagen, dass nicht bewiesen ist, dass ein Quantencomputer beim Knacken dieser Codes nicht helfen kann. Deshalb bin ich sehr zuversichtlich, dass wir zur Simulation beitragen können. Das ist eines der Dinge, die Feynman zugeschrieben wurde, dass er versucht hat, Probleme in der Teilchenphysik zu lösen, aber dass es schwierig zu simulierende Vielkörperprobleme waren. Wir hoffen also, dass das zu den primären Anwendungen zählen wird. Wie Serge bereits sagte, wir wissen aber nicht, was sich daraus weiter entwickeln wird. Wir können hoffentlich die Untersuchung grundlegender Effekte fortsetzen und werden dann sehen, wohin uns das führt. Vielen Dank. Unser erstes Fazit könnte also lauten, dass die Quantentechnologie und insbesondere der Quantencomputer mehr oder weniger in erster Linie ein Forschungsinstrument ist, das sich mehr oder weniger indirekt auf die Gesellschaft und auf die Technologie auswirkt und dass andere Anwendungen wie Datenbanksuchen oder Zahlenspiele jetzt noch nicht realistisch sind. Es sind einige Fragen aus dem Publikum eingegangen, die dazu passen. Quantencomputer als Forschungsinstrument: Ich habe die erste Frage von - ich bitte um Entschuldigung für die Aussprache - von Mariami aus Deutschland, Hochschule Siegen. Und wie weit sind wir grundsätzlich von Remote-Labs entfernt, in denen man bestimmte Bellsche Experimente testen kann?" Es geht also um den Quantencomputer als Remote-Lab - was sagen Sie dazu? Ich halte das 5-Bit-IBM-Ding, in das man sich einloggen kann und, wie ich annehme, Sachen auf einem 5-Bit-Quantencomputer laufen lassen kann, für einen wunderbaren PR-Gag, weil man 5 Qubits auch auf einem anständigen Computer laufen lassen könnte. Damit wird lediglich betont, dass eine neue Technologie entsteht. Und man könnte einige der Merkmale dieser neuen Technologie selbst testen, wenn man wollte. Aber ich bin mir nicht sicher, ob sie beispielsweise wirklich 5 Quantenbits hatten oder ob sie 5 Quantenbits simuliert haben. Nicht, dass ich sie wegen etwas Unlauterem bezichtige. Aber wir könnten das heute umsetzen und es ist etwas Gutes. Es ist großartig, dass sie solche Merkmale entwickelt haben, damit Menschen sehen können, um was es bei der Arbeit in der Quantum-Computing-Welt geht. Weiß irgendjemand, ob das bereits von jemandem zu Forschungszwecken eingesetzt wird? Ist das nur online oder wird das auch bereits von Menschen benutzt? Ich glaube, mit 5 Qubits kann man keine Forschung betreiben. Die Kapazität eines solchen Systems reicht nicht für echte Berechnungen aus. Ich muss auch ergänzen, dass viele Labors Experimente mit einer Handvoll Qubits durchführen, um simple Effekte zu demonstrieren. Ich stimme Bill zu, dass das eine publikumswirksame Aktion ist, das System so zu präsentieren, aber es mag hilfreich sein, die Öffentlichkeit auf diese Art von Entwicklungen aufmerksam zu machen. Aber es geht hier nicht um einen großen Durchbruch im Sinne der Forschung. Ich möchte einen weiteren Aspekt des Quantensystems einbringen, über den wir noch nicht gesprochen haben. Neben dem Quantencomputer und der Simulation gibt es etwas, was als Quantenmetrologie bezeichnet wird und die Quanteneigenschaften nutzt, was wir "die zweite Revolution" nennen. Mir gefällt das nicht, weil man nicht selbst erklärt, dass man revolutionär ist - das zeigt sich erst im Nachhinein. Aber die Quantenmetrologie ist ein sehr interessantes System. Man errichtet ein System, das die Superposition von zwei Zuständen einnimmt, eine Art Schrödingers Katze, deren beiden Teile unterschiedlich empfindlich gegenüber etwas sind, was man messen möchte. Und dann kann man durch einen Interferenzeffekt eine Messung mit einer Präzision vornehmen, die das übertrifft, was man mit jedem der Teile separat erreichen würde. Dave hat in seinem Vortrag über Atomuhren berichtet und gezeigt, dass die Atomuhren bereits fantastisch genau sind. Und die stammen aus der ersten Quantenrevolution mit der Definition, dass diese Atomuhren nicht auf Verschränkung und Zustandssuperposition basieren. Aber wenn sie durch Zustandssuperposition und Verschränkung ergänzt werden, wenn man verschränkte Atome zur Messung der Zeit nutzt, könnte man möglicherweise eine andere Größenordnung erreichen. Die große Frage ist, was man machen würde, wenn eine andere Größenordnung erreicht würde, wenn die Uhr auf eine 100-Mikrometerveränderung im Gravitationsfeld der Erde reagieren würde? Aber vielleicht gibt es ja in Zukunft beispielsweise Anwendungen wie die, die Sie am Ende Ihres Vortrags erwähnt haben, die Entdeckung von sehr, sehr kleinen Bewegungen in der Erde, die Vorboten von Erdbeben sind. Vielleicht wäre das so eine Nutzung solcher Quantenmetrologie-Anwendungen. Oder die Variationen der fundamentalen Konstanten. Ja, aber das ist nicht Technologie, das ist tatsächlich Wissen. Ich würde dann gerne später auf die Quantensensorik zurückkommen. Ich habe eine weitere Frage, die zum Thema der Quantensimulation passt, und zwar von Luca Messina aus Schweden, Royal Institute of Technology: Welche Hauptherausforderungen gilt es noch zu bewältigen? Und wann werden Ihrer Meinung nach Quantencomputer zur Verfügung stehen?" Also Quantencomputer, die numerische Simulationen durchführen? Wer möchte diese Frage beantworten? Ich habe den Eindruck, dass wir sehr ähnlich antworten würden. Ich denke, die Idee eines Quantencomputers wäre, dass er solche Simulationen ohne die Notwendigkeit normaler numerischer Simulation durchführen und wesentlich effizienter sein könnte. Aber ich glaube, dass kontinuierlich Fortschritte gemacht werden und hoffentlich in die richtige Richtung gehen und dass die Technik in dieser Hinsicht immer besser wird. Das Gute daran ist, es stimmt, in dem Versuch, unsere Systeme besser zu kontrollieren und kompliziertere Simulationen durchzuführen, berücksichtigen wir die ganzen verschiedenen Plattformen, Atome, Ionen und Supraleiter. Dadurch kennen wir die typischen Probleme, wissen, warum unsere Abläufe nicht akkurater sind und können deshalb größere Geräte herstellen. Mich motiviert das, weil ich beispielsweise davon überzeugt bin, dass die Reinheit der Materialien in Supraleitern ein bedeutendes Thema ist. Das ist leicht gesagt, denn natürlich ist es schwierig, immer reinere Materialien herzustellen. Aber ich glaube, dass sich – unabhängig vom Quantum Computing – die Technologie bereits in Richtung einer besseren Kontrolle über Materialien und ähnliche Dinge entwickelt. Deshalb bin ich ganz optimistisch, dass wir künftig wirklich sinnvolle Simulationen durchführen können. Aber das erfolgt möglicherweise langsam und allmählich. Aber meiner Meinung nach sind wir auf dem richtigen Weg. Gibt es ein weiteres Statement? Ich glaube, es gibt zwei Möglichkeiten, über Quantensimulation nachzudenken. Die eine ist, wie bereits gesagt, zu simulieren, was im realen Material geschieht, und das System sich entwickeln lassen und dann Messungen vorzunehmen. Das ist eine Art analoger Quantensimulator. Der andere Weg ist es, das System in kurze Zeitintervalle aufzuteilen und es dann die Quantenmaschine zu nutzen, um diese kurzen Schritte zu realisieren. Das ist also eher der digitale Aspekt. Man nutzt Quantengatter, um die Entwicklung in kurzen Schritten herauszufinden. Und das ist eher wie ein digitaler Quantencomputer, der sich für einige Dutzend Teilchen eignet. Das funktioniert bereits. Es gibt wunderbare Experimente, in denen durch eine analoge Art der Berechnung oder durch eine solche Digitalisierung Informationen gewonnen werden können, die sich in den Randbereichen dessen befinden, was die klassische Maschine berechnen kann. Aber auf vollwertige Quantencomputer zu warten, um die Eigenschaften von Materialien herauszufinden, ist meiner Ansicht nach heute eine Utopie. Man sollte vorerst nicht darüber nachdenken. Diese Maschinen sind also nach wie vor Forschungsmaschinen, mit deren Hilfe man mehr darüber erfahren kann, wie sich beispielsweise neue Materialien in Bezug auf die Anhebung der Temperatur von Supraleitern verhalten. Das wäre eine Einsatzmöglichkeit. Dazu würde ich gerne die Aussage von Rainer Blatt einbringen: dass es bereits in 5 oder 6 Jahren einen 40-Qubit-Quantensimulator – ich denke, in seinem Labor – geben wird, der chemische Verbindungen mit 40 Atomen, was heute das Limit für die Simulation durch Supercomputer ist, schneller als der schnellste Supercomputer simulieren kann. Deshalb ist es nicht so abwegig, dass wir das nicht nur als Forschungsinstrument benutzen, sondern auch als funktionsfähige Maschine, die besser als ein Supercomputer ist. Würden Sie das bejahen? Ich würde sagen, dass es immer noch eine Forschungsmaschine ist. Ich würde das nicht als Technologie bezeichnen. Aber man kann sich vorstellen, wo das als Technologie enden könnte. Und auch ich gehe davon aus, dass es 40-Qubit-Simulatoren geben wird und dass damit interessante Dinge möglich werden. Aber das befindet sich noch in der Forschungsphase, würde ich sagen. Ich könnte mir sehr gut ein Gerät vorstellen, das aus einer riesigen Anzahl von Qubits besteht, die dann in jeder möglichen Weise kombiniert werden. Man kann sich vorstellen, damit dann ein Atom nachzuahmen oder beispielsweise in der Teilchenphysik Gitterberechnungen durchzuführen, die auf einem Standardcomputer sehr lange dauern und enorme Computerleistung erfordern. Man muss sprichwörtlich ganze Atomreaktoren verbrennen, um eine simple Gitterberechnung für QCD durchzuführen. Und dann hat man ein 10x10x10x10-Gitter - das ist ganz sicher das, was man machen möchte. Aber man kann sich viel mehr als 10x10x10x10-Qubits vorstellen, die durch jede gewünschte Funktion verbunden werden könnten. So könnte man im Prinzip jede Gitterberechnung durchführen und sie einfach simulieren. Man möchte die Energieniveaus kennen - hier sind sie. Man strahlt einfach ein Photon in das System und findet heraus, welche Übergänge überall bestehen. So erhält man das Energiespektrum des Systems, als ob es selbst ein Atom wäre. Und die Existenz einer solchen Maschine ist trivial. Die beste Maschine zur Berechnung der Energieniveaus des Uranatoms ist das Uranatom selbst, weil es genau das richtige Potential hat, um es zu messen. Aber stellen Sie sich jetzt etwas vor, wie in der QCD, wo man zwar etwas messen kann, aber man möchte wissen, ob man die Physik versteht. Deshalb möchte man wissen, ob das Gitter tatsächlich die QCD mit all ihren Problemen korrekt beschreibt. Dann kann man die QCD in größerem Maßstab nachahmen, aber grundsätzlich dieselbe Physik anwenden. Aber normalerweise ist ein solches Quantensystem enorm schwierig zu berechnen. Und natürlich haben wir in der Chemie, wie Sie sagen, dasselbe Problem. Und bevor ich über diese Schwierigkeit rede, denke ich an den Vortrag von Ted Hänsch, wo er erwähnte, dass es einmal sehr, sehr schwierig war, Frequenzen zu zählen. Man benötigte 20 verschiedene Geräte, um alles Mögliche zu zählen, das gesamte Spektrum eines Frequenzkamms. Aber dann wurde eine kluge Erfindung für ein einziges Gerät gemacht, das all diese Frequenzen messen kann. In Zukunft kann möglicherweise ein einfaches Gerät hergestellt werden, mit dem man die Verbindungen in einer beliebigen Zahl von Qubit-Paaren anpassen und dann eine analoge Berechnung anstellen kann. Das ist grundsätzlich durchaus denkbar und das wäre ein großer Fortschritt. Es wird nicht nur darüber diskutiert, ob ein Quantencomputer möglich oder nicht möglich ist und wann er kommen wird, sondern auch über welche Plattform. Und hier habe ich eine Frage von Kathrin Kröger von der ETH Zürich in der Schweiz: für den Bau eines Quantencomputers?" Ionenfallen natürlich. Ich glaube, dass es keinen eindeutigen Gewinner in diesem Spiel gibt. Aufgrund einiger Messungen könnte man meiner Meinung nach argumentieren, dass Ionenfallen führend sind. Aber falls das stimmen sollte, so würde ich doch sagen, dass es wie ein Marathonlauf ist. Und auch wenn wir möglicherweise führend sind, kann man sich immer noch umsehen und die Startlinie erkennen, zumindest für ein großes Gerät. Das ist technisch so schwierig, wir sind so weit von der Herstellung eines Skalengeräts entfernt, dass ich keinen offensichtlichen Gewinner sehe. Und ich fände es auch nicht schlimm, wenn es am Ende Supraleiter wären, weil ich finde, dass wir alle dazu beitragen. Aber ich finde es noch zu früh, die beste Plattform herauszupicken. Und würden Sie sagen, dass es eine Plattform einer Art oder eine Kombination verschiedener Arten von Physik sein wird? Man spricht davon, dass es eine Kombination von verschiedenen Quantensystemen sein könnte. Ionenfallen und Atome sind sehr gut als Speicher. Und vielleicht könnte man sie als Speicherelemente nutzen und dann Quantenpunkte verwenden, da sie viel schneller in der Verarbeitung sind. Man fängt an, sich darüber Gedanken zu machen, aber es ist noch viel zu früh, um zu sagen, ob das der Weg sein wird. Diese Frage wird, zumindest von Mittelvergabestellen, oft gestellt, um herauszufinden, in was investiert werden und was aus dem Programm gestrichen werden sollte. Und das ist zu früh. Es wäre wirklich unklug, in dieser Phase bestimmte Technologien zu streichen und andere zu favorisieren. Wenn man in das Jahr 2000 zurückdenkt und Supraleiter betrachtet, hätte man gesagt: Oh, das sieht überhaupt nicht gut aus. Es gibt nicht einmal ein ordentliches Qubit, die Dekohärenz ist so schnell. Und schauen Sie, wo die Supraleiter heute stehen - eine der fortschrittlichsten Plattformen, noch nicht ganz so fortschrittlich wie Ionen, aber ziemlich gut. Das lehrt uns, dass wir möglichst nicht zu früh eine bestimmte Plattform eliminieren sollten, solange wir wirklich ernsthaft an Ergebnissen interessiert sind. Ich stimme auch der Vorstellung zu, dass es sich bei der letztendlichen Konstruktion wahrscheinlich um eine Hybridform handeln wird. Und wenn eines wirklich wichtig sein wird, dann ist es die Verbindung zwischen Speicher und Prozessor. Und diese Verbindung könnte verschiedene Formen annehmen, aber es wird sich höchstwahrscheinlich um Photonen handeln. Und so gibt es noch eine Menge zu tun für eine effektive Verbindung zwischen verschiedenen Plattformen mit Hilfe von Photonen. Wobei das, wie ich sagte, nicht die einzige Möglichkeit ist. Es könnten direkte supraleitende Leitungen sein, es könnten supraleitende Übertragungsleitungen mit Mikrowellenphotonen statt optischen Photonen sein. Es gibt zahlreiche Möglichkeiten, wie das erfolgen könnte. Spintronik, es könnte der direkte Transport von Dingen wie Ionen oder Atomen sein, die sich dann direkt mit Dingen wie Supraleitern oder Quantenpunkten verbinden. Aber das heißt meines Erachtens, dass solche Transferprozesse, die selbst auch interessant sind, untersucht werden müssten. Ich würde gerne den letzten Teil Ihres Satzes unterstreichen. Ich denke auch, dass es viel zu früh ist, das nur als ein technisches Programm zu betrachten, wo wir wissen, was zu tun ist und wir nur noch den Computer bauen müssen. Es geht hier nicht um das Manhattan-Projekt. Wir wissen nicht, was die beste Plattform wäre und es muss in alle Richtungen geforscht werden. Aber das sage ich nicht nur, weil wir diesen mythischen Computer vor Augen haben. Wir müssen das tun, weil wir dabei etwas über das Verhalten von Supraleitern erfahren. Wir lernen etwas darüber, wie man Atome manipulieren kann. Wir lernen neue Dinge über Photonen. Und dieses Wissen wird eines Tages nützlich sein. Und das Einzige, das wir wissen, ist, dass es keine Zukunft für nichts gibt, wenn wir das nicht machen. Ich werde etwas genervt, wenn sich die Debatte nur auf ein spezifisches Ziel richtet, das wir möglicherweise nie erreichen. Und selbst, wenn wir das nicht erreichen, werden wir in der Zwischenzeit eine Menge gemacht haben und, wie bereits gesagt, viele Anwendungen entwickelt haben, die sicherlich unerwartet sind. Und naturgemäß können wir nicht vorhersagen, worum es sich dabei handeln wird. Es könnte also eine Hybridplattform für Quantencomputer geben. Das führt mich zu der Frage: Ist die Forschung zu diesem Thema richtig organisiert? Sollte sie stärker interdisziplinär ausgerichtet sein in dem Sinne, dass Ionenforscher mit Supraleitungsforschern oder Quantenspeicherforschern zusammenarbeiten? Besteht da möglicherweise ein Defizit oder wie denken Sie darüber? Ich kann vielleicht mit einem Beispiel antworten. Wir arbeiten direkt neben einer Gruppe, die supraleitende Josephson-Kontakt-Qubits macht. Wir versuchen also herauszufinden, wo wir unsere Systeme verbinden könnten. Momentan löst das nicht eindeutig die großen Probleme. Aber jetzt behandeln wir das einfach wie ein Forschungsprojekt, um zu sehen, wie weit wir gehen können. Aber vielleicht ist das nur ein Beispiel. Es kann sein, dass jemand mit einem wesentlich besseren Hybridsystem kommt. Es ist aber noch sehr früh und in dieser Phase probieren wir einfach verschiedene Dinge aus und machen das einfach, weil es interessant ist. Und wir arbeiten auch direkt neben einer Gruppe, die am JQI supraleitende Qubits macht. Und so betreiben wir tatsächlich ein gemeinsames Projekt, um die Verbindung von Atomen zu supraleitenden Schaltungen zu beobachten. Und um ehrlich zu sein, hat das nicht so richtig gut funktioniert. Wir wussten, dass es schwierig werden würde. Und es wurde wirklich schwierig und hat nicht so richtig gut funktioniert. Wir haben das Projekt in eine andere Richtung geführt. Wir haben das Projekt in Richtung einer vollständig neuen Art eines eindimensionalen Vielkörpersystems gebracht, das eine unendliche Reihe von Interaktionen aufweist. Wir hätten niemals angenommen, dass das Projekt diese Richtung nehmen würde. Aber das verdeutlicht genau das, was einige von uns wiederholt gesagt haben, dass man nicht weiß, wohin die Grundlagenforschung führt. Aber man muss sie betreiben, wenn man überhaupt Fortschritte machen will. Wenn man nur Dinge macht, deren Ergebnis man kennt, wird man natürlich nie etwas Neues in Angriff nehmen. Und wenn wir in unserer Gesellschaft und in unserer Welt weiterhin Fortschritte machen wollen, müssen wir Grundlagenforschung betreiben, ohne zu wissen, wohin das führt. Wenn wir das nicht machen, werden wir steckenbleiben. Vielleicht ist dies eine Frage, die ebenfalls dazu passt. Ich habe das Gefühl, dass Sie sie mit „Nein“ beantworten werden, aber ich lese sie vor. Die Frage stammt von Pascal Cerfontaine von der RWTH Aachen in Deutschland: dass ihr Scale-Up im Wesentlichen eine technische Aufgabe ist? Sollten weitere Entwicklungen den Ingenieuren statt den Physikern überlassen werden?" Nein. Nein. (Lachen) Gibt es jemanden, der die Frage mit „Ja“ oder „Vielleicht“ beantworten würde? Okay, wir hatten ja bereits den Aspekt, dass die Kontrolle eines wirklich großen Quantencomputers eine große Herausforderung ist. Hier gibt es eine dazu passende Frage von Michael Martini von der UIUC – ich sollte meine Brille aufsetzen – und er fragt: Welche vielversprechenden Richtungen gibt es in diesem Bereich?“ Das ist doch die University of Illinois Urbana-Champaign, richtig? Die topologische Projektion scheint eine wunderbare Idee zu sein, denn sie ist eine Art entfernte Verwandte der Fehlerkorrektur, weil man die Quanteninformationen in einem globaleren System kodiert. Und man nutzt die topologischen Merkmale dieses Systems, um seine Fehlerempfindlichkeit zu reduzieren. Normalerweise wird eine Unempfindlichkeit gegenüber Fehlern propagiert. Aber man ist nie vollständig unempfindlich gegenüber Fehlern. Und es ist schwieriger, eine Fehlerkorrektur mit topologischen Systemen vorzunehmen und sie sind tendenziell größer. Es ist auch hier zu früh, um eine Aussage darüber machen zu können. Das topologische Quantum Computing steckt noch stärker in den Kinderschuhen als die Art von Quantum Computing, die Ionen oder Atome oder supraleitende Schaltungen als Gatter benutzt. Aber es wäre meiner Meinung nach ein großer Fehler, das jetzt abzuschreiben. Das ist wirklich vielversprechend, aber es ist wirklich viel zu früh, um Aussagen darüber zu machen. Das ist meine Meinung. Und es ist nur eine Meinung, es gibt noch so wenig verlässliche Informationen dazu. Weitere Kommentare dazu? Ja, bitte. Wie ich bereits erwähnte, besteht das Problem darin, dass man sich eine vollständige Degeneration der Zustände wünscht, wenn die Energie verschwindet. Wenn ein Zustand aus irgendeinem Grund nur ein kleines bisschen mehr Energie aufweist als andere Zustände, wird er dekohärieren oder seine weitere Verhaltensweise zumindest unvorhersagbar werden. Ich weiß nicht, wie man das Problem mit topologischen Isolatoren verhindern kann. Aber ich glaube, dass dann die kalten Atome vielleicht eine bessere Zukunft haben. Denn wenn man einen Kristall aus Laserstrahlen erstellt, ist es vielleicht einfacher, die Energieniveaus aller Zustände zu kontrollieren, die möglicherweise erreicht werden. Ich weiß nicht, ob das stimmt, aber es klingt wie der offensichtlichere Weg. Aber, wie ich bereits sagte, kann ich falsch liegen und wie jeder hier bestätigen wird, ist die Zukunft unvorhersagbar. In der Tat stimme ich dieser Analyse mehr oder weniger zu. Und ich glaube, man muss an einem Punkt ansetzen, der oft vergessen wird. Wenn man einen Quantencomputer herstellt, muss jedes Qubit eine Atomuhr sein, mit der Genauigkeit und Stabilität einer Atomuhr. Und wenn man die Phase dieses Qubit verliert, hat man verloren, weil das effektiv Dekohärenz bedeutet. Und diese hohe Qualität ist etwas, was man mit Ionen und Atomen praktisch automatisch erhält. Weil Ionen und Atome bereits als Atomuhren verwendet werden und man das für etwas anderes praktisch technisch in das System integrieren muss. Atome und Ionen haben diesen wunderbaren Vorteil, dass sie als von Gott gemacht absolut identisch sind, was bei supraleitenden Qubits, Quantenpunkten und diesen Dingen nicht der Fall ist. Und man muss sie alle messen und herausfinden, wie sie sich unterscheiden, herausfinden, wie man sie am besten so abstimmen kann, dass sie identisch sind, die Tatsache berücksichtigen, dass sie es nicht sind, und all dies muss – das wissen die Menschen irgendwie intuitiv – getan werden. Aber das ist einer der Aspekte, die einen wirklich skalierten Quantencomputer so schwierig machen. Das muss man selbst mit den Ionen und Atomen machen, weil die Umgebung, in der sich jedes einzelne dieser Atome und Ionen befindet, niemals komplett identisch ist, aber man hat einen wirklich guten Ausgangspunkt. Ich könnte die erste Frage versuchen zu beantworten: Ist eine Fehlerkorrektur erforderlich? Ich glaube, die allgemeine Antwort der Community darauf wäre für jedes Riesenproblem „Ja“, wir müssen uns darauf berufen. Denn obwohl wir unsere Atomuhr-Ionen haben, die nominell identisch sind, besteht unser Problem in den Fluktuationen bei den Laserstrahlen, die wir zu deren Manipulation einsetzen. Wir haben also sicherlich eine Menge Fehler, die die wir berücksichtigen müssen. Zumindest für die nähere Zukunft hoffen wir, dass wir eine ausreichende Kontrolle erreichen, wo wir uns bei einigen dieser angestrebten Simulationen nicht auf die Fehlerkorrektur berufen müssen. Wenn Rainer Blatt beispielsweise sagt, dass es 40 Qubits geben wird, so werden sie wahrscheinlich in der Lage sein, sinnvolle Simulationen ohne Fehlerkorrektur durchzuführen, also so etwas in der Art zwischendrin. Aber ich denke, was die großen Probleme in Zukunft betrifft, wird wohl jeder sagen, dass eine Form der Fehlerkorrektur im System nötig sein wird. Die Folgefrage ist dann, ob damit nicht automatisch eine Grenze dafür gegeben ist, was man mit Riesencomputern machen kann. Wird die Fehlerkorrektur immer in jeder Hinsicht funktionieren? Es sind viele verschiedene Arten von Fehlern denkbar. In einem klassischen Computer wissen wir, wie man Fehler berichtigt, weil das einfach ist. Aber in einem Quantencomputer ist das ziemlich heikel. Ich denke, die Frage lautet, wie groß der Aufwand für die Fehlerkorrektur sein wird. Der Aufwand ist sehr groß. Aber vor 20 oder 25 Jahren hatten wir all diese Ideen überhaupt noch nicht. Wir dachten, dass sich Dekohärenz überhaupt nicht kontrollieren lässt. Der große Erfolg der Fehlerkorrekturtheorie war doch der Nachweis, dass es grundsätzlich möglich ist, Fehler zu berichtigen, wenn man das Qubit mit einer ausreichend großen Anzahl von anderen Qubits verschränkt und dass man ein logisches Qubit schaffen kann, das ewig überlebt. Das ist der heilige Gral dieser Quantenrechnung, dass man Informationen in einem Zwei-Zustands-System erhält, das für immer zu vollständiger Kohärenz führt. Im Prinzip ist das möglich. Ich glaube, dass das für ein Qubit, vielleicht für zwei Qubits erreicht werden wird. Will man das aber für tausende Qubits haben, ist das eine andere Sache. Aber die reine Tatsache, dass die Theoretiker die Machbarkeit meines Erachtens nachgewiesen haben, reicht zur Validierung dieser Forschung. Und ich betone noch einmal die Vorstellung, dass das für etwas nützlich sein wird, selbst wenn es für den Computer nicht nützlich ist. Ich möchte etwas dazu sagen, weil Serge etwas eingebracht hat, was eine favorisierte Vorstellung oder ein Traum von mir ist. Und das ist das unsterbliche Qubit. Wenn jemand ein unsterbliches Qubit herstellt, was meiner Meinung nach angesichts der gegenwärtigen Technologie keine lächerliche Vorstellung ist, wird das im Quantum Computing ein echter Wendepunkt. Weil damit die Möglichkeit dessen bewiesen wäre, ohne das es unmöglich wäre, einen gatterbasierten Quantencomputer herzustellen. Aber wenn man sich dann realisiert, wie weit wir von der Herstellung eines unsterblichen Qubits entfernt sind, kann man sich die Schwierigkeiten für die Zukunft vorstellen. Ich bin mir nicht ganz sicher, dass das unsterbliche Qubit so unsterblich sein wird. Denn es wird eine Art Fehlerkorrekturroutine geben, die wahrscheinlich auf der Idee basiert, dass es Einzelfehler gibt. Aber natürlich werden auch Doppelfehler auftreten, wenn auch extrem selten. Und dann braucht man vielleicht zusätzlich zu den vielleicht 2 oder 3 bereits vorhandenen Fehlerkorrekturschichten eine weitere Fehlerkorrekturschicht, um das Qubit unsterblich gegen einzelne Qubit-Fehler zu machen. Man braucht vielleicht mehr, um es unsterblich gegenüber zwei Fehlerszenarien zu machen. Und dann geht es noch um etwas anderes, über das wir noch nicht gesprochen haben. Nämlich darum, dass diese Fehlerkorrekturroutinen gut zur Korrektur von Fehlern einer bestimmten Kategorie sind. Und ich denke, dass haben Sie gemeint, dass es möglicherweise andere Fehler als die Kategorie von Fehlern gibt, auf die die Fehlerkorrektur abzielt, und solche Fehler möglicherweise selten sind. Aber wir müssen bei den großskaligen Computersystemen, wie Dave sie erwähnte, solche Faktoren berücksichtigen. Da ist definitiv eine Fehlerkorrektur erforderlich. Es gibt sozusagen einen inhärenten Widerspruch in der Vorstellung von einem unsterblichen Qubit. Und der besteht darin, dass man ihn auslesen will. Es wird also ein Gerät geben, das man mit Abstand benutzt wie dieses Mikrofon hier. Wenn ich ohne Mikrofon spreche, bin ich komplett unhörbar, aber mit dem Mikrofon bin ich verständlich. Was passiert, wenn ich das Mikrofon in der mittleren Position halte? Wie weit muss das Mikrofon vom Qubit entfernt sein, um es unsterblich zu machen? Und da sehe ich ein Problem. Okay, ich denke, dass das in gewisser Weise stimmt. Sie reden über das, was einige Leute das Yin und Yang im Quantum Computing genannt haben. Wenn es frei von Dekohärenz ist, wird es schwer sein, sich damit zu unterhalten. Aber es gibt immer auch andere Wege und Menschen sind sehr schlau. (Lachen. Applaus) Ich unterbreche Sie nicht gerne in Ihrem Gespräch. Aber ich würde den Aspekt der Quantencomputer gerne abschließen und zu etwas anderem kommen, was vielleicht etwas früher aktuell werden wird. Ich denke, dass Quantenmessungen und Quantensensorik vielleicht sogar noch interessanter sein könnten. Aber ich als Laie sage mir, dass es viele, viele andere Techniken gibt, die sehr empfindliche Sensoren hervorbringen. Beispielsweise Nanoröhrchen, die einzelne Moleküle aufspüren können und über eine hohe Sensibilität verfügen, und Spezifität, wenn es um Rezeptoren geht, und die „konventionelle Technologien“ ist auch sehr gut. Was wäre also der Mehrwert von Quantenmessungen? Und bitte nennen Sie uns dafür zwei oder drei Beispiele. Ich kann ein Beispiel nennen, dass hier auf dieser Tagung in einem anderen Zusammenhang angesprochen wurde – die Entdeckung von Gravitationswellen. Sie verwenden ein Interferometer, bei dem es sich um ein Michelson-Laser-Interferometer handelt. Und übrigens ist es sehr interessant zu realisieren, dass Einsteins Arbeit sozusagen durch zwei Michelsons begrenzt wurde. Zum einen das historische Michelson-Interferometer des 19. Jahrhunderts, das Ränder unterscheiden konnte, wenn sie sich bewegten, circa ein Randintervall, was einer Sensitivität von einem Mikrometer entspricht, und diese große Maschine, die jetzt gebaut wurde. Und weil sie sehr intensives Laserlicht verwendet, war sie in der Lage, Effekte zu beobachten, die 100 Milliarden Mal kleiner sind, als dies bei der ersten Michelson-Maschine der Fall war. Ich würde sagen, dass das ein Triumph der ersten Quantenrevolution ist. Aber jetzt ist geplant, dieses klassische Laserlicht durch gequetschtes Licht zu ersetzen, also durch eine Quantenversion dieses Lichts, die die Sensitivität um eine weitere Größenordnung oder vielleicht 3 db verbessern könnte - sagen wir, um einen Faktor von 2 oder 3. Aber ein Faktor von 2 oder 3 drängt die Grenzen des Universums zurück, die man mit einer großen Menge beobachten kann. Das wird also eine sehr praktische Verwendung der Quantenmetrologie für etwas sehr Interessantes sein. Natürlich könnte man sich fragen, warum man nicht einfach die Leistungsstärke des Lasers verbessert. Aber man hat Grenzen der Leistungsstärke des Lasers erreicht und für eine bestimmte Leistung ist es immer besser, gequetschtes Licht zu verwenden, dieses nicht-klassische Licht zu verwenden. Und ich weiß, dass es entwickelt wird. Es ist noch nicht am LIGO und VIRGO implementiert, aber das wird in Zukunft der Fall sein und das wird die Sensitivität erhöhen. Aber noch einmal: Es ist eine Quantentechnologie, die nützlich für das Wissen ist, aber nicht für den Markt oder für die Schaffung von Arbeitsplätzen und ähnlichen Dingen. Es ist etwas, das wir benötigen, um unser Wissen über das Universum zu verbessern. Aber wir sollten betonen, dass diese von Ihnen genannte Grenze, also wie hoch die Laserdichte gestaltet werden kann, beim LIGO erreicht ist. Die einzige Möglichkeit, weiterzumachen, ist also die Quetschung. Kann sich jemand von Ihnen ein Quantenmessgerät vorstellen, das unseren Alltag beeinflussen würde, das also direkter an den Markt und an unser Leben gekoppelt ist? Ein Problem mit solchen Fragen ist, dass dadurch Menschen wie wir versucht sind, in den Aussagen zu Anwendungsmöglichkeiten weiterzugehen, als wir sollten. So könnte man beispielsweise von einer Sache träumen, von der ich aber nicht weiß, ob sie wirklich realistisch ist, eine Art Quantum Imaging, bei der man wertvolle Photonen besser nutzen könnte, als dies bei den Photonen in einer Art klassischem Zustand der Fall ist. Es ist sehr schwierig, eine Anwendung zu finden, bei der es nicht besser wäre, einfach das Licht zu verstärken. Aber man könnte sich biologische Anwendungen vorstellen, wo man beschädigtes Gewebe selbst einiger weniger Photonen oder energetischer Photonen vermeiden möchte. Das wäre möglicherweise eine Anwendung. Aber ich kenne mich in der Biologie nicht gut genug aus, um sagen zu können, wie realistisch eine solche Anwendung ist. Und es könnte weitere Anwendungen geben, wo man etwas über entfernte Objekte erfahren möchte, ohne dass jemand erfährt, dass man sie beleuchtet. Und man kann sich vorstellen, um welche Situationen es dann gehen könnte. Und eine solche Art von Quantum Imaging-Technik könnte unter solchen Umständen nützlich sein. Aber bei solchen Anwendungen kenne ich mich noch weniger aus. Ich frage mich, ob bessere Atomuhren auch für Navigationsaufgaben nützlich sein könnten wie zum Beispiel autonome Automobile? Ich habe in meinem Vortrag schon gesagt, dass wir, wenn wir bessere Uhren herstellen, auch immer Einsatzmöglichkeiten dafür finden. Aber im Sinne Ihrer Frage ist es möglicherweise relevanter, dass z. B. in unserem Labor am NIST eine andere Gruppe Miniaturatomuhren herstellt. Und es zeigt sich, dass Atome in den richtigen Phasen sehr empfindlich gegenüber Magnetfeldern sind. Und in diesem von mir genannten Projekt werden Miniaturatomuhren als Sonden für Magnetfelder benutzt. Und sie fangen jetzt an, Hirnwellen über die Magnetfelder zu messen, die abgegeben werden. Das sieht nach einer vielversprechenden und möglicherweise sehr nützlichen Anwendung für die Gesellschaft aus. Danke. Mich hat die Tatsache verblüfft, dass all unsere Kameras über so viel mehr Potenzial verfügen. Man könnte beispielsweise einen größeren Intensivitätsbereich, aber auch viel größere Farbbereiche erfassen. Alle Kameras, die wir normalerweise verwenden, gehen davon aus, dass man nicht mehr Farben sehen möchte, als das menschliche Auge sehen kann. Aber das ist nur eine biologische Unterscheidung von uns. Die Kamera könnte Hunderte verschiedene Farben statt gerade einmal 3 erfassen, woraus sich meiner Meinung nach sehr interessante Anwendungen ergeben könnten. Man würde die Welt völlig anders sehen, wenn es eine Kamera gäbe, die Bilder erstellt, bei denen man auf dem Display einstellen kann, welche Farbe man sehen möchte und jederzeit andere Farben sehen könnte. Das wäre ein möglicher Fortschritt in der Fotografie, an den heute noch niemand denkt. Und ich frage mich, wie die Quantentechnologie uns dabei helfen könnte, Photonen auf diesen Gittern zu registrieren, wobei man automatisch die Frequenz des Photons mit einer gewissen Genauigkeit erfasst, und zwar einer viel größeren als nur dem Logarithmus von 3. Danke. Ich habe hier eine anwendungsbezogene Frage, die mit etwas zu tun hat, was ich noch nie gehört habe. Aber es klingt interessant, sodass ich sie stellen werde. Sie stammt von Chibo vom Centre for Quantum Technologies in Singapur: zu Quantenwärmekraftmaschinen und Quantenkühlschränken. Einige davon behaupten sogar, dass sie die Carnot-Effizienz übersteigen. Können Sie uns etwas dazu sagen?" Ich bin kein Experte für die Artikel, die sich damit beschäftigen. Aber ich halte das zum derzeitigen Zeitpunkt für eine Art von intellektueller Neugier, dass man in der Lage sein will, solche Ideen zu realisieren. Was die praktische Umsetzung betrifft, halte ich das mindestens für so weit entfernt wie eine Factoring Machine. Aber ich halte diese Ideen, bei denen man mit einem einzelnen oder einer kleinen Anzahl von Atomen spielt, für sehr interessant. Aber ich betrachte das heute eher als eine intellektuelle Neugier, dass man solche unterschiedlichen Systeme gerne betrachten können möchte. Ja, auch ich bin kein Spezialist. Aber ich habe mehrere Papiere dazu gelesen und festgestellt, dass die Leute nicht einer Meinung sind. Deshalb ist das schwierig zu beurteilen. Aber soweit ich das verstanden habe, wird das Carnot-Prinzip dadurch nicht verletzt. Natürlich weisen Quantensysteme Fluktuationen auf. Man kann also mit den Fluktuationen spielen, um Situationen oder Ereignisse herauszufinden, in denen das Carnot-Prinzip oder sogar die Energiekonservierung verletzt werden. Aber dann muss man wissen, dass das geschieht, weil man von Überlagerungszuständen ausgeht, die zunächst keine eindeutig definierte Energie haben. So stößt man auf Situationen, die sehr befremdlich erscheinen und es einem ermöglichen, mit dem Maxwellschen Dämon und solchen Ideen zu experimentieren. Aber wenn man das dann intensiv untersucht, denke ich, dass das erste und das zweite Prinzip der Thermodynamik sehr gut etabliert sind. Und einige Menschen behaupten sogar, das zweite Prinzip sei wichtiger als die Quantenphysik. Das ist also eine Frage des Geschmacks. Wir haben nicht mehr so viel Zeit, aber ich möchte das Thema der Quantenkryptographie noch ansprechen, das technologisch weit entwickelt ist. Es gibt kommerzielle Systeme. Aber noch immer gibt es Probleme wie etwa die Bit-Rate, die man übertragen kann, oder die Entfernung, die man überwinden kann. Ist die Quantenkryptographie Ihrer Meinung nach etwas, was über die staatliche Nutzung oder die militärische Nutzung hinaus für die breite Anwendung in einer Art von Quanten-Internet Bedeutung gewinnen könnte? Was ist Ihr Eindruck? Ich denke, dass Dave diese Frage zum Teil beantwortet hat, als er sagte, dass sogar Shor davon ausgeht, dass es einige klassische Wege gibt, die ein Quantencomputer nicht erreichen kann. Die klassische Kryptographie ist sehr gut etabliert. Die Quantenkryptographie wird Verwendungsnischen in Bereichen finden, in denen die klassische Kryptographie nicht ausreicht. Und bis man diese Anwendung gefunden hat, wird sich die Frage stellen, wie wichtig der Markt für die Quantenkryptographie ist. Das ist mein Eindruck. Computerleute sagen, dass die Kryptographie im Wesentlichen so gemacht sein muss, dass man damit den Code entschlüsseln kann. Das ist so, weil das Militär immer wissen will, ob irgendwo ein Terrorist herumläuft und deshalb wollen die immer in der überlegenen Position sein, jeden Code entschlüsseln zu können. Sie wollen keine Codes verwenden, die zu schwierig zu entschlüsseln sind. Wie Sie sagten, ist es klassisch einfach, fantastische Zufallszahlengeneratoren herzustellen, die grundsätzlich unmöglich zu entschlüsseln sind, sofern man den Code nicht kennt. Aber wenn der Code Hunderte Stellen lang ist, dann ist er natürlich klassischerweise unmöglich zu entziffern. Quantenmechanisch wäre das Problem, dass man einfach Hunderte verschiedene Arten von Codes entwickeln könnte. Wenn für jeden Code eine neue Maschine gebaut werden müsste, wäre das natürlich nicht der Mühe wert. Ich glaube also, dass diese fantastischen Codes in der Praxis nur von begrenztem Wert sind. Ich möchte zwei Dinge dazu sagen. Eine wichtige Entwicklung, die in der Quantenkommunikation noch immer bevorsteht, ist der Quanten-Repeater. Wir haben keine Möglichkeit, Informationen über weite Entfernungen über Lichtwellenleiter zu übertragen, wenn wir keinen Quanten-Repeater haben. Der Quanten-Repeater ist wie ein kleiner Quantencomputer, der eine Fehlerkorrektur auf einem logischen Qubit, das gesendet wird, statt einem einzigen physikalischen Qubit durchführt. Und das klingt gar nicht so schwierig in der Durchführung. Aber es betrifft ein wirklich wichtiges Problem: Wie gestaltet man die Schnittstelle zwischen dem Prozessor und den fliegenden Qubits, bei denen es sich fast mit Sicherheit um Photonen handelt? Diese wichtige Entwicklung steht also noch bevor und ist meiner Meinung nach durchaus in Reichweite. Ein anderer Aspekt, den es zu betonen gilt, sind die Dinge, die bereits gesagt wurden. Ich glaube nicht, dass wirklich viele Menschen für die Art von Nachrichten, die sie versenden, eine Quantenverschlüsselung oder eine Quantum Key Distribution benötigen. Im Augenblick ist es ganz einfach. Ihre Kreditkartennummer ist einfach nicht so viel wert und Ihre Liebesbriefe sind es auch nicht. Also die einzige Sache, die ich mir in diesem Bereich vorstellen könnte, wäre eine Art von Geheimnis, die man in Zukunft nicht für genügend gesichert hält, dass man sich also die Technologie vorstellen könnte, die das knacken könnte. Das ist sogar bei Standard-Public-Key-Verschlüsselungen im Gegensatz zu einer dieser neuen Techniken einfach genug. Es ist einfach genug, einen ausreichend großen Schlüssel zu erhalten, dass er von niemandem so schnell geknackt werden kann. Es gibt einige Geheimnisse, deren Lüftung man sich selbst in 20 bis 30 Jahren nicht wünscht. Und für solche Geheimnisse wäre es möglicherweise sehr bedeutsam, einen Quantenschlüssel zu verwenden. Aber es gibt einen weiteren Aspekt, nämlich den, dass wie bei jedem Geheimnis die Übertragungssicherheit nur ein Aspekt zur Erhaltung dieses Geheimnisses ist. Viele Menschen, die tatsächlich mit geheimen Informationen zu tun haben, werden Ihnen wahrscheinlich bestätigen, dass die Art menschlicher Intelligenz, die es einem ermöglicht, die Person zu kompromittieren, die Zugang zum Aktenschrank hat, in dem sich die gesuchte Nachricht befindet, der wesentlich effizientere Weg ist, an das Geheimnis zu gelangen, als durch Abfangen der Nachricht und deren Quantenentschlüsselung. Ein weiterer Kommentar? Dem stimme ich zu. (Lachen) Ich habe eine sehr interessante Frage, die sehr gut zum Ende der Diskussion passt, weil sie in die Zukunft schaut. Sie stammt von Filippo Caruso von der Universität Florenz in Italien: es uns tatsächlich ermöglichen wird, über die Quantentheorie hinauszugehen?" Ich habe die Frage akustisch nicht ganz verstanden. Bitte wiederholen Sie die Frage. Ausgehend von einem anderen Blickwinkel: Glauben Sie, dass die Erforschung der Quantentechnologien es uns tatsächlich ermöglichen wird, über die Quantentheorie hinauszugehen? Ja. Tatsächlich habe ich ja zu Beginn die Hypothese erwähnt, dass es grundlegende Grenzen für den Quantencomputer gibt und dass diese Hypothese auf meiner Wahrnehmung dessen basiert, was Quantenmechanik ist. Ich habe vor ungefähr drei Jahren ein Papier geschrieben, in dem ich erkläre, wie die Quantenphysik durch eine klassische, man könnte sagen, versteckte variable Theorie erklärt werden kann. Das bedeutet, dass im Planck-Maßstab alles wieder klassisch wird. Und das wiederum heißt, dass man das offensichtlich mit einem klassischen Computer nachahmen könnte, was implizieren würde, dass alles, was in dieser Quantenwelt geschieht, mit einem klassischen Computer nachgeahmt werden könnte, wenn man ihn auf Plancksche Dimensionen vergrößert. Keiner kann einen solchen Computer herstellen und deshalb hätten klassischen Computer nach wie vor einen enormen Wert, weil sie durch nichts nachgeahmt werden können, was nicht so leistungsstark ist wie dieser skalierte klassische Computer. Aber wenn jemand diese Annahme von mir widerlegt, was grundsätzlich möglich ist, kann man sich Quantencomputer mit Millionen von Qubits vorstellen. Und falls das funktioniert, kann er Dinge tun, die die gerade gemachte Behauptung widerlegen würden, weil man nach einigen Tausend Qubits oder so Probleme mit dem Quantencomputer lösen kann, die niemals, auch nicht von einem skalierten klassischen Computer erreicht werden könnten. Dann würde meine Theorie in Schwierigkeiten geraten. Grundsätzlich könnte man also durch den Bau eines Quantencomputers sagen, ob diese Idee falsch ist oder eine Chance hat. Wir berühren also Fragen der Interpretation von Quantenmechanik. Und ich begegne immer mal wieder diesen Geschichten von Menschen, die Schrödinger Katzen herstellen wollen. Und ja, nach meiner Interpretation kann sich Schrödingers Katze nie in einer Überlagerung der Zustände befinden. Sobald sie klassische Dimensionen erreicht, muss sie entweder tot oder lebendig sein, aber nichts dazwischen. Wenn jemand Katzen herstellen könnte, die sich zwischen dem lebendigen und dem toten Zustand befinden und das in irgendeiner praktischen Form verwenden könnte, hätte ich Schwierigkeiten, das im Sinne einer klassisch zugrunde liegenden Theorie zu interpretieren. Diese Katze müsste entweder tot oder lebendig sein. Also, ja, die Antwort lautet, dass wenn die Technologie weit über das hinausgehen würde, wo sie jetzt steht, und tatsächlich Regionen erreichen würde, wo man von der Tatsache verblüfft wird, dass selbst ein klassischer Computer das nicht nachahmen kann, wenn das im Planckschen Maßstab geschähe, würde ich in Probleme geraten. Wenn Sie mich also in Probleme bringen wollen – ja. Ich wurde bezüglich Schrödingers Katze herausgefordert, deshalb sollte ich wohl antworten. Ja, es geht um die Superposition von Zuständen und die Interpretation der Quantenmechanik. Und ich glaube, dass viele Menschen die Tatsache nicht mögen, dass Quantenphysik im Wesentlichen zufällig ist. Man kann das exakte Ergebnis einer Messung nicht vorhersagen. Es geht nur um Wahrscheinlichkeiten. Und diese Menschen befinden sich in guter Gesellschaft, weil beispielsweise auch Einstein diesen Aspekt der Quantenphysik nicht mochte. Sie haben versucht, Modelle zu entwickeln, die über die orthodoxe Quantenmechanik hinausgehen, um Prozesse oder Mechanismen zu identifizieren, die für ein ausreichend großes System auf etwas Deterministisches zurückgreifen würden. Und ich glaube, die einzige Antwort ist zu versuchen, Experimente durchzuführen. Und bei der Durchführung solcher Experimente muss man natürlich dafür sorgen, dass der entdeckte Prozess nicht lediglich eine alltägliche Dekohärenz aufweist, die sich im Rahmen der Quantenphysik erklären lässt und die erklärt, warum Schrödingers Katzen ihre Quantenkohärenz sehr schnell verlieren. Alle Studien, die wir zur Kontrolle der Dekohärenz durchgeführt haben, beispielsweise in dem Versuch, das ewige Qubit zu konstruieren, beantworten diese Frage: Können wir also diese Art von Dekohärenz loswerden, wenn wir etwas finden wollen, was grundlegender ist? Ich halte die Verbindung zwischen solchen grundlegenden Fragen und Technologie historisch für sehr interessant. In den 1980er-Jahren zählte Anthony Leggett zu den Physikern, die wirklich mit dem Geschäft der supraleitenden Qubits begonnen haben, weil er herausfinden wollte, ob es etwas jenseits der Quantenphysik gibt. Und er wollte herausfinden, ob diese mikroskopischen Schaltungen sich quantenmechanisch verhalten könnten, und er entwickelte die ersten Ideen zu Josephson-Tunnels und dem Bau von Qubits. Und das hat Clarke in Berkeley und dessen gesamten Nachfolgern angetrieben, die heute in Yale, bei Martinis in Santa Barbara arbeiten. Google. Martinis bei Google. Ja. Bis heute wurde die Quantenmechanik bestärkt. Diese großen Systeme befolgen nach wie vor die Quantenphysik. Ich halte das für ein wunderbares Beispiel dieses Wechselspiel zwischen Ideen, Grundlagenphysik und Technologien und die Antwort? Wir kennen die Antwort nicht, in erster Linie, weil es um Forschung geht. Aber was ich sagen kann, ist, dass die Quantenphysik bis heute funktioniert. Und die Aussage „Just shut up and calculate“ war bisher sehr wirksam. Ich denke, hier wird einer der Gründe genannt, warum ich an diesem gesamten Feld interessiert bin. Es berührt wirklich eine der grundlegendsten Ideen über die Quantenmechanik. Ich bin tatsächlich ein großer Verfechter von „Shut up and calculate“, aber ich bin sicherlich bereit, über einige dieser verrückten und wunderbaren Ideen nachzudenken. Und wenn es beispielsweise eine grundlegende Form von Dekohärenz gibt – und viele Menschen haben das in einer Weise behauptet, die weniger weit entwickelt ist als Ihre Ideen – dann könnten wir zunächst die Frage stellen: Wird das geschehen? Und falls ja, können wir Quantenfehler korrigieren? Das ist eine offene Frage, weil wir meiner Meinung nach nicht wirklich verstehen, welcher Art eine solch grundlegende Quelle der Dekohärenz ist, etwas, das unabhängig davon dekohäriert, ob das System groß genug ist oder bei dem es sich um etwas handelt, das sich mit der Größe des Systems multipliziert. Aber wir verstehen ja nicht einmal die Bedeutung der Aussage, dass ein System groß wird. Was konstituiert beispielsweise eine große Katze? Ist das etwas, bei dem es sich um ein massives Objekt handelt, das aus jede Menge Atomen besteht, die sowohl hier als auch hier sind? Nun, viele Menschen würden sagen, dass das nur ein Freiheitsgrad ist, aber andererseits ist er groß. Und wenn ich andererseits beispielsweise ein Gerät habe, was wir in meinem Labor gerne herstellen würden, bei dem eine Million Atome sich um einen Ring in eine Richtung bewegen, überlagert durch dieselbe Million Atome, die sich in die andere Richtung bewegen. Das ist ein Zwei-Stufen-System. Es ist ein Zwei-Stufen-System, aber ich kann diese Atome trennen und sie in einen Interferometer geben und könnte einen Gewinn von Wurzel aus einer Million mehr erzeugen, als das, was ich in einem kohärenten Zustand hätte. Und für mich hätte diese Art von Katzenzustand ein hohes Maß dessen, was ich als Katzenhaftigkeit bezeichnen würde. Während so etwas wie ein großes Pendel oder ein C60-Molekül eine Katzenhaftigkeit von 1 hätte. Sie wollen dazu etwas sagen? Ich denke, dass die Katzenhaftigkeit mit der Empfindlichkeit gegenüber Perturbation zusammenhängt. Wenn man das verwenden kann, um einen Verstärkungsfaktor der Quadratwurzel von N zu erhalten, ist das wirklich ein nichtklassischer Zustand. Aber das kann auch aus dem gleichen Grund sehr schnell dekohärieren, weil es am effizientesten mit der Umgebung verbunden ist. Ich weiß, dass Theoretiker quantitative Messungen der Katzenhaftigkeit entwickelt haben Ich möchte nur eine Bemerkung dazu machen. Ich muss sagen, dass ich in der Welt des „Shut up and calculate“ leben muss, um weiterhin bezahlt zu werden. Aber ich bin tatsächlich davon überzeugt, dass es etwas wirklich Grundlegendes zu entdecken gibt. Die Quantenmechanik prognostiziert doch eine kohärente Entwicklung und Überlagerungen und ähnliche Dinge. Wie viele wahrscheinlich wissen, gibt es Experimente, bei denen versucht wird, Überlagerungen herzustellen und Überlagerungen mit immer größeren Objekten zu verschränken in der Hoffnung, dass man dabei einen grundlegenden Dekohärenzmechanismus herausfindet. Das wäre natürlich meines Erachtens eine fantastische Entdeckung, wenn es einen zugrunde liegenden Dekohärenzmechanismus gäbe, den wir bisher nicht beobachtet haben. Und das würde wohl demjenigen, der das beobachtet, wahrscheinlich einen Nobelpreis einbringen. Und das würde wahrscheinlich unsere gesamten Finanzierungen im Quantum Computing beenden, weil dann die Sicherheitsbehörden wüssten, dass kein Quantencomputer gebaut werden kann. Das erinnert mich an eine Bemerkung von Scott Aaronson der sagte, dass das interessanteste Ergebnis wäre, wenn ein Quantencomputer nicht funktioniert, weil wir dann am meisten lernen würden. Stimmt. Ich möchte gerne noch die Frage von Bill beantworten, nämlich, welche Art von Dekohärenz benötigt wird, um eine realistische Theorie der Quantenmechanik zu erreichen, die offensichtlich nicht quantenmechanisch ist und die den Quantencomputer letztendlich in Teile aufgliedert. Meine Antwort wäre, meine mutmaßliche Antwort, weil ich dafür keinen Beweis jeglicher Art habe. Die Mutmaßung also ist, dass es sich um die Art von Dekohärenz handelt, die hinter der widersprüchlichen Natur des unsterblichen Qubits steckt, über die wir bereits gesprochen haben. Wir sagten ja, das Problem wäre: Wie stellt man das Mikrofon vor ein unendliches Qubit? Die Antwort sollte konkret lauten, dass bereits in den bekannten Naturgesetzen, die wir alle lieben und untersuchen möchten, bereits die Grenzen dessen enthalten sind, was man mit Qubits anstellen kann. Egal, was man tut, wird man feststellen, dass man kein Qubit herstellen kann, das einerseits völlig stabil und kohärent gehalten werden kann und dann durch seine Messung vollständig dekohäriert. Das widerspricht sich. Die Naturgesetze würden das also nicht erlauben, die bereits bekannten Naturgesetze. Das ist die Mutmaßung. Und wenn man dann aber sagt: Ja, ich habe einen fehlerkorrigierenden Code beobachtet, dann sagt das gleiche Naturgesetz, dass es einige Probleme mit den fehlerkorrigierenden Codes geben wird. Ich würde sagen, es stimmt, dass nichts jemals perfekt ist. Aber die Frage ist doch, ob man es gut genug machen kann? Kann man die Qubit-Qualität, die Gatterqualität und die Fehlerkorrekturqualität gut genug machen, dass man diese Korrektur durchführen kann? Ich sehe keinen wesentlichen Grund, warum ich nicht wirklich hart arbeiten könnte und irgendeinen bestimmten Wert erhalten kann im Gegensatz zu perfekt, der gar nicht wirklich perfekt sein müsste. Ich muss mich einfach nur durch die Kalkulation hindurcharbeiten. Du stellst vielleicht fest, dass du der Obergrenze immer näher kommst, dass du darüber nicht hinausgehen kannst. Das ist eine vorstellbare Situation. Aber meine Theorie ist ganz eindeutig. Wenn man etwas besser machen kann als das, was der klassische Computer in Planck-Dimensionen kann – was ein Nicht-Anti-Statement ist, weil behauptet wird, dass man nicht-polynominale Probleme lösen kann – dann ist das grundsätzlich etwas, was man versuchen könnte. Ich erwarte nicht, dass das sehr bald geschieht, aber das ist etwas, was man versuchen könnte. Absolut. Wenn die Grenze grundlegend ist, ist das eine andere Geschichte. Tut mir leid, dass ich Sie erneut unterbrechen muss. Aber in acht Minuten endet die Diskussion und ich wollte das Publikum, zwei oder drei Freiwillige bitten, ein Fazit zu ziehen. Was ist Ihre Meinung: Hat die Quantentechnologie Zukunft oder nicht und warum? Vielen Dank für diese interessante Diskussion. Ich habe einige Anmerkungen. Entschuldigung, mein Name ist Jacque Carolan vom Research MIT. Als Sie über den 5-Qubit-IBM-Quantencomputer gesprochen haben, diesen PR-Gag, war das ziemlich abfällig. Aber ich meine, das war ein PR-Gag, aber doch nicht nur ein PR-Gag. Diese Geräte haben doch eine Bedeutung, und zwar hauptsächlich aus zwei Gründen. Zum einen ermöglicht es Theoretikern sozusagen, mit dieser Art von experimentellen Instrumenten zu spielen. Seit der Veröffentlichung habe ich im Archiv 2 Papiere von Theoretikern gefunden, die tatsächlich Experimente zu diesem Gerät durchgeführt haben und die Ergebnisse veröffentlicht haben. Ich halte das deshalb für eine tolle Sache. Aber zweitens ist es auch ein pädagogisches Instrument, ein pädagogisches Instrument für Jugendliche. Sollten wir also die Entscheidung treffen, einen Quantencomputer zu bauen, wird das ziemlich schwierig, okay. Wenn man 10^8 Qubits erzeugen möchte, was wahrscheinlich nötig ist, um eine 1.000-Bit-Zahl zu berücksichtigen, dann ist mir nicht deutlich, dass irgendeine Technologie zurzeit tatsächlich darauf skaliert werden kann. Aber wir werden kleinskalige Quantensysteme haben. Und die Leute, die diese Systeme verwenden und mit neuen Algorithmen kommen, sind die Theoretiker, die Einblicke in Experimente haben und die Jugendlichen, die Bell-Ungleichungen im Internet verletzt haben. Bildung ist also wichtig. Ich interpretiere das also als ein Ja. Ich bin Alex von der Eidgenössischen Technischen Hochschule. Ich möchte zunächst allen für diese wunderbare Diskussion danken. Und zweitens möchte ich einen Witz erzählen. Es ist immer schwer, etwas vorherzusagen. Wie wir wissen, könnten Synoptiker das Wetter mit absoluter Genauigkeit nur für gestern vorhersagen. Mein Argument ist, dass wir auch dann, wenn wir den Quantencomputer nicht erreichen können, Geld in die Grundlagenforschung investieren sollten, weil wir dann, unabhängig vom Erfolg, möglicherweise sogar etwas noch Besseres tun können, was wir heute noch nicht vorhersagen können. Vielen Dank. Noch eine Stellungnahme? Meine Freunde hier rollen schon mit den Augen, weil ich womögllich zu viel rede. Es scheint so zu sein, als wollten wir „Ja“ oder „Nein“ zur Quantentechnologie sagen. Das ist schwer zu verwirklichen, wie alle bereits sagten. Aber leider scheint es eher so zu sein, dass die Quantentechnologie zur Geschichte des 20. Jahrhunderts und nicht zur Zukunft des 21. Jahrhunderts gehört. Damit will ich nicht sagen, dass das auf den Müll gehört. Aber es geht eher darum, wie auch David Wineland bereits sagte, dass sie sich kontinuierlich weiterentwickelt. Und ich halte die Vorstellung für sehr spannend, dass eine ganz neue Art von Theorie entdeckt werden könnte. Man kann absolut nichts darüber sagen, gar nichts. Wir haben auch die Quantenmechanik nie erwartet - zumindest Lord Kelvin nicht - und dann war sie doch da. Deshalb werden wir abwarten müssen, wie weit das geht. Aber wir haben bereits eine Menge Quantentechnologien in unser Leben treten sehen. Das spielt bereits eine Rolle und das wird nicht aufhören. Das wird weitergehen und bedeutender werden. Und dann wird möglicherweise noch etwas anderes dazukommen, das eine Rolle spielt. Deshalb möchte ich ein weiteres Wort neben Ja und Nein einführen: Vielleicht! Okay, ein weiteres Vielleicht oder Ja oder Nein? Ich bin Hendrik Weinmann, Leibnitz Universität Hannover. Ich möchte eine sehr egoistische Antwort auf die Frage beisteuern. Ich bin Vielkörpertheoretiker und wenn wir über ein System mit 40 Qubits reden, lautet die Zukunft für mich definitiv Quantentechnologie, weil ich definitiv versuchen werde, eines dieser Systeme zu kaufen. Danke. Das war ein eindeutiges Ja. Vielleicht kann Ihnen Rainer Blatt eines verkaufen. Ich kann nicht sehen, ob da oben jemand etwas sagen möchte. Nein? Ich bin Jasmin und mache Quantenoptik. Ich habe ein Labor mit einigen Qubits und kann sie messen und manipulieren. Aber wie Sie bereits sagten, kann man einige Qubits auch auf dem eigenen Computer sehr einfach simulieren. Manchmal frage ich mich tatsächlich, warum ich das Experiment überhaupt machen sollte. Aber wie wir auch in diesem Gespräch gesehen haben, verstehen wir immer noch nicht viel davon, was wir mit Quantenmechanik anstellen können und wie wir das am besten nutzen können. Es ist also wirklich ein sehr aufregendes Gebiet. Vielen Dank für die Diskussion. Und ich möchte eine letzte Aussage von dem Mann hier hinten aufgreifen - er meldet sich sehr intensiv. Ich möchte das aus einer anderen Perspektive betrachten. Vielleicht ist es für jemanden auf dem Niveau eines Nobelpreisträgers sehr schwierig, das so zu sehen. Aber für jemanden Jüngeren wie mich ist die Idee eines Quantencomputers so kraftvoll, dass sie dazu inspiriert, Physik zu lernen. Ich selbst habe beispielsweise einen Bachelor in Elektrotechnik und die Vorstellung von einem Quantencomputer, von Quantenkommunikation hat mich tatsächlich veranlasst, meinen Master auf Photonik zu ändern und ich mache jetzt Quantenoptik. Und selbst, wenn Sie den Quantencomputer nicht für so vielversprechend halten, dass er tatsächlich Wirklichkeit werden kann, würde ich sagen: Gebt die Hoffnung nicht auf, weil sich das wirklich auf die jungen Leute auswirken würde! (Applaus.) So möchte ich damit schließen, dass Verheißungen für die Quantentechnologie wichtig für die Motivation sind. Und es war eine sehr interessante Diskussion. Die Podiumsteilnehmer haben die Quantentechnologie sicherlich nicht übermäßig angepriesen. Und nach meinem Eindruck ist das gut, weil die Quantentechnologie nichts Deterministisches ist, für das wir einen Plan haben, dass es 2050 einen Quantencomputer geben wird usw. Das wäre auch irgendwie langweilig. Es geht also nach wie vor um Grundlagenforschung. Und die ist von Wissensdurst getrieben. Und das ist aufregend. Und als Journalist freue ich mich darauf, in Zukunft viele sehr faszinierende Dinge über dieses Feld schreiben zu können. Vielen Dank an das Publikum.

Panellists ponder experiments and results from the Large Hadron Collider that potentially offer hints of supersymmetry.
(00:24:20 - 00:32:28)

The complete video is available here.

 


Towards a Theory of Everything

Though an intense source of frustration, the inability to unify the strong force with electromagnetism and the weak force is not the most glaring problem in the Standard Model. What puzzles physicists most is the absence of gravity. In essence, physicists are dealing with the same problem Einstein grappled with and ultimately failed to solve in his lifetime – how to unify the twin pillars of general relativity and quantum mechanics.
Unlike the electromagnetic force and the strong and weak nuclear forces, gravity – as governed by Einstein’s general theory of relativity – seems incompatible with QFT. When the equations of both are commingled to attempt to answer sensible questions, they generate nonsensical outputs. At its core, the problem lies in the conflict between the continuous, smooth nature of general relativity’s spacetime and the discrete and violently fluctuating nature of the quantum world[13].

Current efforts to reconcile general relativity with QFT come primarily in two flavours: loop quantum gravity (LQG) and string/M-theory. Loop quantum gravity proponents have the aim of constructing a theory of quantum gravity, excluding electromagnetism and the nuclear forces. The approach treats the universe’s geometry as a network, replacing Einstein’s smooth spacetime fabric with nodes and links to which quantum properties are assigned[14]. In this way, space is built up of discrete chunks that can be interrogated by LQG.

Meanwhile, string/M-theory proposes that everything is made of infinitesimally small strings that can vibrate, stretch, join or split. In theory, contorting these strings in different ways explains all observable phenomena in the universe[13]. String/M-theory’s aims are more ambitious than LQG’s, predicting the aforementioned supersymmetric particles and additional dimensions, and the eventual unification of all of the fundamental forces of nature on a theoretical level, making it a potential Theory of Everything.

While both of these approaches are compelling, they each suffer from technical complexity. More worryingly, they both lack experimental evidence for their veracity, with little prospect for either making testable predictions. This means that neither LQG nor string/M-theory have so far managed to solve the puzzle of how to combine general relativity and quantum mechanics, much less offered hope that a Theory of Everything is around the corner.

During their 2019 panel discussion on “The Dark Side of the Universe”, David Gross and George Smoot diverged from the main topic to have a conversation about quantum gravity theories in the context of cosmology. Gross was optimistic that cosmology, particularly observations from the earliest moments after the Big Bang, could provide particle physicists with data to test theories of quantum gravity, such as string theory. In contrast, Smoot gave the counterargument that a quantum theory of gravity may never be needed, at least in a cosmological context.

 

David Gross and George Smoot share their thoughts on quantum gravity theories.
(00:39:00 - 00:44:36)

The complete video is available here.

 


Lindau Perspectives

Efforts, both theoretical and experimental, to go beyond the Standard Model now span decades, and progress has been slow. In the light of this situation, it is reasonable to ask if we will ever “know the mind of God” and develop a Theory of Everything. This question has no doubt occupied the minds of many Lindau visitors. But given the speculative nature of the topic, few have ventured to lecture on it.

Brian Josephson (Nobel Prize in Physics 1973) and David Gross are two exceptions, with very different viewpoints. In his 2012 talk, Josephson took a highly non-conventional approach to theories beyond the Standard Model, asking whether we should ground physics in mathematics or something else. He argued that a disconnect between mathematics and physics has emerged as physicists have tried to solve quantum gravity, and argued for a biological phase of reality in which observer-participancy is key.

 

Brian Josephson (2012) - The Real M-Theory

Thank you very much. Well now for something completely different as they say. Earlier on this morning you heard a commercial by Professor Gross, a commercial for quantum mechanics. I think he must have had some point in his career done some selling of encyclopaedias or used cars. But anyway towards the end he admitted that there were some things which were not yet very well understood. And I think what I'm about to say may help to fill in these gaps. Ok, you will notice incidentally that of this great list of things which quantum theory could do very well biology wasn't one of them. And in fact there are problems with biology. Around about 1990 I had a paper in the journal, Foundations of Physics which is called "Limitations to the Universality of Quantum Mechanics". And nobody has yet said there's anything wrong with the arguments. But anyway physics is based on mathematical descriptions and these are themselves limited. One problem is that the usual approach involves some equation for time variation. And that implies that you take a snap shot of a system at some very precise time and you then use some mathematics to follow it forwards. Well, if there are these fluctuations which are in fact infinite and have to be fiddled away, then taking a snap shot is meaningless. And in fact has led to a series of problems. So there's an alternative point of view I'm going to talk about which perhaps one should associate mainly with the ideas of John Wheeler which I'll talk about in a moment. But the approach I've taken has been influenced by a collaborator, Ilexa Yardley, who has written up something called circular theory. And I have been largely putting this into more rigorous form. But first of all, well the question anyway is whether we should ground physics on mathematics which is the usual assumption in physics or something which one might call creative observation which I'll come to in a moment. It was Wheeler who introduced the idea of creative observation. Now, let me just say what problems the mathematical path has run into. It started off...The mathematical enterprise as you could say started off with Newton, his mechanics, laws, mathematical laws which described all sorts of things like the planetary orbits. Then Maxwell did the same for electromagnetism. That however wasn't entirely satisfactory and had to be replaced by quantum theory about 100 years ago. Then this was boosted by quantum electrodynamics which took the fields into consideration. Then standard model which applied... which worked quite well with many... describing a large number of particles. Now the problem was integrating that with gravity because this started not being finitely renormalisable. But people did fix this eventually. There was a multidimensional fix with things like strings and supersymmetry. However, then the mathematics started to get disconnected from the physics. Elegant mathematics and this dreaming of a final theory. But that didn't quite work out the way people expected and one problem David Gross didn't mention is that there are an infinite number of, well not infinite, 10^520 different universes you get by folding up your extra dimensions in different ways. So, there's a bit of a problem there. Quite apart from a question of how do you mathematise biology and so on which I won't go into here. Ok, well, then around about 1990 John Wheeler wrote this amazing article "Law without Law". You can find it with a search "Wheeler, Law without Law" and download it. Now what I have on this page is a synthesis of a number of remarks made in that paper. He said: "The scope of physics is greater than we once realised." as I'll come to in a moment, If the views we are exploring here are correct, one principle observer participant suffices to build everything". So, quite a dramatic claim. So let me say what his idea was. Well, it was based on quantum observation. The theory of observation is part of quantum mechanics and says we... through every observation there's a certain observable and we collapse away function into an eigenstate around observable. So this is kind of intervention in the world when we observe it. And it's something that can't be reduced to passive observation because, roughly because, different kinds of observations do different kinds of things to a system. And so a classic example is if you have a beam of particles and you have a detector which observes where that particle is, then suddenly the beam collapses into a point. Whereas if instead you do some other observation like interference experiments, that cannot be explained as a point particle but only as a wave. So there's something strange there. You sort of suddenly put a constraint on a system when you observe it. So he thought perhaps that's all you needed to explain everything. But he didn't have a well defined theory to explain that. In fact to get anywhere with this you have to think in terms of organised observation. A disorganised observation is not going to do anything like make, create some special kind of system. In fact Hameroff and Penrose introduced the idea of orchestrated collapse. They had the brain doing it. Whereas Henry Stapp had the idea that mind is not contained within quantum mechanics and mind can do various interesting things. So, in the next slide I have the quotes of Hameroff and Penrose first of all. Henry Stapp had a much more esoteric idea. which then automatically exercises top level control over the flow of neutral excitations in the brain through action of the laws of nature..." etc, etc. And unity of conscious thought he thought came into it selecting a single code. So he has a more information theoretic approach. Now, I think this needs to be extended a little further but let me go through the sequence as it were. Traditional quantum mechanical observation deals with an isolated measurement and specified measurement or instrument. Now we have technical devices which exert more control on nature. And they're using an organised set of measurements and they are interactive. So any kind of gadget we have which like a robot controlling something, that's making a lot of observations and it's using these measurements in an organised sort of way. But those are not natural phenomena. So I turn now to biology and talk about biological systems which do things like being adaptive. Also what's very important, biological systems can aggregate together and join in activity. And this aggregation is very important in the theory I'm talking about. They made also use of representations and use information. Ok, now, this is at the moment a qualitative theory. I'll later on be describing 2 more rigorous things we've done, though not applied to this specific theory. But I'm going to introduce the kind of metaphor which interestingly enough links to string theory. A metaphor... Sorry, I haven't got the dance metaphor yet. Ok, I talked about systems self-organising themselves to do things. And I realised when I produced this title, slide title, organisation through activity, that it was very similar to Prigogine's "Order through fluctuations". Prigogine noted that when you get far from equilibrium or in a fluctuation you tended to get interesting kinds of organisation. And biological systems are doing the same kind of thing. They organise themselves through doing things. If say, you learn to walk then an organised structure gradually forms. And the way this does basically is that you add new possibilities and if the new possibilities support that action you join them to your system. And you ignore something you do which doesn't fit in with that activity. So, in fact biological systems naturally do have a system, this business of creating a unit which performs particular actions. So, this is a kind of thing which we want to put into our model as being something fundamental. So systems engage or disengage from actions as skills develop. So you get organised collections. An example of an organised collection with various models are flocking birds. And a student of mine did a similar thing through learning a skill of balance. And you might say roughly that the activity is a kind of reference frame to decide what should join in. And you produce a kind of condensate. But this is a different kind of system to the physical condensate where you condense lots of versions of the same. In biology you collect together things which cooperate together. So now I'm going to make my grand assumption that there is a biological phase of reality where roughly speaking biological things happen. Now one way to envisage this is to say that it's something on the border between 2 regimes that physicists think about. Say, a collection of gas particles where these move in a pretty random way, that's one extreme. And the solid where you have a rigid structure is a different kind of situation. In between you can have a system where there's constraints combined with movement. And this seems to be the key thing. So, the idea roughly is that a thing which we haven't yet studied very much in physics. Well, there's a field of study called order of chaos which studies some of this, but I think is missing out on the biological aspect. So you imagine things are moving about and they form groups and they disintegrate. And that's the kind of situation which is really a new situation with potentially new physics. You think of it in terms of a dance if you like. That's people moving in a way that's constrained by the fact that they mustn't glide into each other. Some dances have this feature of joining together and splitting up, complicated choreography. Subgroups form but exhibit organised movement. And Yardley's theory proposes 2 things circling around each other. But also you might see David Gross's video of a moving string as being a kind of dance. Just to show you this business of... Let's see if this is going to work. These are Chinese motorbikes going around in organised patterns. It's just about a minute here. They change their form and then a new object is introduced into the system. You'll see in a moment. They got up to 4 but I'm only going to show you 3 of them. Right here we are, the third, this becomes a free body system. And you have to find a new way in which the systems can move together. And they start off in a simple circling mode but then it becomes more complicated. I introduced the odd jump in editing. So here there's a more complicated regime. I'll go on to the next slide. This illustrates a kind of new physics which I'm proposing. Coordinated action, there's also resonance. There wasn't really resonance in that illustration but you can have 2 systems, each oscillating and sometimes they lock into resonance. So this is a new kind of thing that can happen which is interesting because it means that it's both 2 systems and 1. You can picture systems as being a unit with a particular joint behaviour. But in some situations you can... it's a useful model to think of separate systems. So in Yardley's theory you get some groups forming and reforming. And the point is that this kind of thing can evolve. It will evolve if some systems have survived better than others or have greater value than others. Now this is if this develops, if this biological aspect develops and I'll say a little bit about how it develops in a moment. So really we're talking about new phenomena and a new perspective in things which when people have done a lot more work on it, should give rise to new physics. And this I believe is what will fill the gap that David talked about this morning. And it's worth considering. It's a new concept and doesn't really have anything artificial in it, like extra dimensions. It's just a thing that happens naturally when you have things that are moving movements are constrained and units form and can dissolve. Well now, the critical thing which makes biology different is evolution. More and more advanced structures appear through evolution. That's where complexes form. And I just thought of a nice example of this particular patterns forming is a chess game where you could say it's a kind of dance of the pieces. But particular forms like the pin and the fork have survival value. Similarly in this biological world particular patterns have survival value. Things like feeding and reproduction. Those are natural things that happen in the biological realm. So what I'm proposing is that there are units which can form, as they form and reform will become more complicated forms. And eventually will be the explanation for physics. We'll get back to physics eventually, this isn't just biology. So now, we usually think of life as being something with a lot of complicated apparatus, DNA, molecules with specific properties and so on. What I'm proposing is that this at some level beyond the standard model say we have something similar happen, a subtle biosphere. So this raises the question of what is actually needed to get biology under way. And in a way it's like something lighting a fire. If biology can get going, then you can get these more and more complicated forms. And I believe all that's needed basically is structures forming and dissolving and a code and a supportive environment. One thing that's equivalent to DNA is... Well, you can think of DNA as being mutual templates. One of the strands is a template in which you form the complementary strand. Then they split up. The complimentary strand is something, a template on which the first strand can form again. In other words, you don't really need very much to get replication. There just needs to be these complementary structures will provide one mechanism for it. Then you'll get cumulative developments as happens with software. And now here's an idea as to what... how you might get more and more complicated things developing. Well, first of all there are signals. A signal is basically something which can connect with something else. So that's a simple 1 structure, well 2 structures interacting that allows signals. And that includes semantics, what a signal means. Syntax and language systems, well, that's one development where things can get complex. And the philosopher Susanne Langer noted that symbols can work in 2 ways. One is more associated with science where you use symbols to refer to something. Whereas in art you have symbols which have particular affects. And I'll get into this because one of the things you get from this which you don't get in conventional approach is music. Well ok, you can combine symbols to make propositions. So the idea of things being true and false occurs. From that there's logic which is a relationship between propositions. Then you can go to formal systems and mathematics. Then things which satisfy mathematical laws and universes. And these universes can contain matter and life. So I'm fairly sure each of these steps could be studied with models. We did a model with one simple thing. So the idea is you find a system which can do something like deal with propositions. And then some combination of such systems might be able to do something useful like logic which would be selected out. So, just this making more complicated systems with selection of those which are useful is going to give you in principle mathematics. And then you say... What actually happens in culture is you develop mathematics and then mathematical models to describe the surroundings. And then you can get to the work of designing things. And you design things on the basis of mathematical laws. And the universe is just a technology, you could call it, based on the subtle life. And this incidentally will account for the universe being supportive of life because naturally this subtle life is going to make things which have value to it. And presumably some forms of life could have value. So this is a bit like the Penrose triangle. I think in one of his books, "Shadows of a Mind", I believe it's the end of the book where he notes: "Physicals systems... Mind is based on physical systems and mathematics originates, mathematics and physics are both mathematical laws." Well, he didn't quite have that right because Hameroff and Penrose thought that the only kind of mind you can get is a brain whereas one can perfectly well have these biological developments in more subtle systems. So locating mind initially in the subtle biosphere clarifies a Penrose triangle idea. In fact Wheeler's article assumes that the universe starts off as something which doesn't have life, whereas it has observers and observers can then work away shaping the universe. So this is essentially the same kind of idea. Ok so, I say this is real M-theory and may help to take us beyond where we are now. And now a little bit of controversy before I close. Well, I won't go into that. Oh, now I'll just mention space and music. Well, as in the modern approach space is not something fixed, it may change dimensions and so on. So if we have an observer which can look at space, it can do some shaping on it. And so the idea is we don't get to our universe by some arbitrary folding up mechanism. But it's an organised process with a mind that went before space. Music, well, let me simply say that there are various things which I believe cannot properly be explained in terms of regular theory. I did a collaboration with a musicologist, Tethys Carpenter; you can find our paper on our web pages if you follow the publications list. Well, a quote from our paper is: Psychologists who say this is what goes on in music do not explain things like that. But the kind of explanations we have been talking about will fit in with that. That's because you know a code which can be functional. Now, I said we have some things along these lines. There's a paper by myself and Hermann Hauser called "Multi stage acquisition of intelligent behaviour" that explained the logic of developments in terms of a picture like this. And George Osborne did a thesis on cognitive mechanisms of guiding psychological developments. And this was an actual computer program which took structures and assembled them, observed the way these structures behaved and was able to begin cognitive developments. And that was going nicely until the powers that be declared that he couldn't go on with this if he wanted to continue as a student, weird business. Templates, well this is a concept which is useful for explaining how things develop. Your simple structures act to organise complicated behaviour. So, I think this is the real M-theory. Now getting on to the more controversial bits. Back in 1987 I wrote a paper for the Journal of Physics Education where I proposed that eventually physics and spirituality would be unified. As you will see it's quite similar to this but it's taken quite a time to put that into... to clarify what was going on. That we've a subtle level. And then I said this would actually connect with religion. So scientists might have problems with this. Various things, eastern philosophy which was really my starting point. That mind is the basis of everything. I read a book by a theologian Keith Ward which actually explained creation in terms that matched very well the view that I was getting from my own approach. Then there's intelligent design. Now, that's very strange and political because to be a scientist you have to take as an axiom that intelligent design is wrong and expend all your efforts on one side. Now, in fact admittedly the creationist people are interested in this. But they made a decision to see what could be got from science. And intelligent design is in fact an entirely scientific enterprise. Stephen Meyer is a philosopher with an impeccable pedigree, mainly a PhD from Cambridge. He has written this book "Signature in a Cell" which discusses the science. He's saying how cells have a remarkably complicated structure and it's hard to see how these could be produced. Whereas in my picture the subtle level is able to experiment with designs and get better and better ones. It's not constrained by the universe. Now I see that my time is almost done which is good because this last slide is the end. I'm the sheep that is separated from the other sheep, as shown in this painting by my wife. Thank you very much.

Vielen Dank! Jetzt kommt etwas völlig anderes, wie man sagt. Heute Morgen haben Sie Werbung von Professor Gross gehört, Werbung für Quantenmechanik. Ich glaube, er hat bestimmt irgendwann in seiner Laufbahn mal Enzyklopädien oder Gebrauchtwagen verkauft. Nun, jedenfalls hat er am Schluss eingeräumt, dass es einige Dinge gibt, die noch nicht sehr gut verstanden werden. Und ich denke, dass das, was ich sagen werde, helfen könnte, diese Lücken zu schließen. Ok, Sie werden übrigens bemerken, dass auf der langen Liste von Dingen, die die Quantentheorie gut kann, Biologie nicht steht. Tatsächlich gibt es Probleme mit der Biologie. Ungefähr um 1990 gab es von mir einen Aufsatz im Fachblatt Foundations of Physics mit dem Titel "Limitations to the Universality of Quantum Mechanics" (Einschränkungen der Universalität der Quantenmechanik). Bis jetzt hat noch niemand behauptet, dass die Argumente falsch wären. Aber auf jeden Fall gründet sich die Physik auf mathematischen Beschreibungen und diese sind ihrerseits limitiert. Ein Problem dabei ist, dass der gewöhnliche Ansatz Gleichungen für zeitabhängige Änderungen beinhaltet. Das setzt voraus, dass man eine Momentaufnahme eines Systems zu einer sehr genau definierten Zeit macht und dann etwas Mathematik anwendet, um es voranzubringen. Bei diesen Fluktuationen, die in Wirklichkeit unendlich sind und weggezaubert werden müssen, ist eine Momentaufnahme ohne Bedeutung. Und das hat sogar zu einer Reihe von Problemen geführt. Es gibt eine alternative Sichtweise, die ich erläutern werde, und die man wahrscheinlich hauptsächlich mit den Vorstellungen von John Wheeler in Zusammenhang bringen sollte, die ich in Kürze beschreiben werde. Aber bei dem Ansatz, den ich gewählt habe, hat ein Mitarbeiter mitgewirkt, Ilexa Yardley, der eine Theorie namens "circular theory" (Kreistheorie) aufgestellt hat. Ich habe das weitestgehend in eine strengere Form gebracht. Aber zunächst einmal stellt sich doch die Frage, ob wir Physik auf der Mathematik begründen sollten, was die übliche Annahme in der Physik ist, oder ob sie als kreative Beobachtung gilt - etwas, worauf ich später zurückkommen werde. Wheeler führte die Idee der kreativen Beobachtung ein. Jetzt möchte ich kurz erklären, auf welche Probleme der mathematische Weg stößt. Es fing an... Das, nennen wir es mal die mathematische Unternehmung, fing mit Newton an, seiner Mechanik, Gesetzen, mathematischen Gesetzen, die alle möglichen Dinge wie die Planetenbahnen beschrieben. Maxwell machte dann das Gleiche mit dem Elektromagnetismus. Das war jedoch nicht vollkommen zufriedenstellend und musste vor ungefähr 100 Jahren durch die Quantentheorie ersetzt werden. Das wurde dann durch die Quanten-Elektrodynamik verstärkt, die die Felder mit berücksichtigte. Dann das Standardmodell, das... ziemlich gut funktionierte mit vielen..., das viele Teilchen beschreibt. Das Problem dabei war dann, dies und die Gravitation zu integrieren, denn das war am Anfang nicht endlich renormalisierbar. Aber das wurde schließlich behoben. Es wurde multidimensional mit sogenannten "Strings" und der Supersymmetrie repariert. Dann koppelte sich die Mathematik jedoch langsam von der Physik ab. Elegante Mathematik und dieser Traum einer finalen Theorie. Aber das funktionierte nicht so, wie die Leute das erwartet hatten, und ein Problem, das David Gross nicht erwähnt hat, ist, dass es eine unendliche, nun, nicht unendliche Anzahl, 10^520 verschiedene Universen gibt, wenn man ihre zusätzlichen Dimensionen unterschiedlich faltet. Das ist also etwas problematisch. Abgesehen von der Frage, wie man Biologie mathematisiert und so weiter, was ich hier nicht vertiefen werde. Ok, um 1990 schrieb John Wheeler dann also diesen bemerkenswerten Artikel "Law without Law" (Gesetz ohne Gesetz). Man kann ihn finden, wenn man "Wheeler, Law without Law" eingibt und den Artikel kann man herunterladen. Auf dieser Seite habe ich eine Zusammenfassung einiger Bemerkungen aus diesem Artikel. Er sagte: "Die Tragweite der Physik ist größer, als wir je angenommen haben." Wenn die Ansichten, die wir hier untersuchen, richtig sind, ist ein hauptsächlicher partizipierender Beobachter ausreichend, um alles entstehen zu lassen." Das ist eine ziemlich dramatische Behauptung. Ich möchte Ihnen seine Idee erklären. Sie basierte auf der Quanten-Beobachtung. Die Beobachtungstheorie gehört zur Quantenmechanik und besagt, dass es durch jede Beobachtung eine bestimmte Observable gibt und man die Eigenfunktion in einen Eigenzustand einer Observablen kollabieren lässt. Das ist also eine Art Eingriff in die Welt, wenn wir sie beobachten. Und es kann nicht auf passive Beobachtung reduziert werden, grob gesagt, weil verschiedene Beobachtungsarten sich unterschiedlich auf ein System auswirken. Ein klassisches Beispiel: Wenn man einen Teilchenstrahl hat und einen Detektor, mit dem man beobachtet, wo das Teilchen ist, kollabiert der Strahl plötzlich in einen Punkt. Wenn man hingegen einige andere Beobachtungen durchführt, wie Interferenz-Experimente, kann das nicht als punktförmiges Teilchen, sondern nur als Welle beschrieben werden. Hier ist also etwas merkwürdig. Man legt einem System sozusagen plötzlich eine Einschränkung auf, während man es beobachtet. Er dachte also wahrscheinlich, dass das alles war, was nötig war, um alles zu erklären. Aber er hatte keine wohldefinierte Theorie, um das zu erklären. Um damit nun wirklich irgendetwas zu erreichen, muss man im Sinne einer geordneten Beobachtung denken. Eine ungeordnete Beobachtung wird nichts bewirken, wie etwa eine besondere Art eines Systems zu machen, zu schaffen. Hameroff und Penrose haben die Idee eines "orchestrated collapse" (inszenierten Kollaps) eingeführt. Sie ließen das Gehirn dies tun. Henry Stapp hingegen vertrat jedoch die Meinung, dass der Geist nicht in der Quantenmechanik vorkommt und der Geist kann unterschiedliche, interessante Sachen hervorrufen. Auf der nächsten Folie habe ich zunächst Zitate von Hameroff und Penrose. um die Kontrolle über seinen eigenen Zustand von Überlagerung und Reduzierung zu erreichen." Henry Stapps Idee war sehr viel esoterischer. der dann automatisch die Kontrolle auf höchster Ebene über den Fluss neuronaler Anregungen im Gehirn durch die Kraft der Naturgesetze ausübt..." usw., usw. Und er dachte, dass die Einheit des Bewusstseins durch Auswahl eines einzelnen Programms dazu käme. Er verfolgte also einen eher informationstheoretischen Ansatz. Ich denke, dass muss noch näher erläutert werden, aber ich werde jetzt erst einmal fortfahren. Die traditionelle quantenmechanische Beobachtung besteht aus einer isolierten Messung und einer spezifischen Messung oder eines Messinstruments. Jetzt haben wir technische Geräte, die einen größeren Einfluss auf die Natur ausüben. Sie verwenden dafür eine festgelegte Messreihe und sind interaktiv. Es sind also allerlei technische Spielereien, die wie ein Roboter irgendetwas überprüfen, er unternimmt viele Beobachtungen und diese Messungen werden in einer geordneten Form angewendet. Aber das sind keine natürlichen Phänomene. Deshalb wende ich mich jetzt der Biologie zu und werde über biologische Systeme sprechen, die beispielsweise anpassungsfähig sind. Was dabei auch sehr wichtig ist, dass biologische Systeme sich verbinden können und gemeinsam agieren können. Und diese Vereinigung ist in der Theorie, die ich erklären werde, sehr wichtig. Sie verwenden auch Verkörperungen und nutzen Informationen. Ok, das ist also momentan eine qualitative Theorie. Ich werde später noch 2 exaktere Dinge erklären, die wir gemacht, aber nicht auf diese bestimmte Theorie angewendet haben. Aber ich werde diese Art von Metapher vorstellen, die interessanterweise mit der Stringtheorie verbunden ist. Eine Metapher... Entschuldigung, ich habe die Tanz-Metapher noch nicht. Ok, ich hatte über Systeme gesprochen, die die Selbstorganisation nutzen, um etwas zu machen. Und als ich diese Folien-Überschrift erstellt habe, Organisation durch Aktivität, ist mir klar geworden, dass sie Prigogines "Order through fluctuations" (Ordnung durch Fluktuationen) sehr ähnlich ist. Prigogine stellte fest, dass man meistens interessante Arten der Organisation erhält, je weiter man vom Gleichgewicht entfernt ist oder in einer Fluktuation. Und biologische Systeme machen das Gleiche. Sie organisieren sich selbst, indem sie etwas machen. Wenn man gehen lernt, bildet sich eine organisierte Struktur schrittweise heraus, zum Beispiel. Und der Weg, wie das grundsätzlich funktioniert, ist, dass man neue Möglichkeiten hinzufügt und, wenn die neuen Möglichkeiten diese Tätigkeit unterstützen, fügt man sie seinem System hinzu. Und das, was nicht zu dieser Tätigkeit passt, wird ignoriert. Biologische Systeme haben also von Natur aus ein System, nämlich das Bilden einer Einheit, die bestimmte Tätigkeiten durchführt. Das ist also etwas, das wir in unser Modell als etwas Grundsätzliches einfügen möchten. Mit verbesserten Fähigkeiten verbessern sich also die Systeme durch Tätigkeiten oder sie zerfallen. Man erhält organisierte Sammlungen. Ein Beispiel für organisierte Sammlungen mit unterschiedlichen Modellen sind Vogelschwärme. Einer meiner Studenten hat etwas Ähnliches durch das Erlernen einer Gleichgewichtsfertigkeit gemacht. Grob geschätzt könnte man sagen, dass die Tätigkeit eine Art Referenzrahmen ist, um zu entscheiden, was einbezogen werden sollte. Und man erzeugt eine Art Kondensat. Aber das ist eine andere Art von System, als das physikalische Kondensat, bei dem man viele gleiche Versionen kondensiert. In der Biologie sammelt man Dinge, die zusammenarbeiten. Jetzt mache ich also meine große Annahme, dass es da eine biologische Realitätsphase gibt, in der, grob gesagt, biologische Dinge passieren. Um sich das vorzustellen, könnte man sagen, dass es irgendwo an der Grenze zwischen zwei Systemen ist, die sich Physiker überlegen. Sagen wir, eine Sammlung von Gasteilchen, wobei diese sich sehr zufällig bewegen, das ist ein Extrem. Und der Festkörper, der eine feste Struktur hat, ist eine andere Situation. Dazwischen kann es ein System geben, in dem Einschränkungen mit Bewegung kombiniert werden. Und das scheint der Schlüssel zu sein. Es handelt sich also, kurz gesagt, um etwas, das wir in der Physik noch nicht sehr genau untersucht haben. Es gibt einen Forschungsbereich, der Chaosforschung genannt wird. Auf diesem Gebiet wird einiges hiervon erforscht, aber ich denke, dass der biologische Aspekt fehlt. Man stelle sich also vor, die Dinge bewegen sich frei und bilden Gruppen und zerfallen. Und das ist eine Situation, die eine wirklich neue Situation mit einer potenziell neuen Physik darstellt. Man kann sich das wie einen Tanz vorstellen, wenn Sie mögen. Menschen bewegen sich auf eine bestimmte Art und Weise mit Einschränkungen, um nicht zusammen zu stoßen. Bei einigen Tänzen ist es charakteristisch, nahe zusammen zu kommen und sich wieder voneinander zu lösen, eine komplizierte Choreografie. Es bilden sich Untergruppen, die organisierte Bewegungen aufweisen. Und Yardleys Theorie schlug zwei Dinge vor, die umeinander kreisen. Aber man kann auch David Gross' Video von sich bewegenden Strings als eine Art Tanz ansehen. Nur um Ihnen dieses Geschehen zu zeigen... Mal sehen, ob das funktioniert. Dies sind chinesische Motorräder, die in organisierter Form herumfahren. Es dauert nur ungefähr eine Minute. Sie verändern ihre Form, dann wird ein weiteres Objekt in das System eingebracht. Das kann man gleich sehen. Sie hatten bis zu vier, aber ich werde Ihnen nur drei davon zeigen. Hier kommt das dritte, das wird ein Freikörper-System. Man muss einen neuen Weg finden, damit sich die Systeme zusammen bewegen können. Sie beginnen mit einfachen kreisenden Bewegungen, aber es wird immer komplizierter. Ich habe den ein oder anderen Sprung bei der Bearbeitung eingeführt. Das hier ist ein komplizierteres System. Jetzt mache ich mit der nächsten Folie weiter. Hier wird eine Art neue Physik veranschaulicht, die ich vorschlage. Koordinierte Tätigkeiten, und es gibt auch Resonanz. Es gab keine wirkliche Resonanz in dieser Abbildung, aber man kann zwei Systeme haben, beide schwingend und manchmal verbinden sie sich in einer Resonanz. Das ist also etwas Neues, das geschehen kann. Das ist interessant, weil das bedeutet, dass es sowohl zwei Systeme sind als auch eins. Man kann sich Systeme wie eine Einheit mit einer besonderen gemeinsamen Verhaltensweise vorstellen. Aber in einigen Situationen... ist es ein nützliches Modell, sich getrennte Systeme vorzustellen. In Yardleys Theorie gibt es also einige Gruppen, die sich bilden und umbilden. Dabei geht es darum, dass dies sich weiterentwickeln kann. Es wird sich weiterentwickeln, wenn einige Systeme besser als andere überlebt haben oder einen höheren Wert als andere haben. Wenn sich jetzt dieser biologische Aspekt entwickelt und ich werde gleich etwas darüber erzählen, wie es sich entwickelt. Wir sprechen hier also über neue Phänomene und eine neue Perspektive bei Dingen, aus denen eine neue Physik entstehen sollte, wenn Leute viel mehr Arbeit darin investiert haben. Und ich glaube, dass das die Lücke schließen wird, über die David heute Morgen gesprochen hat. Und es lohnt sich, dies zu betrachten. Es ist ein neues Konzept und beinhaltet nichts Künstliches, wie etwa zusätzliche Dimensionen. Es ist etwas, das bei Dingen, die sich bewegen, ganz natürlich geschieht, Bewegungen sind begrenzt und Einheiten bilden sich und können sich auflösen. Nun, der entscheidende Unterschied in der Biologie ist die Evolution. Durch Evolution entstehen immer fortschrittlichere Strukturen. Da werden Komplexe gebildet. Und ich habe mir gerade ein schönes Beispiel für diese besonderen Muster ausgedacht - ein Schachspiel, denn man könnte es als eine Art Tanz der Figuren bezeichnen. Aber besondere Formen wie die Fesselung oder die Gabel haben Überlebensvorteile. In ähnlicher Weise haben besondere Muster in dieser biologischen Welt Überlebensvorteile. Dinge wie Fütterung und Fortpflanzung. Das sind Dinge, die auf dem Gebiet der Biologie geschehen. Was ich also vorschlage, sind Einheiten, die sich bilden können und durch das Bilden und das Umbilden entstehen immer komplexere Formen. Und das wird schließlich die Erklärung für die Physik sein. Letztendlich kommen wir wieder zur Physik zurück, dies ist nicht nur Biologie. Wir stellen uns das Leben normalerweise mit vielen komplizierten Apparaturen vor, DNA, Molekülen mit bestimmten Eigenschaften und so weiter. Was ich vorschlage: Wir stellen uns vor, dass irgendwo außerhalb des Standardmodells etwas Ähnliches geschieht, eine subtile Biosphäre. Das führt zu der Frage, was eigentlich notwendig ist, um Biologie in Gang zu bringen. Und irgendwie ist es doch wie das Anzünden eines Feuers. Wenn die Biologie beginnt, kann man diese immer komplexeren Formen erreichen. Ich glaube, alles, was grundsätzlich nötig ist, sind Strukturen, die sich bilden und auflösen, und ein Programm sowie ein unterstützendes Umfeld. Etwas, das der DNA äquivalent ist... Man kann sich DNA als zweiseitige Schablone vorstellen. Einer der Stränge ist eine Schablone, aus der man den ergänzenden Strang bildet. Dann spalten sie sich. Der ergänzende Strang ist eine Vorlage, aus dem der erste Strang wieder gebildet werden kann. Anders ausgedrückt, benötigt man nicht sehr viel, um eine Reproduktion zu bekommen. Man braucht nur diese zusätzlichen Strukturen, die einen Mechanismus bieten. Dann erhält man kumulative Entwicklungen, wie es bei Software der Fall ist. Jetzt zeige ich eine Idee, wie man immer komplexer werdende Dinge entwickeln kann. Zunächst einmal hat man Signale. Ein Signal ist prinzipiell etwas, das sich mit etwas anderem verbinden kann. Das ist eine einfache Struktur, das heißt, zwei interagierende Strukturen, die Signale abgeben. Und das beinhaltet Semantik, d.h. was ein Signal bedeutet. Syntax und Sprachsysteme, das ist eine Entwicklung, in der die Dinge komplex werden können. Die Philosophin Susanne Langer stellte fest, dass Symbole auf zwei Arten funktionieren können. Die eine Seite bezieht sich auf den wissenschaftlichen Aspekt, wo man Symbole benutzt, um einen Bezug zu etwas herzustellen. In der Kunst hingegen gibt es Symbole, die besondere Auswirkungen haben. Und da möchte ich ansetzen, denn eine Sache, die man hier erhält, aber nicht im traditionellen Ansatz, ist Musik. Ja gut, man kann Symbole kombinieren, um Behauptungen aufzustellen. Da entsteht die Vorstellung von falsch oder richtig. Daher ist das die Logik, die eine Beziehung zwischen den Behauptungen ist. Dann kann man zu formalen Systemen und Mathematik übergehen. Und dann zu Dingen, die mathematischen Regeln und Universen entsprechen. Und diese Universen können Materie und Leben enthalten. Ich bin mir deshalb ziemlich sicher, dass diese Schritte anhand von Modellen erforscht werden können. Wir haben ein Modell mit einer ganz einfachen Sache erstellt. Die Idee ist, ein System zu finden, das etwas tun kann, wie mit Behauptungen umzugehen. Und dann wären einige Kombinationen aus diesen Systemen in der Lage, etwas Nützliches zu machen, wie Logik, die ausgewählt würde. Allein dadurch, dass man kompliziertere Systeme schafft, und die auswählt, die nützlich sind, wird es im Prinzip zu Mathematik. Und dann sagt man... Was in der Kultur eigentlich geschieht, ist, dass Mathematik entwickelt wird und danach mathematische Modelle zur Beschreibung des Umfelds. Und dann kann man anfangen, Dinge zu gestalten. Und man gestaltet Dinge auf der Grundlage mathematischer Gesetze. Und das Universum ist nur eine Technologie, sozusagen basierend auf dem subtilen Leben. Und das wird übrigens erklären, warum das Universum Leben unterstützt, weil dieses subtile Leben natürlich Dinge erschaffen wird, die für das Universum wertvoll sind. Wahrscheinlich könnten einige Lebensformen einen Wert haben. Das ist in etwa so wie das Penrose-Dreieck. Ich glaube, in einem seiner Bücher "Shadows of a Mind (Schatten des Geistes)", schreibt er am Ende des Buches: "Physikalische Systeme... Der Geist basiert auf physikalischen Systemen und Mathematik hat darin ihren Ursprung und Physik gehorcht mathematischen Gesetzen." Nun ja, er hatte eigentlich nicht ganz Recht, denn Hameroff und Penrose dachten, dass der einzige Geist, den es gibt, das Gehirn ist, obwohl es diese biologischen Entwicklungen sehr gut in subtileren Systemen geben kann. Wenn man den Geist zunächst in der subtilen Biosphäre lokalisiert, klärt sich die Idee des Penrose-Dreiecks auf. Wheelers Artikel setzt voraus, dass das Universum als etwas beginnt, wo es kein Leben gibt, obwohl es Beobachter hat und Beobachter können anfangen, das Universum zu formen. Das ist also im Wesentlichen die gleiche Art von Idee. Ich behaupte, dies ist die wahre M-Theorie und sie könnte uns dabei behilflich sein, uns weiter zu bringen. Und jetzt habe ich noch etwas Kontroverses, bevor ich zum Ende komme. Ich werde jetzt nicht weiter darüber sprechen. Ich werde jetzt nur Raum und Musik erläutern. Da der Raum im modernen Konzept nichts festgelegtes ist, kann er die Dimension ändern und so weiter. Wenn wir also einen Beobachter haben, der den Raum anschaut, kann er ihn in gewisser Weise formen. Die Vorstellung ist also, dass wir unser Universum nicht durch einen beliebigen Faltmechanismus bekommen. Aber es ist ein organisierter Prozess mit einem Geist, der vor dem Raum da war. Musik - einfach gesagt, denke ich, dass es viele Dinge gibt, die nicht eindeutig anhand einer normalen Theorie erklärt werden können. Ich habe mit einem Musikwissenschaftler zusammengearbeitet, Tethys Carpenter. Unsere Veröffentlichung können Sie auf unserer Webseite unter der Liste der Veröffentlichungen finden. Ein Zitat aus unserer Veröffentlichung lautet: "Herkömmliche Theorien begründen nicht die Spezifität, Komplexität, Funktionalität und die offensichtliche Willkür musikalischer Strukturen." Psychologen, die behaupten, dass dies in der Musik geschieht, erklären solche Dinge nicht. Aber die Arten von Erklärungen, über die wir gesprochen haben, passen dazu. Weil man nämlich ein Programm kennt, das funktional sein kann. Ich sagte ja bereits, dass wir etwas analog dazu haben. Ich habe mit Hermann Hauser ein Paper veröffentlicht, das heißt "Multi stage acquisition of intelligent behaviour" Und George Osborne schrieb eine wissenschaftliche Arbeit über kognitive Mechanismen, die psychologische Entwicklungen leiten. Und dies war tatsächlich ein Computerprogramm, das Strukturen sammelte und zusammensetzte und beobachtete, wie diese Strukturen sich verhielten und kognitive Entwicklungen beginnen konnten. Das ging solange gut, bis die Verantwortlichen erklärten, dass er damit nicht weitermachen könne, wenn er Student bleiben wollte, sehr merkwürdig. Vorlagen - nun, dies ist ein Konzept, das nützlich für die Erklärung ist, wie sich Dinge entwickeln, die einfachen Strukturen agieren, um kompliziertes Verhalten zu organisieren.Ich denke, das ist die wahre M-Theorie. Jetzt kommen wir zu umstritteneren Punkten. Im Jahre 1987 schrieb ich einen Aufsatz für das Journal of Physics Education, in dem ich den Vorschlag machte, dass Physik und Spiritualität sich eines Tages vereinen würden. Wie Sie sehen werden, ist das ziemlich ähnlich, aber es hat eine Weile gedauert, zu klären, was das eigentlich heißt. Wir haben eine subtile Ebene. Und dann sagte ich, dass sich das mit Religion verbinden würde. Wissenschaftler könnten damit Probleme haben. Verschiedene Dinge, die fernöstliche Weltanschauung, waren dabei mein Ausgangspunkt. Dass Geist die Grundlage von allem ist. Ich habe ein Buch von dem Theologen Keith Ward gelesen. Er erklärt darin die Schöpfung so, dass sie sehr gut zu der Auffassung passt, die ich aus meinen eigenen Ansätzen gewonnen habe. Dann gibt es noch das Intelligente Design. Das ist politisch sehr umstritten, denn als Wissenschaftler soll man als Axiom davon ausgehen, dass Intelligentes Design falsch ist und all seine Bemühungen auf einer Seite machen. Die Kreationisten interessieren sich zugegebenermaßen dafür. Aber sie haben entschieden, sich anzuschauen, was aus der Wissenschaft kommen könnte. Und Intelligentes Design ist tatsächlich ein komplett wissenschaftliches Unterfangen. Stephen Meyer ist Philosoph von ausgezeichneter Reputation, d.h. einem PhD aus Cambridge. Er hat das Buch "Signature in a Cell" (Signatur in einer Zelle) geschrieben, in dem die Wissenschaft besprochen wird. Er sagt, welch bemerkenswert komplexe Struktur Zellen haben und dass es schwierig ist, deren Produktion nachzuvollziehen. In meiner Vorstellung hingegen ist die subtile Ebene in der Lage, mit Entwürfen zu experimentieren, um immer bessere zu bekommen. Dies wird nicht durch das Universum begrenzt. Ich sehe gerade, dass meine Zeit abgelaufen ist, das ist gut, denn das ist meine letzte Folie und somit das Ende. Ich bin das Schaf, das von den anderen Schafen getrennt ist, wie man auf diesem Bild meiner Frau sieht. Vielen Dank.

Brian Josephson introduces his case for reevaluating our entire approach to understanding nature.
(00:00:52 - 00:03:06)

The complete video is available here. 

On the other hand, in his 2019 lecture, Gross not only briefly outlined string theory and why it offers hope of unifying all four fundamental forces, but he also explained the extreme difficulty in experimentally confirming that gravity merges with the other three forces. He concluded his talk with the question: “Is there a final theory?”, which he explained is equivalent to asking, “Is there a finite amount of ignorance?”. Though he stated that there is no sign that ignorance is finite, he also offered hope by mentioning that the language of physics – mathematics – has a certain infinite capacity, meaning there are no signs that we are faced with questions that cannot be answered.

 

David Gross asks whether ignorance is finite.
(00:17:10 - 00:34:40)

The complete video is available here.


Bibliography
[1] Hawking, S. (1988) A Brief History of Time. Published by Bantam Books, New York
[2] Maxwell, J. C. (1865) A dynamical theory of the electromagnetic field. Philosophical Transactions of the Royal Society of London. Vol. 155, 459–512
[3] http://www.clerkmaxwellfoundation.org/html/about_maxwell.html
[4] Nobel Prize in Physics 2017: Summary
[5] Lee, T. D (1987) History of the weak interactions. CERN Courier. January/February, 7¬–12
[6] Nobel Prize in Physics 1949: Facts
[7] Dirac, P. A. M. (1927) The quantum theory of the emission and absorption of radiation. Proceedings of the Royal Society of London A. Vol. 114, 243–265
[8] Nobel Prize in Physics 1965: Summary
[9] Nobel Prize in Physics 1979: Summary
[10] Nobel Prize in Physics 1999: Summary
[11] Leutwyler, H. (2012) On the history of the strong interaction arXiv:1211.6777
[12] Nobel Prize in Physics 2004: Summary
[13] Greene, B. (2000) The Elegant Universe. Superstrings, Hidden Dimensions, and the Quest for the Ultimate Theory. Published by Random House, London.
[14] https://www.edge.org/conversation/lee_smolin-loop-quantum-gravity-lee-smolin