Werner Heisenberg

Progress in the Unified Field Theory of Elementary Particles (German Presentation)

Category: Lectures

Date: 28 June 1962

Duration: 38 min

Quality: HD MD SD

Subtitles: EN DE

Werner Heisenberg (1962) - Progress in the Unified Field Theory of Elementary Particles (German Presentation)

The 1962 Lindau lecture by Werner Heisenberg is different to the lectures he gave in 1953, 1956 and 1959. Since Heisenberg was repeatedly reporting on the progress of his research work on a unified field theory of elementary particles, the content of each lecture is, of course, different

Ladies and Gentlemen, Mr. Menke just pointed out that I have already talked very often about fundamental particles here; in apologising for the fact that it is always the same topic I can say only that there is hardly any field of modern physics which is undergoing such rapid progress as the physics of fundamental particles. New experimental facts are being discovered almost every year, new theoretical ideas published and even since the last talk I held here 3 years ago, 10 new fundamental particles have been discovered. If one talks about a unified field theory of fundamental particles, or if one strives to produce one, one starts roughly from the following consideration: we know from the experiments during the last decades that fundamental particles can be converted into each other. The fundamental particles are therefore not, as was assumed in the past, the unchangeable eternal building blocks, the smallest building blocks of matter, instead they can be converted into each other. And, this is especially important, all fundamental particles can be converted into all others. By this I mean that if we take any two fundamental particles and fire them at each other with very high energy, new particles are formed and, in principle, particles of any type can be produced. The simplest description for this fact would be to say there is actually only one uniform matter, it could also equally well be called energy, and this matter or energy can exist in many different forms, which are called fundamental particles or just particles. There is no basic difference between fundamental and composite particles. This can also be expressed by saying: energy becomes matter by converting into the form of fundamental particles. If one starts from this general idea, it is also very natural to assume that there must be a law of nature from which the different fundamental particles with all their properties follow. I would like to talk today about a specific attempt at such a unified field theory of fundamental particles, which could maybe be characterised in the simplest way by starting with the equation which is to form the basis of such a theory. Could I please have the first slide? Here you see an attempt at an equation of matter. I only want to say a few words about the letters, and later not talk as much about mathematics as you may fear, but the quantity psi here on top represents matter so to speak, XYZ represents space-time and the gammas are matrices which Dirac introduced in connection with the representation, the mathematical representation of the Lorentz group, i.e. the properties of space-time, which we know from the theory of relativity. Maybe I should also say that re-writing this equation, which is here at the bottom, now appears to be useful in several ways, it illustrates the symmetry properties of the equation in a slightly simpler way still than the top equation. The specialist who deals with such things sees that this equation is invariant with respect to the Lorentz group; furthermore it says that this quantity psi, i.e. if one now represents matter, that it is a spinor, as the mathematicians say, in the space of Dirac’s spin variables as well as in the space of the so-called isospin, this will also be discussed later, and one can therefore see that both these group properties are contained in the equation. But this special form is not important at the moment, I want only to emphasize right at the start that it is not a particularly extravagant and unusual claim to believe that the whole complex spectrum of fundamental particles with all their properties results from an equation which looks so simple. After all, we are already very familiar with similar conditions from the theory of the atomic shell, which was the focus of interest around 40 years ago. Remember the complex optical spectrum of an iron atom with its many hundred lines of different intensities, different wavelengths, for example. And it took a very long while until it was possible to assign and explain this spectrum at all. Nevertheless, it is now known from Bohr’s theory of the atom and its mathematical specifications and quantum and wave mechanics that it is possible to write down a Schrödinger equation which looks simple, for the iron atoms, from which all these spectral lines with their intensities and other properties then follow. Now, writing down such an equation achieves very little, and when I talked about this 3 or 4 years ago, Pauli was justified in saying that this was only an empty frame in which the picture still needed to be painted. Because it was only then that the mathematical analysis started, one now needs to apply mathematical methods to try to determine what the statements of this equation really are. Whether the eigenvalues of the equation really make it possible to represent the empirically observed fundamental particles, for example. Two points of the theory which is characterised by this equation now extend very characteristically over and above the earlier quantum mechanics and earlier attempts at quantum field theory. Firstly, the mathematical axiomatic theory is different. We were forced to assume an extension of the basics such that the state space in which quantum mechanics operates does not have, as the mathematicians say, a definite metric, but an indefinite metric, and that the concept of probability thus initially becomes a problem. Secondly, it has turned out to be necessary to assume in this theory that the fundamental state, which in the earlier physics was considered simply as nothing, as the vacuum, as empty space, that this does not have the full symmetry of the equation, that it has physical properties, and must therefore really not be called vacuum, but world. And these two very radical changes have naturally caused many discussions, and the decisive progress has been achieved in these two points in particular in recent years. I would therefore like to divide up the topic of my report here into three parts. I want to first talk relatively briefly about the mathematical axiomatic theory on which this equation is based, I want to then talk in some more detail about the asymmetry of the fundamental state and the applications which one can draw from this assumption, and the theory of the so-called ‘strange particle’ and electrodynamics in particular. And then in the third part I want to discuss the comparison of what the theory allows us to derive and what has been found experimentally in recent years. So first the mathematical axiomatic theory. I want to first give you some history. When Einstein formulated the special theory of relativity, he made a radical change with respect to Newton’s mechanics. You all know that he put forward a different proposition on space and time. This different proposition on space and time had only become possible by him making a different assumption on action. While Newton claimed that there are forces acting at a distance, so-called forces with action at a distance, Einstein allowed only so-called short-range actions, i.e. really only actions from point to point. And this is the only thing which made it possible for the relativistic structure of space and time to be compatible with the idea of causality which we have to assume here. In this respect, the quantum mechanics which was developed during the 1920s continues Newton’s mechanics. It also uses forces with actions at a distance. But as soon as the physicists moved from the theory of fundamental particles to the quantum field theory, they were forced to make the same radical step which Einstein made back then from Newton’s theory to the theory of relativity. They were forced to move from action at a distance to close-range actions, to point interactions. This then had the consequence, as was observed in the 1930s, that the mathematics which apparently results as a natural generalisation of quantum mechanics in quantum field theory, that this mathematics leads to contradictions, that the values which are calculated become infinite, and therefore no longer have any meaning. There has been a long search for ways of getting out of this difficulty, and the most interesting proposal in my view was made in 1942, i.e. precisely 20 years ago, by Dirac. Dirac explains that one can avoid the mathematical difficulties, at least as a first approximation, let us say, if the metric in the state space is made indefinite. In order to not stop with this mathematical term, I would like to immediately come to the objection to this idea which was then raised by Pauli one year later. Pauli stated that if one uses an indefinite metric in Hilbert space, that the probability one calculates from the theory may then possibly have negative values, and this is nonsense, of course, because there is no such thing as negative probability. The difficulty appeared initially insurmountable and this proposal was therefore not pursued for a longer time. But around 10 years later, in 1953, we then took up Dirac’s proposal again in Göttingen. We hoped to be able to modify it in the following way. We need the probability interpretation of quantum theory where we experiment, of course. So if we place a detector somewhere with which we count fundamental particles, then what we require from the theory is that it will state the probability that fundamental particles will arrive there. Of this kind and that kind, of this frequency and that frequency. But it is not so important that we can apply the probability concept inside the atomic nucleus as well, for example, because we cannot measure inside an atomic nucleus anyway. What we measure are only ever fundamental particles which have covered long distances, i.e. into our equipment. It was therefore hoped that it would be possible to modify this theory so that the concept of probability could be maintained for fundamental particles which are separated by a large distance, i.e. for the so-called asymptotic behaviour of the waves to be dealt with in quantum theory, while the concept of probability had to be dropped for the conditions on the very small scale. Well, this idea was then tested on a very interesting model, which had been developed by the Chinese physicist Lee. And this represents, if you like, a very much simplified mathematical version of quantum electrodynamics. Pauli and Källén were able to show that if one treats this model according to the methods of quantum electrodynamics, that one then automatically enters into the indefinite metric and that one initially even gets into the difficulty with the probability concept as a matter of principle. It was then successfully shown that under specific assumptions, which have to be made in addition there, it can be arranged that the asymptotic concept of probability does become proper again, it is only lost on the small scale. You can see therefore that this whole question is very complicated, but in recent years in particular a number of papers have been published which have investigated in more detail whether this separation between asymptotic and local behaviour can be carried out, and at least different models have been provided where this is actually possible. I think it is more important that one can also provide a theoretical reason why this separation into asymptotic and local behaviour is possible. If one is also interested in the conditions in the atomic nucleus, i.e. takes all possible experiments into account, then one also has to represent all the symmetry groups which are observed in nature, in particular the Lorentz group as well. Now it is known that this group is a non-compact group, in mathematical terms, and the indefinite metric is a natural representation for non-compact groups. If one is interested in what happens at large distances, however, i.e. with the fundamental particles if they are far away from their collision point, then this group is reduced to a compact group, because one only considers processes which belong to a specific energy and a specific momentum. And for the compact groups, as I said, the definite metric as a probability concept is a natural representation. So it can be understood that the attempted division into asymptotic regions and non-asymptotic regions is reasonable here, and it may be possible to describe how the physicists view the problem at the moment in the following way. It can be said that there is firstly a conservative line of thought, maybe mainly represented by the American Whiteman, here in Germany by Nehmann, Simancik and others, which now attempts to connect this axiomatic theory as closely as possible with quantum mechanics. They try to manage with a state space of definite metric, assume the existence of a field operator and in order to represent causality they then say that the field operators should commutate and anti-commutate at points with space-like separation. A number of interesting results have been derived from this axiomatic theory, which also really fit in with experience and which obviously represent a part of reality correctly. On the other hand, it has not yet been possible to provide any mathematical model which satisfies all these axioms and contains a non-trivial interaction, i.e. it is doubtful whether the axiomatic theory, which is very narrow at this point, can be fulfilled. There is therefore a different line of thought which advocates a slightly more radical, opposite extreme and which was championed last year by Chew in America, for example. Chew gave a talk at the conference in La Jolla a year ago, which he called his “Declarations of independence”, where he said we don’t need the complete field theory, it would suffice to produce a mathematics which describes only this asymptotic behaviour of the particles. Now, to describe the mathematical tool, this asymptotic, is the so-called scattering matrix or S matrix and Chew said it should be sufficient to make a number of reasonable mathematical demands for this S matrix, e.g. in order to represent causality one had to demand that specific analytical properties existed and then one would not have to take care of the question of the metric or the particles at all. This is a very extreme point of view with the other line of thought, and maybe now I will ask for the second slide. I would like to briefly compare the different steps of the axiomatic theory which are possible here. The widest frame, which was championed by Chew last year, for example, is this axiomatic theory, which is here at the top. This assumes the existence of a scattering matrix, an S matrix, which must of course have the necessary group properties, symmetry properties, in order to represent nature correctly, and so that the demands of the relativistic, i.e. Einstein’s causality, are also maintained, this matrix must have specific analytical properties. This theory is therefore also very strongly based on the so-called dispersion relation, which is very well proven experimentally. It is possible to now narrow down this very wide framework, make it narrower, by adding something, by saying not only should this apply, but also requiring the existence of a local field operator, which in order to represent causality commutates and anti-commutates for space-like states and an appropriate Hilbert space should exist. At this point nothing is said about the metric in this Hilbert space, which can be definite or indefinite. And finally there is a third, even narrower axiomatic theory, in which both demands are made, both postulates, but a third demand is added, that the metric of the Hilbert space must be definite and that, in addition, the asymptotic states should be sufficient to open up this complete Hilbert space. This third axiomatic theory is therefore the narrowest, this is the one which I have called the conservative one, and that is the widest one, while the one in the centre is precisely the axiomatic theory which is the basis of this unified field theory, the subject of my talk here today. Now, at a Solvay conference in Brussels last autumn we also talked a lot about this axiomatic theory and provided this abstract, slightly mathematical issue with a physical aspect as well, which although it strictly is not part of it, makes the conditions very clear. If one assumes that the narrowest, the third axiomatic theory is correct, then one is actually forced to differentiate between fundamental particles and composite particles. Or let us say between real fundamental particles and only semi-fundamental particles. And the real fundamental particles are characterised by the fact that they have an infinitely hard and infinitely small, i.e. point nucleus in their centre, while the composite particles do not have this point nucleus. If one believes this last axiomatic theory, one must really differentiate between fundamental particles and those which are not fundamental. If one of the first two axiomatic theories is the basis, however, then it is very obvious to say there exists no fundamental particle at all which has such a hard, point nucleus in the centre. This question must be answered experimentally as a matter of principle, and the experimental question has a close relationship with what we have heard here at this meeting from Mr. Hofstadter. In Mr. Hofstadter’s experiments attempts are made to precisely measure the density distribution of a fundamental particle, the nucleon, for example. And it is possible to decide in principle whether the density distribution is such that there is an infinitely hard, point nucleus in the centre, which is surrounded by a cloud of matter having a diameter of around 10 E-13 cm, or whether the fundamental particle is only a cloud without a nucleus. In order to decide such a question, it is necessary to investigate collisions of extraordinarily high energy, however. It seems to be the case that, if one has a point nucleus, then elastic collisions still occur even at the highest energies possible with a considerable probability, whereas, if there is only a cloud, the elastic collisions become as rare as one wants at sufficiently high energies. I myself am convinced that fundamental particles with such a hard nucleus do not exist, but the question cannot yet be decided experimentally, because sufficiently high energies are not yet available. But maybe collision processes with the large machines in Geneva and Brookhaven will bring us closer to deciding this question in the future. And with this I would like to finish this discussion of the mathematical axiomatic theory and now come to a more physical part, the second part, i.e. to the question of the asymmetry of the fundamental state. The field theory, which I am talking about here, was forced to assume this asymmetry of the fundamental state for the following reason. There is a property in fundamental particles which is called isospin. This is a property which was introduced empirically 30 whole years ago. Mathematically it is a property, similar to the angular momentum, but graphically means the difference between a proton and a neutron. Two particles which have nearly the same mass, but one of them is charged and the other neutral. It was determined a long time ago, i.e. 30 years ago, that the interaction between fundamental particles is at least approximately symmetrical with respect to rotations in this space. If one therefore converts a neutron into a proton, the forces do not change in the first approximation. And therefore the fundamental equation, which you saw just now, is invariant in respect of such transformations. But this invariance does not apply strictly in reality. The electric charge already breaks this invariance, which you can simply see from the fact that a proton is charged and a neutron is not charged. One therefore has to draw the strange conclusion that there are symmetries in nature which only apply approximately. And the natural interpretation for this is that one says the fundamental state of the world itself is therefore not symmetrical, but the world has a large isospin. Now this means empirically that, for example, the number of neutrons and the number of protons in the world are very different and this is indeed the case. This asymmetry is what makes it possible to understand that a proton and a neutron have a slightly different mass, because the proton is then a particle whose isospin is parallel to that of the world, while the neutron’s isospin is antiparallel to the world. This forced the scientists to assume the asymmetry. Then there was something else: if the fundamental equation is initially taken as it is written here, one would expect that a particle which has half-integer Dirac’s spin also has half-integer isospin, or, if it has an integer Dirac’s spin, then it also has integer isospin. But in reality there are so-called strange particles where this is just not the case. In order to explain those, it is therefore necessary to again take into account the asymmetry of the fundamental state. This had been a slightly audacious assumption, but it has meanwhile fortunately turned out that precisely the same conditions apply in other fields of physics, and we have learned a lot from the development of the theory of superconductivity, on which Mr. Bardeen gave a talk here. It turned out that the conditions are the same in superconductivity, i.e. the fundamental state does not have the full symmetry of the equations, but is degenerate, has a lower symmetry, does not possess the so-called gauge symmetry. And then Bogoliubov correctly pointed out that basically such conditions had been known earlier at many places and had simply been no longer thought of. It has already been assumed in the theory of ferromagnetism that the fundamental state of a ferromagnet has a magnetic moment, i.e. a direction, although the equation from which one starts has rotational symmetry. In the crystal formation, in the theory of superfluidity, we have the same conditions everywhere. Nambu in particular showed that even purely mathematically there are many similarities between the theory of fundamental particles and the theory of superconductivity. The scientists gained a kind of mathematical practice ground in the theory of superconductivity and the theory of ferromagnetism. We know that there are no fundamental mathematical difficulties in these two areas, we are on completely solid ground there and can now look how far the mathematical assumptions which we made in the theory of fundamental particles also apply here. And it did indeed turn out that very many features which had been assumed in the theory of fundamental particles could now really be proved here mathematically, i.e. the conditions can really be as they had been assumed to be in the theory of fundamental particles. The following was also very encouraging: in the theory of fundamental particles we were forced to use an approximation method for the numerical calculations, and this was very problematic . But it was the only one which could be applied at all to these types of field theory. It was possible to use the very same approximation method in the theory of superconductivity in order to see whether it provided good results there, and it turned out that it provided good results even there, that it is practically as good as the exact calculation. In this respect the theory of superconductivity provided a great deal of assistance for the theory of the asymmetric fundamental state for the fundamental particles. Now I want to discuss more specifically the theory of the strange particles which has been developed by Dürr and myself meanwhile. In order to understand the strange particles in their slightly weird property Wentzel once introduced a term which he called spurion. This spurion was a slightly weird fundamental particle, i.e. it was not a particle at all, e.g. it had neither energy nor momentum, nor a position, it had only an isospin and a parity. The only illustrative comparison I can provide is the cat which appears in the English tale of Alice in Wonderland, although this is a bit mystical: it talks about a cat which disappears into a mirror, and first the tail disappears, and then the body, and then the head of the cat, and only the sneering grin of the cat remains in the room. Now the grinning of the cat is the isospin of the spurions, so to speak. Now this idea, which Wentzel made purely phenomenologically, was the result of the mathematics of the field theory, which I am talking about, of its own accord, i.e. it turned out that this mathematics invents the spurions of its own accord, i.e. this property of the degenerate vacuum so that all assumptions that Wentzel made with his term spurion can be found again in the mathematics and vice versa; this mathematics could now be tested again in the theory of ferromagnetism or superconductivity. Maybe the simplest comparison is the one from the theory of ferromagnetism, where we therefore then need to replace the isospin with the spin. One can therefore also imagine the following in a ferromagnet: let us assume an excited electron, which borrows a spin 1/2 from the total magnetic moment of the ferromagnet so that the spin of the electron is no longer 1/2, but 1. It is therefore quite possible by attaching a spin wave to the electron in this way, that in a ferromagnet electrons orbit which do not have this spin 1/2 as they should, but spin 1. I do not really know whether such ferromagnets have actually been produced, I do not believe that it has been observed, but in principle nothing prevents this being possible. Calculations have been performed with the help of this spurion term and I want to provide a few more equations, but then quickly move on. Could I please have the next slide. Now, if one takes this idea of the spurions seriously, then one must, in order to describe a strange particle, expand Dirac’s equation of the nucleon, which would include only this term, gamma mu p mu and by this term, the i kappa, one must and can expand it by precisely two terms. Other terms are not possible due to the symmetry. And this one term provides so-to-speak an interaction of the parity of the spurion, like the parity of the nucleon, and this term provides an interaction between the isospin of the spurion and the isospin of the nucleon. If this equation, which contains only two constants which still need to be determined, is solved, then one obtains such an equation for the energy, i.e. the mass of the spurion. This still depends, as I said, on the two constants alpha and eta, which have to be determined with the aid of other requirements. I would like to ask for the next slide. If one calculates masses with this equation, then one can see that the following happens: as long as the two interaction constants alpha and eta are zero, for example, we have here the eigenvalue, i.e. the mass of the nucleon. If we then take only the parity interaction, the nucleon, this state splits up, this nucleon state which slightly changes in its mass here at the bottom remains, and there is only one higher state, which can be interpreted descriptively, i.e. as nucleon + spurion, but this state has a four-fold degeneration, and if we then also take into account the eta interaction, i.e. the isospin interaction, then this state splits up into four states. We should then expect that there exists a strange particle above the nucleon, a hyperon. This here is to have isospin zero, this here isospin 1, above this there should now again be an excited particle of isospin 1 and again of isospin zero. The two particles at the bottom are experimentally known, this here is the so-called Lambda hyperon and Sigma hyperon. At the time, the two top states were not yet known. But it is possible that they have now been found, I will talk about the experiments later. If one were to calculate this more accurately than was done in these initial equations, these levels could of course be shifted slightly with respect to each other, because the constants alpha and eta can again depend on the energy themselves, but in a first approximation the split looks like this. I should possibly say here that it has been possible to determine the constant alpha correctly in the numerical calculation according to the Tamm-Dankoff method, albeit in approximation. The second constant eta, which is very much smaller, could not be determined reliably, however, because the second constant changes very strongly even if there is only a very small error in the first constant. It depends very sensitively on the first one so that we can determine this constant at best with an inaccuracy of factor 4, and then we proceeded in practice such that we have preferred to take the experimental value, i.e. the value which best represents the experiments, but I must say that even if the constant were larger by a factor 2 or so, the picture would not be fundamentally different. The next slide, please. The same calculation was then made for the so-called bosons, these are therefore particles such as the Pi meson etc. and for them there are two states without the interactions of the spurions. This one here is an isotriplet, this is a Pi meson, the second state of the isosinglet, it had not yet been found when the theory was developed. It seems to have been found now, and this state seems to be the so-called Eta meson. If eta is still zero this state splits up into two, into three and others also into three, and if this constant eta is then taken into account, the ......

Meine Damen und Herren, Herr Menke hat gerade darauf aufmerksam gemacht, dass ich hier schon sehr oft über Elementarteilchen gesprochen habe, als Entschuldigung dafür, dass es immer wieder dasselbe Thema ist, kann ich nur anführen, dass es kaum ein Gebiet der modernen Physik gibt, das so sehr in stürmischer Entwicklung begriffen ist, wie die Physik der Elementarteilchen. Fast jedes Jahr werden neue experimentelle Tatsachen gefunden, werden neue theoretische Überlegungen publiziert und allein seit dem letzten Vortrag vor 3 Jahren, den ich hier gehalten habe, sind etwa 10 neue Elementarteilchen entdeckt worden. Nun, wenn man von einer einheitlichen Feldtheorie der Elementarteilchen spricht, oder sie anstrebt, so geht man etwa von folgender Überlegung aus. Wir wissen aus den Experimenten der letzten Jahrzehnte, dass die Elementarteilchen ineinander umgewandelt werden können. Die Elementarteilchen sind also nicht, wie man etwa in früherer Zeit geglaubt hat die unveränderlichen ewigen Bausteine, kleinsten Bausteine der Materie, sondern sie können ineinander verwandelt werden. Und zwar, das ist besonders wichtig, es können alle Elementarteilchen in alle verwandelt werden. Damit meine ich, wenn wir irgend zwei Elementarteilchen nehmen und sie mit sehr großer Energie aufeinander schießen, so entstehen neue Teilchen und es können dabei grundsätzlich Teilchen jeder Art erzeugt werden. Diesen Sachverhalt wird man am einfachsten so beschreiben, dass man sagt, es gibt eigentlich nur eine einheitliche Materie, man kann es genauso gut Energie nennen, und diese Materie oder Energie, ist eben in vielen verschiedenen Formen existenzfähig, die man Elementarteilchen oder überhaupt Teilchen nennt. Einen grundsätzlichen Unterschied zwischen elementaren und zusammen gesetzten Teilchen gibt es nicht. Man kann auch etwa so formulieren, dass man sagt, die Energie wird dadurch zur Materie, dass sie sich in die Form der Elementarteilchen begibt. Wenn man von dieser allgemeinen Auffassung ausgeht, ist auch sehr natürlich anzunehmen, dass es ein Naturgesetz geben muss, aus dem die verschiedenen Elementarteilchen mit all ihren Eigenschaften folgen. Ich möchte nun heute über einen bestimmten Versuch einer solchen einheitlichen Feldtheorie der Elementarteilchen sprechen, den man vielleicht am einfachsten dadurch charakterisiert, dass man die Formel an die Spitze stellt, die die Grundlage einer solchen Theorie bilden soll. Ich bitte um das erste Bild. Sie sehen also hier, einen Versuch für eine Materiengleichung. Ich will bloß ein paar Worte über die Buchstaben sagen, aber nachher nicht so viel, wie Sie vielleicht fürchten über Mathematik sprechen, also die Größe Psi hier oben, stellt sozusagen die Materie dar, XYZ steht für Raumzeit und die Gammas sind Matrizen, die von Dirac eingeführt worden sind, im Zusammenhang mit der Darstellung, der mathematischen Darstellung der Lorentz-Gruppe, also der Raumzeit Eigenschaften, die wir aus der Relativitätstheorie kennen. Vielleicht sollte ich noch bemerken, die Umformung dieser Gleichung, die hier unten steht, ist eine Form, die uns jetzt in mancher Weise zweckmäßig erscheint, sie bringt die Symmetrieeigenschaften der Gleichung noch etwas einfacher zur Anschauung als die obere Gleichung. Der Fachmann, der mit solchen Dingen umgeht, sieht, dass diese Gleichung zunächst gegenüber der Lorentz-Gruppe invariant ist, außerdem wird gesagt, dass diese Größe Psi, also, wenn man jetzt die Materie darstellt, das die, wie der Mathematiker sagt, ein Spieler ist, obwohl im Raum der Dirac’schen Spinvariablen als auch im Raum der sogenannten Isospins, darüber wird auch später die Rede sein, und man sieht also, dass diese beiden Gruppeneigenschaften in der Gleichung stecken. Aber auf diese spezielle Form soll’s im Augenblick nicht ankommen, ich möchte bloß gleich zu Anfang betonen, dass es nicht eine besonders extravagante und ungewöhnliche Behauptung ist, zu glauben, dass man aus einer solchen einfach aussehenden Gleichung das Ganze komplizierte Spektrum der Elementarteilchen mit all ihren Eigenschaften bekommt. Denn ähnliche Verhältnisse kennen wir ja schon sehr gut, aus der Theorie der Atomhülle, die vor etwa 40 Jahren im Mittelpunkt des Interesses stand. Denken Sie etwa an das komplizierte optische Spektrum eines Eisenatoms mit seinen vielen hundert Linien verschiedener Intensitäten, verschiedener Wellenlänge. Und es hat sehr lange gedauert, bis man dieses Spektrum überhaupt ordnen und erklären konnte. Trotzdem weiß man heute, aus der Bohr‘schen Theorie der Atome und aus ihrer mathematischen Präzisierung und Quanten- und Wellenmechanik, dass man eine einfach aussehende Schrödingergleichung anschreiben kann, für das Eisenatom, aus der dann diese ganzen Spektrallinien mit ihren Intensitäten und sonstigen Eigenschaften folgen. Nun, mit dem Anschreiben einer solchen Gleichung ist noch sehr wenig getan, und als ich vor 3 oder 4 Jahren zum ersten Mal darüber vortrug, hat Pauli mit Recht gesagt, das sei ja zunächst ein leerer Rahmen in dem das Bild erst gezeichnet werden muss. Denn erst dann beginnt ja die mathematische Analyse, man muss nun mit mathematischen Methoden festzustellen suchen, was eigentlich die Aussagen dieser Gleichung sind. Ob also etwa die Eigenwerte der Gleichung wirklich die empirisch beobachteten Elementarteilchen darzustellen gestatten. Die Theorie, die durch diese Gleichung hier charakterisiert ist, st nun an zwei Stellen sehr charakteristisch hinausgegangen über die frühere Quantenmechanik und über frühere Versuche der Quantenfeldtheorie. Erstens ist die mathematische Axiomatik anders. Wir sind genötigt gewesen, eine Erweiterung der Grundlagen in der Weise anzunehmen, dass der Zustandsraum, in dem man in der Quantenmechanik operiert, nicht mit der Mathematik gesagt mit der definit Metrik sondern eine indefinite Metrik hat und dass daher der Wahrscheinlichkeitsbegriff zunächst problematisch wird. Zweitens, es hat sich als notwendig herausgestellt, in dieser Theorie anzunehmen, dass der Grundzustand, der in der früheren Physik einfach als das Nichts, als das Vakuum, als der leer Raum betrachtet wurde, das der nicht die volle Symmetrie der Gleichung hat, das also physikalische Eigenschaften besitzt, und daher eigentlich nicht Vakuum sondern Welt genannt werden muss. Und diese zwei ziemlich radikalen Änderungen haben natürlich viele Diskussionen hervorgerufen, und gerade an diesen beiden Punkten sind in den letzten Jahren die entscheidenden Fortschritte erzielt worden. Ich möchte also das, was ich Ihnen hier berichte in drei Teile teilen. Ich will zunächst relativ kurz sprechen über die mathematische Axiomatik, die dieser Gleichung zugrunde liegt, ich will dann etwas ausführlicher sprechen über die Unsymmetrie des Grundzustandes und die Anwendungen, die man jetzt schon aus dieser Annahme ziehen kann. Also insbesondere die Theorie des sogenannten strange particles, oder seltsamen Teilchen, und die Elektrodynamik. Und ich will dann im dritten Teil eingehen auf den Vergleich dessen, was die Theorie nun abzuleiten gestattet mit dem, was in den letzten Jahren experimentell gefunden worden ist. Also zunächst zur mathematischen Axiomatik. Da möchte ich zunächst etwas historisch ausholen. Als Einstein die spezielle Relativitätstheorie formulierte, hat er eine radikale Änderung gegenüber der Newton’schen Mechanik vorgenommen. Nun, Sie wissen alle, dass er eine andere Aussage über Raum und Zeit gemacht hat. Diese andere Aussage über Raum und Zeit war auch nur möglich dadurch, dass er über die Kraftwirkung eine andere Annahme gemacht hat. Während nämlich Newton behauptete, dass es Kräfte gibt, die auf lange Abstände wirken, sogenannte Fernkräfte, hat Einstein nur sogenannte nahe Wirkungen zugelassen, also eigentlich nur Wirkungen von Punkt zu Punkt. Und nur dadurch war es möglich, die relativistische Raum und Zeitstruktur mit dem Begriff von Kausalität zu vereinbaren, den wir an dieser Stelle annehmen müssen. Die Quantenmechanik, die in den 20er Jahren entwickelt worden ist, schließt sich in diesem Punkt an die Newton’sche Mechanik an. Auch sie arbeitet mit Fernkräften. In dem Moment aber, wo man zur Theorie der Elementarteilchen und zur Quantenfeldtheorie überging, war man nun gezwungen, wieder den selben radikalen Schritt zu tun, den Einstein damals getan hat von der Newton’schen zur Relativitätstheorie. Man musste also wieder von den Fernwirkungen auf nahe Wirkungen, auf Punktwechselwirkung übergehen. Das hatte dann zur Folge, wie man in den 30er Jahren gemerkt hat, dass die Mathematik, die sich scheinbar als naturgemäße Verallgemeinerung der Quantenmechanik in die Quantenfeldtheorie ergibt, dass diese Mathematik zu Widersprüchen führt. Dass die Größen, die man berechnet, unendlich werden, und keinen Sinn mehr haben. Aus dieser Schwierigkeit hat man lange nach Auswegen gesucht, und der nach meiner Ansicht interessanteste Vorschlag ist aus dem Jahr 1942, also genau vor 20 Jahren, von Dirac gemacht worden. Dirac führt an, dass man die mathematischen Schwierigkeiten wenigstens, sagen wir mal so in erster Näherung vermeiden kann, wenn man die Metrik im Zustandsraum indefinit macht. Um nicht bei diesem mathematischen Begriff stehen zu bleiben, will ich gleich zu dem Einwand kommen, der dann ein Jahr später von Pauli gegen diese Auffassung erhoben worden ist. Pauli stellte fest, dass dann, wenn man eine indefinite Metrik im Hilbertraum verwendet, dass dann die Wahrscheinlichkeit, die man aus der Theorie ausrechnet eventuell negative Werte bekommen, und das ist natürlich Unsinn. Denn negative Wahrscheinlichkeit gibt es nicht. Die Schwierigkeit schien zunächst kaum überbrückbar und daher ist dieser Vorschlag längere Zeit nicht weiter verfolgt worden. Aber etwa 10 Jahre später, im Jahr 1953 haben wir dann den Dirac’schen Vorschlag in Göttingen doch wieder aufgegriffen. Und zwar in der Hoffnung, ihn in folgender Weise modifizieren zu können. Die Wahrscheinlichkeitsdeutung der Quantentheorie brauchen wir ja dort, wo wir experimentieren. Wenn wir also irgendwo einen Auffänger hinstellen, mit dem wir Elementarteilchen zählen, dann verlangen wir von der Theorie, dass sie die Wahrscheinlichkeit dafür angibt, dass dort Elementarteilchen hinkommen. In der und der Art, in der und der Häufigkeit. Dagegen ist es nicht so wichtig, dass wir den Wahrscheinlichkeitsbegriff etwa auch im Inneren eines Atomkerns anwenden können. Denn im Inneren eines Atomkerns können wir sowieso nicht messen. Was wir messen, sind doch immer nur Elementarteilchen, die schon weite Strecken, nämlich in unseren Apparaturen gelaufen sind. Daher bestand die Hoffnung, dass man diese Theorie so modifizieren könnte, dass man den Wahrscheinlichkeitsbegriff zwar aufrecht erhalten kann für die Elementarteilchen, die in weiten Abständen voneinander sind, also für die sogenannten asymptotischen Verhalten, der in der Quantentheorie zu behandelnden Wellen, während man den Wahrscheinlichkeitsbegriff aufgeben muss für die Verhältnisse im ganz Kleinen. Nun, diese Vorstellung ist dann einer Prüfung unterzogen worden, an einem sehr interessanten Modell, was von dem chinesischen Physiker Lee entwickelt worden war. Und was, wenn man so will, eine sehr vereinfachte mathematische Ausgabe der Quantenelektrodynamik darstellt. Pauli und Källén haben zeigen können, dass, wenn man dieses Modell nach den Methoden der Quantenelektrodynamik behandelt, dass man dann automatisch in die indefinite Metrik hineinkommt und dass man zunächst sogar grundsätzlich wieder in die Schwierigkeit mit dem Wahrscheinlichkeitsbegriff gerät. Es ist aber dann auch gelungen, zu zeigen, dass man bei bestimmten Annahmen, die man nun zusätzlich da machen muss, es so einrichten kann, dass doch der asymptotische Wahrscheinlichkeitsbegriff wieder in Ordnung kommt, er nur im Kleinen verloren geht. Also, Sie sehen, dass diese ganze Frage sehr kompliziert ist, aber es sind gerade in den letzten Jahren eine Reihe von Arbeiten erschienen, in denen nun genauer untersucht wird, ob sich diese Trennung zwischen asymptotischen Verhalten und lokalem Verhalten durchführen lässt und es sind zumindest verschiedene Modelle angegeben worden, in denen das tatsächlich möglich ist. Wichtiger scheint mir, dass man auch einen guten theoretischen Grund angeben kann warum diese Trennung in Asymptotik und lokales Verhalten möglich ist. Wenn man sich für die Verhältnisse auch im Atomkern interessiert, auch sozusagen alle möglichen Experimente in Betracht zieht, dann muss man auch alle die Symmetriegruppen darstellen, die in der Natur beobachtet werden, insbesondere auch die Lorentz-Gruppe. Nun weiß man, diese Gruppe ist in der Mathematik gesagt eine nicht kompakte Gruppe und für nichtkompakte Gruppen ist die indefinite Metrik eine naturgemäße Darstellung. Wenn man sich aber für das interessiert, was in weiten Abständen passiert, also mit den Elementarteilchen, wenn sie weit von ihrem Zusammenstoßpunkt weg sind, dann reduziert sich diese Gruppe auf eine kompakte Gruppe, weil man ja nur noch Prozesse betrachtet zu einer bestimmten Energie in einem bestimmten Impuls gehört. Und für die kompakte Gruppe ist, wie gesagt, die definite Metrik als Wahrscheinlichkeitsbegriff eine naturgemäße Darstellung. Also sofern kann man einsehen, dass hier diese angestrebte Einteilung in asymptotische und nicht asymptotische Gebiete vernünftig ist. Und man kann vielleicht im Augenblick die Stimmung der Physiker zu dem Problem in folgender Weise umschreiben. Man kann sagen, es gibt als erstes eine konservative Richtung, vielleicht hauptsächlich vertreten durch den Amerikaner Whiteman, bei uns in Deutschland durch Nehmann, Simancik und andere, die versucht die Axiomatik nun möglichst eng an dieser Quantenmechanik anzuschließen. Man versucht mit einem Zustandsraum definiter Metrik auszukommen, nimmt die Existenz eines Feldoperators an und, um die Kausalität darzustellen, sagt man dann, die Feldoperatoren an raumartig getrennten Punkten sollen kommutieren und antikommutieren. Aus dieser Axiomatik sind eine Reihe von interessanten Resultaten hergeleitet worden, die auch durchaus auf die Erfahrung passen und die offenbar einen Teil der Wirklichkeit richtig wiedergeben. Andererseits ist es aber bisher nicht möglich gewesen, irgendein mathematisches Modell anzugeben, dass all diesen Axiomen genügt und eine nichttriviale Wechselwirkung enthält. Also ob die Axiomatik erfüllbar ist, die ja sehr eng ist an der Stelle, ist zweifelhaft. Daher gibt es eine andere Richtung, die etwas radikales, entgegen gesetztes Extrem vertritt und die im letzten Jahr z.B. von Chew in Amerika verfochten worden ist. Chew hat auf der Konferenz in La Jolla vor einem Jahr einen Vortrag gehalten, die er als seine „Declarations of independence“, als seine Unabhängigkeitserklärung bezeichnet hat, wo er sagte, „diese ganze Feldtheorie brauchen wir gar nicht“, es genügt, wenn wir eine Mathematik machen, die nur dieses asymptotische Verhalten der Teilchen beschreibt. Nun das mathematische Werkzeug zu beschreiben, ist Asymptotik, ist die sogenannte Streumatrix oder S-Matrix und Chew sagte also, es müsste doch genügen, für diese S-Matrix nun eine Anzahl vernünftiger mathematischer Forderungen zu stellen, z.B. um die Kausalität darzustellen, müsste man fordern, dass gewisse analytische Eigenschaften da sind und dann brauchte man sich gar nicht um die Frage der Metrik oder der Teilchen zu kümmern. So, das ist ein sehr extremer Standpunkt nach der anderen Richtung, und vielleicht darf ich jetzt um das zweite Bild bitten. Ich möchte hier die verschiedenen Schritte der Axiomatik, die hier möglich sind einmal kurz nebeneinander stellen. Der weiteste Rahmen, der also etwa jetzt von Chew im letzten Jahr vertreten worden ist, ist diese Axiomatik, die hier oben steht. Es wird also nur die Existenz einer Streumatrix, einer S-Matrix angenommen, die natürlich die notwendigen Gruppeneigenschaften, Symmetrieeigenschaften haben muss, um die Natur richtig darzustellen. Und damit außerdem die Forderung der relativistischen, also Einstein’schen Kausalität gewahrt sind, muss diese Matrix bestimmte analytische Eigenschaften haben. Man geht in dieser Theorie also sehr stark auch von der sogenannten Dispersionsrelation aus, die sich ja auch experimentell sehr gut bewährt hat. Man kann nun diese sehr weiten Rahmen dadurch verengen, enger machen, dass man etwas dazu fügt, dass man sagt, da soll nicht nur das gelten, sondern außerdem soll noch die Existenz eines lokalen Feldoperators gefordert werden, der nun, um die Kausalität darzustellen, bei raumartigen Zuständen kommutiert und antikommutiert und es soll einen dazugehörigen Hilbertraum geben. Man sagt aber an dieser Stelle noch nichts über die Metrik in diesem Hilbertraum, die kann definit oder indefinit sein. Und schließlich gibt es eine dritte, noch engere Axiomatik, in der man die beiden Forderungen stellt, die beiden Postulate, aber dann noch als dritte Forderung dazuführt, dass die Metrik im Hilbertraum definit sein muss und dass außerdem die asymptotischen Zustände schon genügen sollen, um diesen ganzen Hilbertraum aufzuspannen. Diese dritte Axiomatik ist also die engste, das ist die, die ich als die konservative bezeichnet habe und das ist die weiteste, während die hier in der Mitte ist genau diejenige Axiomatik, die dieser einheitlichen Feldtheorie zugrunde liegt, über die ich heute spreche hier. Nun, wir haben im letzten Herbst einer Solvay-Konferenz in Brüssel auch sehr über diese Axiomatik gesprochen und haben dieser abstrakten, etwas mathematischen Fragestellung auch noch einen physikalischen Aspekt gegeben, der zwar nicht in aller Strenge dazugehört, der aber doch die Verhältnisse sehr klar macht. Wenn man die engste, die dritte Axiomatik für richtig hält, dann ist man eigentlich gezwungen, zu unterscheiden zwischen Elementar- und zusammengesetzten Teilchen. Oder sagen wir zwischen eigentlichen Elementarteilchen und nur so halben Elementarteilchen. Und die eigentlichen Elementarteilchen sind dadurch charakterisiert, das sie in ihrem Zentrum einen unendlich harten und unendlich kleinen, also punktförmigen Kern haben, während die zusammengesetzten Teilchen diesen punktförmigen Kern nicht haben. Wenn man also dieser letzten Axiomatik glaubt, muss man eigentlich den Unterschied zwischen elementaren und nicht elementaren Teilchen machen. Wenn man dagegen eine der ersten beiden Axiomatiken zugrunde legt, dann liegt es sehr nahe zu sagen, es wird überhaupt kein Elementarteilchen geben, das einen solchen harten, punktförmigen Kern im Zentrum besitzt. Grundsätzlich ist diese Frage experimentell zu entscheiden und zwar steht die experimentelle Frage in enger Beziehung zu dem, was wir hier in dieser Tagung von Herrn Hofstadter gehört haben. In den Versuchen von Hofstadter versucht man ja gerade, ie Dichte-Verteilung eines Elementarteilchens z.B. des Nukleus auszumessen. Und man kann also mit solchen Methoden grundsätzlich entscheiden, ob die Dichte-Verteilung so ist, dass da im Zentrum ein unendlich harter, punktförmiger Kern ist, der von einer Wolke von Materie dann etwa von 10 E-13 cm Durchmesser umgeben ist, oder ob das Elementarteilchen nur so eine Wolke ohne Kern ist. Man muss allerdings, um eine solche Frage zu entscheiden, Zusammenstöße außerordentlich hoher Energie untersuchen. Offensichtlich ist es so, dass wenn man den punktförmigen Kern hat, dass dann auch bei allerhöchsten Energien noch elastische Zusammenstöße mit einer erheblichen Wahrscheinlichkeit auftreten, während, wenn man nur die Wolken hat, dann wird eben bei hinreichend hohen Energien das elastische Zusammenstoßen beliebig selten werden. Nun ich selbst bin überzeugt, dass es keine Elementarteilchen mit einem solchen harten Kern gibt, aber experimentell zu entscheiden ist die Frage einstweilen noch nicht, weil man noch nicht hinreichend hohe Energien hat. Vielleicht werden aber immerhin Stoßprozesse mit den großen Maschinen in Genf und Brookhaven uns in Zukunft der Entscheidung dieser Frage näher bringen. Und damit möchte ich diese Diskussion der mathematischen Axiomatik abschließen und nunmehr zu einem mehr physikalischen Teil kommen, dem zweiten Teil, nämlich zu der Frage der Unsymmetrie des Grundzustandes. Die Feldtheorie über die ich hier referiere, war gezwungen diese Unsymmetrie des Grundzustandes anzunehmen aus folgendem Grund. Es gibt in den Elementarteilchen eine Eigenschaft, die man den Isospin nennt. Und zwar, das ist eine Eigenschaft, die schon vor 30 Jahren empirisch eingeführt worden ist; es ist mathematisch eine Eigenschaft, ähnlich wie der Drehimpuls, aber bedeutet anschaulich die Unterscheidung zwischen Proton und Neutron. Zwei Teilchen, die fast die gleiche Masse haben, aber von denen das eine geladen, das andere neutral ist. Nun hat man schon lange festgestellt, eben damals vor 30 Jahren, dass die Wechselwirkung zwischen Elementarteilchen wenigsten ungefähr symmetrisch sind gegenüber Drehungen in diesem Raum. Also, wenn man ein Neutron in ein Proton verwandelt, dann ändern sich in erster Näherung die Kräfte nicht. Und daher ist auch die Grundgleichung, die Sie vorhin gesehen haben, gegenüber solchen Transformationen invariant. Aber diese Invarianz gilt in der Wirklichkeit nicht streng. Schon die elektrische Ladung verletzt die Invarianz, was Sie ja einfach daraus sehen, dass ein Proton geladen und ein Neutron ungeladen ist. Also man kommt zu dem merkwürdigen Schluss, dass es in der Natur Symmetrien gibt, die nur näherungsweise gelten. Und dafür ist nun die naturgemäße Interpretation, dass man sagt, der Grundzustand der Welt selbst ist eben nicht symmetrisch, sondern die Welt hat einen großen Isospin. Nun empirisch bedeutet das, dass etwa die Zahl der Neutronen und die Zahl der Protonen in der Welt sehr verschieden sind und das ist in der Tat der Fall. Diese Unsymmetrie macht es dann erst möglich zu verstehen, das ein Proton und ein Neutron etwas verschiedene Masse haben. Weil ja sozusagen das Proton dann ein Teilchen ist, dessen Isospin parallel dem der Welt steht, während beim Neutron der Isospin antiparallel dem der Welt steht. Also in dieser Weise war man gezwungen, die Unsymmetrie anzunehmen. Es kam noch ein weiteres hinzu, wenn die Grundgleichung zunächst so genommen wird, wie sie da steht, dann würde man ja erwarten, dass ein Teilchen, das Halbzeichen Dirac’schen Spin hat auch Halbzeichen Isospin hat, oder wenn es Ganzzeichen Dirac’schen Spin hat, dann auch Ganzzeichen Isospin hat. Es gibt aber in der Wirklichkeit die sogenannten seltsamen Teilchen, die strange particles, bei denen das gerade nicht so ist. Und um die zu erklären, muss man also auch wieder die Unsymmetrie des Grundzustandes zu Rate ziehen. Nun, das war am Anfang eine etwas kühne Annahme, aber inzwischen hat sich nun erfreulicher Weise gezeigt, dass in anderen Gebieten der Physik genau die selben Verhältnisse herrschen, und da haben wir sehr viel lernen können von der Entwicklung der Theorie der Supraleitung, über die wir hier von Herrn Bardeen gehört haben. Es hat sich herausgestellt, dass in der Supraleitung die Verhältnisse genauso sind. Das also wieder der Grundzustand nicht die volle Symmetrie der Gleichung hat, sondern entartet ist, eine geringer Symmetrie hat, dort z.B. nicht die sogenannte Eichsymmetrie hat. Und dann hat Bogoliubov mit recht darauf hingewiesen, dass man im Grunde solche Verhältnisse ja schon in früheren Zeiten an vielen Stellen kannte und bloß nicht mehr daran gedacht hat. Schon in der Theorie des Ferromagnetismus wird ja angenommen, dass der Grundzustand eines Ferromagneten ein magnetisches Moment hat, also eine Richtung hat, obwohl die Gleichung, von der man ausgeht, rotationssymmetrisch ist. Bei der Kristallbildung, bei der Theorie der Suprafluidität, überall haben wir dieselben Verhältnisse. Nambu insbesondere hat gezeigt, dass auch rein mathematisch zwischen der Theorie der Elementarteilchen und der Theorie der Supraleitung viele Ähnlichkeiten bestehen. Man hat also nun sozusagen ein mathematisches Übungsfeld gewonnen in der Theorie der Supraleitung und in der Theorie des Ferromagnetismus. Wir wissen, dass in diesen beiden Gebieten, keine grundsätzlichen mathematischen Schwierigkeiten bestehen, man steht also dort auf völlig festem Grund und man kann nun nachsehen, inwieweit die mathematischen Vermutungen, die wir bei der Theorie der Elementarteilchen hatten, auch hier zutreffen. Und da hat sich in der Tat herausgestellt, dass sehr viele Züge, die man bei der Theorie der Elementarteilchen vermutet hatte, hier nun wirklich mathematisch bewiesen werden können. Das also die Verhältnisse tatsächlich ganz so liegen können, wie man sie in der Theorie der Elementarteilchen angenommen hatte. Besonders erfreulich war auch noch folgendes: in der Theorie der Elementarteilchen hatten wir uns genötigt gesehen, zum numerischen rechnen eine Approximationsmethode zu benutzen, die recht problematisch war. Aber es war die einzige, die auf diese Art von Feldtheorien überhaupt Anwendung finden konnte. Nun konnte man in der Theorie der Supraleitung eben diese selbe Approximationsmethode verwenden und zusehen, ob sie dort gute Resultate lieferte und da stellte sich heraus, das sogar dort exakte Resultate liefert, dass sie also praktisch genauso gut ist wie die exakte Rechnung. Also in der Beziehung hat man von der Theorie der Supraleitung her sehr viel Hilfe für die Theorie des unsymmetrischen Grundzustandes bei den Elementarteilchen gewonnen. Nun will ich etwas spezieller eingehen auf die Theorie der seltsamen Teilchen, die inzwischen von Dürr und mir entwickelt worden ist. Um die seltsamen Teilchen in ihren etwas merkwürdigen Eigenschaften zu verstehen, hatte Wentzel einmal einen Begriff eingeführt, den nannte er das Spurion. Dieses Spurion war ein etwas komisches Elementarteilchen, das war nämlich gar kein Teilchen, d.h. es hatte weder Energie noch Impuls, noch einen Ort, sondern es hatte nur noch einen Isospin und eine Parität. Ich kann als anschaulichen Vergleich etwa nur finden, die Katze, die in dem Märchen von Alice im Wonderland vorkommt, dem englischen Märchen, das ist zwar etwas mystisch, da ist von einer Katze die Rede, die durch einen Spiegel verschwindet und dann verschwindet zuerst der Schwanz und dann der Körper und dann der Kopf der Katze und es bleibt nur das hämische Grinsen der Katze im Raum stehen. Nun dieses Grinsen der Katze ist sozusagen der Isospin des Spurion. Nun diese Vorstellung die Wentzel zunächst, rein phänomenologisch aufgestellt hatte, die hat sich nun, eigentlich in der Mathematik dieser Feldtheorie, über die ich hier spreche von selbst herausgestellt. D.h. es zeigte sich, dass diese Mathematik von selbst dieses Spurion erfindet, eben als Eigenschaften des entarteten Vakuums, so dass man alle die Annahmen, die Wentzel mit seinem Spurionbegriff gemacht hatte, nun in der Mathematik wiederfinden konnte. Und umgekehrt, diese Mathematik nun auch wieder an der Theorie des Ferromagnetismus oder der Supraleitung prüfen konnte. Vielleicht ist der einfachste Vergleich der aus der Theorie des Ferromagnetismus, wo wir also dann den Isospin ersetzen müssen durch den Spin. Auch in einem Ferromagneten kann man sich durchaus folgendes vorstellen. Man denke sich ein angeregtes Elektron, das sich aber von dem gesamtmagnetischen Moment des Ferromagneten eine Spin ½ borgt, so dass der Spin des Elektronmagneten nicht mehr ½, sondern 1 ist. Es ist also durchaus möglich, indem man in dieser Weise eine Spinwelle an das Elektron anhängt, dass in einem Ferromagneten Elektronen herumlaufen, die nicht wie sollten Spin ½ sondern Spin 1 haben. Ich weiß nicht, ob tatsächlich solche Ferromagneten schon hergestellt worden sind. Ich glaube nicht, dass man es beobachtet hat, aber grundsätzlich spricht nichts dagegen, dass so etwas möglich wäre. Nun, mit Hilfe dieses Spurionbegriffs sind also Rechnungen angestellt worden und ich will jetzt doch ein paar Formeln geben, aber dann schnell darüber hinweg gehen, ich bitte ums nächste Bild. Wenn man diese Idee der Spurionen ernst nimmt, dann muss man, um ein seltsames Teilchen zu beschreiben, die Dirac’sche Gleichung des Nukleons etwa, zu der nur dieses Glied gehören würde Gammy My P My und dieses Glied, I Kappa, diese Gleichung muss und kann man erweitern um genau zwei Glieder. Andere Glieder sind symmetriemäßig nicht möglich. Und das eine Glied gibt sozusagen eine Wechselwirkung der Parität des Spurions, wie der Parität des Nukleons und dieses Glied gibt eine Wechselwirkung zwischen dem Isospin des Spurions und dem Isospin des Nukleons. Wenn man diese erweiterte Gleichung, bei dem nur zwei Konstante vorkommen, die noch zu bestimmen sind, löst, dann bekommt man für die Energie, also für die Masse des Spurions eine solche Formel. Die hängt noch, wie gesagt, von den beiden Konstanten Alpha und Eta ab, die man dann noch durch andere Forderungen bestimmen muss. Ich bitte ums nächste Bild. Wenn man mit dieser Formel sich also Massen ausrechnet, dann sieht man, dass folgendes passiert. Wir haben etwa, solange die beiden Wechselwirkungskonstanten Alpha und Eta null sind, haben wir hier den Eigenwert, nämlich die Masse des Nukleons. Wenn wird dann zunächst nur die Paritätswechselwirkung nehmen, dann spaltet das Nukleon diesen Zustand auf, hier unten bleibt dieser Nukleonzustand, der sich in seiner Masse etwas verändert, und höher liegt nur ein Zustand, der anschaulich zu deuten ist, eben als Nukleon + Spurion. Aber dieser Zustand ist noch vierfach entartet, und wenn wir dann diese Wechselwirkung Eta noch mit rechnen, also die Isospinwechselwirkung, dann spaltet dieser Zustand die vier Zustände auf. Wir sollten also dann erwarten, dass es über dem Nukleon ein strange particle, ein Hyperon gibt. Dies hier soll den Isospin null haben, das hier den Isospin 1, darüber sollte nun wieder ein angeregtes Teilchen vom Isospin 1 sein und wieder vom Isospin null. Die beiden unteren Teilchen, sind experimentell bekannt, das ist das sogenannte Lambdahyperon und Sigmahyperon. Von den beiden oberen Zuständen, wusste man damals noch nichts. Aber es ist möglich, dass sie jetzt gefunden sind, über das Experimentelle will ich nachher noch sprechen. Wenn man genauer rechnen würde, als es in diesen ersten Formeln geschieht, würden natürlich diese Niveaus etwas gegeneinander verschoben werden können, denn die Konstanten Alpha und Eta können selbst wieder von Energie abhängen, aber in erster Nährung sieht die Aufspaltung also so aus. Ich sollte vielleicht noch dazu sagen: bei der numerischen Rechnung hat man die eine Konstante Alpha richtig nach der Tamm-Dankoff-Methode, wenn auch nur nährungsweise bestimmen können. Die zweite Konstante Eta, die sehr viel kleiner ist, aber ließ sich nicht zuverlässig bestimmen, weil nämlich die zweite Konstante sich sehr stark ändert, wenn in der ersten Konstante auch nur ein ganz kleiner Fehler ist. Die ist sehr empfindlich von der ersten abhängig, so dass wir eben diese Konstante bestenfalls um einen Faktor 4 Ungenauheit bestimmen können. Und dann sind wir praktisch so vorgegangen, dass wir lieber den experimentellen Wert genommen haben, also denjenigen Wert, der die Experimente am besten darstellt. Aber ich muss dazu sagen, auch wenn die Konstante etwa um Faktor 2 größer wäre, wäre das Bild nicht grundsätzlich anders. Bitte das nächste Bild. Dieselbe Rechnung ist dann auch noch gemacht worden für die sogenannten Bosonen, das sind also Teilchen, wie das Pi -Meson usw. und da gibt es ohne die Wechselwirkungen des Spurion zwei Zustände. Das eine hier, ist ein Isotriplet, das ist ein Pi-Meson, das zweite, Zustand bei Isosinglet, der war damals, wie die Theorien entwickelt wurden noch nicht gefunden. Er scheint aber jetzt gefunden zu sein, und zwar scheint dieser Zustand das sogenannte Eta-Meson zu sein. Dieser Zustand spaltet dann, wenn Eta noch null ist in zwei, in drei auf und andere auch in drei und wenn dann diese Konstante Eta mitgerechnet wird, so wird die …


The 1962 Lindau lecture by Werner Heisenberg is different to the lectures he gave in 1953, 1956 and 1959. Since Heisenberg was repeatedly reporting on the progress of his research work on a unified field theory of elementary particles, the content of each lecture is, of course, different. But I get the impression that his 1962 lecture is given more as a straightforward physics conference report than as a lecture for several hundred students and young researchers. Part of the difference is the way the lecture is delivered. Heisenberg speaks clearly but rapidly and even though he has some general equations already written on the blackboard, his lecture lasts more than an hour. I can only speculate on the reasons for this. One may be that he was feeling that his topic was becoming so hot that he couldn’t resist fencing off his own theory. In the same year, 1962, Murray Gell-Mann used his “Eightfold Way” to suggest the existence of a particle named omega-minus and the year after, in 1963, Sheldon Glashow suggested that the theory of the weak interaction could be unified with electromagnetism. For these suggestions, both physicists eventually received Nobel Prizes. It is quite clear that Heisenberg was aware of what is going on, with regards both to theory and experiments. Several times he mentions the “spurion”, which is connected to symmetry breaking in field theories, for instance. In today’s Standard Model, it corresponds to the Higgs particle. But instead of concentrating on one problem, he tries to formulate a theory encompassing many problems. In this he followed Albert Einstein, who spent a large part of his later life trying to unify his theory of general relativity with electromagnetism. This lead to quite a lot of interesting mathematics being produced, but none of the two Nobel Laureates reached their respective goals.

Anders Bárány