Subatomic Particles

by Anders Bárány

Nobel Prizes and Subatomic Particles

Since the first Nobel Prize in Physics was awarded to Röntgen in 1901, about 50 scientists have received the prize for inventions or discoveries connected to the physics of subatomic particles (not including nuclear physics). This means that about 25% of all the Nobel Prizes in Physics have been given to work done in this field. In 1906, the first one rewarded J.J. Thomson “in recognition of the great merits of his theoretical and experimental investigations on the conduction of electricity by gases” or in short “for his discovery of the electron”, made in 1897. The second discovery of a subatomic particle rewarded by a Nobel Prize is usually attributed to A.H. Compton, who received one of the 1927 prizes “for his discovery of the effect named after him” or, in other words, “for the discovery of the photon”, made in 1923. The next is J. Chadwick, who discovered the neutron in 1932 and received the Nobel Prize in Physics for this in 1935. Electron, photon and neutron, but what about the proton? Well, when Rutherford discovered the atomic nucleus in 1911 and identified the proton in 1919, he had already received a Nobel Prize in Chemistry 1908. So it was argued that he didn’t need another Nobel Prize, with the result that the discovery of the proton went unrewarded!

With all the particles relevant to the chemistry of atoms and molecules discovered, we now turn to some of the more exotic subatomic particles made of antimatter. The antielectron, which received the name positron, arrived in 1932 and C.D. Anderson was awarded one of the 1936 Nobel Prizes in Physics for the discovery. In 1955 an accelerator specifically constructed for the purpose produced the antiproton, for the discovery of which E.G. Segrè and O. Chamberlain received the Nobel Prize in Physics 1959. The discovery of the antineutron was made in the same accelerator by the same scientists, and as for Rutherford’s discovery, this one went unrewarded.

Cosmic radiation was discovered by V.F. Hess in the 1920’s and he received the Nobel Prize in Physics for this in 1936, sharing the reward money with Anderson, who had used cosmic radiation to discover the positron. The main instrument used to study cosmic radiation at this time was the cloud chamber, an invention by meteorologist C.T.R. Wilson. He received one of the 1927 Nobel Prizes in Physics and shared the prize money with Compton, who had used the cloud chamber to discover the photon. P.M.S. Blackett developed a technique to automatically take photos of the tracks in the cloud chamber and managed to take the first photo of a nuclear reaction. For this he was rewarded with the 1948 Nobel Prize in Physics “for his development of the Wilson cloud chamber method, and his discoveries therewith in the fields of nuclear physics and cosmic radiation”. With increasing interest, a new photographic technique was developed, which did not rely on the cloud chamber. Instead the tracks of the particles were registered in a photographic emulsion. C.F. Powell was rewarded with the 1950 Nobel Prize in Physics “for his development of the photographic method of studying nuclear processes and his discoveries regarding mesons made with this method”.

So what is a meson? Theoretician H. Yukawa suggested in the 1930’s that the strong nuclear force keeping the atomic nucleus together was communicated by a particle he called meson. Yukawa proposed that the meson could be found in the cosmic radiation and in 1937, a team with Anderson, using cloud chamber techniques, discovered a new particle which they proposed was Yukawa’s meson. But when Powell studied the cosmic radiation in the late 1940’s, he found several kinds of Yukawa mesons that behaved differently from those of Anderson et al. What was discovered in 1937 was actually a kind of heavier electron, named the myon (the discovery of which has not been rewarded with a Nobel Prize). Electrons and myons are examples of a kind of particles called leptons, that are not acted upon by the strong force. In 1949 Yukawa received the Nobel Prize in Physics “for his prediction of the existence of mesons on the basis of theoretical work on nuclear forces”. But again, what is a meson? It would take 15 years before this was made clear in 1964 by M. Gell-Mann’s group theoretical quark model, which used three quarks called up, down and strange and their antiparticles. In terms of quarks, Yukawa’s mesons are made up of two of the first quarks, while protons and antiprotons have three of these. The strange quark appeared in a composite particle named omegaminus, the existence of which Gell-Mann proposed. After the actual discovery of the omegaminus, Gell-Mann received the 1969 Nobel Prize in Physics “for his contributions and discoveries concerning the classification of elementary particles and their interactions”.

So what is a meson? Theoretician H. Yukawa suggested in the 1930’s that the strong nuclear force keeping the atomic nucleus together was communicated by a particle he called meson. Yukawa proposed that the meson could be found in the cosmic radiation and in 1937, a team with Anderson, using cloud chamber techniques, discovered a new particle which they proposed was Yukawa’s meson. But when Powell studied the cosmic radiation in the late 1940’s, he found several kinds of Yukawa mesons that behaved differently from those of Anderson et al. What was discovered in 1937 was actually a kind of heavier electron, named the muon (the discovery of which has not been rewarded with a Nobel Prize). Electrons and muons are examples of a kind of particles called leptons, that are not acted upon by the strong force. In 1949 Yukawa received the Nobel Prize in Physics “for his prediction of the existence of mesons on the basis of theoretical work on nuclear forces”. But again, what is a meson? It would take 15 years before this was made clear in 1964 by M. Gell-Mann’s group theoretical quark model, which used three quarks called up, down and strange and their antiparticles. In terms of quarks, Yukawa’s mesons are made up of two of the first quarks, while protons and antiprotons have three of these. The strange quark appeared in a composite particle named omegaminus, the existence of which Gell-Mann proposed. After the actual discovery of the omegaminus, Gell-Mann received the 1969 Nobel Prize in Physics “for his contributions and discoveries concerning the classification of elementary particles and their interactions”.

Even before WWII, accelerators had started to play a role in producing subatomic particles. The first Nobel Prize in Physics which can be said to have been given for accelerator technology went to E.O.Lawrence in 1939 for his invention of the cyclotron. In 1951, J.D. Cockcroft and E.T.S. Walton were rewarded with the Nobel Prize in Physics for constructing a high tension proton accelerator. Since the discoveries of the antiproton and antineutron were made with an accelerator constructed just for this purpose, the Nobel Prize to Segrè and Chamberlain can also be seen as reward for accelerator technology. With the help of these high energy accelerators, a whole zoo of subatomic particles was discovered, the family structure of which is today embedded in the so-called Standard Model. The development of the Standard Model, with has three families of quarks and leptons, has been a major task for both theoreticians and experimentalists. Among the important inventions and developments used to produce and detect the new particles are the bubble chamber (Nobel Prize in Physics to D. Glaser 1960) and its development using data analysis (Nobel Prize in Physics to L.W. Alvarez 1968), stochastic cooling of ion beams (Nobel Prize in Physics to S. van der Meer 1984) and the multiwire proportional counter (Nobel Prize in Physics to G. Charpak 1992).


With the new technology a number of important discoveries were made, each a step towards the Standard Model. In 1969 (the year when Gell-Mann received his Nobel Prize), J.I. Friedman, H.W. Kendall and R.E. Taylor confirmed the quark structure of protons and neutrons. After 20 years they received a shared Nobel Prize in Physics 1990 “for their pioneering investigations concerning deep inelastic scattering of electrons on protons and bound neutrons, which have been of essential importance for the development of the quark model in particle physics”. These investigations were the logical continuation of those of R. Hofstadter, who received a Nobel Prize in Physics 1961 “for his pioneering studies of electron scattering in atomic nuclei and for his thereby achieved discoveries concerning the structure of the nucleons”. In 1974, B. Richter and S.C.C. Ting (shared Nobel Prize in Physics 1976) independently discovered a particle containing a heavy quark which was given the name charm. This was an important step towards the formulation and confirmation of the three-family structure of the quarks (up, down), (strange, charm), (top, bottom) and their antiparticles. The quarks of the third family were discovered in 1977 (bottom) and 1995 (top), but these discoveries have not yet led to any Nobel Prize in Physics. In 1975, M. Perl discovered a lepton even heavier than the muon. It was given the name tau, but it was not until 1995, 20 years later, that Perl finally received the Nobel Prize in Physics for the discovery. In 1979, the communicator of the strong interaction, the gluon, was discovered, a discovery which so far has not resulted in a Nobel Prize.

When during the 1920’s, detailed studies of the electrons emitted in radioactive decay showed that some energy was missing, W. Pauli suggested the existence of the neutrino. According to the suggestion, this particle would be difficult to detect since one of its properties was that its interaction with matter should be weak. It was not detected experimentally until 1956 and then only close to the large flux generated by a nuclear reactor. For this work F. Reines received the Nobel Prize in Physics, but not until 1995 (Pauli had already 1945 received a Nobel Prize in Physics, but not for his neutrino hypothesis). In 1962, L.M. Lederman, M. Schwartz and J. Steinberger used a large accelerator to produce beams of neutrinos and discovered a second type of neutrino. It turned out that one can classify the two kinds of neutrinos as related to the other two kinds of leptons, the electron and the muon. So Pauli’s neutrino was an electron neutrino and the one from 1962 was the muon neutrino. For this discovery, Lederman, Schwartz and Steinberger received the Nobel Prize in Physics, but not until 1988. After Perl’s discovery of the tau lepton in 1974, the third kind of heavy electron (see above), it was realized that there should also be a third kind of neutrino, the tau neutrino. This was finally detected in year 2000, but has not resulted in a Nobel Prize in Physics yet. This discovery closed the set of the leptons of the Standard Model: the electron and its neutrino, the muon and its neutrino, the tau and its neutrino, and their antiparticles.

A large number of theoretical inventions and discoveries are related to the development described above. In 1965, S. Tomonaga, J. Schwinger and R.P. Feynman shared the Nobel Prize in Physics “for their fundamental work in quantum electrodynamics, with deep-ploughing consequences for the physics of elementary particles”. Their theory was a unification of electromagnetism and relativistic quantum mechanics and made it possible to calculate and understand many of the important properties of the subatomic particles. In 1979, S.L. Glashow, A. Salam and S. Weinberg shared the Nobel Prize in Physics for the unification of electromagnetism and the weak interaction. This theory predicted the existence of new particles, named W and Z, which communicate the weak interaction. They were discovered by C. Rubbia and his collaborators at CERN in 1983, leading to a shared Nobel Prize in Physics for Rubbia and the accelerator physicist van der Meer already in 1984, the year after the discovery. But the theory had problems, both from a calculational and a fundamental viewpoint. These problems were solved by M.J.G. Veltman and his student G. ‘t Hooft, which eventually led to their sharing the Nobel Prize in Physics of 1999. Attempts to formulate a consistent theory of the strong interaction met problems that were solved by D.J. Gross, his student F. Wilczek, and H.D. Politzer, all three eventually sharing the 2004 Nobel Prize in Physics. The idea that there should be three families of quarks and leptons originally was formulated by M. Kobayashi and T. Maskawa, who received a shared Nobel Prize in Physics 2008.

Historic Lindau Lectures (1951-2003) and Subatomic Particles

As can be seen from the description above, the physics of subatomic particles can be divided into two parts. The first one took place before 1950 and includes the discoveries of the basic set of particles, while the second part started roughly the same year as the Lindau Meetings, in 1951. So there is no surprise in finding that there is a long list of lectures with topics that can be classified as belonging to subatomic physics. Already at the first physics meeting, in 1953, both Werner Heisenberg and Hideki Yukawa lectured on attempts to find a unified theory of elementary particles, a topic which has followed the Lindau Meetings well into the 21st Century.

But some Nobel Laureates choose not to talk so much about their own research and the research frontier, but rather about the history of subatomic physics and accelerators. Hans Jensen, who received a Nobel Prize in Physics 1963 together with Maria Goeppert-Mayer “for their discoveries concerning nuclear shell structure”, gave only one lecture in Lindau. This was at the 1965 meeting and its title (translated into English) was “The change of meaning of the term elementary particle”. In a comprehensive and rather non-technical way, Jensen gives an introduction to the elementary particles known in 1965. He starts with the ancient Greeks, spends some time quoting Isaac Newton and continues all the way up to around 1965. Although he doesn’t report any results of his own, at the end he gives an interesting and rather detailed discussion of the problems posed by the zoo of new “elementary” particles found after 1950. He does mention the name of Gell-Mann, but the solution of the problems, the idea of quarks, is not mentioned.

J. Hans Jensen (1965) - Change in meaning of the term 'elementary particle' (German presentation)

Ladies and Gentlemen! My colleague, Mr. Mecke, put me somewhat on the spot with his phone calls, because I was now in the difficult situation of having to prepare a lecture for an auditorium in front of which I was not accustomed to speak. I was not able on such short notice to draw up an adequate report from my research field, so I had no choice but ask Mr. Mecke for permission to reach into my desk drawer and largely base my lecture on the manuscript of a presentation I held a few weeks ago at the anniversary celebration of the Heidelberg Academy. I must therefore ask the physicists among you who attended the Heidelberg lecture to bear with me today should I mention too many trivialities. Back then I also thought it would be better to focus not so much on the newest facts and realizations that came to light over the last few years in the world of elementary particles, but instead to reflect on how these concepts were formed. And I find this to be a particularly impressive example of how all of our concepts in the field of physics, and not just the concepts, but also our ways of thinking, must constantly be corrected by and adapted to experience, and how little a priori knowledge has in fact remained in today’s description of nature. The topic I had chosen was “The change in meaning of the term ‘elementary particle’”, and this change in meaning is caused by the fact that in the development of coining terms in physics, it is common practice to keep outdated names and words, but at the same time to give them a different, more precise definition, and to free all of these thus used terms of subtle associations to the greatest extent possible. Naturally, I had to, when discussing such a topic, spend a large part of my lecture on what you could call historical observations. However, there are many reasons why I have to forego explaining the origin of the terms “element” and “particle” in ancient thinking, not least because we are short on time. Unfortunately also because I never had the fortune of receiving a classical humanistic education, which is why in spite of it all, my efforts to fully grasp the ways of thinking in ancient times remain those of an amateur. Terms such as particle or atom most likely arose from conclusions inferred by reflecting on very simple observations. Meaning that when you take apart complicated structures, e.g. when you break up a piece of fruit or a sacrificial animal, you will end up with individual parts that fundamentally differ from each other and also differ from the structure as a whole. Yet when you make a drop of mercury burst into smaller droplets, all of these droplets, apart from their size, appear to be completely identical to the original drop. That gave rise to the obvious question whether it was possible to continually perpetuate this division process and keep ending up with identical particles, or whether this division process ends when you reach minute, non-divisible particles, the atomoi. In the ancient world, the art of experimenting of course and most likely also the ability to formulate questions was not yet sophisticated enough to allow thinkers to actively test such questions. It was not until the second half of the previous century that scientists began to provide substantial answers, develop processes to count atoms, and particularly in the first half of this century, to determine their diameters. It might be helpful to point out that in the ancient world the conceptualization of atoms gave rise to some very peculiar speculations. Namely, if matter is supposedly made up of atoms, then these atoms must be separated from each other by a void. This question of emptiness kept resurfacing in antiquity, the question of how this “void”, the “pure nothingness” or the “non-existing” could possibly exist, meaning how it could be of importance to us, to the world that surrounds us. We will later see how modern-day physics has learned to give a very substantial and concrete and highly unexpected reply to this dilemma, if you would call it that. I have even less time to elaborate on the development that led to the modern term chemical element. It seems that in today’s concept of elementary particles, the term “elementary” is once again converging in a sense with ancient ways of thinking. I will also revisit this topic later on in my lecture. In my opinion, one of the fundamental, most important steps with regard to more precisely defining the concept of atoms in the physical understanding of matter took place in the age of Isaac Newton, and please allow me to read out some passages from his book entitled “Opticks” published in the year 1704. This is one of the few works he wrote in English. And in the roughly 60-page annex to this work, which he called “Queries”, Newton discusses a very large number of different phenomena, which we would nowadays assign to the field of physical chemistry, and then he summarizes his conclusions in a few sentences, which I - well, should I read them out in English – I could perhaps start by reading out the abridged translation, meaning the German version. So he discusses all of these facts, and then he continues as follows: massy, […] impenetrable, movable particles, […] as most conduced to the end for which he formed them; and that these primitive particles […] are incomparably harder than any porous bodies compounded of them; even so very hard, as to never wear or break in pieces; no ordinary power being able to divide what God made one in the first creation.” are to be placed only in the various separations and new associations and motions of those permanent particles.” Up to this point, these are still largely concepts adopted from ancient thinking. But then the great discoverer of celestial mechanics and the law of gravity has his say. I will have to read out this part in English. accompanied with such passive laws of motion as naturally result from that force, but also that they are moved by certain active principles.” That is what forces used to be called back then. And now comes the important sentence: He then explains this by emphasizing his opposition to the conventional understanding of his time, which still used the concept of “occult qualities” as adopted and passed on by scholasticism and the Renaissance. and to be the unknown causes of manifest effects […] uncapable of being discovered.” And then Newton continues as follows: which it acts and produces manifest effects, is to tell us nothing: but to derive two or three general principles of motion from phenomena, and afterwards to tell us how the properties and actions of all corporeal things follow from those manifest principles, would be a very great step in philosophy.” With these sentences, Newton, fully in line with his celestial mechanics, formulated a program which researchers in the field of physics systematically pursued in the subsequent centuries. Basically, just like gravitational forces act between inert celestial bodies, Newton’s “massy particles” also do not possess specific, inexplorable occult qualities that cause the variety of their behaviour, but that instead there are universal, explorable forces acting between them and determining their motion and their cohesion. Discovering these laws became the task of physicists researching matter. Newton himself, by studying the phenomena discussed above, had already concluded that the forces between atoms over a shorter distance should be much stronger than the gravitational forces, but that they rapidly become weaker the greater the distance becomes. Now, this diagram of matter is based on a dualism that is also characteristic of Newtonian celestial mechanics. We have, on the one hand, the massy atoms, on the other, the forces between them acting in the void, which determine the movement of the atoms, and thus a peculiar dualism, which in the previous century was described using keywords like force and matter, and was heavily discussed even in non-scientific literature. This dualism was resolved in a highly unexpected way around the turn of the century, on the one hand by Faraday’s field theory, and later by the concept of a complementary description of Nature developed by Born, Heisenberg and Bohr. And even though these things have already been mentioned here today, and will also be addressed tomorrow by much more qualified experts, I do have to quickly touch upon some aspects. Not until the 19th century did researchers ascertain that the forces Newton assumed acted between the atoms could be ascribed exclusively to the electromagnetic phenomena, and that we must therefore build on the terms derived from the art of experimentation and from the genius of Faraday and Maxwell, namely Faraday’s concept of force fields, which was certainly one of the most promising terms in physics. It was not until the start of this century, I believe, that this concept gradually gained acceptance on the continent, while the term “action at a distance” remained dominant under Neumann and Gauss for a long time. The basic principle, as you all know, is that an electrical charge does not act on another through a void, but instead acts via an agent, albeit not a material one in the traditional sense of the word. Namely, every charge must be understood as the source of an electrical force field that suffuses space, and that its effect can be detected by another charge. And yet this field must suffuse the space in reality, even when its presence cannot be detected by another charge at a particular moment. The most important finding of this experiment was that if one moves the source of such a field through space, more specifically accelerating it, then these fields can even become detached from their sources and travel through space and thereby - by studying this motion, it was also established that changes in the electrical fields are linked to changes in magnetic fields in the same location, and vice versa. However, this statement that these fields exist in reality, only made sense after showing new, verifiable physical consequences. These consequences emerged in the finding that the fields continually distributed in space carry both energy and momentum; properties that, up until the turn of the century, were commonly only ascribed to material particles. And, as you know, all of these consequences were proven by the discovery made by Heinrich Hertz and all of the scientific work that followed. That is how experience gained through experiments as perceived by the ancients turned the dichotomy of the filled, “to pleres”, and the void “to kenon”, into a picture of no-longer-material yet real fields existing everywhere in space, and their sources connected to atomic matter. However, as you all know and as we will hear tomorrow, this picture was subject to yet another fundamental change, this time initiated by Max Planck. That is because more subtle experiments showed that the electromagnetic fields travelling through space as waves do in fact transport energy and momentum in a quantum-like manner during certain experiments, and that at the same time these fields also showed traits hitherto commonly described solely in the corpuscular picture. Well, this conflict was long considered to be an irritating paradox, until the researchers mentioned earlier taught us to better adapt this term to the empirical world in the sense that both the concept of corpuscles and the concept of a space-filling field continuum are, on their own, not suitable for describing natural phenomena right down to the last detail. They are both necessary, both useful in the sense that they grow together as mutually limiting but also as complementary terms in a closed description of the phenomena. For this Bohr coined the term “complementary description of Nature”. As you know, since then it has also been the reverse, that not only the electromagnetic fields show corpuscular properties, but that precisely what we used to define as corpuscles, such as electrons, also possesses inherent field properties. Tomorrow you will hear more on this topic, so I can be brief. What I find peculiar is that these formulations of complementary description apparently appear more familiar and plausible to the younger generation of physicists than Newtonian celestial mechanics with its action at a distance, and that one keeps getting asked: For our purpose, now that I will be talking about the actual topic of this lecture – unfortunately 20 minutes later than planned – suffice it for us to note that whenever the subject of elementary particles is addressed in future, these particles are not only sources of force fields with reciprocal interaction, but that at the same time they themselves, in their function as elementary particles, also possess field properties as far as their laws of motion are concerned, and that these field properties are even dominant in suitable experiments. Furthermore, it does not matter whatsoever whether we are talking about elementary fields or elementary particles. They mean the same thing in Bohr’s sense of the word. I would now like to revisit the subject of atoms. Allow me to once again repeat the peculiar phrase in Newton’s work: If by “ordinary power” he meant the technical means available in his time, then he was certainly right. It was not until the end of the past century that researchers in the field of electrical engineering managed to harness electric voltage in a laboratory, such as the one that occurs between a storm cloud and the Earth, that we were forced to realize that the atom is not the last unit either, but that it in fact has a structure. And I heard that this very development was illustrated in an impressive manner just yesterday, so that I can once again be brief. We still electrons and about atomic nuclei to talk about, the volume of which is trillions of times smaller than that of the atom as a whole. Well, but that still means that the more than 100 chemical elements known today correspond to more than 100 different atomic nuclei. And today it seems natural to ask ourselves if these nuclei could possibly have a structure of their own and if they are comprised of elementary building blocks. And what is interesting is that long before the atomic hypothesis was experimentally consolidated, Prout, an English natural scientist and also highly renowned doctor, Prout put forth in the year 1850, albeit cautiously and using a pseudonym an essay presenting the hypothesis that – in fact two papers, published in 1815 and 1816 in the “Annals of Philosophy” – he hypothesized that all chemical elements are derived from a primitive substance which he called “prote hyle”. He supported his hypothesis by bringing up the apparently integer relations between atomic weights, which at that time were not yet precisely known. Now, as you know, this hypothesis has been fully confirmed. The first indication of a structure within the atomic nucleus was given to us by Nature itself, in the form of natural radiation discovered and studied in the 70 years ago by Becquerel and the Curies. But from experiments with electromagnetically accelerated particles we then learned that the atomic nucleus consists of two building blocks. One is the nucleus of the hydrogen atom, the proton. The other an electrically neutral particle with an almost identical mass, the neutron. And now we come to the point: Do we want to call the neutron an elementary particle? I still vividly recall in the first few years following the discovery of the neutron a wide-spread debate that came up during my university days: Is perhaps the neutron in fact made up of an electron and a proton? This was supported by the fact, after all experimental discrepancies were eliminated when determining mass, that the neutron was lighter than the proton. It was also seemingly supported by the fact that a neutron could also disintegrate into an electron and a proton. But then we learned, especially by studying artificial radioactivity, that the opposite can also occur. A proton can just as well turn into a neutron and a positron. It does not make sense to discuss whether a neutron is made up of an electron and a proton, or whether a proton is made up of a neutron and a positron. Instead, we need to say that in these disintegration processes, these new, meaning these light-weight particles, the electron, and, as you also know, I will soon revisit this topic, that the neutrino only really come into existence, are only really created in this act of decay. Accordingly, we can rightly consider the proton and the neutron as simply being two manifestations of one and the same particle, an elementary particle, of which one of these manifestations in unstable. During this decay, electrons are created in the same way as we always assumed, that light, meaning its quanta, the photons, are surely not present in a glowing body before they are emitted in the illumination. We have thus distanced ourselves quite a bit from the conceptualizations of elementary particles, because originally – which is why I quoted the Newtonian laws earlier – the stability was the primary feature traditionally associated with the concept of anything elementary. Later on we will see that there are particles that are much more short-lived than the neutron, which after all has a lifespan of 1000 seconds, and we would like to consider these particles as being elementary. The next step leading us away from the naïve concept of particles then made us come to the realization that we must ascribe certain intrinsic properties to the elementary particles if we wish to characterize them. This wording sounds at first, so - it is reminiscent of the occult qualities that Newton rebuked so strongly. We will however see that this is not the persuasion, but rather that these intrinsic properties can be very precisely defined, measured. Namely, apart from the electric charge, that distinguishes a proton from a neutron, we also need to attribute a size to these particles, as an intrinsic property. Namely one that can be dynamically characterized and that is described using the term spin in classic mechanics or electrodynamics, similar to the effect of a billiard ball. Without there being any point in saying that the particle really rotates in space. Because it is no longer possible to attach markers or something similar to these particles in order to observe any rotation. This is an external argument. The important thing is that the structure, the mathematical structure of these intrinsic properties, is such that this rotation principally cannot be observed. Incidentally, this intrinsic spin is pretty much the only characteristic of a neutrino, which I mentioned earlier in connection with beta decay. This uncharged particle without mass has such low interaction with the matter of which our measuring equipment is made up, that it could not be verified empirically until about ten years ago, even though Pauli had already proposed its existence back in 1930 in a famous letter addressed to his colleagues attending a session in Tübingen, so as to bring order into radioactivity-related phenomena, which were largely unexplained at that time. It is only thanks to the advances made in experimentation technology thereafter that it became possible to finally prove its real existence. Now, in the case of the neutrino, the intrinsic spin was pretty much the only characteristic of this elusive particle, which Pauli was able to positively predict - apart from the fact that it transported energy. Almost all other characterizations can only be expressed as negations. It has no mass, it has no charge, no electromagnetic effect, etc. And we could thus, with regard to the neutrino, allude to the slightly altered version of a verse penned by Christian Morgenstern: “It is a spin, nothing more.” The reason I have told you this is to highlight the different opinions on intrinsic properties. These intrinsic properties also made it subsequently possible to develop the concept of antiparticles, how the positron is the antiparticle of an electron. They can both, when joined, completely cancel each other out. All of the particles’ intrinsic properties disappear along with the particles themselves, and are replaced by the mechanical and energy-momentum, angular-momentum properties that now resurface in the emitted radiation thereby. These antiparticles are also created in pairs. I do not believe it is necessary to analyse the numerous, rather confusing accounts that have been portrayed in the media over the past few weeks following the discovery of the antideuteron, or the detection of the antideuteron. So these antiparticles of protons, first predicted by Dirac, were discovered roughly ten years ago by a group of researchers in Berkeley, and in the meantime there were many, many other particles, almost too many other particles, that would become hotly debated and now already had antiparticles. And the only possibly exciting thing about all of this is that two antiparticles were simultaneously created in the antideuteron, which requires a large amount of energy and momentum. And that the transfer of energy and momentum to these two particles, the created antiproton and antineutron, was such that they even stayed together and could move through the measuring apparatus as a deuteron. That they did not immediately break apart again into an antiproton and an antineutron. Yes, then let us move on to the main problem, namely that up until the mid-‘30s, the known building blocks of matter were the nucleon in its two manifestations, as well as the electron, which itself acted as a source of the electromagnetic field. Just like the charged forms of the nucleon. In addition, we knew of the quanta of electromagnetic radiation, the photons, and could finally rightly also define the neutrino as an elementary particle. Back then, the only problem that seemingly still needed to be solved was the question regarding the nature of forces that hold the protons and the neutrons together, and use these building blocks to form the nucleus. And scientists hypothesized that these forces do not in fact act at long distance between the nucleons, but that they are transmitted through a field instead. This hypothesis and all its consequences will be presented tomorrow by Mr. Yukawa. Researchers knew that these forces - or Yukawa also decided that these forces must be significantly stronger than the electromagnetic force when the nucleons are within close proximity of each other. And because of this short distance, it became necessary to finally ascribe a finite mass to the quanta of this new force field that was now expected to complete the picture of matter, around 1/7 of the nucleon mass. And Yukawa called the quanta of this field, which transfers the interaction of the nucleons, the “mesons”. And back then, physicists were actually convinced that by conducting experiments to study these mesons, these very quanta which could be created in sufficient numbers using the right accelerators, it would be possible to obtain all the needed information about the nuclear forces, and that they would thereby be able to truly complete the picture of the structure of matter. Now, as you know, these mesons were initially discovered at a location from where the universe itself sends us very highly energetic projectiles, in cosmic radiation. And I do not wish to elaborate on the slight confusion that existed with regard to correlating the particles discovered in this cosmic radiation with these quanta of nuclear forces. Many years later, it finally turned out that the particles scientists initially believed to be Pi mesons, the quanta of the nuclear force field, in the cosmic radiation were not Pi mesons at all, but in fact only still the decay product of this Pi meson. Yet later the Pi meson itself was also discovered in cosmic radiation, and I believe that the whole program in which physicists all over the world, as long as sufficient funds were available and other conditions were met, then began investing great efforts into building particle accelerators in the post-war years in order to study these mesons, it was founded on a firm belief: Once we know these mesons, we can then complete our picture of matter, we can then calculate all of the interactions, define them quantitatively, because in principle all chemical effects are described by quantum mechanics and electrodynamics. Looking back now, I am always reminded of a verse from Goethe’s Faust. When Faust journeys up the Brocken Mountain on Walpurgis Night and delivers the famous line: To which Mephistopheles icily replies: “But many a puzzle’s knotted so.” That was exactly the result of developing particle accelerators to experiment with radiation. Namely that in addition to this meson, the Pi meson, which was believed to be transmitted by the nuclear forces, it turned out that there was still a large, large number of other particles in Nature that we had now already seen under these conditions, some of them also in cosmic radiation, and that this opened up a whole new field of activity. First, back to the meson. As you know, the meson can exist as a neutral, as a positively and as a negatively charged meson. That is its simplest intrinsic property. Furthermore, experiments have clearly shown that it does not have an intrinsic spin. In contrast, it does have a different intrinsic property, which was initially a source of peculiar unease for the physicists conducting the experiments. Namely that these properties can simply be described not in terms of the particles, but in terms of the properties of the field corresponding to that particle. The Yukawian force fields. This is the so-called intrinsic parity. Allow me to use this opportunity to tell you a funny story about how, actually by a hair’s breadth, if Dirac had been right about his hypothesis that free magnetic monopoles could possibly exist, if he had been right or perhaps even is right, that this question of the intrinsic parity of particles then really was already present in the classical physics of fields and their sources. Namely the magnetic pole, the pole, not the dipole, but the pole, must have an opposing intrinsic parity, such as the electric elementary charge. Because you all know that in the case of parity transformations, the magnetic field reacts differently than the opposing like the electrical field. Furthermore, you know that magnetic dipoles react like the magnetic fields. Meaning that their plus/minus sign does not change when transitioning from the right-handed to the left-handed coordinate system. Yet if you consider the dipole a position vector and multiply it with the pole strength, then you will see that the sign of the position vector changes, meaning that the sign of the magnetic monopole must also change when transitioning from the right-handed to the left-handed coordinate system. So, basically, all of this would have already been present in classical electrodynamics if there had been not only magnetic dipoles but also magnetic poles. Now, we were forced to ascribe this property to the Pi meson. That, too, had to behave like a magnetic monopole would have to behave. And in turn imposed by a series of experiments, the details of which I cannot go into at this time. So as I said, another one of the setbacks with regard to structuring the concept of elementary particles is the meson’s short lifespan. Of this quantum that transmits the nuclear forces, namely, it has nothing to do with the nuclear forces. It has nothing to do with the interactions with the nucleons, that it can decay again. A neutral one decays within 10^-16 seconds when exposed to hard x-rays. A charged meson has a lifespan of 10^-8 seconds and, strangely enough – and this is where the confusion starts – it has two possible forms of decay. Namely very rarely: in one in ten million of all cases, almost in one in one hundred million of all cases, the end product is not an electron and a neutrino. And otherwise, in the vast majority of cases, the end product is either a particle itself, that in many, many respects behaves exactly like an electron and has a mass that is only 207 times greater, but can in turn decay into an electron and a neutrino and an antineutrino. This intermediate product, the Mu meson, surely remains one of the most mysterious particles, and one of our most difficult tasks is to understand its role in the plan of creation. I don’t know, Mr. Heisenberg might disagree somewhat. It did reach a factor of 207. Yet as I just said, apart from this Mu meson puzzle, the hopes in line with the Newtonian program of now using the electron of the neutrino and the Pi meson to obtain all the data needed to complete the picture of matter did not come true, because it brought up refined forms of experimentation and so many other particles. What was very peculiar was that the first - or rather, what was very remarkable was that the first of these new particles was not in fact detected using artificial accelerators, but by a Manchester-based group studying cosmic radiation. most of them not in the bubble chamber but in the Wilson chamber. And then Butler and his colleagues from the Blackett group in Manchester were the first to observe cases in which either a charged particle or an uncharged, high-energy particle collided with a nucleus and underwent a nuclear transformation, yet then at a certain distance (though apparently in direct correlation), they also detected traces of two charged particles, one proton and one Pi meson, for example. And if you take the total momentum carried by these two particles and extend it backwards, you would end up exactly at the centre of this reaction. This shape is the reason, hmm, I should have drawn this diagram the other way around, why these particles are called V particles. Just to give it a name to work with. I still remember very clearly that I happened to take part in a seminar in Pasadena, at which Anderson’s colleagues, or people from Anderson’s group in Pasadena, had systematically studied the generation of these particles and the relative frequency with which this group of particles, which leaves such a V-shaped trace, was detected in predefined conditions, such as known intensities of cosmic radiation, known material thickness, in which these particles can be produced, etc. And I remember so very vividly how Feynman, a very temperamental man, would suddenly leap up and say: And this process of creation had to be triggered by nucleons or available Pi mesons interacting in such a way as to create such an uncharged particle, which in turn could then decay into a Pi meson and a proton. And that brings us to the following: If these particles could have disintegrated into a proton and a Pi meson, then the probability of their creation would have to be determined by the decay rate. That was the assumption. Then it turned out, however, that they are created so frequently, that if you were to conversely calculate the decay rate, the particle would already have to decay up here in the nucleus and not travel a long distance of several centimetres. Feynman was extraordinarily temperamental and exclaimed: “This is impossible!” It is simply inconsistent. Then there was a long discussion – I mean, of course Feynman was not the only one to voice this opinion – that lasted almost six months, as far as I know, until Pais suggested completely decoupling this decay process from the creation process by means of a very peculiar postulation, which, however, later proved to be completely true. Namely, occasionally there were other, not one, but two such scenarios, in which the second particle would decay into Pi+ and Pi-, for example. Once again a second V particle, which did not decay into a proton and a pion, however, but into two pions. And Pais was the first to formulate the hypothesis that the creation process is perhaps coupled to a specific condition, that these two particles must always be created in pairs. That, if they were together, they could still meet again, that they could destroy each other again Yet once they are created, they drift far apart, so these are two different types of particles that do not find a partner with whom they could fulfil this condition of interacting in pairs in order to decay again, so that the decay is completely decoupled from the creation process. And then it is probably typical for modern-day physics to take a close look at this postulation. These particles were eventually named V particles, or later it was turned around and they were called Lambda particles, so particles that are always neutral and decay into a least a proton. And the other particle was called a K particle. In this case K0, that can only decay into particles that do not have a spin, or ultimately into light quanta. So that the total spin is an integer, in any case. Now, it is typical that scientists immediately tried quantitatively expressing the phrase: And it was one of Mr. Heisenberg’s colleagues, Nishima, or at least a temporary colleague of Mr. Heisenberg, as well as Gell-Mann in Pasadena who said that if this is supposed to be such a clearly formulated principle, then we could probably characterize this law with another property that is intrinsic to all elementary particles; we could give them simple numbers, positive and negative. So that the common particles that we already know of, that have this intrinsic property, which was named “strangeness” which is selected in such a way that it is first of all an integer, positive or negative for all hitherto known particles, for the protons, for the pions, for the nucleons this strangeness should be equal to zero. And then comes a random assignment, for example by giving this particle a strangeness of -1 and this other particle a strangeness of +1, so that a law of conservation applies to such intrinsic properties, just like there is a law of conservation for the charges. In the meantime, if the null is slightly shifted, this intrinsic property is often directly characterized as a hypercharge. Now, I fear I am almost out of time, and it turns out that among these different, frequently studied, newly discovered particles, with regard to these two new intrinsic quantum numbers that, on the one hand, by the parity, the transformation behaviour of the fields or the assigned particles when transitioning from a right-handed to a left-handed coordinate system, and secondly by this peculiar quantum number, the strangeness, one would end up with a schematic outline into which you could initially insert all the reactions in such a way that no internal contradictions arise. No internal contradictions of the sort that I characterized earlier, and which Feynman reacted to in a truly distinctive way by exclaiming: that is by no means an occult quality any longer. Well, I could go on and on in this vein. So there are meanwhile particles that need to be characterized using such quantum numbers This means that we now have a large number of elementary particles, a number that is now almost as large as the number of chemical elements known at the turn of the century, but which, using these few terms that can be formulated so precisely, can already be organized in a classification scheme in a manner similar to the first attempts at classifying chemical elements. There is hope that by using these terms, as well as this classification scheme now (which is still largely qualitative in nature), it will become possible to make some quantitative predictions about the relative frequency with which this or that particle is created when one bombards a nucleus with a particular type of particle, etc. This means that thanks to the theorem of nucleons and antinucleons, we got rid of the diversity of nuclei, yet all of these forces between the particles, also between the nucleons, that make up the nucleus are not only determined by the this force field, the Yukawian pion force field, but also by the abundance of force fields that all correspond to these “strange particles”. These forces are, furthermore - first I would like to point out that precisely with this concept of complementarity, that there are always particles, that forces act between the particles, that these forces, according to our program, are apparently transmitted through fields, yet that these fields have quanta, and that these quanta lead to the creation of new particles between which interactions can once again exist, so that this could lead to an infinite regress. Now, the fact that very strong interactions do in fact also exist between the pions themselves, meaning between the Pi mesons themselves, and also between the strange particles, has been experimentally verified. Especially since it is possible to temporarily create conditions which later However, in accordance with the energy- and momentum principle, it is possible to subsequently say with certainty that, temporarily, these pions were once particles. If they only break apart as pions, then that must have therefore been caused by forces present between the pions. So these forces do exist. It could therefore be feared that now there is no stopping it. These forces must be transmitted through fields again and again, these fields contain quanta, and there are forces between these quanta. And this is precisely the point of the matter, namely that in Bohr’s concept of complementarity, the possibility of closing this regress in itself already exists. Because among the numerous particles discovered this way, there are always already some whose assigned fields can transmit the effect between other particles. And that is why it is not necessary for this regress, this search for new particles, to be infinite. In addition perhaps we should also embrace the tradition of the Ionian natural philosophers, the new way in which questions were formulated back then in the Ionian Age. Unfortunately, I can, there are, among other things, philological barriers that lie before me So now, naturally we cannot adopt these early Ionian answers, meaning the various answers provided by the Ionian natural philosophers. Nevertheless, their dream has remained alive everywhere in physics, especially in light of the abundance of particles, searching for the primitive field, which would help us understand all these other fields according to one unified principle. But I will leave it to the more qualified people present here today to talk about that topic in more depth.

Meine Damen und Herren! Herr Kollege Mecke hatte mich mit seinen Telefonanrufen etwas in Verlegenheit gebracht, weil ich jetzt in die schwierige Situation kam, auf Abruf einen Vortrag zu präparieren für ein Auditorium, vor dem ich zu sprechen nicht gewohnt bin. Es war mir nicht möglich, in der kurzen Zeit noch einen vernünftigen Bericht aus meinem eigenen Arbeitsgebiet zu geben und es blieb mir nichts anderes übrig als von Herrn Mecke die Erlaubnis zu erbitten, dass ich in die Schublade griff und meinen Vortrag im Wesentlichen basieren möchte auf ein Manuskript eines Referats, das ich vor einigen Wochen anlässlich der Jahresfeier der Heidelberger Akademie gehalten habe. Ich muss also deshalb die entsprechend dem Hörerkreis damals anwesenden Physiker um Nachsicht bitten, wenn ich gar so viele triviale Dinge erzähle. Damals hatte ich auch gedacht, es sei nützlicher nicht so sehr auf die letzten, in den letzten Jahren gewonnenen neuen Fakten und Einsichten aus der Welt der Elementarteilchen einzugehen, sondern ein bisschen die Besinnung pflegen, wie eigentlich diese Begriffsbildungen zustande gekommen sind. Und ich glaube, darin liegt ein besonders eindrucksvolles Beispiel, wie sehr alle unsere Begriffsbildungen in der Physik ständig, nicht nur die Begriffsbildungen, sondern sogar auch unsere Denkweisen, an der Erfahrung korrigiert werden müssen und an die Erfahrung angepasst werden müssen, und wie wenig Apriorisches in unserer heutigen Naturbeschreibung verblieben ist. Ich hatte das Thema gewählt "Bedeutungswandel des Begriffs 'Elementarteilchen'", und dieser Bedeutungswandel wird verursacht durch einen allgemeinen Gebrauch in der Entwicklung des physikalischen Begriffssystems, zwar überkommene Namen und Worte beizubehalten, diesen aber meist einen veränderten, vor allem präzisierten Sinn beizulegen und alle diese so benutzten Begriffe möglichst von unterschwelligen Assoziationen zu befreien. Naturgemäß musste ich bei dieser Diskussion einen größeren Teil des Vortrags mit fast historischen Betrachtungen einräumen. Allerdings muss ich mir aus vielen Gründen versagen, auf die Entstehung der Begriffe "Element" und "Teilchen" im antiken Denken einzugehen, schon der Zeit halber. Leider aber auch, weil ich nicht das große Glück hatte, die Schulung eines humanistischen Gymnasiums zu erfahren und deshalb in all meinen Bemühungen in die Denkweise der Antike einzudringen, doch ein Dilettant geblieben bin. Der Begriff des Teilchens oder des Atoms ist wohl aus Überlegungen entstanden, die durch sehr einfache Beobachtungen nahegelegt wurden. Nämlich bei der Teilung komplizierterer Strukturen, z.B. dem Zerlegen einer Frucht oder eines Opfertieres, gelangt man zu Teilen, die wesentlich von einander und vom Ganzen verschieden sind. Wenn man dagegen einen Quecksilbertropfen zerspringen lässt in kleinere Tröpfchen, so sind allem Anschein nach diese Tröpfchen, abgesehen von ihrer Größe, dem Ausgangstropfen völlig gleich. Es war eine naheliegende Frage, ob man in solchen Fällen den Teilungsprozess immer weiter fortsetzen könne und immer wieder zu gleichartigen Teilchen komme oder ob diesem Teilungsprozess durch kleinste, nicht weiter teilbare Teilchen den Atomoi eine Grenze gesetzt sei. In der antiken Welt war natürlich die Experimentierkunst und auch wohl die Fragestellung nicht weit genug entwickelt, um solche Fragen durch tätiges Nachprüfen zu entscheiden. Das war der zweiten Hälfte des vorigen Jahrhunderts vorbehalten hierauf zuerst gegenständliche Antworten zu geben, Verfahren zu entwickeln, die Atome zu zählen und vor allen Dingen in der ersten Hälfte unseres Jahrhunderts auch ihre Durchmesser zu bestimmen. Vielleicht ist es doch aber nützlich darauf hinzuweisen, dass die Atomvorstellung in der antiken Welt Anlass zu sehr merkwürdigen Spekulationen gab. Nämlich, wenn die Materie aus Atomen aufgebaut sein soll, so müssten diese durch den leeren Raum getrennt sein. Diese Frage des Leeren hat dann die ganze Antike immer wieder beschäftigt, nämlich, wie sollte dieses "Leere", das "reine Nichts" oder das "nicht Seiende" existieren, das heißt für unsere, uns umgebende Welt, bedeutsam sein können? Wir werden später sehen, wie die heutige Physik zu diesem Dilemma, wenn man es als solches ansprechen will, etwas sehr wesentliches und konkretes und sehr unerwartetes zu sagen gelernt hat. Noch weniger kann ich eingehen auf die Entwicklung, die zu dem heutigen Begriff des chemischen Elements geführt hat. In der heutigen Vorstellung von Elementarteilchen hat sich der Sinn des Begriffs "Elementar-" wohl in gewisser Hinsicht antiken Gedankengängen wieder genähert. Auch darauf werde ich zurückkommen. Ein wie mir scheint ganz fundamentaler, wichtiger Schritt zur Präzisierung der Atomvorstellung im physikalischen Bild von der Materie geschah im Zeitalter Isaac Newtons, und ich möchte Sie bitten, mir zu erlauben, dass ich Ihnen einige Sätze vorlese aus der im Jahre 1704 erschienenen "Opticks". Das ist eins der wenigen Werke, das er in englischer Sprache verfasst hat. Und in dem Anhang dieses Werks, "Queries" genannt, diskutiert Newton zunächst auf etwa 60 Seiten eine ganz große Zahl verschiedener Phänomene, die wir alle heute in die physikalische Chemie rechnen würden, und dann fasst er seine Ergebnisse in ein paar Sätzen zusammen, die ich ich kann es vielleicht zunächst in abgekürzter Übersetzung, also zunächst das Deutsche sagen. Also er diskutiert all diese Tatsachen und fährt fort: dass Gott im Anfang die Materie als massive, undurchdringliche aber bewegliche Teilchen schuf, als am besten seinen Absichten entsprechend, und dass diese Urteilchen unvergleichlich härter sind als alle aus ihnen ausgebauten Körper, so hart, dass sie niemals verschleißen können ("to wear"), oder in Stücke brechen, und dass keine gewöhnliche Macht imstande ist, das zu teilen, was Gott im Anfang als Eines schuf." neuen Zusammenballungen und Bewegungen dieser beständigen Urteilchen zurück zu führen." Das sind bis dahin noch im Wesentlichen aus der Antike übernommene Vorstellungen. Aber dann spricht der große Entdecker der Himmelsmechanik und des Gravitationsgesetzes. Jetzt müsste ich aber englisch lesen. accompanied with such passive laws of motion as naturally result from that force, but that they are moved by certain active principles." Das ist die damalige Bezeichnung für Kräfte. Und dann kommt der wichtige Satz: Und zur Erläuterung betont er dann seinen Gegensatz zur konventionellen Auffassung seines Zeitalters, die noch die durch Scholastik und Renaissance übernommenen und weitergereichten Vorstellungen der verborgenen Qualitäten benutzten. but to be - seine Zeitgenossen - supposed these qualities to lie hid in the bodies and to be the unknown causes of manifest effects uncapable of being discovered." Und dann fährt Newton fort: and produces manifest effects, is to tell us nothing: But to derive two or three general principles of motion from the phenomena, afterwards to tell us how the properties and actions of all corporal things follows from those manifest principles, would be a very great step in philosophy." Mit diesen Sätzen hat Newton ganz im Sinne seiner Himmelsmechanik ein Programm formuliert, dem die physikalische Forschung in den folgenden Jahrhunderten systematisch nachgegangen ist. Nämlich wie zwischen den mit Masse, d.h. trägheitsbehafteten Himmelskörpern, die Gravitationskräfte wirkten, so sollen auch Newtons "massy particles" nicht etwa mit spezifischen okkulten, unerforschlichen Qualitäten begabt sein, die die Vielfalt ihres Verhaltens verursachen, sondern zwischen ihnen sollen universelle erforschbare Kräfte wirken, die ihre Bewegung und den Zusammenhalt determinieren. Dem Aufsuchen dieser Gesetze galt die physikalische Erforschung der Materie der Folgezeit. Schon Newton schloss aus vielen von den anfangs diskutierten Phänomenen, dass die Kräfte zwischen den Atomen bei kleiner Entfernung viel stärker seien müssten als die Gravitationskräfte, aber mit zunehmendem Abstand rasch abfallen. Nun, diesem Bild von der Materie liegt ein Dualismus zugrunde, der auch für die Newtonsche Himmelsmechanik charakteristisch ist. Wir haben einerseits die mit Masse behafteten Atome, andererseits die zwischen ihnen durch den leeren Raum wirkenden Kräfte, welche die Bewegung der Atome bestimmen, und damit einen merkwürdigen Dualismus, der im vorherigen Jahrhundert durch Schlagworte wie Kraft und Stoff, was ja auch in der nichtwissenschaftlichen Literatur viel diskutiert wurde. Dieser Dualismus wurde aufgelöst in sehr unerwarteter Weise, gegen die Jahrhundertwende, einerseits durch Faradays Feldbegriff und dann später der Born-Heisenberg-Bohrschen Konzeption der komplementären Naturbeschreibung. Und obwohl bereits von diesen Dingen die Rede war heute und auch aus vielberufenerem Munde Sie morgen davon hören werden, müsste ich doch ganz kurz auf ein paar Punkte eingehen. Erst im 19. Jahrhundert wurde sichergestellt, dass die von Newton vermuteten zwischen den Atomen wirkenden Kräfte ausschließlich auf die elektromagnetischen Erscheinungen zurückgeführt werden können und dementsprechend wir anknüpfen müssen an die Begriffsbildungen, die sich an die Experimentierkunst und dem Genie Faradays und Maxwell anknüpften, nämlich die Faradaysche Konzeption des Kraftfeldes, die wohl eine der zukunftsträchtigsten Begriffsbildungen der Physik war. Erst zu Beginn des Jahrhunderts, glaube ich, hat sie sich erst auf dem Kontinent überhaupt durchgesetzt, während der Begriff der Fernwirkung noch lange unter der Autorität von Neumann und Gauss dominierte. Der Grundgedanke ist, wie Sie alle wissen, dass eine elektrische Ladung auf eine andere nicht durch den leeren Raum wirkt, sondern dass die Wirkung durch ein Agens vermittelt wird, das zwar nicht im überkommenden Sinn materiell ist. Nämlich jede Ladung ist als Quelle eines elektrischen Kraftfeldes aufzufassen, das den Raum durchflutet und wieder durch eine andere Ladung in seiner Kraftwirkung wahrgenommen werden kann. Aber dabei soll das Feld den Raum realiter erfüllen und vorhanden sein auch dann, wenn seine Anwesenheit nicht gerade durch eine andere Ladung aufgewiesen wird. Das wichtigste Ergebnis der experimentellen Untersuchung war, dass wenn man dann eine Quelle eines solchen Feldes durch den Raum bewegt, und zwar beschleunigt bewegt, dass dann sogar diese Felder sich von ihren Quellen ablösen können, durch den Raum wandern und dabei - bei dem Studium dieser Bewegung wurde ferner festgestellt, dass Änderungen der elektrischen Felder mit Änderungen magnetischer Felder am gleichen Ort verknüpft sind und viceversa. Nun aber diese Aussage, dass diese Felder realiter vorhanden sind, bekommt erst einen Sinn durch die Aufweisung neuer nachprüfbarer physikalischer Konsequenzen. Diese Konsequenzen ergaben sich in der Feststellung, dass die kontinuierlich im Raum verteilten Felder zugleich Träger von Energie und Impuls sind, Eigenschaften, die man bis in die Jahrhundertwende nur materiellen Teilchen zuzuschreiben gewohnt war. Und, wie Sie wissen, sind alle diese Konsequenzen durch die Entdeckung von Heinrich Hertz und alles was sich daran anschloss nachgewiesen worden. So hat sich wirklich durch experimentelle Erfahrung der von den Alten so viel besprochene Gegensatz des Vollen, "to pleres" und des Leeren, "to kenon" in das Bild von überall im Raum vorhandenen, zwar nicht mehr materiellen aber doch realen Feldern, und ihren an atomarer Materie verhafteten Quellen aufgelöst. Aber, wie Sie auch alle wissen und wie wir auch morgen wieder hören werden, erfuhr dieses Bild eine weitere, durch Max Planck eingeleitete tiefe Wandlung. Denn die subtileren Experimente ergaben, dass die als Wellen durch den Raum wandernden elektromagnetischen Felder doch den Energie- und Impulstransport bei gewissen Experimenten in quantenhafter Weise vollziehen und dass die Felder zugleich Züge zeigten, die man sonst ganz im korpuskularen Bilde zu beschreiben gewohnt war. Nun, dieser Konflikt wurde lange als quälendes Paradoxon empfunden, bis wir von den genannten Forschern lernten, diese Begriffsbildung der Erfahrungswelt besser anzupassen in dem Sinne, dass beides, die Vorstellung von Korpuskeln oder von raumerfüllendem Feldkontinuum, jedes für sich nicht geeignet sind, das Naturgeschehen bis ins Kleinste zu beschreiben. Sie sind beide notwendig, beide brauchbar in dem Sinn, dass sie als einander wechselseitig begrenzende aber auch ergänzende Begriffe in einer geschlossenen Darstellung der Phänomene zusammenwachsen. Dafür prägte Bohr eben den Namen "Komplementäre Naturbeschreibung". Sie wissen, dass seither auch umgekehrt, nicht nur die elektromagnetischen Felder Korpuskeleigenschaften zeigen, sondern dass auch das, was wir zunächst als Korpuskeln zu beschreiben gewohnt waren, z.B. die Elektronen, eben auch inhärente Feldeigenschaften haben. Morgen werden Sie mehr davon hören und ich darf mich mit diesem Hinweis begnügen. Merkwürdig ist, dass der jüngeren Physiker-Generation diese Formulierungen der komplementären Beschreibung offensichtlich schon fast geläufiger und eher einleuchtender erscheint als die Newtonsche Himmelsmechanik mit ihren Fernwirkungen und dass man immer wieder gefragt wird: Warum habt ihr euch damals in den 30iger Jahren so viel Sorgen und Gedanken gemacht, dass das alles nicht anschaulich sei? Für unsere Zwecke, wenn ich jetzt zum eigentlichen Thema des Vortrags komme - leider nach 20 Minuten erst - wollen wir nur festhalten, dass wenn weiterhin von Elementarteilchen die Rede sein soll, zugleich immer unterstellt ist, dass diese Teilchen nicht nur Quellen von Kraftfeldern sind, die die Wechselwirkung untereinander vermitteln, sondern dass sie selber als Elementarteilchen zugleich in ihren Bewegungsgesetzen Feldcharakter haben, der bei geeigneten Experimenten sogar dominiert. Es ist also völlig gleichgültig, ob wir von Elementarfeldern oder von Elementarteilchen reden. Wir meinen dasselbe in dem Bohrschen Sinne. Nun, um nochmal auf die Atome zurückzukommen, lassen Sie mich noch einmal auf den merkwürdigen Satz bei Newton hinweisen Wenn er damals mit "ordinary power" die seinerzeit zugänglichen technischen Hilfsmittel meinte, dann hatte er durchaus recht. Erst als es gegen Ende des vorigen Jahrhunderts der Elektrotechnik gelang, solche elektrischen Spannungen ins Labor zu bannen, wie sie etwa zwischen der Gewitterwolke und der Erde bestehen, mussten wir feststellen, dass das Atom auch keine letzte Einheit ist sondern eine Struktur besitzt und, wie ich erfahre, ist gerade darüber gestern in so eindrucksvoller Weise berichtet worden, sodass auch dort ich mich kurz fassen kann. Wir haben die Elektronen vor uns und die Atomkerne, die dem Volumen nach Billionen mal kleiner sind als die Atome als Ganzes. Nun, dann entsprechen aber immer noch den heute mehr als 100 bekannten chemischen Elementen einmal über 100 verschiedene Atomkerne. Und heute erscheint es uns als eine naheliegende Frage, ob nicht diese Kerne selbst wieder eine Struktur besitzen und aus elementareren Bausteinen konstituiert sind und es ist interessant, dass lange vor der experimentellen Konsolidierung der Atomhypothese Prout, ein englischer, auch als Naturforscher hoch angesehener Arzt, sprach Prout in den Jahren 1850 in einem allerdings vorsichtig unter einem Pseudonym veröffentlichten Aufsatz die Hypothese aus, dass - und zwar sind es zwei Aufsätze, 1815 und 1816, in den "Annals of Philosophy" - dort sprach er die Vermutung aus, dass alle chemischen Elemente aus einem Urstoff aufgebaut seien, dem er den Namen "prote hyle" gab. Als Argument zugunsten der Hypothese führte er damals die nicht sehr präzise bekannten, anscheinend ganzzahligen Relationen zwischen Atomgewichten an. Nun, wie Sie wissen, hat sich diese Hypothese völlig bestätigt. Den ersten Hinweis auf eine Struktur des Atomkerns hat uns die Natur selber gegeben, in den vor 70 Jahren durch Becquerel und das Ehepaar Curie entdeckten und studierten Erscheinungen der natürlichen Radioaktivität. Dann aber aus Experimenten mit elektromagnetisch beschleunigten Teilchen haben wir gelernt, dass der Atomkern aus zwei Bausteinen besteht. Der eine ist der Kern des Wasserstoffatoms, das Proton. Der andere das in der Masse fast gleiche elektrisch neutrale Teilchen, das Neutron. Und jetzt kommt der Punkt: Wollen wir das Neutron ein Elementarteilchen nennen? Ich erinnere mich noch gut aus den ersten Jahren nach der Entdeckung des Neutrons, zu meiner Studienzeit, als eine große Diskussion ging: Ist vielleicht das Neutron nicht doch aus Elektron und Proton zusammengesetzt? Dafür sprach die Tatsache, nachdem allerlei experimentelle Unstimmigkeiten in den Massenbestimmungen beseitigt waren, nach denen das Neutron leichter war als das Proton. Dafür schien die Tatsache zu sprechen, dass das Neutron auch zerfallen konnte in Elektron und Proton. Dann aber lernten wir, vor allen Dingen durch das Studium der künstlichen Radioaktivität, dass auch das Umgekehrte passieren kann. Es kann sich genauso gut das Proton in ein Neutron und in ein Positron umwandeln. Es hat gar keinen Sinn davon zu sprechen, ob nun etwa das Neutron aus Elektron und Proton, oder ob das Proton aus Neutron und Positron zusammengesetzt ist. Vielmehr müssen wir sagen, dass bei diesen Umwandlungsprozessen diese neuen, also diese leichten Teilchen, das Elektron und, wie Sie auch wissen, ich komme gleich noch darauf zurück, das Neutrino wirklich erst entstehen, wirklich erzeugt werden in dem Akt der Umwandlung. Dementsprechend können wir mit gutem Recht das Proton und das Neutron einfach als zwei Erscheinungsformen eines Teilchens, eines elementaren Teilchens ansehen, wovon die eine Erscheinungsform instabil ist. Bei der Umwandlung entstehen die Elektronen ebenso, wie wir eigentlich immer unterstellt hatten, dass das Licht, also ihre Quanten, die Photonen, sicher nicht in einem glühenden Körper vorhanden sind, bevor sie im Aufleuchten emittiert werden. Damit haben wir uns von den Vorstellungen eines Elementarteilchens weit entfernt, denn ursprünglich - deshalb habe ich gerade die Newtonschen Gesetze zitiert - war sicher die Beständigkeit das wesentlichste Merkmal, das man ursprünglich mit der Vorstellung elementar verknüpfte. Nachher werden wir sehen, dass es noch viel kurzlebigere Teilchen als das Neutron gibt, das immerhin eine Lebensdauer von 1000 Sekunden hat, die wir doch gerne als elementar ansprechen möchten. Einen weiteren Schritt von dem naiven Teilchenbilde weg führte dann die Erkenntnis, dass wir den elementaren Teilchen zu ihrer Charakterisierung gewisse innere Eigenschaften zuschreiben müssen. Das klingt zunächst in der Wortwahl fast so - hier klingen die verborgenen Qualitäten an, die Newton so gerügt hat. Wir werden aber sehen, dass das nicht die Meinung ist, sondern dass die inneren Eigenschaften ganz scharf präzisierbar sind, messbar. Nämlich neben der elektrischen Ladung, durch die sich eben das Proton vom Neutron unterscheidet, müssen wir diesen Teilchen zunächst auch eine Größe beilegen, als innere Eigenschaft. Nämlich die dynamisch charakterisierbar ist und die in der klassischen Mechanik oder Elektrodynamik auch durch einen Drall beschrieben wird, so wie das Effet bei einer Billardkugel. Ohne dass es irgendeinen Sinn hätte, davon zu sprechen, dass das Teilchen wirklich im Raume rotiert. Nämlich an diesen Teilchen kann man nicht mehr Markierungen anbringen oder so etwas, um eine Rotation zu beobachten. Das ist ein äußerliches Argument. Das Wichtige ist, dass die Struktur, die mathematische Struktur dieser inneren Eigenschaften gerade so ist, dass diese Rotation prinzipiell gar nicht beobachtet werden kann. Übrigens ist dieser innere Drall fast das einzige Merkmal des Neutrinos, was ich schon im Zusammenhang mit dem Beta-Zerfall nannte. Dieses ungeladene massenlose Teilchen hat eine so geringe Wechselwirkung mit der Materie, aus denen unsere Messapparaturen aufgebaut sind, dass es sich bis vor etwa zehn Jahren dem experimentellem Nachweis entzogen hatte, obgleich Pauli seine Existenz bereits 1930 vorgeschlagen hatte in einem berühmten Brief an seine in Tübingen tagenden Kollegen, um Ordnung in die damals weitgehend ungeklärten Phänomene der Radioaktivität zu bringen. Erst den seitherigen Fortschritten der Experimentiertechnik ist schließlich der Nachweis seiner realen Existenz gelungen. Nun, bei dem Neutrino war der innere Drall, meist mit dem englischen Namen "intrinsic spin" bezeichnet, eigentlich die einzige Eigenschaft dieses so schwer fassbaren Teilchens, welche Pauli positiv vorhersagen konnte fast alle anderen Charakterisierungen konnten nur als Negation ausgesprochen werden. Es hat keine Masse, es hat keine Ladung, überhaupt keine elektromagnetische Wirkung usw. Und man kann dann auch heute noch in leichter Abwandlung eines Morgensternschen Verses vom Neutrino sagen: Ich habe das nur erzählt um klar zu machen, was die Meinungen bei diesen inneren Eigenschaften sind. Diese inneren Eigenschaften haben dann auch die Konzeption der Antiteilchen ermöglicht, wie das Positron das Antiteilchen des Elektrons ist. Beide können sich in der Vereinigung völlig aufheben. Alle inneren Eigenschaften der Teilchen verschwinden mit den Teilchen und stattdessen entstehen, jetzt kommen die mechanischen und Energieimpuls-, Drehimpulseigenschaften dann in der dabei emittierten Strahlung wieder zutage. Diese Antiteilchen werden auch paarweise erzeugt. Ich glaube, es ist nicht nötig, auf die vielen etwas verwirrenden Darstellungen der Presse einzugehen, die gerade in den letzten Wochen durch die Entdeckung des Antideuterons oder den Nachweis des Antideuterons entstanden sind. Diese Antiteilchen sind, zuerst von Dirac prophezeit, also für die Protonen vor etwa zehn Jahren durch eine Gruppe von Forschern in Berkeley entdeckt worden und inzwischen gab es von vielen, vielen anderen Teilchen, schon zu vielen anderen Teilchen, von denen noch die Rede sein wird, bereits Antiteilchen. Und das einzige vielleicht Aufregende ist, dass man im Antideuteron zwei Antiteilchen simultan erzeugt hat, wozu im Allgemeinen also ein großer Energie- und Impulsaufwand nötig ist. Und dass die Energie- und Impulsübertragung an diese beiden Teilchen, die beiden erzeugten Antiproton/Antineutron, so war, dass die sogar beisammen blieben und sich als Deuteron durch die Messapparaturen bewegen konnten. Dass sie nicht sofort wieder in Antiproton und ein Antineutron auseinander platzten. Ja, dann kommen wir eigentlich zu dem Hauptproblem, nämlich, dass bis um die Mitte der 30iger Jahre eben die bekannten Bausteine der Materie, das Nukleon in seinen beiden Erscheinungsformen war, dazu das Elektron, das selbst wiederum als Quelle des elektromagnetischen Feldes wirkte. Ebenso wie die geladenen Formen des Nukleons. Dazu kannten wir die Quanten der elektromagnetischen Strahlung, die Photonen, und konnten diese auch in gutem Sinn, und schließlich noch das Neutrino als Elementarteilchen bezeichnen. Damals schien das einzige noch zu lösende Problem jetzt die Frage nach der Natur der Kräfte, die Protonen und die Neutronen beisammen hielten und aus diesen Bausteinen den Kern aufbauten, und es war zu vermuten, dass diese Kräfte eben wieder nicht als Fernwirkung zwischen den Nukleonen agierten, sondern dass sie durch ein Feld vermittelt wurden. Diese Hypothese in allen ihren Konsequenzen wurde von Herrn Yukawa, den Sie morgen hören werden, ausgesprochen. Man wusste, dass diese Kräfte - oder Yukawa beschloss auch, dass diese Kräfte sehr viel stärker sein mussten, als die elektromagnetischen bei nahen Entfernungen der Nukleonen. Und wegen ihrer kurzen Reichweite musste man den Quanten dieses neuen Kraftfeldes, das jetzt das Bild der Materie abrunden sollte, eben eine endliche Masse zuschreiben, etwa 1/7 der Nukleonenmasse. Und Yukawa nannte diese Quanten dieses Feldes, das die Wechselwirkung der Nukleonen vermittelt, die "Mesonen". Und es war damals eigentlich die Überzeugung der Physiker, dass man durch ein experimentelles Studium dieser Mesonen, gerade dieser Quanten, mit denen man mit geeigneten Beschleunigern eine genügende Zahl erzeugen konnte, alle Informationen über die Kernkräfte gewinnen könnte und dann das Bild von der Struktur der Materie wirklich abschließen könnte. Nun, wie Sie wissen, sind diese Mesonen zunächst dort entdeckt worden, wo uns das Weltall selbst sehr hoch energetische Projektile liefert, in der Höhenstrahlung. Und ich möchte nicht eingehen auf die leichte Konfusion, die in der Zuordnung von in der Höhenstrahlung beobachteten Teilchen zu diesen Quanten der Kernkräfte existiert hat. Viele Jahre lang stellte sich schließlich heraus, dass man das, was man zunächst für die Pi-Mesonen, die Quanten des Kernkraftfeldes hielt, in der Höhenstrahlung gar nicht die Pi-Mesonen waren, sondern erst ein Zerfallsprodukt dieses Pi-Mesons. Aber später wurde auch das Pi-Meson selbst in der Höhenstrahlung gefunden und ich glaube, das ganze Programm, mit dem dann nach Kriegsende die Physiker überall in der Welt, soweit die finanziellen und andere Voraussetzungen gegeben waren, mit solch großen Anstrengungen Teilchenbeschleuniger bauten, um diese Mesonen zu studieren, war es von dem Vertrauen getragen: Wenn wir einmal diese Mesonen kennen, dann wird sich unser Bild von der Materie völlig abgerundet haben, wir können dann alle Wechselwirkungen ausrechnen, quantitativ beschreiben, weil im Prinzip eben mit der Quantenmechanik und Elektrodynamik alle chemischen Wirkungen beschrieben sind. Wenn man jetzt zurückblickt werde ich immer erinnert an eine Zeile in Goethes Faust. Wie der Faust dort in der Walpurgisnacht zum Brocken hinauf steigt und den klassischen Spruch dann sagt: Und dann Mephisto ihm sehr kalt antwortet: Genau das ist das Ergebnis der Entwicklung des Experimentierens mit den Strahlen aus den Teilchenbeschleunigern gewesen. Nämlich, zusätzlich zu diesem Meson, dem Pi-Meson, das uns die Kernkräfte vermitteln sollte, stellt sich heraus, dass es noch eine große, große Fülle von weiteren Teilchen in der Natur gibt, die wir jetzt unter diesen Bedingungen, zwar einige davon auch in der Höhenstrahlung, schon gesehen hatten und die uns ein ganz neues Aufgabengebiet eröffnet. Zunächst aber noch zum Meson. Sie wissen, es gibt das Meson als neutrales, als positiv und als negativ geladenes Meson. Das ist die einfachste innere Eigenschaft, die es hat. Ferner haben Experimente eindeutig ergeben, es hat keinen inneren Drall. Dagegen hat es eine andere innere Eigenschaft, gegen die zunächst bei den experimentierenden Physikern ein gegen deren Benutzung bei den experimentierenden Physikern ein merkwürdiges Unbehagen war. Nämlich, eigentlich ganz simpel kann man diese Eigenschaften nur beschreiben, nicht an dem Teilchen sondern an den Eigenschaften des Feldes, das mit dem Teilchen korrespondiert. Den Yukawaschen Kraftfeldern. Das ist die sogenannte innere Parität. Ich darf aber vielleicht diese Gelegenheit benutzen, um auf einen Spaß hinzuweisen, dass eigentlich schon um ein Haar, wenn Dirac mit seiner Vermutung, dass es freie magnetische Monopole geben könne, recht gehabt hätte oder sogar vielleicht recht hat, dass dann diese Frage der inneren Parität von Teilchen durchaus schon in der klassischen Physik der Felder und ihrer Quellen vorhanden war. Nämlich der magnetische Pol, der Pol, nicht der Dipol, sondern der Pol muss eine entgegengesetzte innere Parität haben, wie die elektrische Elementarladung. Sie wissen nämlich alle, dass das magnetische Feld bei Raumspiegelungen sich anders benimmt als das entgegengesetzte ???(33:25) wie das elektrische Feld. Ferner wissen Sie, dass die magnetischen Dipole sich verhalten wie die magnetischen Felder. Also im Übergang vom rechtshändigen zum linkshändigen Koordinatensystem nicht das Vorzeichen wechseln. Da aber, wenn Sie den Dipol als einen Ortsvektor, multipliziert mit der Polstärke multiplizieren, dann sehen Sie, dass der Ortsvektor seine Vorzeichen ändert, also muss auch der magnetische Monopol sein Vorzeichen wechseln beim Übergang vom rechtshändigen zum linkshändigen Koordinatensystem. Also, im Grunde genommen wäre das schon alles in der klassischen Elektrodynamik vorhanden gewesen, wenn es nicht nur magnetische Dipole sondern auch magnetische Pole gegeben hätte. Nun, diese Eigenschaft wurden wir genötigt dem Pi-Meson zuzuschreiben. Auch das müsste sich so benehmen, wie ein magnetischer Monopol sich zu benehmen hätte. Und zwar wiederum aufgezwungen durch eine Reihe von Experimenten, auf die ich nicht eingehen kann. Also wie gesagt, eines der weiteren Einbrüche in die Struktur des Begriffes Elementarteilchen ist eben die kurze Lebensdauer des Mesons. Dieses Quants, das die Kernkräfte vermittelt, nämlich, es hat nichts mit den Kernkräften zu tun. Es hat nichts mit seinen Wechselwirkungen mit den Nukleonen, dass es sich selber wieder zerfallen kann. Das neutrale zerfällt innerhalb von 10^-16 Sekunden in harte Röntgenstrahlen. Das geladene Meson hat eine Lebensdauer von 10^-8 Sekunden und hat merkwürdigerweise - und schon fängt die Konfusion an - zwei Zerfallsweisen. Nämlich sehr selten: In dem zehnmillionsten Teil aller Fälle, fast im hundertmillionsten Teil aller Fälle, ist das Endprodukt nicht ein Elektron und ein Neutrino. Und sonst, im ganz überwiegenden Teil ist das Endprodukt selbst wieder ein Teilchen, das sich in vieler, vieler Hinsicht genau wie das Elektron benimmt und nur eine 207 mal größere Masse hat, aber selber wieder zerfallen kann in ein Elektron und Neutrino und Anitneutrino. Dieses Zwischenprodukt, das Mü-Meson ist wohl für uns noch das mysteriöseste Teilchen, deren Rolle im Schöpfungsplan zu verstehen eine der härtesten Aufgaben ist. Ich weiß nicht, Herr Heisenberg ist vielleicht etwas anderer Meinung. Es hat den Faktor auch 207 erreicht. Aber, eben wie gesagt, abgesehen von diesem Mü-Meson-Rätsel hat sich die Hoffnung gemäß dem Newtonschen Programm jetzt mit dem Elektron an dem Neutrino und dem Pi-Meson alle Daten in der Hand zu haben für ein geschlossenes Bild der Materie nicht erfüllt, weil es die verfeinerte Experimentierkunst und so viele weitere Teilchen aufgewiesen hat. Sehr merkwürdig war, dass die erste - oder sehr beachtlich war, dass das Erste dieser neuen Teilchen wiederum nicht mit den künstlichen Beschleunigern gefunden wurde, sondern beim Studium der Höhenstrahlung durch die Gruppe in Manchester. meistens noch nicht in der Blasenkammer, sondern in der Wilson-Kammer sichtbar gemacht worden, und da beobachteten zuerst Butler und Mitarbeiter aus der Blackett-Gruppe in Manchester Fälle, wo entweder ein geladenes Teilchen oder ein ungeladenes sehr energiereiches Teilchen auf einen Kern stieß und eine Kernumwandlung machte, dann aber in einer gewissen Entfernung, aber offensichtlich damit korreliert, Spuren von zwei geladenen Teilchen, einem Proton und einem Pi-Meson zum Beispiel - und wenn man den Gesamtimpuls, den diese beiden Teilchen tragen, rückwärts verlängerte, führte er genau zu dem Zentrum dieser Reaktion. Wegen dieser Gestalt, na, ich hätte das Bild eigentlich anders herum zeichnen sollen, wurden diese Teilchen V-Teilchen genannt. Nur um erst einmal einen Namen zu haben. Dann erinnere ich mich noch selber sehr deutlich, dass ich zufällig in einem Seminar in Pasadena war, in dem die Mitarbeiter von Anderson, oder Leute aus der Gruppe von Anderson in Pasadena, ein systematisches Studium dieser Erzeugung zunächst dieser Teilchen vorgenommen hatten und etwa die relative Häufigkeit, mit der diese Gruppe von Teilchen, deren Spur so ein V machte, bestimmt wurde, bei vorgegebenen Bedingungen bekannter Intensität der Höhenstrahlung, bekannter Materialdicke, in denen also diese Teilchen produziert werden konnten usw. Und ich erinnere noch so außerordentlich lebhaft, wie Feynman mit all seinem Temperament aufsprang und sagte: Nämlich, es stellte sich heraus, diese Teilchen wurden sehr, sehr häufig erzeugt, relativ. Und diese Erzeugung musste also dadurch zustande kommen, dass die Nukleonen oder die Pi-Mesonen, die dort vorhanden waren, miteinander so wirkten, dass dieses ungeladene Teilchen also entsteht, das selber wieder dann in Pi-Meson und Proton zerfallen kann. Und jetzt ist Folgendes: Wenn diese Teilchen hätten in Proton und Pi-Meson zerfallen können, dann müsste ihre Erzeugungswahrscheinlichkeit durch die Zerfallsrate bestimmt sein. Das war die Unterstellung. Dann stellte sich aber heraus, die werden so häufig erzeugt, dass wenn man umgekehrt die Zerfallsrate berechnen würde, das Teilchen schon hier oben im Kern zerfallen müsste und nicht einen langen Weg von einigen Zentimetern zurücklegen. Feynman war außerordentlich temperamentvoll und sagte "This is impossible". Es ist einfach inkonsistent. Dann gab es eine lange Diskussion für - ich meine, es wurde natürlich nicht nur von Feynman geäußert - fast ein halbes Jahr lang, bis, soviel ich weiß, Pais den Vorschlag machte, diesen Zerfallsprozess völlig zu entkoppeln von dem Erzeugungsprozess, durch eine sehr merkwürdige Forderung, die sich aber auch vollständig nachher bestätigt hat. Nämlich gelegentlich gab es noch andere, nicht nur eins, sondern zwei solche Bilder, bei denen das zweite Teilchen z.B. in ein Pi+ und Pi- zerfällt. Wiederum ein zweites V-Teilchen, das aber nicht Proton und Pion ist, sondern zwei Pionen. Und Pais formulierte als erster die Hypothese, dass vielleicht der Entstehungsprozess gekoppelt ist an die Bedingung, dass diese beiden Teilchen notwendigerweise paarweise erzeugt werden müssen. Dass sie sich auch zwar, wenn sie beisammen wären, sich wieder treffen können, wieder sich auch vernichten können - aber nur dann, wenn sie beieinander sind. Aber nachdem sie einmal erzeugt wurden, sind sie weit auseinander gelaufen, und das sind also zwei verschiedene Sorten von Teilchen, die keinen Partner finden, mit dem sie dann nach dieser Forderung, dass sie paarweisen reagieren sollen, wieder zerfallen können, sodass der Zerfall völlig entkoppelt wird von dem Erzeugungsprozess. Und dann ist es für die heutige Physik wohl typisch, dass man da ran geht, eine solche Forderung. Diese Teilchen wurden dann also schließlich V-Teilchen genannt oder später wurde das umgedreht und es wurde das Lambda-Teilchen genannt, das also immer neutral vorkommt, und das zumindest in ein Proton zerfällt. Und das andere Teilchen wurde ein K-Teilchen genannt. In diesem Falle K0, das nur in Teilchen, die keinen Spin haben, zerfallen kann oder schließlich in Lichtquanten. So dass der Gesamtspin jedenfalls ganzzahlig ist. Nun, es ist typisch, dass diese Formulierung sofort versucht wurde, quantitativ zu fassen. Und es war ein Mitarbeiter von Herrn Heisenberg, Nishima, oder jedenfalls zeitweise Mitarbeiter von Herrn Heisenberg, und Gell-Mann in Pasadena, die sagten, wenn das ein so klar formuliertes Prinzip sein soll, dann können wir wahrscheinlich dieses Gesetz durch eine weitere innere Eigenschaft aller Elementarteilchen charakterisieren, ihnen einfach durch einfache Zahlen angeben kann, positiv und negativ. Dass bei den gewöhnlichen Teilchen, die wir bisher kennen, diese innere Eigenschaft, die dann den Namen "strangeness" - ich weiß nicht, ob es eine vernünftige Übersetzung gibt - die so gewählt wird, dass sie erstens ganzzahlig ist, positiv oder negativ für alle bisher bekannten Teilchen, für die Protonen, für die Pionen, für die Nukleonen sollte diese strangeness gleich null sein. Und dann ist eine willkürliche Festsetzung, dass man z.B. diesen Teilchen die strangeness -1 gibt und die strangeness +1, und dass so ein Erhaltungssatz für solche inneren Eigenschaften gilt, wie es einen Erhaltungssatz für die Ladungen gibt. Inzwischen wird auch häufig bei einer leichten Verschiebung der Nullstelle diese innere Eigenschaft direkt als Hyperladung charakterisiert. Nun, ich fürchte meine Zeit ist fast verbraucht und es stellt sich heraus, dass zunächst bei denen so studierten verschiedenen neu gefundenen Teilchen man tatsächlich bei diesen beiden neuen inneren Quantenzahlen, einerseits der Parität, das Spiegelungsverhalten der Felder oder der zugeordneten Teilchen beim Übergang vom rechtshändigen zum linkshändigen Koordinatensystem, einerseits, und zweitens durch diese merkwürdige Quantenzahl, die strangeness, man ein Schema bekommen hat, in dem man jedenfalls zunächst alle die Reaktionen so einbauen konnte, dass keine inneren Widersprüche auftraten. Keine inneren Widersprüche von der Art, wie ich charakterisiert hatte, wie Feynman wirklich ganz exklusiv bemerkt hatte und sagte "This is impossible". Und es war wirklich, dieses Erschrecken konnte wieder aufgelöst werden durch die Erfindung eines quantitativen Begriffs einer inneren Eigenschaft, die keineswegs mehr eine okkulte Qualität ist. Nun, ich könnte jetzt in diesem Sinne fortfahren. Inzwischen gibt es also gerade durch solche Quantenzahlen zu charakterisierenden Teilchen die sich dann wieder mit der strangeness zusammenfassen lassen. So gibt es inzwischen eine große Zahl von Elementarteilchen, deren Zahl kaum mehr der Zahl der um die Jahrhundertwende bekannten chemischen Elemente nachsteht, die aber durch diese paar ganz scharf formulierbaren Begriffe immerhin schon so weit in ein Ordnungsschema gebracht werden können, wie es den ersten Versuchen, Ordnung in die chemischen Elemente zu bringen, entspricht. Es besteht die Hoffnung, dass man mittels dieser Begriffe jetzt auch noch diese Ordnung, die zum großen Teil noch qualitativer Natur ist - einige quantitative Vorhersagen kann man machen, man kann häufig angeben die relativen Erzeugungshäufigkeiten des einen oder des anderen Teilchens, wenn man einen Kern mit einer bestimmten Teilchensorte beschießt usw. Dabei sind wir trotzdem noch zwar die Vielfalt der Kerne losgeworden, durch das Gesetz der Nukleonen und der Anti-Nukleonen, aber alle diese Kräfte zwischen den Teilchen, auch zwischen den Nukleonen, die den Kern konstituieren, sind nicht nur bestimmt durch dieses eine Kraftfeld, das Yukawasche-pionische Kraftfeld, sondern durch eine Fülle von Kraftfeldern, die alle diesen seltsamen "strange particles" entsprechen. Diese Kräfte sind außerdem - zunächst möchte ich noch auf einen Punkt hinweisen, dass gerade mit dieser Vorstellung der Komplementarität, dass es also immer Teilchen gibt, zwischen den Teilchen wieder Kräfte wirken, diese Kräfte offensichtlich wieder, nach unserem Programm, durch Felder vermittelt werden, diese Felder aber wieder Quanten haben und durch diese Quanten wieder neue Teilchen entstehen, zwischen denen wieder Wechselwirkungen bestehen könnten, dass das also zu einem Regress ohne Ende führen könnte. Nun, dass tatsächlich auch zwischen den Pionen und Pionen untereinander, also den Pi-Mesonen untereinander, und auch zwischen den strange particles sehr starke Wechselwirkungen entstehen, das ist inzwischen experimentell sichergestellt, gerade dadurch, dass man temporär Zustände herstellen kann, die nachher - also zwar in sehr kurzer Zeit, 10^-18 Sekunden wieder in mehrere Pionen auseinander fallen, bei denen man aber nach dem Energie- und Impulssatz sicher sagen kann, temporär waren das Teilchen. Wenn sie nur aus Pionen auseinander fliegen, dann muss es also durch Kräfte zwischen den Pionen zustande gekommen sein. Es gibt also solche Kräfte. Man könnte also sehr fürchten, jetzt gibt es kein Halten mehr. Diese Kräfte müssen wieder durch Felder vermittelt werden, diese Felder haben Quanten, zwischen diesen Quanten gibt es Kräfte. Und da ist eben der wesentliche Punkt, dass zunächst in Bohrschen Gedanken der Komplementarität gerade schon eine Möglichkeit besteht, diesen Regress in sich zu schließen. Nämlich unter den vielen so gefundenen Teilchen gibt es immer schon solche, deren zugeordnete Felder gerade die Wirkung zwischen anderen Teilchen vermitteln können. Und deshalb ist es nicht notwendig, dass dieser Regress, das Suchen nach neuen Teilchen gar kein Ende nimmt. Daneben aber muss man vielleicht doch an die Tradition der ionischen Naturphilosophen anschließen, an die damals in der ionischen Zeit neue Art, Fragen zu formulieren. Leider kann ich, da liegen unter anderem philologischer Grenzen bei mir vor - Solche Fragen zu formulieren, auf die Thales eine Antwort geben zu können glaubte: Ich finde diese Fragestellung schön. Nun, also diese frühen ionischen Antworten, also die diversen Antworten der ionischen Naturphilosophen können wir natürlich nicht übernehmen. Trotzdem aber ist ihr Traum immer noch lebendig überall in der Physik, gerade angesichts dieser Fülle von Teilchen das Urfeld aufzusuchen, von woher sich alle diese verschiedenen Felder nach einem einheitlichen Prinzip verstehen lassen. Aber auch darüber zu sprechen sind berufenere Leute anwesend.

Jensen on the First Elementary Particles
(00:20:06 - 00:22:46)

As mentioned above, the history of subatomic particles is closely connected with the development of accelerators. Ernest Walton received the 1951 Nobel Prize in Physics jointly with John Cockcroft “for their pioneer work on the transmutation of atomic nuclei by artificially accelerated atomic particles”. In 1968, Walton gave his only lecture at Lindau, with the title “Particle accelerators with special reference to their early history”. Being a specialist in accelerator technology, Walton gives a clear and engaging story of his work in Cambridge under the mentorship of Ernest Rutherford. The high point of his story, of course, is the construction of a high-tension accelerator together with Cockcroft. The instrument was used to make protons enter atomic nuclei by the tunnel effect.

Ernest Walton (1968) - Particle accelerators with special reference to their early history

Graf Bernadotte, meine Damen und Herren. That is about as far as I can venture into the German language. I am very bad at languages, and so I feel very sorry for the interpreters and hence I will stick fairly closely to my script. This will also help me perhaps to keep closely to the time schedule. In the time at my disposal it would be impossible to cover in any detail the large field which comes under the title of particle accelerators. I shall limit myself to giving a general outline of those principles which have led to significant advances and also to a somewhat more detailed discussion of the early work about which I can speak with more authority, because I was then engaged on several of the basic types of accelerator. Hence I shall not show you pretty slides of modern giant accelerators, nor make any significant reference to the nuclear knowledge obtained by the use of accelerators. The urge to produce particle accelerators arose out of Rutherford’s work on the artificial transmutation of one element into another. In 1919 he used natural alpha particles from radioactive substances to bombard nitrogen and he found that swift protons were emitted occasionally. Slide 1 shows the well-known picture taken by Blackett and Lees of such an event as revealed by a Wilson cloud chamber. You will see up near the top of the picture a case of where one of the many alpha particles shown has struck a nitrogen nucleus and the proton comes out towards the left. But there is no sign of the alpha particle coming out and at that time it could be deduced that no other particle did come out because the neutron was not known. Now this is a type of disintegration which we call the alpha proton type and for more than a dozen years, this was the only type of nuclear disintegration known. It was obviously desirable that there should be available for disintegration experiments streams of high energy particles in large numbers and of various sorts. Indeed, this was mentioned in Rutherford’s anniversary address to the royal society in 1927. In theory such particles could be produced by applying a few million volts to an evacuated tube. The currents involved would be small. For example a microampere of helium ions corresponds in number to the total alpha particle emission from about 100 grams of radium. However, the difficulties appeared to be very great. By the standards of that time such voltages were expensive to produce and no one had succeeded in making a vacuum tube capable of withstanding more than about 1/10 of the voltage believed to be necessary. Hence people began to think about possible methods of producing fast particles by indirect or trick methods, which would avoid the use of high voltages. There are in this audience young people whose career lies ahead of them and whose field of work is as yet undetermined. It may interest some of them to hear how one gets involved in special scientific fields. And so I will say in a few words what happened to me. I went to Cambridge as a research student in 1927. And after a few months in the nursery, as it was called, where we learned some new techniques, Rutherford called me to his room to discuss my line of research. On being asked if I had any suggestions to make I put forward the idea of accelerating electrons by letting them move round many times in a circular electric field as in a modern betatron. He suggested a modification which appeared more practicable than my scheme, and this is shown in slide 2. You see an evacuated tube there with a coil wound round the middle of it and a tungsten filament to give some electrons. This arrangement, as Rutherford pointed out at the time, was really just a modification of the arrangement used by J.J. Thomson in his work on the electrode-less ring discharge in gases. A high frequency current from a spark discharge was sent through the coil, shown there, this gave a rapidly changing magnetic flux and hence an alternating electric field was produced in the tube. It was hoped that the alternating magnetic field, together with a steady field produced by an electromagnet might produce suitable conditions for the acceleration of the electrons. But no trace of evidence was found for the presence of fast electrons. Calculations were carried out, which showed that the magnetic field present was of the wrong type to give radial stability to the motion of the electrons. The field increased from the centre out to the coil. The calculation showed that radial stability would be produced by a field decreasing inversely with the radial distance provided that a suitable high frequency radial electric field was also present. Experiments along these lines were not successful because the arrangements were too crude, and also because no provision was made for stability in the axial direction. Now, these experiments were really quite nice ones to start with, they had one very great advantage as far as I was concerned, in that before starting on the work one had not got to read perhaps several hundreds of papers which had gone before. In fact at the time I didn’t know of a single paper to be read on the subject, and that is a great advantage. I did discover later on that there was one paper I might have read, it happened to be a patent specification. When the failure of this method became evident, another method was suggested to Rutherford. It was the method utilised in what is now called the linear accelerator. The principle is shown in slide 3. And it is that the particles acquire their energy as a result of receiving a large number of successive pushes. In between these pushes which they receive as they travel from one of the cylinders to the next, as shown in the diagram, they pass through conducting cylinders and are thus unaffected by any changes made in the potentials of the cylinders. As shown in the diagram, the odd numbered cylinders are connected together and so are the even numbered ones. The two sets of cylinders are connected to the output of a high frequency generator. If the lengths of successive cylinders increase in the correct way, it is possible always to have an accelerating field present, as the group of particles move between successive cylinders. Experiments on this carried out in 1928 at Cambridge failed for two reasons. The high frequency voltage was generated by a crude spark gap arrangement, and at the same time very little was known about the focusing of charged particles. Indeed the ends of the cylinders were covered with gauze in order to ensure a field-free space inside them. And this effectively removed the natural focusing action which occurs in the gap between two cylinders with a potential between them. Late in 1928 an important paper by Wideroe appeared in the archive for electro technique. In it he described experiments to verify the basic principle of accelerating a particle in the circular electrical field produced by a changing magnetic flux. He was able to follow the electrons 1.5 times around the circle. This was not the first publication on the betatron, the principle had been described by Slepian in a patent taken out in the United States in 1922. Physicists do not normally read these patent specifications. Wideroe’s paper also described some experiments in which ions were given two accelerations in a linear accelerator arrangement. He had developed further the idea of the linear accelerator first put forward by Ising in a Swedish journal in 1924. It is interesting to note at this early date a failure in communications about which we hear so much at the present time. Although Cambridge at the time was regarded by many as the world centre for atomic physics, as it was then called, no one there and not even Rutherford himself appeared to have heard of Ising’s paper. The next slide shows a diagram of the method suggested by Ising. His proposal involved the breakdown of a spark gap and the application of the impulsive potential produced to various cylinders through suitable delay lines. It is interesting to note that he included in his diagram the gauzes at the end of the cylinders, which were included four years later independently and wrongly in the experiments at Cambridge. Wideroe’s paper was important in another respect. It was responsible for directing Lawrence’s attention to the problem of accelerating particles to high energies. At a time when he was looking around for a new line of research, he came upon Wideroe’s paper quite accidentally. He said that he knew very little German, but was able to understand what the paper was about by studying the diagrams. The result was that by 1931 he and Sloan were able to report the production of mercury ions of 1.26 million electron volts using an accelerating potential of only 42,000 volts in a linear accelerator arrangement as shown in the next slide. You can see the series of cylinders up at the top, the rest of the diagram is in connection with the measurement of the energies. The limit imposed by the electrical capacity of the cylinders in this method then became evident, and so Lawrence was led to invent the cyclotron, which in effect uses the same pair of cylinders over and over again. Fortunately the disintegration of elements by artificially accelerated particles did not have to await the development of the indirect methods which had been suggested. In 1928 Gamow and independently Condon and Gurney applied the then new wave mechanics to account for the details of the emission of alpha particles from radioactive substances. It explained the statistical character of the emission and the wellknown relation between the energy of the alpha particles and the half life of the radioactive substance. Cockcroft in Cambridge saw that the theory could be applied in reverse to the penetration of charged particles into the nuclei of atoms. Calculations showed that protons of quite moderate energies had a reasonable chance of penetrating into the interior of nuclei. If they did so, one might expect that in a proportion of the cases disintegrations might follow immediately. Estimates indicated that a current of 100 microamperes of protons accelerated by a few hundred thousand volts should produce an ample number of disintegrations for easy observation. The next slide shows Cockcroft and Gamow evidently well pleased with the result of these discussions. Cockcroft on the left, Gamow on the right. Cockcroft showed these results to Rutherford and it was decided to test the theory by the use of fast protons accelerated directly by the application of a high voltage. It was further decided that Cockcroft would abandon his experiments on the deposition of metallic vapours onto surfaces cooled to low temperatures. And that I would abandon work on indirect methods and that we should work jointly on the new project. When planning to use the direct method employing a high voltage sometimes referred to as the brute force method, the first matter to be settled is the type of high voltage generator to be employed. The next slide shows the possibilities at that time to be as shown. There’s the induction coil which had a long and honourable place in physical laboratories. The impulse generator as used by Brasch and Lange, the Tesla coil or resonant transformer as used at the Carnegie institute by Breit, Tuve and Dahl. Or power transformers as used by Lauritson in the United States. Or a transformer and rectifier or electrostatic machines. Most of these methods produced voltages with vary with the time. And thus when used to accelerate ions, they give a beam containing ions with a wide range of energies. Electrostatic machines tend to give a high voltage, low current output and this is just what is required for nuclear work. Furthermore they usually give a steady voltage and are thus capable of producing a stream of ions all of identical energy. The built type of electrostatic machine was introduced by Van de Graaff in 1929 and has been a valuable tool in nuclear research. Its main use has been in the range of, from about 1 million to about twenty million volts. For lower voltages the circular type developed at Grenoble by Felici has been found to be very suitable. The Van de Graaff machine works on very simple principles, which are wellknown and I shall not discuss them here. In 1928 the most suitable method of producing a high steady voltage of a few hundred kilovolts with an output of a few milliamperes appeared to be a power transformer with its output rectified and smoothed by a suitable capacitor. This was the method chosen for the experiments in Cambridge. Some development work had first to be done on the construction of high voltage continuously evacuated rectifiers and on the problems which arose when they had to be used in series. Fortunately the problems were greatly simplified by the use of a modification of a circuit introduced by Schenkel in 1919. Using this, it was possible to multiply the output of a transformer, any even number of times and to produce at the same time a steady output voltage. It enabled the rectifiers to be placed one above the other to form a large glass pillar which could be evacuated by a diffusion pump placed at earth potential as shown in the next slide. You can see the tall column of glass cylinders near the middle of the picture here and this is the accelerating tube over there. Now, this arrangement also ensured that the reverse voltages across the various rectifiers were equalised automatically. The apparatus is known as a voltage multiplier and was used in 1932 in the first disintegration experiments using artificially accelerated particles. Voltages of up to nearly 800 kilovolts could be generated with this apparatus. The next slide shows a Wilson chamber photograph of some of the disintegrations produced. You can see a lot of alpha particles coming out from the centre of the picture, these are produced by the bombardment of lithium with some fast protons. And you can see that there are a large number of these particles, which were actually emitted in a time of something like 1/50 of a second. Indeed this lithium reaction is so easy to observe that the experiments could have been performed ten years earlier. For this about 20,000 volts would have sufficed but no one would have dared to do it at that time because anybody seen attempting to do this would have been more or less laughed at, because he would have been an ignoramus quite un-conversant with the nature of the electric fields near the nucleus of an atom. There is something to be said all the same for trying what I sometimes call a fool’s experiment, provided that it can be done quickly, easily and quietly in a room which can be kept locked so that no one will know about the experiment if it is not successful. The Cambridge voltage multiplier apparatus was capable of disintegrating some of the light elements and of producing artificial radio activity in others. These results gave great encouragement to those working on the indirect methods, for these were the only ones likely to provide particles sufficiently energetic to disintegrate the heavier elements. There seemed to be no doubt that a gateway to large unexplored area was open to anyone who had available a beam of high energy particles. At this stage I’ll return to the indirect methods and consider the major problems involved and the limits to the energy attainable in each case. The betatron or magnetic induction accelerator already mentioned is of use only for the acceleration of electrons. The reason for this is that the particle acquires only a small addition to its energy during each revolution, and so the particle must travel around the circular electric field, perhaps a million times, while the flux increases from zero to its maximum value. Electrons by reason of their small mass and high velocity can do this but positive ions with their much larger masses will make a much smaller number of revolutions and acquire only a small energy in the time. As the electrons have to travel perhaps a million times around the circle, it is essential that these should be not merely an equilibrium orbit for the electrons, but that it should also be a stable one. Otherwise, any slight disturbance would cause the particles eventually to move off the equilibrium orbit and be lost. This problem of orbital stability is fundamental to all machines in which particles during acceleration must remain near to a definite path. The problem can be split into 2 separate parts, stability in the direction of the magnetic field or axial stability, and a stability in the plain of the orbit or radial stability. The first of these arose in Lawrence’s work on the cyclotron. The next slide shows the sort of magnetic field that you get near the edge of the pole pieces, and the arrows on it show the direction of the forces acting on the particle going into the plain of the screen there. And you can see that these forces have got components tending to bring the particles back to the central plain of the apparatus. If a particle wanders from the axial direction, it is obvious that it will be brought back again. The magnetic field must be curved outwards as shown, and this entails a magnetic field which decreases in the radial direction. Mathematically it means that if the magnetic field is proportional to 1 over R to the N, then N must be greater than nought. N equal to nought would correspond to a uniform field. The condition for stability in the radial direction is that if the particle starts to move on an orbit of slightly larger radius, the magnetic field must be strong enough to cause this particle to move in a circle of smaller radius than that of the new orbit. Hence as the centrifugal force falls off inversely with the radial distance, the magnetic field must fall off less rapidly. And thus we see that if the magnetic field is proportional to one over R to the N, then N is less than one. Thus for stability in both directions, this index, this field index N must lie somewhere between nought and one. The full mathematical theory of this was given in 1941 by Kerst and Serber, who also dealt with the damping out of such oscillations as might occur. An understanding of the results enabled Kerst to construct the first practical betatron, which is shown in the diagram on the next slide. Now I’ll not go into the details of that, I just want you to notice the dimensions, the width of that apparatus is something like half a metre, and yet with this very simple apparatus he was able to produce 2.3 million volt electrons in sufficient numbers to produce a gamma ray intensity equivalent to that emitted by 1 gram of radium. The largest betatron constructed gives 300 million electron volt electrons and was designed by Kerst and others in 1950. It may well be the largest to be built, for at this size many practical problems become severe. More important still, a fundamental limitation arises, an electron in its orbit is being accelerated all the time to the centre. And so we get a continuous radiation of electromagnetic energy. This loss is proportional to the fourth power of the energy of the particle, and so a point is rapidly reached when the loss of energy per revolution by radiation becomes as great as the energy per revolution given to the particle by the betatron action. Fortunately the electron synchrotron by reason of the greater radius of the electron orbit in it and the much greater energy added per revolution can give electrons a much greater energy. Return now to the linear accelerator. In dealing with the betatron, I spoke about the need for orbital stability of the electrons. We need also a similar stability in a linear accelerator, so that particles cannot wander too far from the axis of the cylinders. Hence it is perhaps more natural to talk about the focusing of the particle. Indeed this terminology has been extended to cover both linear accelerators and orbital accelerators. If there were no grids at the end of the cylinder, some focusing occurs naturally, as can be seen in the next slide. These dotted lines represent the lines of electric force, the full lines represent the path of the particle. As the particle enters into this gap, you can see that there’s a force acting down this way along the direction of the lines of electric force and the particle gets accelerated up. Then there’s a defocusing force here, due to this line of electric force, tending to pull the particle away from the axis. But the particle is then moving faster, this force acts for a shorter time and the overall effect is a focusing one. Now the details of this were worked out by Rose and Wilson in 1938 for the cyclotron, the same theory applies to the linear accelerator. Its equivalent optically to a large number of convex lenses one after the other. Now the next slide shows the type of result that we get arising from this focusing action. This is the axis of the accelerator and you have a particle starting off this way, if there are no focusing action it would go off like that. With this electrostatic focusing action we get a path like this for the particle, one of increasing amplitude and increasing wavelength. And we see initially, there’s quite a helpful action in keeping the particle near the axis. But ultimately the electrostatic focusing is of no use, the particle is going too fast for the electrical lenses to have any significant effect. Now, unfortunately - I should have said perhaps that the electrical focusing can be increased by having a varying potential, one which decreases as the particles cross the gap. And in that case we get a stronger lens, but unfortunately we get phase defocusing in the linear accelerator. When Lawrence realised the limitations of the linear accelerator he devised the method of the cyclotron and the first publication was by Lawrence and Edlefsen in 1930, it verified the basic principle of the cyclotron. Next slide, here we have really two hollow electrodes in the shape of these between which an alternating voltage is applied and these two hollow electrodes behave like the first two cylinders in a linear accelerator and just as if we used them over and over again. Now the particles in the cyclotron, I haven’t time to go into the details, starts somewhere near the middle and spiral outwards as they acquire energy each time they cross the gap between the two D-shaped electrodes. Now the same electrostatic focusing occurs near the centre of the cyclotron, but it’s of no significance as you move outwards. But Lawrence introduced the magnetic focusing out there, so we have this combination of electrical and magnetic focusing in action in the cyclotron. Now, Lawrence built a number of cyclotrons of increasing size, the largest planned having a pole diameter of 4.6 metres. And this would produce about 350 million electron volt particles. Now, there is a difficulty which arises, because he had to use a decreasing magnetic field to produce focusing, but this means that the particles get out of step with the alternating voltage, as they move into this region of decreasing magnetic field. And it meant that to get over this you would have to apply a very large voltage between the D’s. It was planned for this large cyclotron that something like a million volts alternating potential would be applied between the D’s. And this would have raised very great technical problems. Fortunately a better solution turned up. In 1945 McMillan in the United States and Veksler in Russia independently drew attention to the existence of phase focusing, which occurs under suitable conditions. To understand what this means let us think of a linear accelerator designed to accelerate particles which cross the gap at a certain place on each radio frequency oscillation. Next slide please. We imagine that the machine has been designed, so the particles cross here, then when they go through the cylinders they’ll reach the next gap just at the same part of the oscillation. Now let´s see what happens if a particle arrives with the right energy but a little bit later, up here. It means that it acquires more energy than the normal particle, and so at the next gap it arrives a little bit earlier, it doesn’t get quite as much additional energy as this got, but still it gets some additional energy and it arrives still earlier at the next gap as shown over here. So the particle moves back towards this point on the oscillations. It actually overshoots the mark and oscillates about it. Now this meant that if you had in the cyclotron a group of particles going around, crossing the gap between the D’s at this point here, where there’s no voltage, that these could continue on round in a circle without acquiring any energy. But if you decrease the frequency, then they would start to come in at another point and acquire some energy, come in here and acquire some energy and they would move back again to this proper place for it. This meant that by simply reducing the frequency you could expand this bunch of particles which was circulating in a circle. Or, what was the same thing, you could change the magnetic field and the circle would expand out to meet the new conditions. This, in a few words, is the basis of this idea of phased stability. And it enabled this large planned cyclotron of Lawrence’s to be used not as a straight cyclotron, but as what we call a synchrocyclotron, where the frequency was changed to match the changing frequency of revolution in the weaker parts of the magnetic field. Now, I am afraid the time is getting on, and so I’ll have to just make some cuts in what I have written out here. Now, in the electron synchrotron we can introduce a great saving in the cost of the machine, because we can reduce the volume of the magnetic field. Instead of having particles spiralling outwards from the centre, they are all the time kept on a circle of constant radius. And you can do this if you increase the magnetic field with time. Here again in the electron synchrotron, the principle of phase stability works, and one can produce very high energy particles in this way. It’s rather interesting that the synchrotron works for the very reason that the cyclotron fails to work at the high energies. You have in the cyclotron two limitations, one the necessity to decrease the magnetic field as you go outwards, and the other the fact that the particles acquire additional mass as they speed up and this has the same effect as the decreasing magnetic field, they get out of step rather quickly. If we just consider these synchrotrons - and you can also have a proton synchrotron by varying both the frequency and the magnetic field - we want to see how we can put up the energy of the particles produced. Normally one would simply build a bigger magnet, so that you had a larger circle for the particles to move round on. But if you can reduce the gap, then it is possible to keep the magnet a reasonable size. Now, it’s possible to reduce the gap if you can introduce additional stability into the motion of the particles. And this was the next advance, the next big idea in the history of the development of the subject. It meant that one needed a stronger focusing action than one had got previously. Now this focusing action, this new focusing action called strong focusing or alternating gradient focusing was first of all suggested by Courant and Livingston and Snyder in 1952, who found that the same idea had been suggested a little bit earlier in a patent filed by Christofilos in 1950. Now, the full theory of this method is difficult, there are a few simple examples of it given in most of the books that describe the action, the optical analogue where you have a series of concave and convex lenses and you get an overall focusing effect there. Or sometimes mechanical analogues are given, such as the way in which the stability of a pendulum can be increased by vibrating the point of support up and down. Now this, without going into the details, this principle of alternating gradient focusing, where in the axial direction you have a series of regions where you have strong focusing followed by strong defocusing, and in the radial direction you get the opposite effect. Now this means that in both the axial and the radial direction, one gets very strong focusing, you can reduce the size of vacuum tube, you can reduce the gap in your magnet and you can keep the cost of the magnet and the size of the magnet down. Now, this is the arrangement used in the largest machines which we have today, such as the Brookhaven one or the one at Cern, or the new one that’s just come into operation in Russia. And these give energies of varying amounts from about 30,000 million electron volts up to that sort of value. Now, if we look at, perhaps you would turn to slide number twenty one. This is a diagram due to Livingston showing the progress of linear accelerators over the years. Here are the DC methods round about 1930. This is a scale of the energies of the particles plotted logarithmically. This is 1 million electron volts here. And you see the curves tend to turn over. Then later on, we have the development of the electrostatic method, the Van de Graaff machine. And you can see that curve begins to turn over when you get up to a few million electron volts. Then we have this linear proton accelerator and here we have the cyclotron. We have the betatron up here and the synchrotron up here. And the proton synchrotron up here, which is the type of machines I’ve just been mentioning. Now all of these show a kind of upper limit lying roughly along this curve. And it corresponds to a very rapid rate of increase in voltage with time. These are the years marked here and it´s curious how you get very nearly a straight line on this semi logarithmic clock. If we look to the future, see what's going to happen next, you’ve got to go up to very high energies indeed, beyond the limits of that curve, and it´s obvious that one is getting to the stage when one needs a new idea. And the idea, various ideas have been suggested and I just mention one that has come to the fore in recent months. This is a suggestion put forward independently by Veksler and Woodcock way back in 1956. The basis of it is that if we can hold a cloud of electrons together and inject protons into it, so that the number of protons is about 1% of the electrons present, then these protons will be very firmly attached to the cloud by electrostatic forces. If the cloud is accelerated to high speed, the protons will also be accelerated, because the mass of the protons is much greater than the electron mass, the energy of individual protons will be much greater than the energy of the individual electrons. Some of the details of the scheme are shown in the next slide. The problem is to hold the cloud of electrons together, because they are, they tend to fly apart with the repulsive forces between the negative charges. And this is done in this projected method You have fast moving electrons, this helps because you have the pinch effect acting, if you have two parallel currents flowing in the same direction, they tend to move towards each other. So you start off with a ring of electrons and the cross section is shown here and here. The ring comes right round like this. And it’s held in this ring by a magnetic field which obeys the usual betatron conditions. Now, what you do is you have these electrons going around with some few millions of electron volts energy. And then you shrink this ring down by increasing the magnetic field. And you can shrink it down at the same time by kind of betatron action increase still further the energy of the particles as they revolve round, and you end up with this ring like this. And you have electrons going around rapidly, they’re held together and there’s about 1% of protons mixed up with them. Then you accelerate this ring in that direction by putting it through what is in effect a linear accelerator. You can push it out here by reducing the field due to the current in this coil, the coil comes round here, that opens this magnetic field out and the ring gets pushed out and it’s accelerated up just as an individual particle might be. And the protons of course go out with it. Now this introduces a possibility of getting protons of energies very much higher than the energies of the individual electrons that are accelerated in that ring. In fact if you started off with slowly moving electrons one would get protons of nearly 2,000 times the energy of the electrons in the ring which is accelerated up. Now, preliminary experiments have shown the method to be promising. Even if machines of this type are successful, the energies given to particles are likely to be very small in comparison with that possessed by some of the cosmic rays. We do not know the mode of origin of these, they may indeed be formed in some vast natural form of magnetic and electric fields in space, which would surely be entitled to be called a celestial ultra high energy particle accelerator.

Graf Bernadotte, meine Damen und Herren. leider sind damit meine Kenntnisse der deutschen Sprache bereits erschöpft. Ich bin nicht sehr sprachbegabt, daher entschuldige ich mich für die Dolmetscher und werde mich weitestgehend an mein Skript halten. Dies hilft mir vielleicht auch, im Zeitrahmen zu bleiben. In der Zeit, die mir zur Verfügung steht, wäre es unmöglich, das weite Feld der „Teilchenbeschleuniger“ im Detail zu erläutern. Ich werde mich daher darauf beschränken, einen allgemeinen Überblick über jene Grundsätze zu geben, die die maßgeblichen Fortschritte ermöglicht haben, und etwas näher auf die frühe Forschungsarbeit eingehen, über die ich mit mehr Autorität sprechen kann, weil ich damals an mehreren Grundtypen des Beschleunigers mitgearbeitet habe. Ich werde Ihnen also keine schönen Bilder moderner Riesenbeschleuniger zeigen oder auf das Wissen über nukleare Prozesse verweisen, das sich uns durch diese Beschleuniger erschlossen hat. Den Anlass zur Herstellung von Teilchenbeschleunigern lieferte die Arbeit von Rutherford über die künstliche Umwandlung eines Elements in ein anderes Element. dass dabei schnelle Protonen freigesetzt wurden. Folie 1 zeigt die bekannte Aufnahme von Blackett und Lees, die in einer Wilson-Nebelkammer von einem solchen Vorgang gemacht wurde. Oben im Bild ist zu sehen, wie eines der vielen Alphateilchen auf einen Stickstoffkern auftrifft und das Proton nach links austritt. Es ist jedoch nicht zu erkennen, dass das Alphateilchen wieder austritt und seinerzeit folgerte man daraus, dass kein anderes Teilchen austrat, weil man das Neutron noch nicht kannte. Dies ist der Kernzerfall durch so genannte Alphaprotonen und für mehr als ein Jahrzehnt war dies die einzige bekannte Form des Kernzerfalls. Es war damals natürlich wichtig, für diese Experimente hochenergetische Teilchen in großer Zahl und von unterschiedlicher Art zur Verfügung zu haben. Tatsächlich wurde dies im Vortrag von Rutherford anlässlich des Jahrestags der Royal Society 1927 angesprochen. Theoretisch konnte man solche Teilchen herstellen, indem eine Spannung von einigen Millionen Volt an eine Vakuumröhre angelegt wurde. Dabei waren nur geringe Stromstärken im Spiel. Ein Mikroampère Heliumionen entspricht zum Beispiel zahlenmäßig der gesamten Alphateilchenemission von etwa 100 Gramm Radium. In der Praxis gab es jedoch große Probleme. Nach dem damaligen Stand der Technik war die Erzeugung so hoher Spannungen sehr kostspielig und es war noch nicht gelungen, eine Vakuumröhre zu erzeugen, die mehr als etwa 1/10 der erforderlichen Spannung standhalten konnte. Daher begann man über Möglichkeiten nachzudenken, schnelle Teilchen durch indirekte Verfahren oder auf Umwegen zu erzeugen, ohne derart hohe Spannungen. Ich sehe im Publikum junge Menschen, deren berufliche Laufbahn noch vor ihnen liegt und deren Arbeitsgebiet noch im Dunkeln liegt. Vielleicht ist es für einige von ihnen interessant, zu hören, wie man zu einem bestimmten Forschungsgebiet kommt. Daher will ich kurz meinen eigenen Werdegang schildern. Ich kam 1927 als Forschungsstudent nach Cambridge. Nach einigen Monaten in der so genannten „Nursery“, wo wir mit einigen neuen Techniken vertraut gemacht wurden, rief mich Rutherford zu sich, um über meine Forschungsreihe zu sprechen. Als er mich nach meinen eigenen Ideen fragte, kam ich mit dem Vorschlag, Elektronen zu beschleunigen, indem man sie viele Male in einem kreisförmigen elektrischen Feld wie in einem modernen Betatron kreisen lässt. Er schlug dann eine Änderung des Grundaufbaus vor, die sich als praktikabler erwies als mein ursprüngliches Konzept, und die in Folie 2 gezeigt wird. Man sieht hier eine Vakuumröhre mit einer Spule, die um die Mitte gewickelt ist, und einem Wolframfaden für die Erzeugung von Elektronen. Diese Anordnung war, wie Rutherford seinerzeit betonte, lediglich eine Modifizierung des von J. J. Thomson in seiner Arbeit mit der elektrodenlosen Ringentladung in Gasen benutzten Aufbaus. Es wurde ein hochfrequenter Strom aus einer Funkenentladung durch die Spule geschickt, wie hier zu sehen ist, daraus entstand ein schnell wechselnder Magnetstrom und in der Röhre wurde ein elektrisches Wechselfeld erzeugt. Man hoffte, dass das alternierende Magnetfeld zusammen mit einem stetigen Feld, das mit einem Elektromagneten erzeugt wurde, geeignete Bedingungen für die Elektronenbeschleunigung schaffen würde. Es wurde jedoch keinerlei Hinweis auf das Vorhandensein schneller Elektronen entdeckt. Man stellte Berechnungen an, die zeigten, dass das Magnetfeld ungeeignet war, um die radiale Stabilität zu erzeugen, die für die Bewegung der Elektronen notwendig war. Das Feld wurde von der Mitte zur Spule hin größer. Die Berechnung zeigte, dass die radiale Stabilität nur durch ein Feld entstehen würde, das sich umgekehrt zum radialen Abstand verkleinert, sofern auch ein geeignetes hochfrequentes radiales elektrisches Feld vorhanden war. Die Experimente mit diesem Ansatz waren nicht erfolgreich, weil der Aufbau zu grob war und keine Stabilität in axialer Richtung gewährleistet war. Jedoch waren diese Experimente für den Anfang ganz in Ordnung und sie hatten für mich den großen Vorteil, dass man nicht erst zahllose Papiere über frühere Versuche durchlesen musste, bevor man mit der Arbeit begann. Mir war seinerzeit nicht ein einziges Dokument zu diesem Thema bekannt, das ich hätte lesen können, und das war ein großer Vorteil. Später stellte ich fest, dass ich doch ein Papier hätte lesen sollen, und das war ausgerechnet eine Patentschrift. Als klar wurde, dass diese Methode nicht zum Erfolg führen würde, wurde Rutherford ein anderes Verfahren vorgeschlagen, das im heute so genannten Linearbeschleuniger angewandt wird. Folie 3 zeigt das Grundprinzip, das besagt, dass die Teilchen ihre Energie aus einer Vielzahl aufeinanderfolgender Impulse erhalten. Zwischen diesen Impulsen, die sie auf ihrem Weg von einem Zylinder zum nächsten erhalten, wie in der Skizze gezeigt, strömen sie durch leitende Zylinder und werden daher durch Potentialänderungen der Zylinder nicht beeinflusst. Wie in der Skizze zu sehen ist, sind die ungeradzahligen Zylinder und die geradzahligen Zylinder jeweils miteinander verbunden. Die beiden Zylindergruppen sind an den Ausgang eines Hochfrequenzgenerators angeschlossen. Wenn sich die Längen der aufeinanderfolgenden Zylinder richtig vergrößern, kann immer ein Beschleunigungsfeld aufrechterhalten werden, wenn sich die Teilchengruppen zwischen den Zylindern bewegen. Die Experimente, die 1928 in Cambridge nach diesem Prinzip durchgeführt wurden, waren aus zwei Gründen nicht erfolgreich. Die Hochfrequenzspannung wurde mit einer ungeeigneten Funkenstrecke erzeugt und man wusste noch kaum etwas über die Fokussierung geladener Teilchen. Die Zylinderenden waren mit einem Geflecht bedeckt, um einen feldfreien Raum im Inneren zu gewährleisten. Und damit wurde die natürliche Fokussierung verhindert, die im Spalt zwischen zwei Zylindern, zwischen denen eine Spannung vorhanden ist, auftritt. Im Spätjahr 1928 erschien ein wichtiges Papier von Wideroe im Archiv für Elektrotechnik. Er beschrieb darin Experimente zur Verifizierung des Grundprinzips der Teilchenbeschleunigung in einem durch einen wechselnden Magnetfluss erzeugten kreisförmigen elektrischen Feld. Er konnte die Elektronen 1,5-mal auf der Kreisbahn verfolgen. Dies war nicht die erste Veröffentlichung über das Betatron, das Prinzip hatte bereits Slepian in einem 1922 in den USA erwirkten Patent beschrieben. Aber Physiker lesen solche Patentschriften normalerweise nicht. Wideroe beschrieb in seiner Veröffentlichung auch Experimente, bei denen Ionen zweimal in einem Linearbeschleunigeraufbau beschleunigt wurden. Er hatte das Konzept des Linearbeschleunigers, das erstmals von Ising 1924 in einer schwedischen Zeitschrift beschrieben wurde, weiterentwickelt. Interessanterweise war bereits zu dieser frühen Zeit die Kommunikation gestört, wovon man heute so oft hört. Obwohl Cambridge damals für viele als das weltweite Zentrum der Atomphysik galt - wie es seinerzeit genannt wurde -, hatte dort niemand, auch nicht Rutherford selbst, je von der Veröffentlichung von Ising gehört. Die nächste Folie zeigt schematisch die von Ising vorgeschlagene Methode. Sein Vorschlag beruht auf dem Überschlag einer Funkenstrecke und der Aufschaltung der dadurch erzeugten Impulsspannung auf mehrere Zylinder durch geeignete Verzögerungsschaltungen. Interessant ist, dass in dieser Skizze auch das Geflecht an den Zylinderenden auftaucht, das vier Jahre später unabhängig davon und fehlerhaft in den Experimenten in Cambridge verwendet wurde. Das Papier von Wideroe war in anderer Hinsicht wichtig. Durch diese Veröffentlichung wurde Lawrence auf das Problem der Beschleunigung der Teilchen auf hohe Energien aufmerksam. Gerade als er nach einem neuen Forschungsansatz suchte, entdeckte er eher zufällig das Papier von Wideroe. Er sagte, er konnte nur wenig Deutsch, verstand aber den Inhalt des Papiers anhand der Skizzen. Als Ergebnis davon konnten er und Sloan 1931 berichten, dass sie Quecksilberionen mit 1,26 Millionen Elektronenvolt mit einer Beschleunigungsspannung von nur 42.000 Volt in einem Linearbeschleuniger, wie in der nächsten Folie gezeigt, erzeugen konnten. Man sieht hier die Zylinderreihen oben, der Rest des Diagramms betrifft die Messung der Energien. Es wurde dann klar, dass dieses Verfahren durch die elektrische Kapazität der Zylinder beschränkt war, daher erfand Lawrence das Zyklotron, bei dem das gleiche Zylinderpaar immer wieder verwendet wird. Glücklicherweise musste man für die Spaltung von Elementen durch künstlich beschleunigte Teilchen nicht auf die Entwicklung der vorgeschlagenen indirekten Verfahren warten. die damals noch ganz neue Wellenmechanik für die Alphateilchenemission aus radioaktiven Stoffen. Sie erklärte die statistischen Eigenschaften der Emission und die wohlbekannte Beziehung zwischen der Energie der Alphateilchen und der Halbwertszeit des radioaktiven Stoffs. In Cambridge erkannte Cockcroft, dass die Theorie umgekehrt auch auf das Eindringen geladener Teilchen in Atomkerne anwendbar war. Durch Berechnungen wurde nachgewiesen, dass es Protonen, die mit moderater Energie geladen waren, gelingen sollte, in das Innere der Atomkerne einzudringen. Man sollte dann erwarten, dass in einer bestimmten Anzahl der untersuchten Fälle sofort eine Zerfallsreaktion stattfindet. Nach Schätzungen sollte ein Protonenstrom von 100 Mikroampère bei einer Beschleunigung mit einigen Hunderttausend Volt zahlreiche leicht beobachtbare Zerfallsreaktionen verursachen. Die nächste Folie zeigt Cockcroft und Gamow, die sich sichtlich über das Ergebnis dieser Diskussionen freuen. Cockcroft ist links, Gamow rechts. Cockcroft zeigte diese Ergebnisse Rutherford und es wurde beschlossen, die Theorie mit schnellen Protonen, die direkt durch Hochspannung beschleunigt werden sollten, zu testen. Ferner wurde beschlossen, dass Cockcroft seine Experimente über die Ablagerung von Metalldämpfen auf stark heruntergekühlten Flächen aufgeben sollte. Und dass ich meine Arbeit an indirekten Verfahren aufgeben und wir alle gemeinsam an dem neuen Projekt arbeiten sollten. Wenn man das direkte Verfahren mit Hochspannung anwenden will, das auch als das „Rohe-Gewalt-Verfahren“ bezeichnet wird, muss zuerst entschieden werden, was für ein Hochspannungsgenerator eingesetzt werden soll. Die nächste Folie zeigt, welche Optionen damals zur Verfügung standen. Hier die Induktionsspule, die schon lange und bewährt in Physiklabors genutzt wurde, der von Brasch und Lange verwendete Pulsgenerator, die Tesla-Spule und der am Carnegie-Institut von Breit, Tuve und Dahl benutzte Resonanztransformator, Leistungstransformatoren, wie sie von Lauritson in den USA eingesetzt wurden, Transformator mit Gleichrichter oder elektrostatische Generatoren. Die meisten dieser Verfahren erzeugten Spannungen, die zeitlich nicht stabil waren. Bei der Ionenbeschleunigung erzeugen sie daher einen Strahl, der Ionen mit höchst unterschiedlichen Energien enthält. Elektrostatische Generatoren erzeugen eine hohe Spannung bei niedrigen Stromstärken, also genau das, was für die Arbeit mit Atomkernen benötigt wird. Außerdem geben sie eine stetige Spannung ab und erzeugen so einen Ionenstrom von einheitlicher Energie. Dieser elektrostatische Generator wurde 1929 von Van de Graaff gebaut und ist seither ein wertvolles Gerät in der Nuklearforschung. Er wird vorwiegend im Bereich von etwa 1 bis 20 Millionen Volt eingesetzt. Für niedrigere Spannungen hat sich der in Grenoble von Felici entwickelte runde Generator als geeignet erwiesen. Der Van-de-Graaff-Generator arbeitet nach sehr einfachen Prinzipien, die bekannt sind und die ich hier nicht weiter vertiefen will. Für die Erzeugung einer hohen stetigen Spannung von einigen Hundert Kilovolt bei einem Stromausgang von nur wenigen Milliampère schien 1928 ein Leistungstransformator am besten geeignet, dessen Ausgang gleichgerichtet und mit einem geeigneten Kondensator geglättet wurde. Dies war das Verfahren, das für die Experimente in Cambridge gewählt wurde. Es war zunächst noch einige Entwicklungsarbeit erforderlich, um ständig evakuierte Hochspannungsgleichrichter zu bauen und die Probleme bei ihrem Einsatz in einer Reihenschaltung zu lösen. Diese Probleme wurden jedoch glücklicherweise deutlich verkleinert durch einen modifizierten Aufbau, der 1919 von Schenkel vorgestellt wurde. Damit konnte der Ausgang eines Wandlers in einer beliebigen geradzahligen Zahl vervielfacht und gleichzeitig eine stetige Ausgangsspannung erzeugt werden. Gleichrichter konnten damit übereinander zu einer großen Glassäule geschichtet werden, die mit einer Diffusionspumpe mit Nullpotential unter Vakuum gesetzt wurde, wie in der nächsten Folie zu sehen ist. Man sieht hier die hohe Säule aus Glaszylindern etwa in der Mitte des Bildes und dies hier ist die Beschleunigungsröhre. Mit dieser Anordnung war auch gewährleistet, dass die Gegenspannungen aus den verschiedenen Gleichrichtern automatisch ausgeglichen wurden. Das Gerät ist als Spannungsvervielfacher bekannt und wurde 1932 bei den ersten Zerfallsexperimenten mit künstlich beschleunigten Teilchen eingesetzt. Es konnten damit Spannungen bis fast 800 Kilovolt erzeugt werden. Die nächste Folie zeigt eine Aufnahme von Zerfallsvorgängen in der Wilson-Kammer. Man sieht hier in der Bildmitte viele austretende Alphateilchen, die durch den Beschuss von Lithium mit schnellen Protonen entstanden sind. Und man sieht eine große Anzahl dieser Teilchen, die tatsächlich innerhalb von etwa 1/50 Sekunde abgegeben wurden. Diese Lithiumreaktion ist so einfach zu beobachten, dass die Experimente schon zehn Jahre früher hätten stattfinden können. Dafür hätten etwa 20.000 Volt genügt, aber niemand hätte ein solches Experiment gewagt, denn jeder wäre mehr oder weniger belächelt worden, weil er als völlig unwissender Ignorant in Bezug auf die Natur der elektrischen Felder in einem Atomkern gegolten hätte. Dennoch können auch Versuche, die auf den ersten Blick verrückt erscheinen mögen, ihre Berechtigung haben, wenn sie schnell, einfach und in Ruhe in einem Raum durchgeführt werden können, der verschlossen bleibt, damit niemand etwas erfährt, wenn das Experiment fehlschlägt. Der Cambridge Spannungsvervielfacher war in der Lage, einige leichte Elemente zu spalten und in anderen eine künstliche Radioaktivität zu erzeugen. Diese Ergebnisse ermutigten all jene, die mit indirekten Verfahrenen arbeiteten, weil nur mit diesen ausreichend energiegeladene Teilchen für die Spaltung der schwereren Elemente erhalten werden konnten. Es hab scheinbar keinen Zweifel mehr daran, dass ein Tor zu einem großen unerforschten Feld für jedermann geöffnet worden war, der über einen hochenergetischen Teilchenstrom verfügte. Hier möchte ich wieder auf die indirekten Verfahren zurückkommen und auf die wichtigsten damit verbundenen Probleme sowie die Grenzen der jeweils erreichbaren Energie. Das Betatron oder der magnetische Induktionsbeschleuniger ist nur für die Beschleunigung von Elektronen nützlich. Der Grund dafür ist, dass sich die Energie eines Teilchen bei jeder Umdrehung nur geringfügig erhöht und das Teilchen daher vielleicht eine Million Mal durch das elektrische Feld kreisen muss, bis die Energie von Null bis zum Maximum angestiegen ist. Bei Elektronen ist dies durch ihre kleine Masse und hohe Geschwindigkeit möglich, aber positive Ionen mit ihrer viel höheren Masse erzielen wesentlich weniger Umdrehungen und nehmen daher nur wenig Energie auf. Da die Elektronen vielleicht eine Million Mal kreisen müssen, ist es wichtig, dass die Kreisbahn nicht nur im Gleichgewicht, sondern auch stabil ist. Sonst würden die Teilchen bei jeder noch so geringen Störung die Kreisbahn verlassen und verlorengehen. Dieses Problem der Stabilität der Kreisbahn ist ein grundsätzliches Thema in allen Maschinen, in denen die Teilchen während der Beschleunigung eine bestimmte Bahn beibehalten müssen. Es lässt sich in 2 Teilaspekte gliedern, nämlich die Stabilität in Richtung des Magnetfels oder axiale Stabilität und die Stabilität in der Ebene der Kreisbahn oder radiale Stabilität. Erstere kam in der Arbeit von Lawrence über das Zyklotron zur Sprache. Die nächste Folie zeigt die Art des Magnetfelds, das im Randbereich der Polschuhe vorhanden ist, die Pfeile zeigen die Richtung der Kräfte, die auf das Teilchen einwirken, das hier in die Ebene des Feldes eintritt. Und man sieht, dass diese Kräfte Komponenten haben, die die Teilchen in die Mittelebene des Geräts zurückdrängen wollen. Wenn ein Teilchen aus der axialen Richtung ausbricht, ist klar, dass es wieder zurückgeholt wird. Das Magnetfeld muss, wie gezeigt, nach außen gekrümmt sein, es muss daher in radialer Richtung abnehmen. Mathematisch bedeutet dies, dass wenn das Magnetfeld über R zu N proportional zu 1 ist, N größer als Null sein muss. N gleich Null würde einem gleichmäßigen Feld entsprechen. Voraussetzung für Stabilität in radialer Richtung ist, dass das Magnetfeld stark genug sein muss, wenn das Teilchen beginnt, sich auf einer Kreisbahn mit einem etwas kleineren Radius zu bewegen, damit dieses Teilchen auf einer Bahn mit einem kleineren Radius als dem der neuen Bahn kreisen kann. Da die Zentrifugalkraft umgekehrt zum radialen Abstand geringer wird, muss das Magnetfeld somit weniger schnell abnehmen. Wenn also das Magnetfeld über R zu N proportional zu 1 ist, dann ist N kleiner als eins. Um die Stabilität in beiden Richtungen zu gewährleisten, muss somit dieser Feldindex N einen Wert zwischen Null und Eins haben. Die mathematische Theorie dafür wurde 1941 von Kerst und Serber entwickelt, die sich auch mit der Ausfilterung der dabei auftretenden Oszillationen beschäftigten. Anhand der erhaltenen Ergebnisse konnte Kerst das erste praktische Betatron bauen, das im Diagramm auf der nächsten Folie dargestellt ist. Ich will dies jetzt nicht weiter vertiefen, ich möchte nur auf die Abmessungen hinweisen, dieses Gerät war etwa einen halben Meter breit und sogar mit diesem ganz einfachen Gerät konnte er 2,3 Millionen Elektronenvolt in ausreichender Menge erzeugen, um eine Gammastrahlenstärke zu erzielen, die der von 1 Gramm Radium entspricht. Das größte bisher gebaute Betatron erzeugt 300 Millionen Elektronenvolt und wurde von Kerst und anderen 1950 entwickelt. Möglicherweise war es das größte, das je gebaut wurde, denn bei dieser Größe tauchen viele praktische Probleme auf. Und - was noch wichtiger ist - es entsteht eine grundsätzliche Beschränkung: ein Elektron wird auf seiner Kreisbahn immer wieder zur Mitte beschleunigt. So entsteht eine ständige Abstrahlung elektromagnetischer Energie. Dieser Verlust ist proportional zur vierten Potenz der Energie des Teilchens und so wird schnell ein Punkt erreicht, an dem der Energieverlust pro Umdrehung durch die Abstrahlung ebenso groß ist wie die Energie, die das Teilchen pro Umdrehung durch das Betatron aufnimmt. Glücklicherweise ist es mit dem Elektronensynchrotron auf Grund des größeren Radiuses der Elektronenkreisbahn und des deutlich höheren Energieeintrags pro Umdrehung möglich, den Elektronen wesentlich mehr Energie zuzuführen. Kehren wir jetzt wieder zum Linearbeschleuniger zurück. Im Zusammenhang mit dem Betatron habe ich über die Bedeutung der Stabilität der Kreisbahn der Elektronen gesprochen. Auch in einem Linearbeschleuniger benötigen wir eine ähnliche Stabilität, damit die Teilchen sich nicht zu weit von der Zylinderachse entfernen können. Man sollte hier vielleicht besser von der Fokussierung der Teilchen sprechen, da dieser Sprachgebrauch sich sowohl für Linear- als auch für Ringbeschleuniger eingebürgert hat. Wenn sich am Ende des Zylinders kein Geflecht befindet, tritt eine gewisse Fokussierung ganz natürlich auf, wie in der nächsten Folie zu sehen ist. Diese gestrichelten Linien stellen die elektrischen Kraftlinien dar, die durchgezogenen Linien die Bahn des Teilchens. Wenn das Teilchen in diesen Spalt eintritt, kann man sehen, dass hier eine Kraft in der Richtung der elektrischen Kraftlinien einwirkt und das Teilchen wird beschleunigt. Hier sehen wir dann eine entgegengesetzte Kraft durch diese elektrische Kraftlinie, die das Teilchen von der Achse wegzieht. Aber das Teilchen bewegt sich dann schneller, diese Kraft wirkt kürzer und es entsteht insgesamt eine fokussierende Wirkung. Dieses Prinzip wurde 1938 ausführlich von Rose und Wilson für das Zyklotron erforscht, aber die gleiche Theorie gilt für den Linearbeschleuniger. Er entspricht optisch einer großen Anzahl hintereinander angeordneter konvexer Linsen. In der nächsten Folie sehen wir das Ergebnis dieser Fokussierungswirkung. Dies ist die Achse des Beschleunigers und hier wird ein Teilchen in Bewegung gesetzt, ohne Fokussierung würde es sich so von der Achse entfernen. Mit dieser elektrostatischen Fokussierung sieht die Bahn des Teilchens so aus, seine Amplitude und die Wellenlänge nehmen zu. Und wir sehen anfangs, dass es hilfreich ist, das Teilchen nahe der Achse zu halten. Aber letztlich ist die elektrostatische Fokussierung wirkungslos, das Teilchen bewegt sich zu schnell, als dass die Linsen eine signifikante Wirkung haben könnten. Vielleicht könnte aber die elektrische Fokussierung durch eine variierende Spannung, die beim Durchgang der Teilchen durch den Spalt geringer wird, erhöht werden. In diesem Fall erhalten wir eine stärkere Linse, aber leider eine Phasendefokussierung im Linearbeschleuniger. Als Lawrence die Grenzen des Linearbeschleunigers erkannte, entwickelte er das Prinzip des Zyklotrons; in der ersten Veröffentlichung 1930 von Lawrence und Edlefsen in 1930 wurde das Grundprinzip des Zyklotrons dargestellt. Auf der nächsten Folie sehen wir zwei Hohlelektroden in dieser Form, zwischen denen eine Wechselspannung angelegt ist; diese beiden Hohlelektroden verhalten sich wie die ersten beiden Zylinder in einem Linearbeschleuniger, die immer wieder verwendet werden. Die Teilchen im Zyklotron - mir fehlt leider die Zeit, um weiter in die Details zu gehen – starten irgendwo im Bereich der Mitte und bewegen sich spiralförmig nach außen, wobei sie bei jedem Durchgang durch den Spalt zwischen den zwei D-förmigen Elektroden immer mehr Energie gewinnen. Die gleiche elektrostatische Fokussierung findet jetzt in der Mitte des Zyklotrons statt, sie ist jedoch bedeutungslos, wenn die Bewegung nach außen verläuft. Lawrence führte jedoch hier die magnetische Fokussierung ein, daher sehen wir hier die kombinierte Wirkung der elektrischen und magnetischen Fokussierung im Zyklotron. Lawrence hat viele Zyklotrone gebaut, die immer größer wurden, das größte sollte einen Poldurchmesser von 4,6 m haben und etwa 350 Millionen Elektronenvolt an Teilchen erzeugen. Hier gibt es jedoch ein Problem, weil er ein abnehmendes Magnetfeld für die Erzeugung der Fokussierung benötigte, wobei die Teilchen asynchron zur Wechselspannung werden, wenn sie in diesen Bereich des abnehmenden Magnetfelds eintreten. Um dieses Problem zu umgehen, hätte man zwischen den D-Elektroden eine sehr hohe Spannung anlegen müssen. Bei diesem großen Zyklotron hätte man eine Wechselspannung von etwa 1 Million Volt zwischen den Elektroden benötigt. Und das hätte große technische Probleme verursacht. Glücklicherweise gab es eine bessere Lösung. die unter geeigneten Bedingungen entsteht. Um zu verstehen, was dies bedeutet, stellen wir uns einen Linearbeschleuniger vor, der die den Spalt durchquerenden Teilchen an einer bestimmten Stelle mit jeder Hochfrequenzoszillation beschleunigt. Bitte die nächste Folie. Wir stellen uns dieses Gerät vor, die Teilchen laufen also hier durch, wenn sie durch die Zylinder strömen, erreichen sie den nächsten Spalt genau am gleichen Punkt der Oszillation. Betrachten wir, was geschieht, wenn ein Teilchen mit der richtigen Energie etwas später hier eintrifft. Es nimmt dann mehr Energie als normal auf und kommt etwas früher am nächsten Spalt an, dort erhält es weniger zusätzliche Energie als es sollte, aber immer noch genug und kommt immer noch früher am nächsten Spalt an, wie hier zu sehen ist. Das Teilchen kehrt also zu diesem Punkt der Oszillation zurück. Es erhält eine Überschwingung und oszilliert um diesen Punkt. Wenn man also im Zyklotron eine Gruppe von Teilchen hat, die den Spalt zwischen den D-Elektroden hier, wo keine Spannung anliegt, durchqueren, dann könnten diese sich immer im Kreis bewegen, ohne Energie aufzunehmen. Wenn man aber die Frequenz senkt, würden sie an einer anderen Stelle eintreten und Energie aufnehmen, hier hereinkommen und Energie aufnehmen und wieder an diese Stelle zurückkehren, die die richtige für sie ist. Indem einfach die Frequenz verringert wird, könnte man so diesen Teilchenstrom, der sich auf einer Kreisbahn bewegt, vergrößern. Oder - was das Gleiche ist - man könnte das Magnetfeld verändern und der Kreis würde sich erweitern, um sich an die neuen Bedingungen anzupassen. Dies ist in wenigen Worten das Grundprinzip der Phasenstabilität. Es ermöglichte, dass dieses große geplante Zyklotron von Lawrence nicht als gerades Zyklotron, sondern als Synchrozyklotron verwendet werden konnte, bei dem die Frequenz an die veränderliche Umdrehungsfrequenz in den schwächeren Teilen des Magnetfelds angepasst wurde. Leider wird die Zeit jetzt knapp und ich muss daher mein Manuskript ein wenig straffen. Mit dem Elektronensynchrotron können die Kosten einer solchen Maschine deutlich verringert werden, weil ein kleineres Magnetfeld benötigt wird. Die Teilchen bewegen sich nicht mehr spiralförmig von der Mitte weg, sondern bleiben die ganze Zeit auf einer Kreisbahn mit einem konstanten Radius. Dies ist möglich, wenn das Magnetfeld im Lauf der Zeit vergrößert wird. Auch hier im Elektronensynchrotron funktioniert das Prinzip der Phasenstabilität und man kann auf diese Weise Teilchen mit hoher Energieladung erzeugen. Interessant ist, dass das Synchrotron aus genau dem Grund funktioniert, aus dem das Zyklotron bei hohen Energien nicht funktioniert. Beim Zyklotron haben wir zwei Beschränkungen, und zwar einerseits die Notwendigkeit, das Magnetfeld nach außen zu verkleinern und andererseits die Tatsache, dass die Teilchen mit zunehmender Geschwindigkeit an Masse gewinnen und das hat die gleiche Wirkung wie das abnehmende Magnetfeld, sie werden sehr schnell asynchron. Wenn wir diese Synchrotrone betrachten - durch Veränderung der Frequenz und des Magnetfelds erhält man auch ein Protonensynchrotron -, wollen wir jetzt sehen, wie man die Energie der erzeugten Teilchen steigern kann. Normalerweise würde man einfach einen größeren Magneten bauen, damit man eine größere Kreisbahn für die Teilchen erhält. Aber wenn man den Spalt verkleinern kann, würde man keinen größeren Magneten benötigen. Den Spalt kann man verkleinern, wenn zusätzliche Stabilität für die Teilchenbewegung erzielt werden kann. Und genau das war der nächste Schritt, der nächste große Gedankensprung in der Entwicklung. Es bedeutete, dass man eine viel stärkere Fokussierung benötigte als sie bisher verwendet wurde. Diese Fokussierung, die als starke Fokussierung oder Fokussierung mittels alternierender Gradienten bezeichnet wird, wurde erstmals von Courant und Livingston und Snyder 1952 vorgeschlagen, die entdeckt hatten, dass das gleiche Konzept etwas früher bereits in einer Patentschrift von Christofilos 1950 beschrieben worden war. Die Theorie hinter diesem Verfahren ist sehr schwierig zu verstehen, in den meisten Büchern, in denen die Wirkung beschrieben ist, wird sie mit einigen einfachen Beispielen erläutert; aus der Optik etwa mit einer Reihe konvexer und konkaver Linsen, mit denen man hier eine Fokussierung erzielt. Oder auch aus dem Bereich der Mechanik durch die Art, wie die Stabilität eines Pendels erhöht werden kann, indem die Halterung in Auf-Ab-Schwingungen versetzt wird. Ohne zu sehr ins Detail zu gehen, beruht das Prinzip der Fokussierung mit alternierenden Gradienten darauf, dass wir in axialer Richtung eine Reihe von Regionen mit starker Fokussierung, gefolgt von starker Defokussierung haben, während in der radialer Richtung die Wirkung umgekehrt ist. Das bedeutet, dass die Fokussierung sowohl in axialer als auch in radialer Richtung sehr stark ist, man kann also mit einer kleineren Vakuumröhre arbeiten, den Spalt im Magneten verkleinern und damit Kosten und Größe des Magneten reduzieren. Dies ist die Anordnung, wie sie in den größten der heutigen Maschinen verwendet wird, zum Beispiel in Brookhaven oder bei Cern oder in der neuen Anlage, die gerade in Russland in Betrieb geht. Diese Anlagen geben Energien unterschiedlicher Mengen von etwa 30.000 Millionen Elektronvolt bis zu diesen Größenordnungen ab. Betrachten wir uns jetzt Folie 21. Dies ist ein Diagramm von Livingston, das den Fortschritt der Linearbeschleuniger im Lauf der Jahre zeigt. Hier sehen wir die DC-Verfahren aus der Zeit um 1930. Dies ist eine logarithmische Verlaufsdarstellung der Teilchenenergien. Hier haben wir 1 Million Elektronenvolt. Und man sieht, dass die Kurven nahe am Kippen sind. Später haben wir die Entwicklung des elektrostatischen Verfahrens mit dem Van-de-Graaff-Generator. Und man erkennt, dass die Kurve im Bereich von einigen Millionen Elektronenvolt zu kippen beginnt. Hier haben wir den linearen Protonenbeschleuniger und hier das Zyklotron. Hier oben ist das Betatron und hier das Synchrotron. Und hier oben das Protonensynchrotron, also die Art von Anlagen, von denen ich gerade gesprochen habe. Für alle Maschinen erkennt man eine Art Obergrenze, die etwa entlang dieser Kurve verläuft. Sie entspricht einem sehr schnellen Anstieg der Spannungen im Lauf der Zeit. Hier sind die Jahre eingetragen und man erkennt, dass auf dieser halblogarithmischen Darstellung fast eine gerade Linie entsteht. Wenn wir jetzt in die Zukunft blicken und sehen wollen, was als Nächstes geschieht, bewegen wir uns im Bereich sehr hoher Energien, die die Grenzen dieser Kurve übersteigen, und es wird klar, dass man in diesem Stadium neue Ansätze braucht. Tatsächlich wurden verschiedene Ansätze vorgeschlagen, ich möchte nur einen erwähnen, der in den letzten Monaten häufig im Gespräch war. Es ist ein Ansatz, der unabhängig voneinander von Veksler und Woodcock 1956 vorgebracht wurde und der auf dem folgenden Grundgedanken beruht: Wenn wir eine Wolke von Elektronen zusammenhalten und Protonen in diese Wolke injizieren können, so dass die Anzahl der Protonen etwa 1% der vorhandenen Elektronen entspricht, dann werden diese Protonen durch elektrostatische Kräfte fest an diese Wolke gebunden. Wird die Wolke nun auf sehr hohe Geschwindigkeit beschleunigt, werden auch die Protonen beschleunigt und weil Protonen eine viel höhere Masse als Elektronen besitzen, ist auch die Energie der einzelnen Protonen viel größer als die Energie der einzelnen Elektronen. Einige Details dieses Ansatzes sind in der nächsten Folie dargestellt. Das Problem liegt darin, dass die Wolke aus Elektronen zusammengehalten werden muss, weil die Elektronen durch die Abstoßungskräfte zwischen den negativen Ladungen eher auseinander driften. In dem vorgeschlagenen Verfahren - und es wurden zu diesem Thema bereits einige Experimente durchgeführt – erreicht man dies, indem die Wolke die Form eines Rings erhält. Die Elektronen bewegen sich schnell, das ist hilfreich, weil dann der Pinch-Effekt wirkt; bei zwei parallelen Strömen, die in die gleiche Richtung fließen, haben diese die Neigung, sich einander zu nähern. Man beginnt also mit einem Ring aus Elektronen, hier und hier ist der Querschnitt zu sehen. Der Ring bewegt sich so wie hier. Der Zusammenhalt im Ring ist durch ein Magnetfeld gewährleistet, das den normalen Betatron-Bedingungen unterliegt. Jetzt werden diese Elektronen mit einer Energie von einigen Millionen Elektronenvolt in einer Kreisbewegung gehalten und dann wird der Ring durch Verkleinerung des Magnetfelds geschrumpft. Und beim weiteren Schrumpfen wird durch eine Art Betatronwirkung die Energie der kreisenden Teilchen weiter erhöht; am Ende sieht der Ring so aus. Hier haben wir schnell kreisende Elektronen, die zusammengehalten werden und etwa 1% Protonen, die darunter gemischt sind. Dann wird der Ring in dieser Richtung beschleunigt, indem er durch eine Art Linearbeschleuniger gelenkt wird. Man kann ihn hier herausdrücken, indem das Feld durch den Strom in dieser Spule verringert wird, dadurch wird dieses Magnetfeld geöffnet und der Ring wird herausgepresst und ebenso wie ein einzelnes Teilchen beschleunigt. Und die Protonen natürlich mit ihm. Auf diese Weise kann man Protonen mit einer sehr viel höheren Energie erhalten als sie die einzelnen Elektronen besitzen, die im Ring beschleunigt werden. Tatsächlich erhält man, wenn man mit sich langsam bewegenden Elektronen beginnt, Protonen mit der fast 2000-fachen Energie der Elektronen im Ring, der beschleunigt wird. Bei vorläufigen Experimenten hat sich das Verfahren als vielversprechend erwiesen. Aber auch wenn solche Maschinen erfolgreich sind, sind die auf die Teilchen übertragenen Energien wahrscheinlich immer noch sehr klein im Vergleich mit der Energie einiger kosmischer Strahlen. Wir kennen nicht deren Ursprung, vielleicht entstehen sie in großen natürlichen magnetischen und elektrischen Feldern im Raum, die man sicherlich mit Fug und Recht als eine Art himmlischer Ultrahochenergie-Teilchenbeschleuniger bezeichnen kann.

Walton on How It All Began
(00:13:06 - 00:15:25)

The first accelerators were small enough for a university or research institute to construct and effectively use them. But quite soon the need of larger machines was felt and in Europe discussions about a joint laboratory started. When the theoretical physicist Werner Heisenberg, who received the 1932 Nobel Prize in Physics “for the creation of quantum mechanics…”, gave his first lecture at the Lindau Meetings in 1953, he mentioned that a few days before the lecture, an agreement to build such a laboratory in Geneva had been signed in Paris. Today we all know that this laboratory became CERN, which, with its Large Hadron Collider (LHC), is the world leading laboratory for subatomic physics. Over the years, a whole series of larger and larger accelerators were constructed at CERN. In 1971, Heisenberg’s lecture bears the title “Physical and political aspects of the construction of large particle accelerators”. In the unusual and interesting lecture, Heisenberg discusses the pros and cons of the construction of a new accelerator at CERN. A main pro argument is that history tells us that every increase in particle energy has brought new interesting results. On the con side, an argument is that we already have higher energies through the existence of cosmic radiation. But finally and importantly, Heisenberg also argues for CERN as an ideal case for European integration!

Werner Heisenberg (1971) - Physical and political considerations in the construction of large particle accelerators (German presentation)

Ladies and Gentlemen, we physicists not only deal with such fundamental and important problems like the ones Paul Dirac explained to us yesterday. And not only with the material difficulties which the experimentalist has to solve in order to achieve his results, like the ones we heard about yesterday from Mr. Hofstadter. We have recently also frequently been asked, by young students in particular, about the relationship between our science and society. The society which our research should directly or indirectly benefit and which in return has to bear the high cost of our research work. Since there is always a danger that one becomes lost in fundamental debates or ideological ideals when answering such questions, I think it is useful to explain the practical side of this issue with the aid of a very special example. In recent years there has been a lot of talk about a large accelerator which is soon to be built through the joint efforts of various European countries and their engineers and physicists. There have been differing opinions and public discussions about the urgency of the project, its funding and its future location. But finally it was agreed a few months ago to build the accelerator in the European Nuclear Research Centre in Geneva, and that a number of European countries, among them France, Great Britain, Italy, the Federal Republic of Germany, will participate in the funding and the operation. All important decisions regarding this controversial project have been taken, and there is therefore no longer a danger that I could intervene in a pending process with my comments. I believe that the majority of those involved, and by this I mean the physicists as well as the representatives of the participating governments, in the Federal Republic as well as in other European countries, that they are largely satisfied with the result. This is precisely why it can be interesting to once again list the points of view which have played a role in the decision. After all, there may be similar large joint projects in the future as well, and the same questions about the relationship between science and society, about what is necessary for international scientific collaboration, will resurface then. It is therefore possible to learn from the negotiations of the past three years and I want to use this special example of the European large accelerator to express a few more general thoughts on the relationship between government and science and on the type of collaboration which is possible here. First a few words about the physical problems which are to be addressed with the aid of the large accelerators. Advances in atomic physics during the last 100 years have always been closely linked with larger and larger accelerators, where I now want to use the term accelerator in a very general sense. For the conventional discharge tubes, for example, such as the fluorescent tubes of neon advertising signs, it is sufficient when electrons pass through a voltage of a few volts in order to be accelerated so that they can change the atomic shell of the gas atoms present in a collision and excite them to emit light. Their energy is thus a few electronvolts, to use the term we physicists use. Such electrons have been used to investigate the electron shell, and the rules according to which they are built were ultimately found. Atomic shell here is deemed to be the totality of the electrons orbiting the atomic nucleus. The binding energies in the atomic nucleus are around one million times higher than in the shell. At the beginning of the 1930s, Cockcroft and Walton in Cambridge built a high-voltage device with which they were able to accelerate protons to energies of the order of one million electronvolts. They were therefore able to change light atomic nuclei, knock out elementary particles from them or incorporate other elementary particles into them. And during the 1930s we thus learned to understand the structure of the atomic nuclei, which, as has been known since then, consist of two types of elementary particle, the hydrogen nuclei or protons and the neutrons. The next largest group of such apparatus, which can already be called large accelerators, was built in the 1950s. They were to be used to give protons an energy of the order of a billion electronvolts, the so-called GeV. The hope was that it would even be possible to use them to change the elementary particles which were known at that time, to possibly decompose them into even smaller fragments, to find even more elementary building blocks. These large accelerators, which include the devices in Berkeley, Geneva, Hamburg, Brookhaven, Serpukhov, also fully fulfilled the expectations placed on them. It turned out that it is indeed possible to change elementary particles, to put them into excited states, even split them into many parts. But, and this was the decisive new thing, the fragments here are not smaller than the particles that one forced to collide. Rather, it is no longer really the process of splitting, but the formation of matter from energy, and from the theory of relativity it was known that this was possible. In such high-energy collisions elementary particles of the same spectrum are formed again and again. The elementary particles are, it can be expressed in this way, simply different forms into which energy can convert in order to become matter. But apparently there are then no particles which are even more elementary. This was the status of experimental research a few years ago, and on the basis of this knowledge a decision had now to be taken as to whether even larger accelerators with energies of the order of a few hundred GeV and correspondingly very high costs should be built. The simple consideration that every transition from smaller to larger accelerators had brought new findings supported this step initially. Why should this not continue? Entering a new range of energies had inevitably to lead to new, as yet unknown information, and nobody can exclude that quite unexpected, surprising and interesting information would result. But even if one excludes such surprises, it can be important to know how the interaction which is crucial to radioactivity behaves at high energies, for example. This is because the previous experiments do not allow a reliable assumption and it is quite possible that the knowledge of this behaviour leads to fundamental progress in the understanding of the spectrum of the elementary particles. Here, with the arguments for the accelerator, the key significance of this complex of problems for physics overall must be emphasised. It will ultimately be possible to trace back all physical laws to the laws for the behaviour of the smallest material particles. It is therefore very important to find out about these laws in particular. But even if one does not place such high value on the extension of elementary particle physics, there will be new technical experiences during the construction of the huge accelerators which can be of practical use in quite different areas. One has to approach the extreme limits of the technically possible in each case with these accelerators. It is therefore possible to learn a great deal for practical applications. I remind you for example of the technology of superconducting magnets, which is now developing and which can possibly be used to the full in the new large accelerators. There are therefore good arguments which speak for constructing such large accelerators with energies of the order of 300 GeV or more. And if one could construct such devices for a few million Deutschmark, probably nobody would have doubted that it needed to be done. Unfortunately the costs run into billions. And therefore, out of consideration for the other requirements of the state, one has to ask whether it is not possible to reduce these enormous costs or at least postpone them to a later date. Are they really absolutely necessary? In respect of these doubts, one can first state that the arguments that something fundamentally new will result at higher energies are not quite convincing. After all, nature has provided us with a new and unexpected piece of information especially with our attempt to split elementary particles, i.e. that it is not the splitting, but the conversion of energy into matter which plays a role in these processes. This will probably be the case at higher energies as well, and one therefore has to expect that even for an arbitrary increase in energy nothing new will happen. In addition, particles with extremely high energies have already been observed in cosmic radiation, up to 1 million GeV, and no fundamentally new phenomena have been found for them. One could also point out that the storage rings in Geneva, which go into operation this year and which have now been built in the last few years, that they also would reach to even higher energies. It could therefore be the case that the current extensive experimental material on the elementary particles is already sufficient to completely understand the laws of nature in this field, that we do not necessarily still need the extension to these higher energies. Indeed, it is difficult to imagine that a theory which was initially put forward hypothetically could correctly explain all our experiences to date within the experimental limits of accuracy, but that it could then fail nevertheless in the area of even higher energies, which we do not yet know. But even if one believes that experimenting at these high energies is absolutely necessary, one could still hope that the technology, that of the superconducting magnets, for example, will have made so much progress in a few years or decades and that new types of design principles will have been found to enable the large accelerator to be constructed at a much lower cost. Such arguments could thus be used to plead for waiting with the construction of the large accelerator, at least for a couple of years. You see that the physical and technical arguments alone would hardly be sufficient to take a clear decision, and therefore one also has to carefully consider the science policy and foreign policy components of such a decision. Let us start with the effects of such a decision on higher education and research policy in Germany: the sums which have to be spent for a large accelerator of 300 GeV or more are so large that, even if it is an international joint project, they cannot simply be provided in addition to the existing research budget, simply to the detriment of all other budget costs, for example. For the society or the government which represents it this means very unpleasant issues of priority, in the following form, for example: should we establish another new university, given that the teaching capacity of our universities is too low, or participate instead in an international large accelerator project? Or a different question: should we use a few hundred million per year more for environmental protection, keeping the rivers, lakes and the air clean, or should we use them for elementary particle physics? Here in Lindau, in particular, we have one of the most convincing representatives of environmental protection in our distinguished Count Bernadotte. These questions are so unpleasant because it means we have to compare the urgency of completely incomparable issues. On the one hand we have the pure knowledge about fundamental issues of physics and the natural sciences, which can later also possibly have considerable economic impacts, albeit only indirectly. On the other is a direct practical need of life today, for example the option of later having the children educated in a university and creating healthy living conditions for them. So how should such issues be decided? The first demand which must be made here appears to me to be that the physicists who want to have the large accelerator and work with it also have to understand the entire difficulty of these problems. It is not enough to push the question away with the remark that it is the government’s responsibility to consider this, or to casually say that the amount for the large accelerator should be deducted from the defence budget. For those people who bear the responsibility for society, the issue of the security of this society must carry a higher weighting – it must do – than the participation in a large project to study elementary particles. In other words: political issues which the physicists cannot simply ignore either unfortunately come into play in the decision on the construction of a large accelerator. The British physicists have provided a very good example of how a physicist can behave here. If I have been informed correctly, the British physicists have proposed to their government that it should participate in the European large accelerator project, but should at the same time, in order to balance costs, reduce the budget for elementary particle physics accordingly. There was even a discussion that a large and renowned research institute in the same field, the Rutherford Laboratory in Cambridge, could be closed down. Behind such a proposal is therefore, on the one hand, the conviction that the experiments which one will be able to carry out with the new European large accelerator are more interesting and more important than those that could be carried out with the smaller devices in the Rutherford Laboratory. On the other hand, there is also the realisation that the physicists have possibly already made relatively high demands in past decades on the economic power of their country, so that one had to be extremely careful in making even greater demands. The British physicists have therefore very carefully considered the well-being of the society to which they belong in their requests to the government. May I include a general remark here, which may not quite belong here? It seems to be an unfortunate development of our time, certainly not just in our country and quite certainly not only among us physicists, that many are tempted to make demands on the state without making a reciprocal offer or offering a sacrifice of their own. This may be an entitlement to education, grants, co-determination in difficult issues, or even simply the entitlement to a large amount of leisure time, holidays to distant destinations and material wealth. Again and again the tendency is becoming apparent to think that it is not necessary to make sacrifices themselves to justify these entitlements. But the good example of the British physicists which I have mentioned points to the general question as to what actually the relationship of physicists or scientists in general to their governments should look like. Most people seem to agree that, at the moment, the work of the government requires the advice of science. Science and technology play such an important role in modern life, in industry, in educational issues, in the preparation of political decisions, that there must be advisory committees of scientists and engineers which facilitate the work for the government. And, in fact, everywhere in the modern industrial states such advisory committees have been established. In Germany, advisory circles exist on different levels, and they assist the government with the distribution of public funds for research purposes, with decisions on large research and development projects, with university issues etc. I remind you of the nuclear committee, the scientific advisory committee of the economics ministry, the advisory committee for research, for example. In recent months, in particular, there has been much discussion about the reform of these advisory groups. In addition, there are naturally, and this is something completely different, interest groups in the government sphere, which have been sent to our capital, Bonn, from parts of industry, e.g. specific branches of industry or agriculture, for example, in order to make themselves better heard. But this is quite legitimate in a democracy, because it is the very task of the government to find a balance which is as just as possible between the various interests of the citizens of the country. It is therefore important that the state knows these interests. It seems to me to be extremely important that the difference between the advisory groups and the interest groups does not become blurred. At the very moment that an advisory group becomes an interest group as well it ceases to be a useful advisory group, because only completely impartial advice can be really beneficial to the government. This now gives rise to a difficult dilemma when it concerns the government’s participation in a large, international technical research project, such as the planned large accelerator, for example, because, on the one hand, it is imperative that they are advised by specialists in the field of high-energy physics, because only they can really assess the details. On the other hand, these specialists are inevitably also interested parties, because they or their students want to work at the large accelerator later. This difficulty cannot be avoided. Obviously, the British scientists whom I mentioned before also felt like this, and these physicists then tried to make a sacrifice in relation to their interest in order to play the role of the advisor with a clear conscience. But even when the fullest understanding of all concerned can be expected here, when all the previously mentioned conditions are fulfilled, it still remains a very difficult task to assess the urgency of such a techno-scientific project against other projects. How important is scientific knowledge? How important is it that it is gained soon and not only in 10 or 20 or 30 years time? Now, if you have spent your life in science, you will treasure the value of scientific knowledge, and you will be able to cite many good and compelling reasons for this. A politician, however, who worked as a businessman or farmer before they entered politics, will maybe consider economic issues or environmental protection to be more important, and they will also find many convincing arguments for this. On the other hand, they will maybe fall into the trap of valuing scientific knowledge too highly, because science is weird and strange for them, and because they then overestimate its possibilities because they are impressed by modern technology. Given the politician’s inevitable uncertainty, the advisers’ main duty is naturally to provide the authorities with a completely objective, truthful picture of the scientific plans and their assumed importance. All the reasons for, but also all those which argue against the project, must be presented and explained as factually as possible so that the politician receives the maximum information possible in the particular case. When listing and explaining the reasons which argue for or against such a project, one has to ensure that the burden of proof is correctly distributed. If it is a project costing billions, whose start inevitably requires sacrifices in other places, those who champion such a project must provide the proof of the urgency of the results hoped for. And it cannot be their opponent’s responsibility to prove that the project is really not so important, because for a project which ventures into new scientific territory it will never be possible to prove that no new, surprising and important discoveries will be possible. But this on its own cannot possibly be sufficient as the reason to spend billions. The burden of proof must therefore always be with the party which wants to obtain such extremely high public funds. But even then the decision will still be difficult enough for the politicians. The fact that corresponding decisions have also to be taken in the other countries thus alleviates their work. It is then possible to be guided by what the others have considered. If it is an international project such as the planned European large accelerator, the other member states which possibly want to participate are even facing exactly the same problems. Here it is therefore necessary to take the decision jointly, more or less. The international character of such a large project means some new aspects come into play which I have not discussed so far. First of all, we all probably agree that it is extraordinarily important for the future of our continent that a real community develops from the many small European states. A large scientific project, whose significance is recognised by all, but which can no longer be borne by one individual European country on its own due to the high costs, this represents an ideal case of such collaborative work as it were. Because where pure science is involved, economic or political competition no longer plays an important role, results and technical know-how do not need to be kept secret. The mutual interest in exciting scientific problems makes young physicists and engineers from very different countries automatically come together for fruitful work. And without any further effort a continuous exchange of opinions takes place and thus unconsciously a balancing of interests, which cannot be valued too highly for the future goal, the unity of Europe. Such international large projects must therefore really be funded just because they are international. One must therefore not be overly critical and sceptical about the scientific possibilities and reasons, given the community-forming force. In fact, in the 25 years after the war a number of such community projects and joint institutions, which have become very important for the collaboration, have been established in Europe. The best institution of this kind is probably the CERN Nuclear Centre in Geneva. A 30 GeV proton synchrotron has been in use there since 1959 and has already made a number of very interesting experiments possible. This year or next the large storage ring will be in full operation, which even corresponds to an accelerator of around 1700 GeV as far as the energy in the collision of two protons is concerned. It will be the only instrument of this type on Earth and a few months ago, as I said, it was decided to construct a new European large accelerator in Geneva with several hundred GeV. Europe will therefore be playing a leading role in elementary particle physics, or high-energy physics as it is also called, during the next 10-20 years if these machines are utilised as well as the proton synchrotron in Geneva to date. In Trieste, i.e. on Italian soil, a very successful international centre for theoretical physics has been established which is funded not only by European, but also by non-European countries, and which maintains particular good connections to Eastern Europe and Asia. In Ispra on Lago Maggiore, also on Italian territory, development and research tasks in the field of reactor technology are being conducted on behalf of EURATOM. This is also a large international joint project, to which various European countries contribute. Franco-German collaboration has led to a reactor with very high neutron flux being constructed in Grenoble in France, where scientific and technical investigations of the behaviour of materials under strong irradiation can be conducted. Similar international institutions working in other fields, e.g. the study of space, exist in Belgium and the Netherlands. There is thus considerable interest in international scientific collaboration and one can be quite satisfied with the successes which have been achieved in the different institutions. Nevertheless, if one wants to decide to establish a further such international scientific institution, difficult problems again arise, which mainly concern the location, but also the funding, the distribution of the contracts, the filling of the leading positions. The issue of the location is by far the most difficult here, because it must usually be decided not on factual aspects, but on political ones, although the desired technical or scientific objective often imposes conditions which greatly limit the options for the location. For example, a large accelerator requires a wide, level area which is geologically stable, i.e. which is not buckled if the ground is moved or deformed under the influence of the weather, and the earth movements necessary to construct the accelerator must not be too expensive either. Furthermore, the planned institution must be easily accessible. It must be easy to get to schools, universities etc. So there are quite a number of conditions which must be fulfilled, but it is usually not too difficult to find sites in very different regions of Europe where all these conditions are fulfilled. It finally remains to take a political decision and one has to ask which aspects play the most important role here. The establishment of these various international scientific centres is, of course, a community effort and a joint European effort and this means, in my view, that these institutions should be spread more or less evenly across Europe. One can, of course, discuss what this vague term “more or less evenly” means. But I believe if one looks at the map of Europe and considers the spatial distribution of the international scientific institutions to date, one can see that the spread is still quite uneven and should become more even in the future. Objections to this argument are sometimes that our objective should of course be the United States of Europe and that the location within Europe would then not be important. But the example of the United States of America shows that this is not the case. Even in such a politically unified large area one has to take care that the scientific institutions are evenly spread. The newest American large accelerator, which is to achieve around 400 GeV, is being constructed in Batavia near Chicago, after the two earlier centres for high-energy physics were established in the west in California and in the very east in Brookhaven. The location issue has played an important role in Europe in the deliberations on the large accelerator mentioned above. But the possibility of using the existing infrastructure of the CERN centre in Geneva and thus reducing the costs significantly has ultimately taken precedence over the other option, to establish a new European research centre in a different region which is far removed from the current centres of this kind. Let us hope that future establishments will provide a more even distribution across Europe. There was another reason to move the new large accelerator to Geneva again into the CERN centre. A new European centre for high-energy physics independent of Geneva would have bound thousands of staff to the new location and to this work at a new large accelerator. Many young, talented physicists and engineers would have turned to this very special field of elementary particle physics and accelerator technology and would probably have been so captivated in this field by the problems in the years to come that they would have found it difficult to later work in a different field. On the other hand, this special complex of problems of elementary particle physics would come to an end sooner or later, as all the earlier fields of physics have been exhausted at some time and have then simply been incorporated with their applications into the technology which followed. If this conclusion is moved mentally into an interminable distant future, as some physicists do, one may take this as justification for giving no further thought to the future work of the elementary particle physicists in other fields. But the experience in the United States teaches us that accelerator stations have already been closed there, that physicists and engineers working in them have been made redundant. This means that one does an injustice to young people who one convinced to be interested in these special fields if one does not contemplate their more distant future. For this reason it was surely a wise decision to build the new large accelerator which had been decided in Geneva again, as the proton synchrotron and the large storage ring before it. Although the new tasks mean the staff in Geneva will certainly increase significantly, it will probably be nowhere near the extent that it would have been in an entirely new accelerator station. Selecting Geneva as the location has also slightly reduced the dangers for the distant and near future. And finally a further argument, more in passing. The lack of space on the construction site in Geneva also has a technical consequence. It forces the designers to use the most modern technical developments, e.g. the super conducting magnets, if one wants to achieve such high energies in such a narrow space. The new project will therefore be forced to be much more modern than the one planned earlier. With this I have, I believe, exhausted most of the arguments which have played a role in the decision ultimately made, and which I now repeat in a few words. There is first the joy about a sensible community project, but also the insecurity about the successes to be expected with the new instrument. The question whether the experiences gained with the accelerators to date could maybe already be sufficient to understand the world of the elementary particles. Then the further question regarding the advances in technology: might it not be possible to build accelerators with the high energy required much more cheaply than today in a few years time using new technical methods? And furthermore, the difficulty of obtaining a fair agreement between the participating nations on the location, and the necessity that each individual government has to forego specific plans or projects in their own country for the benefit of the international accelerator. If one considers all these difficulties and problems, the decision which has been finally taken and which you know is a very good solution, in my view, an appropriate compromise between the different interests and a valuable contribution to strengthen the European community. Finally, I have to descend from this level of practical considerations, of scientific reasoning and political negotiations onto a slightly lower level and ask: why do we humans undertake such enormous efforts in order to construct a large accelerator at all? Why do we spend billions on a scientific instrument which does not promise an economic benefit, at least not immediately? For this question I have ...

Meine Damen und Herren, wir Physiker haben nicht nur mit so grundsätzlichen und wichtigen Problemen zu tun, wie sie Paul Dirac gestern uns auseinander gesetzt hat. Auch nicht nur mit den materiellen Schwierigkeiten, die der Experimentator lösen muss, um zu seinen Ergebnissen zu gelangen, so wie wir es gestern von Herrn Hofstadter gehört haben, sondern wir werden neuerdings auch oft gefragt, besonders von der studentischen Jugend, in welcher Beziehung unsere Wissenschaft zur Gesellschaft stünde. Also zu der Gesellschaft, der ja unsere Forschung direkt oder indirekt dienen soll und die umgekehrt die hohen Kosten unserer Forschungsarbeit ja auch tragen muss. Da nun immer die Gefahr besteht, dass man sich bei der Beantwortung solcher Fragen in grundsätzliche Debatten oder ideologische Wunschbilder verliert, scheint es mir nützlich an einem ganz speziellen Beispiel die praktische Seite dieser Problematik zu schildern. In den vergangen Jahren ist viel von einem Großbeschleuniger gesprochen worden, der durch die gemeinsame Anstrengung verschiedener europäischer Staaten und ihrer Techniker und Physiker demnächst errichtet werden soll. Über die Dringlichkeit des Projektes, seine Finanzierung und seinen zukünftigen Standort hat es Meinungsverschiedenheiten und Diskussionen in der Öffentlichkeit gegeben. Aber schließlich hat man sich vor einigen Monaten darauf geeinigt, dass der Beschleuniger im europäischen Atomforschungszentrum Genf gebaut werden solle und dass sich eine Reihe europäischer Staaten, darunter Frankreich, Großbritannien, Italien, die Bundesrepublik an der Finanzierung und der Durchführung beteiligen werden. Alle wichtigen Entscheidungen über dieses umstrittene Projekt sind gefallen, und daher besteht also auch nicht mehr die Gefahr, dass ich heute mit irgendwelchen Äußerungen in ein schwebendes Verfahren eingreifen könnte. Ich glaube, dass die Mehrzahl der Beteiligten, und damit meine ich die Physiker ebenso wie die Vertreter der mitwirkenden Regierungen, in der Bundesrepublik ebenso wie in den anderen europäischen Ländern, dass die mit dem Ergebnis doch zum größten Teil zufrieden sind. Gerade deshalb aber kann es interessant sein, noch einmal die Gesichtspunkte aufzuzählen, die bei der Entscheidung eine Rolle gespielt haben. Denn es dürfte ja auch in der Zukunft ähnliche große Gemeinschaftsprojekte geben, und die gleichen Fragen über das Verhältnis von Wissenschaft und Gesellschaft über die Voraussetzung internationaler wissenschaftlicher Zusammenarbeit werden dann wieder auftauchen. Man wird also aus den Verhandlungen aus den letzten drei Jahren lernen können und ich möchte dieses spezielle Beispiel des europäischen Großbeschleunigers dazu benützen, einige allgemeinere Gedanken über das Verhältnis zwischen Regierung und Wissenschaft und über die Art der hier möglichen Zusammenarbeit auszusprechen. Zunächst ein paar Worte über die physikalischen Probleme, die mit Hilfe der Großbeschleuniger bearbeitet werden sollen. Die Fortschritte der Atomphysik in den letzten 100 Jahren sind eng mit der Konstruktion immer größerer Beschleuniger verknüpft gewesen, wobei ich das Wort Beschleuniger jetzt in einem sehr allgemeinen Sinn verwenden möchte. Z.B. den gewöhnlichen Entladungsröhren, etwa den Leuchtröhren der Lichtreklame genügt es, wenn Elektronen eine Spannung von wenigen Volt durchlaufen, um soweit beschleunigt zu werden, dass sie beim Stoß mit einem der vorhandenen Gasatome dessen Atomhülle verändern und zum Leuchten anregen können. Ihre Energie beträgt dabei also, so drücken wir das als Physiker aus, einige Elektronenvolt. Mit solchen Elektronen hat man die Atomhüllen untersucht und schließlich die Gesetzmäßigkeiten, nach denen sie gebaut sind, herausgefunden. Mit Atomhülle ist hier die Gesamtheit der den Atomkern umkreisenden Elektronen gemeint. Im Atomkern sind die Bindungsenergien etwa eine Millionen Mal größer als in der Hülle. Anfang der 30er Jahre haben Cockcroft und Walton in Cambridge eine Hochspannungsanlage gebaut, mit der sie Protonen auf Energien von der Größenordnung einer Millionen Elektronenvolt beschleunigen konnten. Damit konnten sie leichte Atomkerne verändern, aus ihnen Elementarteilchen herausschlagen oder andere Elementarteilchen an sie anlagern. Und in dieser Weise hat man im Laufe der 30iger Jahre den Bau der Atomkerne zu verstehen gelernt, die, wie man seitdem weiß, aus zwei Sorten von Elementarteilchen, den Wasserstoffkernen oder Protonen und den Neutronen besteht. Die nächstgrößere Gruppe solcher Apparaturen, die man jetzt schon Großbeschleuniger nennen kann, wurde in den 50iger Jahren gebaut. In ihnen sollte den Protonen eine Energie gegeben werden, die in der Größenordnung der Milliarden Elektronenvolt, der sog. GeV reicht. Man konnte hoffen, mit ihnen dann auch die damals bekannten Elementarteilchen zu verändern, sie evtl. in noch kleinere Bruchstücke zu zerlegen, noch elementarere Bausteine zu finden. Auch diese Großbeschleuniger, zu denen die Apparaturen in Berkeley, Genf, Hamburg, Brookhaven, Serpukhov gehören, haben die an sie gestellten Erwartungen voll erfüllt. Es stellte sich heraus, dass man tatsächlich Elementarteilchen verändern, sie in angeregte Zustände versetzen, ja sogar in viele Teile spalten kann. Aber, und das war das entscheidend Neue, die Bruchstücke sind dabei nicht kleiner als die Teilchen, die man hatte zusammenstoßen lassen. Vielmehr handelte es sich nicht mehr eigentlich um den Prozess der Teilung, sondern um die Entstehung von Materie aus Energie, und das wusste man ja aus der Relativitätstheorie, dass das möglich ist. Bei solchen energiereichen Stößen entstehen immer wieder Elementarteilchen des gleichen Spektrums. Die Elementarteilchen sind, so kann man es ausdrücken, einfach verschiedene Formen, in die sich die Energie begeben kann, um zu Materie zu werden. Aber es gibt dann offenbar keine noch elementareren Teilchen. Das war der Stand der experimentellen Forschung vor einigen Jahren und auf der Grundlage dieser Kenntnisse musste nun entschieden werden, ob man noch größere Beschleuniger mit Energien der Größenordnung einiger hundert GeV und mit den entsprechend sehr hohen Kosten bauen sollte. Für diesen Schritt sprach zunächst die einfache Überlegung, dass bisher, so wie ich es geschildert habe, jeder Übergang von kleineren zu größeren Beschleunigern neue Erkenntnisse gebracht hat. Warum sollte es nicht so weiter gehen? Der Eintritt in ein neues Energiegebiet muss zwangsläufig zu neuen, bisher unbekannten Informationen führen, und niemand kann ausschließen, dass dabei auch ganz unerwartete, überraschende und interessante Informationen herauskommen. Aber auch, wenn man solche Überraschungen ausklammert, kann es wichtig sein zu erfahren, wie etwa die für die Radioaktivität maßgebende Wechselwirkung sich bei ganz hohen Energien verhält. Denn die bisherigen Experimente gestatten darüber keine zuverlässige Vermutung und es könnte durchaus sein, dass die Kenntnis dieses Verhaltens grundsätzliche Fortschritte zum Verständnis des Spektrums der Elementarteilchen mit sich bringt. Hier, bei den Gründen für den Beschleuniger ist auch besonders die zentrale Bedeutung dieses Problemkreises für die gesamte Physik hervorzuheben. Alle physikalischen Gesetze werden wohl letzten Endes auf Gesetze für das Verhalten der kleinsten materiellen Teilchen zurückgeführt werden können. Also ist es sehr wichtig, gerade diese Gesetze in Erfahrung zu bringen. Aber selbst wenn man die Erweiterung der Elementarteilchenphysik nicht so hoch bewertet, so wird man beim Bau der riesigen Beschleuniger neue technische Erfahrungen machen, die in ganz anderen Gebieten praktisch wertvoll werden können. Bei solchen Beschleunigern muss man ja an die äußersten Grenzen des jeweils technisch Möglichen gehen. Man wird also für die Praxis sehr viel lernen können. Ich erinnere z.B. an die sich in diesen Jahren entwickelnde Technik der supraleitenden Magneten, die vielleicht beim neuen Großbeschleuniger voll eingesetzt werden kann. Es gibt also gute Gründe, die für den Bau solcher Großbeschleuniger von Energien der Ordnung 300 GeV oder mehr sprechen. Und wenn man solche Apparaturen für einige Millionen Mark bauen könnte, so würde wahrscheinlich niemand daran gezweifelt haben, dass man das auch tun muss. Leider gehen die Kosten aber in die Milliarden. Und daher muss man schon mit Rücksicht auf die anderen Bedürfnisse des Staates fragen, ob man solche enormen Ausgaben nicht reduzieren oder wenigstens auf später verschieben kann. Sind sie wirklich unbedingt nötig? Hier bei diesen Zweifeln wird man zunächst anführen können, dass die Gründe dafür, dass bei höheren Energien etwas grundsätzlich Neues herauskommen wird, nicht ganz stichhaltig sind. Die Natur hat uns ja gerade bei dem Versuch der Elementarteilchen zu teilen eine neue und unerwartete Auskunft gegeben. Nämlich die, dass es sich bei diesen Prozessen gar nicht mehr um Teilen sondern um die Verwandlung von Energie in Materie handelt. Das wird wahrscheinlich auch bei höheren Energien so sein und daher muss man durchaus mit der Möglichkeit rechnen, dass selbst bei beliebiger Steigerung der Energie nichts grundsätzlich Neues passiert. Dazu kommt, dass man in der kosmischen Strahlung ja Teilchen von extrem hohen Energien schon beobachtet hat, bis herauf zu 1 Million GeV, und dass bei ihnen keine grundsätzlichen neuen Erscheinungen gefunden worden sind. Man könnte auch darauf hinweisen, dass die Speicherringe in Genf, die in diesem Jahre ihren Betrieb beginnen, die jetzt in den vergangenen Jahren gebaut worden sind, dass die ja auch zu noch höheren Energien reichen. Es könnte also sein, dass das bisherige umfangreiche Erfahrungsmaterial über die Elementarteilchen schon ausreicht, um die Naturgesetze in diesem Gebiet vollständig zu verstehen, dass wir die Erweiterung nach diesen höheren Energien gar nicht mehr unbedingt brauchen. In der Tat kann man sich schwer vorstellen, dass eine zunächst hypothetisch aufgestellte Theorie zwar alle bisherigen Erfahrungen innerhalb der experimentellen Genauigkeitsgrenzen richtig darstellen, dass sie aber trotzdem im Gebiet der noch höheren Energien, was wir noch nicht kennen, dann versagen könnte. Aber selbst wenn man das Experimentieren im Gebiet der hohen Energien für absolut notwendig hält, könnte man noch von der Hoffnung ausgehen, dass die Technik, etwa die der supraleitenden Magneten, in einigen Jahren oder Jahrzehnten so große Fortschritte gemacht haben wird und dass so neuartige Konstruktionsprinzipien gefunden worden sind, dass man dann einen Großbeschleuniger mit einem viel geringeren Kostenaufwand wird bauen können. Mit solchen Argumenten konnte man also dafür plädieren, mit dem Bau des Großbeschleunigers jedenfalls noch ein paar Jahre zu warten. Sie sehen, dass die physikalischen und technischen Argumente allein kaum ausreichen konnten, um eine klare Entscheidung zu treffen und daher wird man auch die wissenschaftspolitischen und die außenpolitischen Komponenten einer solchen Entscheidung sorgfältig bedenken müssen. Beginnen wir mit den Auswirkungen einer solchen Entscheidung auf die Hochschul- und Forschungspolitik im eigenen Land: Die Beträge, die für einen Großbeschleuniger von 300 GeV oder mehr ausgegeben würden müssen, sind so hoch, dass sie, selbst wenn es sich um ein internationales Gemeinschaftsprojekt handelt, nicht ohne weiteres zusätzlich zum bisherigen Forschungsetat etwa auf Kosten einfach aller übrigen Etatkosten aufgebracht werden können. Dadurch entstehen für die Gesellschaft oder für die Regierung, die sie vertritt, sehr unangenehme Prioritätsfragen, etwa in folgender Form: Sollen wir in Anbetracht der zu geringen Ausbildungskapazitäten unserer Hochschulen noch eine neue Hochschule einrichten, oder uns stattdessen an einen internationalen Großbeschleunigerprojekt beteiligen? Oder eine andere Frage: Sollen wir im Jahr einige hundert Millionen mehr für den Umweltschutz, die Reinhaltung der Flüsse, der Seen und der Luft ausgeben, oder sollen wir sie für Elementarteilchenphysik verwenden? Gerade hier hin Lindau haben wir ja in der Person unseres verehrten Grafen Bernadotte einen der überzeugendsten Vertreter des Umweltschutzes unter uns. Solche Fragen sind deswegen so unangenehm, weil hier völlig unvergleichbare Dinge in ihrer Dringlichkeit verglichen werden müssten. Auf der einen Seite steht die reine Erkenntnis über Grundfragen der Physik und der Naturwissenschaft, die später vielleicht auch, aber nur indirekt, große wirtschaftliche Auswirkungen haben kann. Auf der anderen steht ein unmittelbar praktisches Bedürfnis des heutigen Lebens, etwa die Möglichkeit, die Kinder in einer Universität später ausbilden zu lassen und ihnen gesunde Lebensbedingungen zu schaffen. Also wie soll man solche Fragen entscheiden? Die erste Forderung, die man hier erheben muss, scheint mir die zu sein, dass auch die Physiker, die den Großbeschleuniger haben wollen und mit ihm arbeiten wollen, sich die ganze Schwierigkeit dieser Probleme klar machen. Es genügt nicht, die Fragen mit der Bemerkung wegzuschieben, dass es ja Sache der Regierung sei darüber zu nachzudenken, oder leichthin zu sagen, man solle die Summe für den Großbeschleuniger eben vom Verteidigungsetat abziehen. Für die Menschen, die für das Gemeinwesen Verantwortung tragen, muss die Frage nach der Sicherheit dieses Gemeinwesens ein höheres Gewicht haben - sie muss es haben - als die Beteiligung an einem großen Projekt zum Studium der Elementarteilchen. In anderen Worten: Bei der Entscheidung über den Bau eines Großbeschleunigers kommen leider politische Fragen ins Spiel, die auch der Physiker nicht einfach ignorieren kann. Ein sehr gutes Beispiel dafür, wie man sich hier verhalten kann als Physiker, haben die britischen Physiker gegeben. Wenn ich recht unterrichtet bin, haben die britischen Physiker ihrer Regierung vorgeschlagen, man möge sich zwar an dem europäischen Großbeschleunigerprojekt beteiligen aber gleichzeitig, um die Kosten auszugleichen, den nationalen Etat für Elementarteilchen-Physik entsprechend reduzieren. Es war sogar davon die Rede, dass ein großes und angesehenes Forschungsinstitut des gleichen Gebiets, das Rutherford Laboratorium in Cambridge stillgelegt werden könnte. Hinter einem solchen Vorschlag steht also einerseits die Überzeugung, dass die Experimente, die man mit dem neuen europäischen Großbeschleuniger wird ausführen können, interessanter und wichtiger sind als jene, die mit den kleineren Apparaturen im Rutherford Laboratorium angestellt werden können. Andererseits aber auch die Einsicht, dass die Physiker in den vergangenen Jahrzehnten vielleicht schon relativ hohe Forderungen an die wirtschaftliche Kraft ihres Landes gestellt hatten, dass man also bei noch weitergehenden Ansprüchen außerordentlich vorsichtig sein müsse. Die britischen Physiker haben also bei ihren Wünschen an die Regierung das Wohl der Gemeinschaft, zu der sie gehören, sehr sorgfältig mitbedacht. Darf ich hier eine allgemeine Bemerkung einfließen lassen, die vielleicht nicht ganz hierher gehört? Es scheint mir eine unglückliche Entwicklung in unserer Zeit, keineswegs nur in unserem Land und ganz sicher nicht nur bei uns Physikern, dass viele in der Versuchung sind, Ansprüche an den Staat zu stellen ohne dafür Gegenleistung oder eigene Opfer anzubieten. Es mag sich dabei um Anspruch auf Ausbildung, Stipendien, Mitbestimmung in schwierigen Fragen oder auch einfach Anspruch auf viel Freizeit, weite Ferienreisen und materiellen Wohlstand handeln. Immer wieder wird, so fürchte ich, die Tendenz sichtbar, eine Rechtfertigung dieser Ansprüche durch eigene Opfer für unnötig zu halten. Aber das gute Beispiel der britischen Physiker, das ich erwähnt habe, weist auf die allgemeine Frage hin, wie denn überhaupt das Verhältnis der Physiker oder generell der Naturwissenschaftler zu ihren Regierungen aussehen soll. Die meisten scheinen darin überein zu stimmen, dass in unserer Zeit die Regierungsarbeit der Beratung durch die Wissenschaft bedarf. Wissenschaft und Technik spielen eine so große Rolle im modernen Leben, in der Wirtschaft, bei Bildungsfragen, bei der Vorbereitung politischer Entscheidungen, dass es Beratungsgremien von Wissenschaftlern und Technikern geben muss, die der Regierung die Arbeit erleichtern. Tatsächlich sind auch überall in den modernen Industrieländern solche Beratungsgremien eingerichtet worden. In der Bundesrepublik existieren auf verschiedenen Stufen Beratungskreise, die der Regierung bei der Verteilung von öffentlichen Mitteln für Forschungszwecke, bei Entscheidungen über große Forschungs- und Entwicklungsprojekte, bei Hochschulfragen usw. zur Seite stehen. Ich erinnere etwa an die Atomkommission, an den wissenschaftlichen Beirat des Wirtschaftsministeriums, an den Beratungskreis für Forschung. Gerade in den letzten Monaten ist über die Neuordnung dieses Beratungswesens viel diskutiert worden. Außerdem gibt es aber, und das ist etwas völlig anderes, in der Umgebung der Regierung naturgemäß Interessentengruppen, die etwa von Teilen der Wirtschaft, z.B. bestimmter Industriezweige oder der Landwirtschaft, nach Bonn geschickt worden sind, um ihren Interessen dort mehr Gehör zu verschaffen. Auch dies ist in einer Demokratie durchaus legitim, denn es ist ja gerade die Aufgabe der Regierung, zwischen den verschiedenen Interessen der Bürger des Landes einen möglichst gerechten Ausgleich zu finden. Also ist es wichtig, dass der Staat diese Interessen kennt. Es scheint mir aber außerordentlich wichtig, dass der Unterschied zwischen den Beratergruppen und den Interessentengruppen nicht verwischt wird. In dem Moment, in dem eine Beratergruppe auch Interessentengruppe würde, hat sie aufgehört eine brauchbare Beratergruppe zu sein. Denn nur eine völlig unparteiische Beratung kann der Regierung wirklich Nutzen bringen. An dieser Stelle entsteht nun ein schwieriges Dilemma, wenn es sich um die Beteiligung der Regierung an einem großen, internationalen, wissenschaftlich-technischen Projekt handelt, wie z.B. dem geplanten Großbeschleuniger. Denn einerseits ist es unerlässlich, dass hier eine Beratung durch Spezialisten auf dem Gebiet der Hochenergiephysik erfolgt, denn nur sie können die Einzelheiten wirklich beurteilen. Andererseits sind diese Spezialisten zwangsläufig auch Interessenten, da sie oder ihre Schüler später am Großbeschleuniger arbeiten wollen. Diese Schwierigkeit ist also gar nicht zu vermeiden. Sie ist auch offenbar von den britischen Physikern empfunden worden, von denen vorhin die Rede war, und diese Physiker haben dann versucht, sozusagen auf der Interessenseite Opfer zu bringen, um die Rolle des Beraters mit gutem Gewissen spielen zu können. Aber selbst wenn hier das vollste Verständnis aller Beteiligten erwartet werden kann, wenn alle bisherigen genannten Voraussetzungen erfüllt sind, so bleibt es immer noch eine sehr schwierige Aufgabe, die Dringlichkeit eines solchen wissenschaftlich-technischen Projekts gegenüber anderen Projekten abzuschätzen. Wie wichtig ist wissenschaftliche Erkenntnis? Wie wichtig ist es, dass sie bald und nicht erst in 10 oder 20 oder 30 Jahren gewonnen wird? Nun, wer sein Leben in der Wissenschaft tätig gewesen ist, der wird den Wert wissenschaftlicher Erkenntnisse hoch einschätzen und er wird dafür viele gute und triftige Gründe anführen können. Ein Politiker aber, der etwa, bevor er in die Politik ging, als Kaufmann oder Landwirt gearbeitet hat, wird vielleicht wirtschaftliche Fragen oder den Umweltschutz für wichtiger halten, und er wird auch dafür viele überzeugende Argumente finden. Vielleicht wird er auch umgekehrt in Gefahr geraten, die wissenschaftliche Erkenntnis zu hoch zu bewerten, weil die Wissenschaft ihm unheimlich und fremd ist und weil er unter dem Eindruck der modernen Technik ihre Möglichkeiten dann überschätzt. In Anbetracht dieser ganz unvermeidlichen Unsicherheit des Politikers ist es natürlich die oberste Pflicht der Berater, den Behörden ein völlig objektives, ungeschminktes Bild der wissenschaftlichen Pläne und ihrer vermuteten Bedeutung zu geben. Alle Gründe, die für, aber auch alle, die gegen das Projekt sprechen, müssen so sachlich wie möglich vorgetragen und erläutert werden, sodass der Politiker das Maximum an Informationen erhält, das er in dem betreffenden Fall überhaupt erhalten kann. Beim Aufzählen und Erläutern der Gründe, die für oder gegen so ein Projekt sprechen, ist auch darauf zu achten, dass die Beweislast richtig verteilt wird. Wenn es sich um ein Milliardenprojekt handelt, dessen Inangriffnahme unweigerlich Opfer an anderen Stellen erfordert, so muss der, der ein solches Projekt befürwortet, den Beweis für die Dringlichkeit für die zu erhoffenden Erfolge erbringen. Und es kann nicht Sache seines Opponenten sein zu beweisen, dass das Projekt doch nicht so wichtig sei, denn bei einem Projekt, das in wissenschaftliches Neuland vorstößt wird es nie möglich sein zu beweisen, dass es dabei keine neuen, überraschenden und wichtigen Entdeckungen geben kann. Aber das allein kann ja unmöglich als Grund dafür ausreichen, Milliarden auszugeben. Die Beweislast muss also unbedingt bei dem liegen, der so extrem hohe öffentliche Mittel in Anspruch nehmen will. Aber selbst dann wird die Entscheidung für die Politiker noch schwer genug sein. Es ist daher eine Erleichterung für ihre Arbeit, dass entsprechende Entscheidungen ja auch in den anderen Ländern getroffen werden müssen. Das man sich also an dem, was die anderen sich überlegt haben, orientieren kann. Wenn es sich um ein internationales Projekt handelt wie bei dem geplanten europäischen Großbeschleuniger, so stehen die anderen Mitgliedsstaaten, die sich eventuell beteiligen wollen, sogar vor genau den gleichen Problemen. Hier wird die Entscheidung also mehr oder weniger gemeinsam getroffen werden müssen. Durch den internationalen Charakter eines solchen Großprojekts kommen einige neue Aspekte herein, die ich bisher noch nicht besprochen habe. Zunächst sind wir wohl alle darin einig, dass es für die Zukunft unseres Erdteils außerordentlich wichtig ist, dass sich aus den vielen kleinen europäischen Staaten eine echte Gemeinschaft entwickelt. Ein großes wissenschaftliches Projekt, dessen Bedeutung von allen anerkannt wird, das aber wegen der hohen Kosten von einem einzelnen europäischen Land allein nicht mehr getragen werden kann, das stellt sozusagen einen Idealfall einer solchen Gemeinschaftsarbeit dar. Denn dort, wo es sich um reine Wissenschaft handelt, spielt wirtschaftliche oder politische Konkurrenz keine wichtige Rolle mehr, Ergebnisse und technische Erfahrungen brauchen nicht geheim gehalten zu werden. Das gemeinsame Interesse an spannenden wissenschaftlichen Problemen führt junge Physiker und Techniker aus den verschiedensten Ländern von selbst zu fruchtbarer Arbeit zusammen. Und ohne jede weitere Anstrengung findet ein ständiger Austausch von Meinungen und damit auch unbewusst ein Ausgleich von Interessen statt, der für das spätere Ziel, die Einheit Europas, gar nicht hoch genug eingeschätzt werden kann. Man muss solche internationalen Großprojekte also eigentlich schon deswegen fördern, weil sie international sind. Man darf in Anbetracht ihrer gemeinschaftsbildenden Kraft gegenüber den wissenschaftlichen Möglichkeiten und Begründungen nicht allzu kritisch und skeptisch sein. Tatsächlich sind in den 25 Jahren nach dem Krieg in Europa verschiedene solcher Gemeinschaftsprojekte und gemeinschaftliche Einrichtungen entstanden, die für die Zusammenarbeit eine große Bedeutung gewonnen haben. Die beste Institution dieser Art ist wohl das Atomzentrum CERN in Genf. Seit 1959 ist dort ein Proton-Synchrotron von 30 GeV in Benutzung und hat schon eine Reihe von sehr interessanten Experimenten ermöglicht. In diesem oder im kommenden Jahr wird der große Speicherring voll in Betrieb genommen werden, der hinsichtlich der Energie beim Stoß zweier Protonen einem Beschleuniger von sogar etwas 1700 GeV entspricht. Er wird das einzige Instrument dieser Art auf der Erde sein und vor einigen Monaten ist, wie gesagt, der Bau eines neuen europäischen Großbeschleunigers von mehreren 100 GeV in Genf beschlossen worden. Europa wird also in der Elementarteilchenphysik, oder wie es auch heißt in der Hochenergiephysik, in den nächsten 10-20 Jahren eine führende Rolle spielen können, wenn diese Maschinen ebenso gut ausgenutzt werden wie bisher das Proton-Synchrotron in Genf. In Triest, also auf italienischem Boden, ist ein sehr erfolgreiches internationales Zentrum für theoretische Physik entstanden, das nicht nur von europäischen, sondern auch außereuropäischen Staaten getragen wird, und das besonders gute Verbindungen nach Osteuropa und nach Asien unterhält. In Ispra am Lago Maggiore, ebenfalls auf italienischem Gebiet, werden im Auftrag von EURATOM Entwicklungs- und Forschungsaufgaben auf dem Gebiet der Reaktortechnik betrieben. Es handelt sich auch hier um ein großes internationales Gemeinschaftsprojekt, zu dem verschiedene europäische Staaten beisteuern. In Grenoble in Frankreich ist durch französisch-deutsche Zusammenarbeit ein Reaktor mit sehr hohem Neutronenfluss errichtet worden, an dem man wissenschaftliche und technische Untersuchungen über das Verhalten von Materialien unter starker Bestrahlung anstellen kann. Ähnliche internationale Einrichtungen, die auch andere Gebiete, z.B. die Erforschung des Weltraums betreffen, gibt es in Belgien und in Holland. Das Interesse an internationaler wissenschaftlicher Zusammenarbeit ist also sehr groß und mit den Erfolgen, die in den verschiedenen Institutionen errungen worden sind, kann man durchaus zufrieden sein. Trotzdem tauchen dann, wenn man sich dafür entscheiden will, eine weitere solche internationale wissenschaftliche Einrichtung zu gründen, nochmals schwierige Probleme auf, die vor allem den Standort aber auch die Finanzierung, die Verteilung der Aufträge, die Besetzung der führenden Stellen betreffen. Die Standortfrage ist hier bei weitem am schwierigsten, weil sie in der Regel nicht nach sachlichen, sondern nach politischen Gesichtspunkten entschieden werden muss. Zwar wird das angestrebte technische oder wissenschaftliche Ziel häufig Bedingungen stellen, die die Wahlmöglichkeit für den Standort stark einschränken. Z.B. muss für einen Großbeschleuniger eine weite, ebene Fläche vorhanden sein, die geologisch stabil ist, die sich also nicht unter Bodenbewegungen verformt oder unter Witterungseinflüssen Verzerrungen erleidet, und die für die Errichtung des Beschleunigers notwendigen Erdbewegungen dürfen dabei auch nicht zu kostspielig werden. Ferner muss die geplante Einrichtung verkehrstechnisch günstig liegen. Man muss Schulen, Hochschulen leicht erreichen können usw. Es gibt also eine ganze Reihe von Bedingungen, die erfüllt werden müssen, aber es ist doch in der Regel nicht allzu schwierig, in sehr verschiedenen Gegenden Europas Standorte zu finden, bei denen alle diese Bedingungen erfüllt sind. So bleibt schließlich eine politische Entscheidung zu treffen und man muss fragen, welche Gesichtspunkte hier die wichtigste Rolle spielen. Es soll sich ja bei der Errichtung dieser verschiedenen internationalen wissenschaftlichen Zentren um eine Gemeinschaftsarbeit und um eine gemeinsame Anstrengung Europas handeln und daraus scheint mir zu folgen, dass diese Institutionen einigermaßen gleichmäßig über Europa verteilt sein sollten. Natürlich kann man noch darüber diskutieren, was dieser unbestimmte Begriff „einigermaßen gleichmäßig“ bedeutet. Aber ich glaube, wenn man einen Blick auf die europäische Landkarte wirft und die räumliche Verteilung der bisherigen internationalen wissenschaftlichen Institutionen betrachtet, so erkennt man, dass die Verteilung noch ziemlich ungleichmäßig ist und in Zukunft gleichmäßiger werden sollte. Gegen dieses Argument wird gelegentlich eingewandt, dass unser Ziel doch die vereinigten Staaten von Europa sein müssten und dass es dann ja gar nicht mehr auf den Standort innerhalb Europas ankäme. Aber, das Vorbild der Vereinigten Staaten von Amerika zeigt, dass dies nicht zutrifft. Dass vielmehr auch in einem solchen politisch vereinigten Großraum auf gleichmäßige Verteilung der wissenschaftlichen Institutionen geachtet werden muss. So wird z.B. der jüngste amerikanische Großbeschleuniger, der etwas 400 GeV erreichen soll, in Batavia unweit Chicago errichtet, nachdem die beiden früheren Zentren für Hochenergiephysik im Westen in Kalifornien und ganz im Osten in Brookhaven entstanden waren. In Europa hat bei den Beratungen über den nun schon zu Anfang erwähnten Großbeschleuniger die Standortfrage eine wichtige Rolle gespielt. Aber die Möglichkeit, in Genf die schon vorhandene Infrastruktur des CERN-Zentrums zu verwenden und damit die Kosten erheblich zu senken, hat schließlich den Vorrang erhalten gegenüber der anderen Möglichkeit, ein neues europäisches Forschungszentrum in einem anderen Gebiet zu schaffen, das von den bisherigen Zentren dieser Art weit abliegt. Hoffen wir also, dass zukünftige Gründungen für eine noch gleichmäßigere Verteilung über Europa sorgen werden. Es gab noch einen anderen Grund, den neuen Großbeschleuniger wieder nach Genf ins CERN-Zentrum zu verlegen. Ein neues, von Genf unabhängiges europäisches Zentrum für Hochenergiephysik hätte tausende von Mitarbeitern an den neuen Standort und an diese Arbeit an einem neuen großen Beschleuniger gebunden. Viele junge, begabte Physiker und Techniker hätten sich daher diesem sehr speziellen Gebiet der Elementarteilchenphysik und der Beschleunigertechnologie zugewandt und sie wären wahrscheinlich in diesem Gebiet von den Problemen in den kommenden Jahren so gefesselt worden, dass es für sie schwierig geworden wäre, später in irgend einem anderen Bereich tätig zu werden. Andererseits wird dieser spezielle Problemkreis der Elementarteilchenphysik früher oder später seinen Abschluss finden, so wie alle anderen früheren Gebiete der Physik einmal aufgearbeitet wurden und dann nur noch mit ihren Anwendungen in die spätere Technik eingegangen sind. Wenn man diesen Abschluss in Gedanken in eine unabsehbare weite Ferne rückt, wie es manche Physiker tun, so mag man dies als Rechtfertigung dafür ansehen, dass man über die zukünftige Tätigkeit der Elementarteilchenphysiker in anderen Gebieten nicht weiter nachdenkt. Aber die Erfahrungen in den Vereinigten Staaten lehren, dass dort schon Beschleunigerstationen geschlossen, dass in ihnen arbeitende Physiker und Techniker entlassen worden sind. Daraus folgt, dass man den jungen Menschen, die man für diese speziellen Gebiete interessiert hat, Unrecht tut, wenn man über ihre weitere Zukunft nicht weiter nachdenken würde. Aus diesem Grund war es sicher ein weiser Entschluss, den neuen Großbeschleuniger, für den man sich entschlossen hatte, wieder in Genf zu bauen, so wie früher das Proton-Synchrotron um den großen Speicherring. Zwar wird auch in Genf das Personal durch die neuen Aufgaben sich erheblich vermehren, aber doch wohl lang nicht in dem Ausmaß, in dem das in einer ganz neuen Beschleunigerstation geschehen würde. Man hat also die Gefahren für die ferne und nahe Zukunft durch die Wahl von Genf als Standort etwas verringert. Schließlich noch ein weiteres Argument, mehr nebenbei. Die räumliche Enge des Bauplatzes in Genf hat auch noch eine technische Konsequenz. Sie zwingt die Konstrukteure, die modernsten technischen Entwicklungen z.B. die Supraleitungsmagneten mit zu nutzen, wenn man auf dem kleinen Raum so hohe Energien erreichen will. Das neue Projekt wird also zwangsläufig viel moderner werden als das früher geplante. Damit habe ich glaube ich die meisten der Argumente aufgeführt, die bei der schließlich gefällten Entscheidung mitgewirkt haben, und die ich jetzt in wenigen Worten wiederhole. Da ist zunächst die Freude über ein sinnvolles Gemeinschaftsprojekt, aber auch die Unsicherheit über die mit dem neuen Instrument zu erwartenden Erfolge. Die Frage, ob die mit den bisherigen Beschleunigern gewonnenen Erfahrungen nicht vielleicht schon ausreichen könnten, um die Welt der Elementarteilchen zu verstehen. Dann die weitere Frage nach den Fortschritten der Technik: Könnten Beschleuniger der geforderten hohen Energie nicht vielleicht in einigen Jahren nach neuen technischen Verfahren viel billiger gebaut werden als jetzt? Dazu die Schwierigkeit, zwischen den mitwirkenden Nationen eine faire Einigung über den Standort zu erzielen, und die Notwendigkeit, für jede einzelne dieser Regierungen auf gewisse Pläne oder Projekte im eigenen Land zugunsten des internationalen Beschleunigers zu verzichten. Wenn man alle diese Schwierigkeiten und Probleme bedenkt, so ist die Entscheidung, die schließlich getroffen worden ist und die sie kennen, eine, wie mir scheint, sehr gute Lösung, ein angemessener Kompromiss aus den verschiedenen Interessen und ein wertvoller Beitrag zur Stärkung der europäischen Gemeinschaft. Zum Schluss muss ich aber doch aus dieser Ebene der praktischen Erwägungen, der wissenschaftlichen Begründungen und politischen Verhandlungen noch in eine etwas tiefere Schicht hinunter steigen und fragen: Wieso machen wir Menschen überhaupt so enorme Anstrengungen einen Großbeschleuniger zu bauen? Wieso geben wir Milliardenbeträge für ein wissenschaftliches Instrument aus, das jedenfalls unmittelbar keinen wirtschaftlichen Nutzen verspricht? Auf diese Frage habe ich …

Heisenberg on Collaborations such as CERN, ICTP and ILL
(00:26:21 - 00:28:58)

With the advent of high energy accelerators, a new kind of collaboration in physics evolved. Extensive international collaborations are needed to scrape together funding and manpower for the construction of detectors, for performing experiments and for analysing large sets of data. Such collaborations are usually led by well known physicists with a knack for organization. They are often travelling physicists, who go around the world looking for opportunities at the large machines. Samuel Ting, who was born in the US but raised in China, received the Nobel Prize in Physics 1976 together with Burton Richter “for their pioneering work in the discovery of a heavy elementary particle of a new kind”. Ting’s discovery was made at the Brookhaven National Laboratory (BNL) in the US, but in his first talk in Lindau, entitled “Light Rays, Massive Light Rays, and New Particles in Nature”, he starts by describing his work at the German laboratory DESY in Hamburg. Then he moves over to BNL and then back to Germany again, when a new accelerator is opened up at DESY. This talk, given in 1979, brings forward the problems and breakthroughs of an active experimental physicist in a wonderful way!

Samuel Ting (1979) - Light Rays, Massive Light Rays, and new Particles in Nature

Good morning. I have been in Germany since 1964, so it’s been many years. However, despite my effort I have not been able to master the German language. And so, rather than speaking Chinese, I will give my lecture today in English. I will try to also speak very slowly, so my distinguished former professor, Professor Rabi will be awake. May I have the first slide please. Most of the phenomena in the universe can be characterised by a distance parameter. Where you have a distance larger than from 10 to the 18 to 10 to the 24 metres, we have cosmological phenomena. Where you have distances of 10 to the minus 3 to 10 to the minus 6 metres, we have biological phenomena. Where you go to distances of 10 to the minus 9 to 10 to the minus 12 we have atomic physics. And when you go to a distance less than 10 to the minus 15 centimetres we have the nuclear phenomena. Next slide please. Now this is a picture of the Milky Way which shows the physics of distances of 10 to the 20 to 24 metres. Next slide. At large distances most of the phenomena are covered by gravity. Its chief cosmic role is binding planets, stars and galaxies. It is extremely weak in atoms but very strong in collapsed stars. It is infinite in range, it acts on everything. We assume it is carried by gravitons. Next slide please. When you go to the other extreme, distances of 10 to the minus 15 metres or smaller, we have the nuclear phenomena. This is a bubble chamber picture of a high energy particle hitting an atomic nucleus and producing 100’s of other particles. Next slide please. In the nucleus basically there are 3 kinds of forces. The predominant one is the strong nuclear force, known as strong interaction. The chief cosmic role, binding atomic nuclei, burning in stars. It’s about 100 times stronger than the electric force, it is very short in range, it´s 10 to the minus 13 centimetres. It acts on quarks, so far, only an assumption. And we know it is carried by the mesons. Next slide. Besides strong force, there is then the weak force. Its chief cosmic role is alternating basic particles, namely change protons into neutrons. Its strength is very weak, it´s 1 part in 100 billions of electric force. It is very short in range, 10 to the minus 15 centimetres. It acts on all basic particles, quarks and electrons. We assume it is carried by an intermedaite vector boson, W+, W- or Z0, which I will describe in some detail later on. Next slide please. The third force is the most common experienced one, is the electric force. Its chief cosmic role is binding atoms, creating magnetism. It´s strong in atoms, weak over cosmic distances, because matter is neutral. It is infinite in range, it acts on all charged particles and is carried by light rays or photons. Next slide please. Now, we experience light and its interaction in matter almost constantly. In daily life, when the energy of the light, its order of the electronvolt, passing of the electric current, it generates light. In atomic world, when energy is order of 100 MeV to 100 eV, light is a transmitting force between the electrons and nucleons. The applications are x-ray in medicine and in industry. In the nuclear world, when energy is a billion electronvolt, light wave, because it is stable and because it’s neutral, is a very useful tool for penetrating into the nucleus. Next slide please. The forces in the electric charge, can be expressed as function of the distances. When the distance is order of a centimetre, you have 1/r² law, the Coulomb law. Where you have a distance of 10 to the minus 8 centimetres, you have atomic physics. When you go to the distances of 10 to the minus 13 centimetres or smaller, you have phenomena like light ray interact with light ray, known as quantum electrodynamics. Next slide please. Now, quantum electrodynamics is the study of light and electric charge. Experimentally there are 2 methods to check quantum electrodynamics. The first method is to do it at very large distances but with very high accuracy. The measurement of the muon g minus 2 over 2, done at CERN, has the number 001165915 plus minus parts in 10 million and agrees exactly with the theory. And this I believe is the most accurate measurement in particle physics. And comparison between experiment and theory is accurate to a part in 10 million. There is another method of testing quantum electrodynamics experimentally, and that is to probe deeply into the electric charge, namely at small distances, but in this way you can only do it to approximately 5% accuracy. You do this by using the uncertainty principle delta p * delta x = h, and so you if you give the electron a momentum or a kick of 1 billion electronvolt, you go to a distance of 10 to the minus 14 centimetres or even smaller. Next slide please. The first experiment of this kind, performed at the Deutsches Elektronen-Synchrotron in Hamburg in 1966, consists of using a 6 billion electronvolt light, produce a 3 billion electronvolt electron, 3 billion electronvolt positron, a pair, in the field of the Coulomb nucleus with a momentum transfer to the electron about 1 billion electronvolt. Experimental difficulties for all this type of experiment are two kind. The first is the electron positron yield is very small, because it´s alpha2, because it´s one virtual photon, 1 real photon. And that means, whatever detector you need, you need a large acceptance and very high incident flux of 10 to the 11 gamma rays per second. The second difficulty is, there’s always more strong nuclear particles are produced like the Pis, compared to the electrons. In fact, the ratio of photon go to electron pair versus Pi pair is 1 part in 10 to the 5th. And that means, 1% experiment must have a rejection of Pi*Pi by a factor of 10 million. Next slide please. What is the experimental method to identify electrons? When you have a gamma ray or a proton interact with a nuclear charge, you produce many, many particles. There are pions, kaons, protons and electrons. Pion has a mass 140, K has a mass 500, proton has a mass about billion electronvolt. The electron has a mass of only 0.5 MeV. But electrons are produced 1 part in 10 to the 5th of all the other strong interaction particles. The methods to identify electrons are well known. The first is, the charge and momentum are measured by its bending in a magnetic field. In the magnetic field, positive particle going one way, negative particle going the other way. The lower the momentum, the more the bending. The second: the electron has the smallest mass, therefore for given momentum you have the highest velocity, therefore by properly use of gas as a radiator, you will yield Cherenkov light, the other particle behaviour will not give Cherenkov light. The third is: the electron, also because of its small mass, will enter into a piece of dense material like a glass, loose all its energy into light, and the amount of light is proportional to the electron energy. And therefore, if you have a device, collect an amount of light, you know its proportional to the energy of the electron. Next slide please. So the experiment carried out in ’66 has the following arrangement: With a gamma ray of 10 to the 11th per second on the target, produce the electron positron pair, you have counters in here, behind magnet and therefore measures trajectory, therefore measures momentum. And there the Cherenkov counters measure velocity, knowing the velocity and momentum, therefore identifies mass and identifies the electron. And then you have a shower counter here which measures the total pulse height, which is proportional to the momentum of the electron and therefore is further identification, that it is indeed an electron. Next slide please. This is an arrangement where an intense electron beam goes through and these are Cherenkov counters behind here and shower counters located at the end. Next slide please. What is plotted in here is the ratio of the measurement of the electron positron yield, compared with the predictions of quantum electrodynamics, where the photon goes to the electron positron pair. Versus a mass of the electron positron pair, which is equal to the square root of 2, times the momentum transfer for symmetric pairs. One means complete in agreement with quantum electrodynamics. At a mass slightly below 800 MeV, you see a deviation from the predictions of quantum electrodynamics. This observations of a deviation from quantum electrodynamics come from the fact that the photon, when the energy is high enough, has a very small probability to change itself to a particle, which I call the Rho, in the field of a nucleus, and the Rho again decays to a photon, decays to e+ e-. If this of course is the case, this being a strong interaction, it changes very slowly with the angle, goes at 1 over Zeta to the 3rd. This being an electro dynamic process goes at 1 over Zeta to the 7th or to the 8th. And therefore, if you go to a large opening angle, this will predominate. Or indeed, when you go to 15 degrees of opening angle, the deviation from the electrodynamics increases. And there’s another one at a mass of larger than 1 GeV, again you have another particle. Next slide please. Let me now summarise what I call photons and heavy photons. Photons, which we call gamma rays, lifetime is stable, its spin is 1, parity -1, charge-conjugation minus 1, its mass is zero. Then there are 3 particles which we’ll call the Rho, the Omega, the Phi. One of them has a mass of 760, charge-conjugation -1, parity -1, spin 1, same as the photon. It has a lifetime of 10 to the minus 24 seconds and then goes to a pair of pions. And there is Omega, which has a lifetime of 10 to the minus 24 seconds, has a mass of 785 MeV, has the same quantum numbers as the photon, it goes to Pi+, Pi-, Pi0. And then you have the Phi, which has a mass of 1020 MeV, has a charge-conjugation again -1, parity -1, spin 1, goes to 3 Pis or 2 ks. Because this particle has exactly the same quantum number as a photon, so you may imagine from a high energy photon interact with a particle, you can visualise a photon change itself for a very short time to a Rho, to an Omega, to a Phi and the Rho, Omega and Phi interact with the photon. Let me give you a few examples. In classical optics, when you have a lamp which generates light of electronvolt, use a focusing lens with a screen, the hole of the screen of a millimetre matched with the wavelengths of the lamp, with a black cloth with a hole of a millimetre, and behind the focusing lens you have another screen, of course you see diffraction patterns. The larger the radius, the smaller, the light is more intensely focused together. The smaller the radius, the light is more diffuse. To change to a high energy sense, you change the lamp to a 6 billion electronvolt accelerator which generates light to billion electronvolt. To match with the wavelengths, then you need a scattering centre with a dimension of 10 to the minus 13 centimetres, that means nuclear target. And then you change the screen to 1,000 pound detector. Next slide please. This is what I call the modern lamp, which generates light of 6 billion electronvolts and this is the Deutsches Elektronen-Synchrotron located in DESY. And this is the electron accelerator, which accelerates light, the electron to 6 billion electronvolt and therefore generates light to that energy. Next slide. This is a reaction of gamma ray on nuclear target produce Rho meson, which are the same as the photons on nuclear target. This is what is plotted in this axis is a mass of Pi+, Pi-. You can see, near the mass of the Rho you see enhancement correspond to Rho, decay to Pi+, Pi-. The yield as function of angle decreases as the diffraction pattern, changes from beryllium to carbon to aluminium to copper, all the way to uranium. You can see, the larger the nucleus the light is more focused together, and the smaller the nucleus, the light is more diffuse. In the same way as the classical diffraction scattering. Next slide please. I can give you one more example between classical optics and heavy photon production. In classical optics, if you have a light source with a focusing lens, you have a black cloth with 2 slits behind it, of course you see an interference pattern. If in front of one of the slits you put a very thin piece of glass with known thickness, you see a shift of the diffraction pattern. And the amount of shift is the measure of index of reflection of this piece of glass. To change to high energies then, you can visualise that transmission of light goes through a slit, producing photon production of the electron positron pair in the field of nucleus. Adding this piece of glass can be visualised as the photon changes itself to a Rho, Rho decays to a photon, to an e+ e-. In this analysis in D2 near the mass of the Rho, you shall see a shift of interference pattern. What is plotted in here is the measurement of interference pattern, where the positron goes to the left, the electron goes to the right, minus the reversed one as function with the mass from 610 to 640 and 640 to 670, and as function of a difference of momentum transfer between the 2 particles. What is important to know is, away from the mass of the Rho, you see no interference. When you go to the mass of the Rho, which is 760 to 790 or 730 to 760 because of its width, you see a sharp interference pattern. In the same analogy as the classical case. The next slide please. I can give you one more example. Once you put a piece of glass in front of one slit, it doesn’t prevent you to add another piece of glass with known thickness, and again you see a shift of the intensity pattern and this will be a measurement of the index reflection of the second piece of glass. In the high energy sense then instead, transmitting light without a piece of glass is the pair production in the Bethe Heitler sense, and adding the first piece of glass, which corresponds to photon, goes to Rho, Rho decays to a photon to e+ e-, that’s the first case. Adding the second piece of glass, then would correspond to a photon goes to Omega, Omega goes to a photon, goes to e+ e-. Since the Rho and the Omega have a mass very close and the width is very wide, you will expect interference between these two. In the same way you expect interference between these two. This I took many years to observe, mainly because of experimental difficulties. The first is the Rho to ee, compare Omega to Pi Pi-ratio is 1 part in 10 to the minus 5. And therefore you need a rejection against Pi Pi larger than 10 to the 8th. And in the second the width of Omega is very narrow, it’s about 10 MeV. That means the resolution with the detector has to be 5 million electronvolt. Once you have done that, you measure the mass of the e+ e-, and then you see the experimental point agrees with the prediction of Rho plus Omega decay to e+ e- with interference. And this will be the dotted line, will be the Rho to e+ e- alone, which does not agree with the data. Next slide please. So we now know that photons and heavy photons are almost the same and they do transform back and forth into each other. We also learned how to use high intensity flux of 10 to the 11 gamma rays per second. And to obtain a Pi Pi rejection of larger than 10 to the 8th. And to have a mass resolution of 5 MeV. And then you can ask yourself: Why should there only be 3 heavy photons, all of them at a mass of 1 BeV? And go to higher mass, in order to search for higher mass, you go to a high energy accelerator, and then you go to Brookhaven National Laboratory in Long Island. Next slide please. This is the aerial view of the Brookhaven accelerator and this is the injection system and this is the 30 billion electronvolt proton synchrotron and this is the experimental area. Next slide please. So accelerating is carried out in the first stage by Cockcroft-Walton electrostatic accelerator, it accelerates protons to kilo electronvolt range. Next one. You guide the photon through a linear accelerator, accelerated to a few hundred million electronvolts. Next slide please. After that you bring the proton beam into an alternating gradient electron synchrotron. After 2 seconds you reach the speed of light and energy of 30 billion electronvolts. And then you make a slight change of magnet current, you bring all the protons out. Next slide please. Now to go to higher mass, to look for new particles, the first question is: How do you set up the detector? The first answer is: You do not know, because you do not know the property of the new detector. But you do know the following: For ordinary heavy photons like the Rho, we know that when a photon hits a nuclear target, the Rho decays to a electron positron pair, the maximum yield is at 15 degrees in the laboratory. Since we know nothing else, we assume the new particle is produced like the Rho meson. Next slide please. The main difficulty for this type of experiment is the following. When a proton interacts with a target, lets say beryllium, you produce many, many particles like Pis, ks, protons, Rho0s, K-stars and many others. The number of the electron positron pairs compared to Pi pair is even smaller, it´s 1 part in 10 to the 8th. And that means, to obtain enough e+ e- events, you need a 10 to the 12th protons per second. And to obtain a Pi Pi-rejection to 1%, you need a rejection of 1 part in 10 to the 10. A typical city like Stuttgart or Munich, during the rainy season you have about 10 to the 10th drops per second, now if one of them has a particular colour, you have to find that one. And that is why an experiment of this type is normally somewhat difficult. Next slide please. The detectors for this and subsequent detectors are very similar. This is the top view and this is the side view. The beam on a target, M0, M1, M2, are basically bending magnets. A0, A, B and C are position measuring chambers, from the top view you measure the production angle. Bending is on the vertical view, so A, B, C, A0 measure the momentum and C0, C – at Cherenkov counters - measure the velocity therefore identifies the electron. At the end again you have shower counters. Very similar to all the detectors used by us before. The dimension of this is somewhat larger now, this is 70 metres by 10 metres. Next slide please. Now I give you a few examples of how this type of experiment are done, just to give you a feeling what the kind of problems one encounter in high energy physics. When you have a 10 to the 12 protons on a target, the first thing you ought to do is to divide the target into many small pieces. When you divide this into many small pieces, you have one advantage, is because a real electron positron from one interaction you can trace back to one point. By accidental having electron in this way, in this point, positron in another point, you can reconstruct them and reject them. The next slide please. This is a picture of the target, one target in here, another in here, another in here and they are made alternatively with beryllium and sulphur. Industrial sulphur has an advantage, when you have a proton beam go through and it shines light and becomes illuminated and so if you have a close circuit television, you can monitor whether the beam is on target or not. Next slide please. One of the main difficulties for all this type of experiment, to search for real phenomena, is the rejection against hadrons, and for this experiment we need a rejection of 1 part in 10 to the 10. You do this with Cherenkov counters with gas. Now with Cherenkov counters, you have the following problem: For example you have a pion entering the Cherenkov counter, in the Cherenkov counter there is gas with atomic electrons, and so there’s a finite chance a pion will interact with atomic electron and kick the atomic electron out. And therefore a Pi has become an electron and you begin to make a mistake. To reduce this problem, the first thing you do is use a gas with the smallest number of atomic electron, that is hydrogen. The second thing you have to do is – to kick out the electron is always low momentum and therefore you can use two Cherenkov counters with a strong magnetic field between them, and you sweep the electrons away from the first counter so it doesn’t get into the second one. These things are somewhat difficult to make, they are rather large, and with gas, hydrogen, but very thin, the front is 125 micron and the back is again 125 micron thick. And you have a focusing mirror which is 1 metre in diameter, 3 mm thick and focus the light into a photo tube. The next slide please. The detectors are basically measuring the ionisation which, known as proportional chambers, there are 8,000 wires, each has its own amplifier and the spacing is about a millimetre and so when a particle goes through them, you lost energy in the gas by ionisation, the ionisation is picked up by the wire and then it´s amplified. So there are 8,000 amplifiers, each one amplified a signal, therefore you measure the position to about a millimetre. The next slide please. Now, to protect yourself for this type of experiment, when you have a 10 to the 12 protons per second and a 10% interaction target, you have 10 to the 11 interactions, each interaction produces 10 particle, so again you have 10 to the 12 particles are produced. Most are protons, kaons, pions, gamma rays, electrons and neutrons. You use about 5 tons of uranium, 100 tons of lead to stop electromagnetic particles like gamma rays, electrons and muons. What's left is strong interaction particles, protons, kaons and pions, and you use about 10,000 tons of concrete to stop them. What's left then are soft neutrons which are walking in all directions, which are very difficult to stop. And for that, the best way of course is to use hydrogen, but hydrogen is quite explosive, so the next thing you can do is use water. But we already buried our detector under 10,000 tons of concrete, so you cannot be sure water is still there. So the next best thing you can do is salt, because salt contains a large amount of hydrogen. And so you need about 5 tons of salt to stop all the soft neutrons. Even with that the radiation in the target area one hour after the beam stop is still 5 R per hour. And this of course makes the experiment somewhat difficult since we only had one graduate student at that time. Next slide please. This is a picture of the detector and these are the Cherenkov counters. And these are various shielding of lead and uranium, and there are chambers behind the measured position. The next slide please. So this is a measurement probably you have seen before. It’s a mass of the electron position pair, between 2.5 and 3.5 billion electronvolt, and number of event per 25 MeV. Basically there’s nothing except a mass of 3.5 billion electronvolt. You see a very, very sharp pronounced peak. The next slide please. This type of experiment has been tried over the last 25 years by many people and nothing has been found. So the first time you see a sharp peak, the first thing you suspect is probably something is wrong with your detector, because the detector, as you see, is quite complicated. Now to check this, the first thing you can do is to change your magnet current. Once you change your magnet current, let´s say by 10%, you move all your trajectory to a different position. And if the peak is still there, of course this shows that it´s not due to instrumentation. Your peak moved away, you know, this is not a real phenomenon. And many other checks can be performed, but the most important one is to check whether you have problems of scattering, a particle scattering from the edge of the magnet into a detector. And to do that you perform the experiment twice: once with a large counter, another time with a smaller counter. And this way you can know how much is from the scattering from the edge of the magnet. Next slide please. This is a check on the measurement of the particle by lower the momentum by 10%. The blue one is all the current in the normal setting and the red one is all the magnet current lowered by 10%. In this way the peak is the same place, shows what you observed is a real phenomenon. Next slide please. Since this work and since the work of Richter´s group at SLAC, many, many other work was carried out, and particularly the work at Frascati in Italy also measured electron positron to hadrons, which is a reverse process as what we did. And compared this with the electron positron to the electron positron, you can measure the width, the natural width of this peak and it´s found to the order of kilo electronvolt, 70 kilo electronvolt. That means it lives about 1,000 times longer than the other particles. Now what is the significance of this particle? The only thing we know now is that it´s lifetime is 1,000 to 10,000 times longer than ordinary particles. Next slide please. Before this new particle, before 1974, there are about 200 or 300 subatomic particles which I call the old particles. Most of the particles live only a very short time. Normally, the heavier the mass, the shorter the lifetime. Next slide please. In fact our understanding of the atomic nucleus in the last 50 years has gone through many, many changes. In the ‘20’s we viewed the proton as a very small object in the heart of a hydrogen atom. In the ‘50’s we view it as a small object with mesons in its vicinity. In the ‘60’s, through elastic scattering, we view the proton as a fairly large object compared with the electron. It is denser at the centre than at the edges. In the ‘70’s we view it as a large object containing much smaller objects known as quarks. A theoretical picture before ’74 is there are basically 3 quarks with exchanging gluons between them. Next slide please. So in this picture the proton is a combination of three quarks with two lying up, one lying down. A neutron is again quarks with different alignment. Next slide please. The new particle, which we call a J particle, Richter´s group called it a Psi particle, we know it has something to do with light quanta because it goes through the electron positron pair. It´s heavy and stable, lives 100 to 1,000 times longer than the other particles and therefore it must have some hidden reason behind it. Next slide please. Some of the important reasons were discovered both at SLAC and at DESY. In the DESY setup you have a linear accelerator. It accelerates electrons and positrons and you accelerate them in an electron-synchrotron, and then you guide them into a colliding beam machine with the electron in one way, positron another way. At a certain point you let them collide. In this way then you can systematically study the new particles. Next slide please. So the work at SLAC and DESY and at Frascati has shown that, besides the J particle at a mass of 3.1. You have many, many other states. There’s one at 3.7, 3.4 and many, many states. And these states transform into each other by emitting and absorbing of gamma rays. Very similar to the simplest item of the electron positron known as positronium. In fact it’s the triplet state of positronium, and compared this and this, you see they are very similar together. Means that, whatever this particle is, it probably is a bound state of another new quark and anti quark together. Next slide please. The discovery of the J particle indicates a nucleon besides three ordinary quarks, you have one more quark and people call it the charm quark and charm in my opinion is an unfortunate name. You can either call it ugly or anything else. Once you have four quarks, nothing prevents you to say there’s a 5th one, there’s a 6th one, there’s a 7th one and there are more and more. In fact the work at Fermi lab by Lederman’s group already give indication that there may be a 7th one. Next slide please. We know that photons, with the mass zero

Guten Morgen. Ich bin seit 1964 in Deutschland, also schon viele Jahre. Aber trotz meiner Bemühungen beherrsche ich die deutsche Sprache bisher nicht. Und deshalb werde ich meinen Vortrag heute, statt hier in chinesischer Sprache zu referieren, auf Englisch halten. Ich versuche auch sehr langsam zu sprechen, damit mein früherer Professor, Professor Rabi, alles mitbekommt. Bitte das erste Dia. Die meisten Phänomene im Universum lassen sich anhand eines Entfernungsparameters charakterisieren. Wenn es um größere Entfernungen als 10^18 bis 10^24 Meter geht, sprechen wir von kosmologischen Phänomenen. Wenn es um eine Entfernung von 10^-3 bis 10^-6 Meter geht, handelt es sich um biologische Phänomene. Bei Entfernungen von 10^-9 bis 10^-12 sprechen wir von Atomphysik. Und bei Entfernungen von unter 10^-15 Zentimetern haben wir Nuklearphänomene. Nächstes Dia bitte. Das hier ist ein Bild von der Milchstraße, die die Physik der Entfernungen von 10^20 bis 10^24 Meter repräsentiert. Nächstes Dia. Die meisten Phänomene in Riesenentfernungen unterliegen der Schwerkraft, deren kosmische Hauptfunktion die Bindung von Planeten, Sternen und Galaxien ist. Sie ist extrem schwach in Atomen vorhanden, aber sehr stark in kollabierten Sternen. Sie ist unendlich in ihrem Wertebereich und wirkt auf alles. Wir nehmen an, dass sie von Gravitonen übertragen wird. Nächstes Dia bitte. Wenn wir uns dem anderen Extrem, also Entfernungen von 10^-15 Metern oder darunter, zuwenden, geht es um Nuklearphänomene. Dies ist das Bild einer Blasenkammer mit einem Hochenergieteilchen, das auf einen Atomkern trifft und hunderte weiterer Partikel erzeugt. Nächstes Dia bitte. Im Atomkern wirken grundsätzlich drei verschiedene Arten von Kräften. Die vorherrschende Kraft ist die starke Kernkraft, auch als starke Wechselwirkung bezeichnet. Ihre kosmische Hauptfunktion ist die Bindung von Atomkernen, die in Sternen brennen. Sie ist rund 100 Mal stärker als die elektrische Kraft. Ihre Reichweite ist kurz, sie liegt bei 10^-13 cm. Sie wirkt auf Quarks ein, was bisher allerdings nur eine Annahme ist. Und wir wissen, dass sie durch die Mesonen übertragen wird. Nächstes Dia. Neben der starken Kraft gibt es dann noch die weiche Kraft. Ihre kosmische Hauptfunktion ist die Umwandlung von Basisteilchen, nämlich von Protonen in Neutronen. Ihre Kraft ist sehr schwach, sie liegt bei einem Einhundertmilliardenstel der elektrischen Kraft. Ihre Reichweite ist sehr kurz, 10^-15 Zentimeter. Sie wirkt auf alle Basisteilchen, Quarks und Elektronen ein. Wir gehen davon aus, dass sie von einem Zwischenvektorboson, W+, W- oder Z0, übertragen wird, den ich später etwas genauer beschreiben werde. Nächstes Dia bitte. Die dritte Kraft ist die am häufigsten auftretende Kraft, die elektrische Kraft. Ihre kosmische Hauptfunktion ist die Bindung von Atomen und die Erzeugung von Magnetismus. Sie ist stark in Atomen und schwach in kosmischen Entfernungen, weil Materie neutral ist. Sie ist unendlich in ihrer Ausdehnung. Sie wirkt auf alle geladenen Teilchen ein und wird über Lichtstrahlen oder Photonen übertragen. Nächstes Dia bitte. Nahezu konstant erleben wir Licht und seine Wechselwirkung in Materie. Im Alltag, wo die Energie des Lichtes in einer Größenordnung von Elektronenvolt den elektrischen Strom weiterleitet und Licht erzeugt. In der Atomwelt, wo Energie in einer Größenordnung von 100 MeV bis 100 eV vorkommt, ist Licht eine Übertragungskraft zwischen den Elektronen und Nukleonen. Anwendung finden diese Eigenschaften in Röntgenstrahlen in der Medizin und in der Industrie. In der nuklearen Welt ist die Lichtwelle bei einer Energie von einer Milliarde Elektronenvolt wegen ihrer Stabilität und Neutralität ein sehr nützliches Instrument für das Eindringen in den Kern. Nächstes Dia. Die Kräfte elektrischer Ladungen können als Funktion der Entfernung ausgedrückt werden. Bei Entfernungen in der Größenordnung eines Zentimeters haben wir das 1/r² Gesetz, das Coulomb-Gesetz. Bei Entfernungen von 10^-8 Zentimeter haben wir die Atomphysik. Wenn wir uns den Entfernungen von 10^-13 Zentimetern oder darunter zuwenden, haben wir Phänomene wie die Lichtstrahl-Lichtstrahl-Interaktion, bekannt als Quantenelektrodynamik. Nächstes Dia bitte. Die Quantenelektrodynamik ist die Untersuchung von Licht und elektrischer Ladung. Es gibt zwei experimentelle Methoden zur Untersuchung der Quantenelektrodynamik. Die erste Methode erfolgt in sehr großen Entfernungen, aber mit sehr großer Genauigkeit. Die Messung von Muon g minus 2 durch 2, die am CERN erfolgt, hat die Zahl von 001165915 plus minus Zehnmillionenstel und stimmt exakt mit der Theorie überein. Und dies ist nach meiner Kenntnis die exakteste Messung in der Teilchenphysik. Und der Vergleich zwischen Experiment und Theorie ist bis auf ein Zehnmillionenstel genau. Es gibt eine weitere Methode, die Quantenelektrodynamik experimentell zu untersuchen. Sie besteht darin, tief in die elektrische Ladung vorzudringen, also in geringen Entfernungen. Aber mit dieser Methode erhält man nur eine rund 5%-Genauigkeit. Dies erfolgt unter Zuhilfenahme des Unschärferelationsdeltas p * delta x = h. Wenn man dem Elektron einen Impuls von 1 Milliarde Elektronenvolt erteilt, erreicht man also eine Entfernung von 10^-14 Zentimetern oder sogar darunter. Nächstes Dia bitte. Das erste Experiment dieser Art wurde 1966 am Deutschen Elektronen-Synchrotron in Hamburg durchgeführt und bestand aus der Verwendung eines 6 Milliarden Elektronenvolt starken Lichtes zur Erzeugung eines 3 Milliarden Elektronenvolt starken Elektrons, eines 3 Milliarden Elektronenvolt starken Positrons, ein Paar im Feld des Coulomb-Kerns mit einer Impulsübertragung auf das Elektron von rund 1 Milliarden Elektronenvolt. Solche Experimente sind mit zweierlei Arten von Schwierigkeiten verbunden. Das erste besteht darin, dass der Elektron-Positron-Ertrag wegen seines Alpha^2, wegen seines einen virtuellen Photons, einen realen Photons, sehr gering ist. Und das bedeutet, dass man unabhängig davon, welcher Detektor benötigt wird, eine sehr hohe Akzeptanz und eine sehr hohe einfallende Strahlungsleistung von 10 bis 11 Gammastrahlen pro Sekunde benötigt. Die zweite Schwierigkeit besteht darin, dass immer mehr starke Nuklearteilchen, wie Pis, als Elektronen produziert werden. Tatsächlich liegt das Verhältnis von Photon-zu-Elektron-Paar gegenüber Pi-Paar bei 1 zu 10^5. Und das bedeutet, dass 1% Experiment eine Zurückweisung von Pi*Pi mit einem Faktor von 10 Millionen aufweisen. Nächstes Dia. Mit welcher experimentellen Methode identifiziert man Elektronen? Wenn man einen Gammastrahl oder ein Proton mit einer nuklearen Ladung interagieren lässt, entstehen viele, viele Teilchen. Es sind Pionen, Kaonen, Protonen und Elektronen. Ein Pion hat eine Masse von 140, K hat eine Masse von 500, ein Proton hat eine Masse von rund 1 Mrd. Elektronenvolt. Das Elektron hat eine Masse von nur 0,5 MeV. Aber Elektronen werden im Verhältnis 1 zu 10^5 aller Teilchen mit starken Wechselwirkungen erzeugt. Die Methoden zur Identifizierung von Elektronen sind gut bekannt. Bei der ersten werden Ladung und Impuls anhand ihrer Ablenkung in einem Magnetfeld gemessen. Im Magnetfeld richten sich positive Teilchen in eine Richtung, negative Teilchen in die andere. Je geringer der Impuls, umso größer die Ablenkung. Die zweite Methode: Das Elektron hat die geringste Masse, deshalb erhält man für einen gegebenen Impuls die höchste Geschwindigkeit und deshalb erhält man bei korrekter Anwendung von Gas als Radiator Tscherenkow-Licht, während das andere Teilchenverhalten kein Tscherenkow-Licht erzeugt. Die dritte Methode: Das Elektron verliert, ebenso wegen seiner geringen Masse, bei Eintritt in ein Stück dichtes Material wie Glas seine gesamte Energie in Licht, und diese Lichtmenge ist proportional zur Elektronenenergie. Wenn man also mit einem Gerät eine bestimmte Lichtmenge erfasst, weiß man, dass diese proportional zur Energie des Elektrons ist. Nächstes Dia. Das 1966 durchgeführte Experiment hatte also die folgende Anordnung: Mit einem auf das Target gerichteten Gammastrahl von 10^11 pro Sekunde wird das Elektron-Positron-Paar erzeugt. Hinter dem Magnet befindet sich ein Zähler, der die Trajektorie und damit den Impuls misst. Und dort messen die Tscherenkow-Zähler die Geschwindigkeit. Aus Geschwindigkeit und Impuls lässt sich die Masse und somit das Elektron identifizieren. Und dann gibt es hier einen Schauerzähler, der die Gesamtpulshöhe misst, die proportional dem Impuls des Elektrons ist und deshalb ein weiteres Indiz dafür ist, dass es sich tatsächlich um ein Elektron handelt. Nächstes Dia. Das hier ist eine Versuchsanordnung, durch die ein intensiver Elektronenstrahl geführt wird. Und das hier sind Tscherenkow-Zähler und hier am Ende sind Schauerzähler positioniert. Nächstes Dia. Was hier dargestellt ist, ist das Verhältnis der Messung des Elektron-Positron-Ertrags im Vergleich zu den Vorhersagen der Quantenelektrodynamik, wo das Photon in ein Elektron-Positron-Paar übergeht, gegenüber einer Masse des Elektron-Positron-Paars, das der Quadratwurzel von 2, multipliziert mit dem Impulstransfer für symmetrische Paare entspricht. Bei einer Masse von leicht unter 800 MeV sieht man eine Abweichung von den Vorhersagen der Quantenelektrodynamik. Diese Beobachtungen einer Abweichung von der Quantenelektrodynamik hängen mit der Tatsache zusammen, dass das Photon bei ausreichend hoher Energie eine sehr geringe Wahrscheinlichkeit aufweist, sich im Feld eines Kerns selbst in ein Teilchen umzuwandeln, das ich als Rho bezeichne, und das Rho zerfällt erneut in ein Photon, zerfällt zu e+ e-. Wenn dies aufgrund einer starken Wechselwirkung der Fall ist, ändert sich das sehr langsam mit zunehmendem Winkel, geht bei 1 durch Zeta hoch 3; wenn dies aufgrund eines elektrodynamischen Prozesses der Fall ist, geht es bei 1 durch Zeta hoch 7 oder hoch 8. Hat man also einen großen Öffnungswinkel, wird dieser Fall überwiegen. Wählt man dagegen einen Öffnungswinkel von 15°, nimmt die Abweichung gegenüber der Elektrodynamik tatsächlich zu. Und es gibt eine weitere bei einer Masse von über 1 GeV, wo man erneut ein anderes Teilchen erhält. Nächstes Dia. Lassen Sie mich jetzt zusammenfassen, was ich unter Photonen und schweren Photonen verstehe. Photonen, die wir Gammastrahlen nennen, haben eine stabile Lebensdauer. Ihr Spin ist 1, Parität -1, Ladungsspiegelung -1, ihre Masse ist 0. Dann gibt es die drei Teilchen, die wir das Rho, das Omega, das Phi nennen. Eines davon hat eine Masse von 760, Ladungsspiegelung -1, Parität -1, Spin 1, genau wie das Photon. Es hat eine Lebensdauer von 10^-24 Sekunden und zerfällt dann in ein Pionen-Paar. Und dann ist da das Omega, mit einer Lebensdauer von 10^-24 Sekunden, einer Masse von 785 MeV, es hat die gleichen Quantenzahlen wie das Photon, es zerfällt in Pi+, Pi-, Pi0. Und dann gibt es das Phi, mit einer Masse von 1020 MeV, wiederum mit einer Ladungsspiegelung von -1, einer Parität von -1, einem Spin von 1, zerfällt in 3 Pis oder 2 ks. Weil dieses Teilchen exakt die gleiche Quantenzahl aufweist wie ein Photon, kann man sich vorstellen, dass sich ein Photon aufgrund einer hochenergetischen Photonen-Interaktion mit einem Teilchen selbst für eine sehr kurze Zeit in ein Rho, ein Omega, ein Phi verwandelt und das Rho, Omega und Phi mit dem Photon interagieren. Lassen Sie mich einige Beispiele nennen. Wenn man in der klassischen Optik eine Lampe nimmt, die Licht in Elektronenvolt erzeugt, eine Fokussierlinse mit einer Leinwand benutzt, deren Millimeteröffnung mit der Wellenlänge der Lampe übereinstimmt, ein schwarzes Tuch mit einer Öffnung von einem Millimeter und hinter der Fokussierlinse eine weitere Leinwand platziert, wird man selbstverständlich Beugungsmuster erkennen. Je größer der Radius, umso kleiner, umso intensiver wird das Licht fokussiert. Je kleiner der Radius, umso diffuser wird das Licht. Um zu einem hochenergetischen Beispiel zu wechseln, tauscht man die Lampe gegen einen 6-Milliarden-Elektronenvolt-Beschleuniger aus, der Licht in Milliarden Elektronenvolt erzeugt. Zur Anpassung der Wellenlängen benötigt man dann ein Streuzentrum mit einer Abmessung von 10^-13 Zentimetern, also ein nukleares Ziel. Und dann nimmt man statt einer Leinwand einen 1000-Tonnen-Detektor. Nächstes Dia. Das ist das, was ich die moderne Lampe nenne, die Licht in einer Stärke von 6 Milliarden Elektronenvolt erzeugt. Und das ist der Deutsche Elektronen-Synchrotron des DESY. Und das ist der Elektronenbeschleuniger, der das Licht beschleunigt, das Elektron auf 6 Milliarden Elektronenvolt beschleunigt und deshalb Licht dieser Energiestärke erzeugt. Nächstes Dia. Dies ist die Reaktion der Gammastrahlung auf das nukleare Target, wobei Rho-Mesonen erzeugt werden, die dieselben sind wie die Photonen auf das nukleare Target. Dies wird in dieser Achse als Masse von Pi+, Pi- dargestellt. Neben der Masse von Rho sieht man, dass die Verbesserung Rho entspricht, dem Zerfall in Pi+, Pi-. Der Ertrag als Funktion des Winkels nimmt mit dem sich ändernden Beugungsmuster ab, von Beryllium zu Kohlenstoff zu Aluminium, zu Kupfer bis hin zum Uran. Man sieht, dass, je größer der Kern, umso fokussierter ist das Licht gebündelt, und je kleiner der Kern, umso diffuser wird das Licht. Genau wie bei der klassischen Beugungsstreuung. Nächstes Dia. Ich möchte Ihnen ein weiteres Beispiel aus der klassischen Optik und der Produktion schwerer Photonen präsentieren. Wenn man in der klassischen Optik eine Lichtquelle mit Objektiv hat und ein schwarzes Tuch mit zwei Schlitzen dahinter, erkennt man natürlich ein Interferenzmuster. Wenn man vor einem der Schlitze ein sehr dünnes Stück Glas in einer bekannten Stärke positioniert, wird man eine Verschiebung des Beugungsmusters erhalten. Und die Größe der Verschiebung ist der festgestellte Brechungsindex für dieses Stück Glas. Analog dazu kann man sich also im Hochenergiebereich vorstellen, dass die Übertragung von Licht durch einen Schlitz verläuft und im Feld des Kerns eine Photonenproduktion des Elektron-Positron-Paars erzeugt. Die zusätzliche Aufnahme des Glases kann man sich dann als die Umwandlung der Photonen in Rho vorstellen, Rho zerfällt in ein Photon, in e+ e-. Bei dieser Analyse wird man in D2, nahe der Masse von Rho, eine Verschiebung des Interferenzmusters erhalten. Was hier dargestellt ist, ist die Messung des Interferenzmusters, wobei sich das Positron nach links verschiebt, das Elektron nach rechts, minus dem Umgekehrten als Funktion mit der Masse von 610 bis 640 und 640 bis 670 und als Funktion einer Impulsübertragungsdifferenz zwischen den beiden Teilchen. Wichtig zu wissen ist, dass abseits der Masse von Rho keine Interferenz festzustellen ist. Wenn man zur Masse von Rho geht, die aufgrund ihrer Bandbreite 760 bis 790 oder 730 bis 760 ausmacht, erkennt man ein scharfes Interferenzmuster. In Analogie zum klassischen Fall. Nächstes Dia. Ich kann Ihnen ein weiteres Beispiel nennen. Wenn man ein Stück Glas vor einen der Schlitze positioniert, spricht nichts dagegen, ein weiteres Stück Glas bekannter Stärke zu ergänzen und auch hier erhält man eine Verschiebung des Intensitätsmusters, das als Brechungsindex des zweiten Glasstücks gemessen wird. Im Hochenergiebereich entspricht dann die Übertragung von Licht ohne ein Stück Glas der Paarproduktion im Bethe-Heitler-Sinne. Die Aufnahme des ersten Stück Glases entspricht dann dem Photon, das in Rho zerfällt, Rho zerfällt dann in ein Photon zu e+ e-, das ist der erste Fall. Die zusätzliche Aufnahme des zweiten Stücks Glas würde dann einem Photon entsprechen, das in ein Omega zerfällt, das Omega dann in ein Photon und dann in e+ e-. Da das Rho und das Omega eine sehr ähnliche Masse aufweisen und die Bandbreite sehr weit ist, erwartet man eine Interferenz zwischen diesen beiden. Genauso erwartet man zwischen diesen beiden eine Interferenz. Dies hat mich viele Jahre der Beobachtung gekostet, hauptsächlich aufgrund experimenteller Schwierigkeiten. Die erste besteht darin, dass das Rho-zu-ee-Verhältnis im Vergleich zum Omega-zu-Pi Pi-Verhältnis 1:10^-5 ist. Deshalb benötigt man eine Pi Pi-Zurückweisung von über 10^8. Und zweitens ist die Bandbreite von Omega sehr gering, ungefähr 10 MeV. Das hat zur Folge, dass die Auflösung mit dem Detektor bei 5 Millionen Elektronenvolt liegen muss. Wenn das Problem gelöst ist, misst man die Masse von e+ e-, und dann sieht man, dass der experimentelle Punkt mit der Vorhersage von Rho plus Omega-Zerfall in e+ e- mit Interferenz übereinstimmt. Und das ergibt dann die gestrichelte Linie, ausschließlich das Rho in e+ e-, was nicht mit den Daten übereinstimmt. Nächstes Dia. Wir wissen also jetzt, dass Photonen und schwere Photonen fast gleich sind und sich ineinander vor- und zurücktransformieren. Wir wissen auch, wie sich ein hochintensiver Fluss von 10^11 Gammastrahlen pro Sekunde verwendet lässt. Und wie man eine Pi Pi-Zurückweisung von größer als 10^8 und eine Massenauflösung von 5 MeV erhält. Und dann kann man sich fragen: Warum sollte es nur drei schwere Photonen geben, alle mit einer Masse von 1 BeV? Und dann geht man auf eine höhere Masse, um nach einer höheren Masse zu suchen. Möglich ist das in einem Hochenergiebeschleuniger, wie man ihn im Brookhaven National Laboratory in Long Island hat. Nächstes Dia. Dies ist eine Luftaufnahme vom Brookhaven-Beschleuniger. Und das ist das Injektionssystem und dies ist der 30-Milliarden-Elektronenvolt-Proton-Synchroton und hier die Versuchsanlage. Nächstes Dia. In der ersten Phase wird eine Beschleunigung mit einem elektrostatischen Cockcroft-Walton-Beschleuniger erzeugt. Er beschleunigt Protonen auf den Kilo-Elektronenvolt-Bereich. Nächstes Dia. Das Photon wird durch einen Linearbeschleuniger geführt und auf mehrere hundert Millionen Elektronenvolt beschleunigt. Nächstes Dia. Anschließend führt man den Protonenstrahl durch einen Elektronen-Synchroton mit wechselnden Gradienten. Nach zwei Sekunden ist Lichtgeschwindigkeit und damit eine Energie von 30 Milliarden Elektronenvolt erreicht. Dann wird die Magnetbestromung leicht geändert und es werden all die Protonen ausgebracht. Nächstes Dia. Will man jetzt zu einer höheren Masse gehen, um nach neuen Teilchen zu suchen, ist die erste Frage: Wie muss der Detektor konfiguriert sein? Die erste Antwort ist: Keine Ahnung, weil man die Eigenschaft des neuen Detektors nicht kennt. Was man weiß, ist aber das Folgende: Für normale schwere Photonen wie das Rho ist uns bekannt, dass, wenn ein Photon auf ein nukleares Target trifft, das Rho in ein Elektron-Positron-Paar zerfällt und der maximale Ertrag im Labor bei 15 Grad liegt. Da wir nichts anderes wissen, nehmen wir an, dass das neue Teilchen wie das Rho-Meson erzeugt wird. Nächstes Dia bitte. Die Hauptschwierigkeit für ein derartiges Experiment ist das Folgende: Wenn ein Proton mit einem Target, beispielsweise Beryllium, interagiert, werden viele Teilchen wie Pis, ks, Protonen, Rho0s, K-Sterne und viele andere erzeugt. Die Zahl der Elektron-Positron-Paare im Vergleich zu Pi-Paaren ist sogar geringer, 1:10^8, und das bedeutet, dass man zur Erzeugung ausreichender e+ e- Ereignisse 10^12 Protonen pro Sekunde benötigt. Und um eine Pi Pi-Zurückweisung von 1% zu erreichen, braucht man eine Zurückweisung von 1:10^10. In einer typischen Stadt wie Stuttgart oder München fallen in der regnerischen Jahreszeit rund 10^10 Tropfen pro Sekunde. Nur einer dieser Tropfen hat eine spezielle Farbe. Und diesen Tropfen gilt es zu finden. Und das ist der Grund dafür, warum ein Experiment wie dieses normalerweise relativ schwierig ist. Nächstes Dia bitte. Die Detektoren für diese Aufgabe und die nachfolgenden Detektoren sind sehr ähnlich. Dies ist die Draufsicht und dies ist die Seitenansicht. Der auf ein Target gerichtete Strahl. M0, M1, M2 sind im Grunde genommen Ablenkmagnete. A0, A, B und C sind Positionsmesskammern, aus der Draufsicht misst man den Produktionswinkel. Die Ablenkung erfolgt in der vertikalen Dimension, sodass A, B, C, A0 den Impuls messen und C0, C – an den Tscherenkow-Zählern – die Geschwindigkeit messen und damit das Elektron identifizieren. Am Ende befinden sich wieder Schauer-Zähler. Sehr ähnlich wie all die Detektoren, die wir vorher verwendet haben. Jetzt ist die Abmessung etwas größer, dieser ist 70 mal 10 Meter groß. Nächstes Dia. Ich gebe Ihnen jetzt einige Beispiele, wie diese Art von Experiment durchgeführt wird, um Ihnen einen Eindruck zu verschaffen, welche Probleme man in der Hochenergiephysik zu bewältigen hat. Wenn man 10^12 Protonen auf einem Target hat, geht es zunächst darum, dieses Target in viele kleine Teile zu unterteilen. Das hat den Vorteil, dass man dann ein echtes Elektron-Positron aus einer bestimmten Wechselwirkung an einem bestimmten Punkt zurückverfolgen kann. Wenn man auf diese Art und Weise zufällig ein Elektron an diesem Punkt und ein Positron an einem anderen Punkt erhält, lassen sich diese rekonstruieren und zurückweisen. Nächstes Dia. Dies ist die Abbildung des Targets, ein Target hier, ein anderes dort, ein weiteres da, und sie sind abwechselnd aus Beryllium und Schwefel. Industrieschwefel hat den Vorteil, dass es hell aufleuchtet, wenn man einen Protonenstrahl hindurch schickt. So entsteht eine Art Videoüberwachung und man sieht, ob der Strahl auf das Target gerichtet ist oder nicht. Nächstes Dia. Eine der Hauptschwierigkeiten solcher Experimente auf der Suche nach realen Phänomenen ist die Zurückweisung von Hadronen. Und für dieses Experiment brauchen wir eine Zurückweisung 1:10^10. Man verwendet dazu Tscherenkow-Zähler mit Gas. Bei Tscherenkow-Zählern entsteht jedoch das folgende Problem: Wenn ein Pion in den Tscherenkow-Zähler eintritt, befindet sich dort Gas mit atomaren Elektronen. Somit besteht die begrenzte Möglichkeit, dass ein Pion mit einem atomaren Elektron interagiert und das atomare Elektron hinaus befördert. Und dann ist ein Pi zu einem Elektron geworden und die Fehler nehmen ihren Lauf. Um dieses Problem zu reduzieren, verwendet man zum einen ein Gas mit der kleinsten Anzahl atomarer Elektronen, nämlich Wasserstoff. Zum zweiten erfolgt die Herausbeförderung des Elektrons immer bei einem geringen Impuls. Deshalb verwendet man zwei Tscherenkow-Zähler mit einem starken Magnetfeld dazwischen und fängt die Elektronen so am ersten Detektor ab, damit sie den zweiten nicht erreichen. Solche Anlagen sind schwierig herzustellen. Sie sind sehr groß und mit einem Gas, mit Wasserstoff, gefüllt, aber sehr dünn, die Front ist 125 Mikrometer dünn und die Rückseite ebenfalls 125 Mikrometer. Und man braucht einen 3-mm-starken Fokussierspiegel mit einem Durchmesser von 1 m, der das Licht in ein Fotorohr fokussiert. Nächstes Dia. Die Detektoren messen im Wesentlichen die Ionisation in einer als Proportionalkammer bekannten Vorrichtung, die mit 8.000 Drähten ausgestattet ist, jeder mit eigenem Verstärker und in einem Abstand von rund einem Millimeter platziert. Wenn ein Teilchen diese Vorrichtung passiert, entsteht durch die Ionisation ein Energieverlust im Gas. Die Ionisation wird vom Draht aufgenommen und dann verstärkt. Es gibt also 8.000 Verstärker und jeder verstärkt ein Signal, weshalb man die Position auf fast einen Millimeter genau messen kann. Nächstes Dia bitte. Um Sie vor dieser Art von Experiment zu warnen: Wenn man 10^12 Protonen pro Sekunde und ein Interaktionsziel von 10% anstrebt, ergibt das 10^11 Interaktionen. Jede Interaktion erzeugt 10 Teilchen, sodass 10^12 Teilchen erzeugt werden. Die meisten sind Protonen, Kaonen, Pionen, Gammastrahlen, Elektronen und Neutronen. Man setzt rund 5 Tonnen Uran ein, 100 Tonnen Blei, um elektromagnetische Teilchen wie Gammastrahlen, Elektronen und Muonen aufzuhalten. Was bleibt, sind stark interagierende Teilchen, Protonen, Kaonen und Pionen, und man setzt rund 10.000 Tonnen Beton ein, um sie zu stoppen. Was dann bleibt, sind weiche Neutronen, die in alle Richtungen wandern und schwierig aufzuhalten sind. Und dazu verwendet man natürlich am besten Wasserstoff. Wasserstoff aber ist wiederum äußerst explosiv. Als nächstes kann man also Wasser nehmen. Aber wir haben unseren Detektor bereits unter 10.000 Tonnen Beton begraben, sodass wir nicht sicher sein können, dass dort noch Wasser ist. Das Nächstbeste ist dann Salz, weil Salz eine große Menge Wasserstoff enthält. Und so braucht man rund fünf Tonnen Salz, um alle weichen Neutronen zu stoppen. Selbst bei diesen Maßnahmen liegt die Strahlung im Targetbereich eine Stunde nach Strahlstopp immer noch bei 5 R pro Stunde. Und das machte das Experiment natürlich schwierig, weil wir damals nur einen Doktoranden im Projekt beschäftigt hatten. Nächstes Dia bitte. Dies ist ein Bild des Detektors und dies sind die Tscherenkow-Zähler. Und dies hier sind verschiedene Schilder aus Blei und Uran. Und das sind die Kammern hinter der Messposition. Nächstes Dia bitte. Dies ist eine Messung, wie Sie sie wahrscheinlich schon einmal gesehen haben. Es ist eine Masse des Elektron-Positron-Paars, zwischen 2,5 und 3,5 Milliarden Elektronenvolt, und die Anzahl der Ereignisse pro 25 MeV. Grundsätzlich ist da nichts weiter als eine Masse von 3,5 Milliarden Elektronenvolt. Man sieht einen sehr, sehr scharf ausgeprägten Peak. Nächstes Dia bitte. Solche Experimente sind in den vergangenen 25 Jahren von vielen Forschern durchgeführt worden, aber es wurde nichts gefunden. Wenn man zum ersten Mal einen scharfen Peak erspäht, denkt man wahrscheinlich, dass mit dem Detektor etwas nicht stimmt, weil der Detektor, wie Sie gesehen haben, sehr kompliziert ist. Um dies zu überprüfen, verändert man zunächst die Magnetbestromung. Wenn man diese beispielsweise um 10% verändert, bewegt sich die gesamte Verlaufskurve in eine andere Position. Und wenn der Peak dann nach wie vor bestehen bleibt, weiß man natürlich, dass es mit den Instrumenten nichts zu tun hat. Wenn sich der Peak bewegt, weiß man, dass das kein reales Phänomen war. Und es können viele weitere Kontrollen durchgeführt werden. Am wichtigsten ist es zu überprüfen, ob ein Streuungsproblem besteht, eine Partikelstreuung vom Rand des Magneten in den Detektor hinein. Deshalb führt man das Experiment zweimal durch: Einmal mit einem großen Zähler, einmal mit einem kleineren Zähler. Dann weiß man, wie groß der Einfluss der Streuung vom Rand des Magneten ist. Nächstes Dia bitte. Das ist eine Überprüfung der Partikelmessung durch Reduzierung des Impulses um 10%. Das Blaue ist der Strom in der normalen Konfiguration und das Rote betrifft den gesamten Magnetstrom, reduziert um 10%. Dadurch bleibt der Peak an derselben Stelle, ein Beweis dafür, dass das beobachtete Phänomen real ist. Nächstes Dia. Seit dieser Arbeit und seit der Arbeit der Gruppe von Richter am SLAC wurden viele weitere Projekte durchgeführt. Insbesondere die Arbeit im italienischen Frascati hat den Elektron-Positron-Übergang zu Hadronen gemessen, ein umgekehrter Prozess zu dem, was wir gemacht haben, und dies mit dem Elektron-Positron-zu-Elektron-Positron-Übergang verglichen. Man kann die Bandbreite messen, die natürliche Bandbreite dieses Peaks, und es wurde eine Größenordnung von 70 Kilo-Elektronenvolt gemessen. Das bedeutet, dass es rund 1.000 Mal länger Bestand hat als die anderen Teilchen. Was ist die Bedeutung dieses Teilchens? Das einzige, was wir heute wissen, ist, dass seine Lebensdauer das 1.000- bis 10.000-Fache von normalen Teilchen beträgt. Nächstes Dia bitte. Vor diesem neuen Teilchen, also vor 1974, gab es rund 200 oder 300 subatomare Teilchen, die ich als die alten Teilchen bezeichne. Die meisten dieser Teilchen leben nur sehr kurz. Normalerweise gilt: Je schwerer die Masse, umso kürzer die Lebensdauer. Nächstes Dia. Unser Verständnis vom Atomkern hat sich in den letzten 50 Jahren oftmals gewandelt. In den 1920er Jahren betrachteten wir das Proton als sehr kleines Objekt im Herzen eines Wasserstoffatoms. In den 50er Jahren betrachteten wir es als kleines Objekt mit Mesonen in seiner Nachbarschaft. In den 60er Jahren betrachteten wir das Proton mit der elastischen Streuung als ein relativ großes Objekt im Vergleich zum Elektron. Und im Zentrum ist es dichter als an den Rändern. In den 70er Jahren betrachten wir es als großes Objekt, das viele wesentlich kleinere Objekte enthält, die als Quarks bezeichnet werden. Eine theoretische Vorstellung vor 1974 war die, dass es grundsätzlich drei Quarks gibt, zwischen denen ein Gluonenaustausch erfolgt. Nächstes Dia bitte. In diesem Bild ist das Proton als Kombination aus drei Quarks, wovon zwei Up-Quarks, ein Down-Quark, zu sehen. Ein Neutron wiederum sind Quarks mit anderer Ausrichtung. Nächstes Dia. Das neue Teilchen, das wir als ein J-Teilchen bezeichnen, die Gruppe um Richter hat es als Psi-Teilchen bezeichnet, hat nach unseren Erkenntnissen etwas mit Lichtquanten zu tun, weil es durch das Elektron-Positron-Paar dringt. Es ist schwer und stabil, lebt 100 bis 1.000 Mal länger als die anderen Teilchen und dürfte deshalb irgendeinen noch verborgenen Zweck erfüllen. Nächstes Dia bitte. Am SLAC und am DESY wurden einige dieser wichtigen Gründe entdeckt. Der in der DESY-Konfiguration vorhandene Linearbeschleuniger beschleunigt Elektronen und Positronen in einem Elektronen-Synchroton. Danach werden diese Teilchen in eine Anlage mit kollidierenden Strahlen geführt An einem bestimmten Punkt lässt man sie kollidieren. Dadurch kann man die neuen Teilchen systematisch untersuchen. Nächstes Dia bitte. Die Arbeiten am SLAC und DESY sowie in Frascati haben gezeigt, dass es neben dem J-Teilchen mit einer Masse von 3,1 viele, viele weitere Zustände gibt. Und diese Zustände gehen durch Emission und Absorption von Gammastrahlen ineinander über. Sehr ähnlich wie bei dem simpelsten Element des Elektron-Positrons, das als Positronium bekannt ist. Tatsächlich handelt es sich um den Triplett-Zustand von Positronium. Und wenn man sie miteinander vergleicht, stellt man fest, dass sie sich sehr ähnlich sind. Was auch immer dieses Teilchen ist: Wahrscheinlich ist es der gebundene Zustand eines weiteren neuen Quarks und Anti-Quarks. Nächstes Dia bitte. Die Entdeckung des J-Teilchens weist auf ein Nukleon neben drei gewöhnlichen Quarks hin. Ein Quark mehr – man nennt es das Charm-Quark, wobei „Charm“ aus meiner Sicht eine unglückliche Bezeichnung ist. Stattdessen müsste es eher „hässlich“ oder etwas in der Richtung heißen. Hat man erst einmal vier Quarks, hält einen nichts mehr davon ab zu behaupten, dass es ein fünftes, sechstes, siebtes und noch viel mehr gibt. Tatsächlich kommt die Arbeitsgruppe um Lederman am Fermi-Labor bereits zu dem Schluss, dass es ein siebtes Quark geben könnte. Nächstes Dia. Wir kennen das Photon mit der Masse 0

Ting on the Search for New Particles at DESY/PETRA
(00:44:56 - 00:47:16)

Rudolf Mößbauer, who passed away in 2011, received a Nobel Prize in Physics 1961 at age 32 “for his researches concerning the resonance absorption of gamma radiation and his discovery in this connection of the effect which bears his name”. As some other Nobel Laureates, Mößbauer eventually changed his interest from the prize-awarded area to something quite different. In 1982, when he lectured in Lindau for the 6th time, the title of his lecture was “The world is full of neutrinos”. This interest of his had begun when he acted as director of the French-German(-British) research reactor ILL in Grenoble, a reactor which had been constructed to give a high flux of neutrons, but which also gave a high flux of neutrinos. Mößbauer goes through the history of neutrinos, from Wolfgang Pauli’s idea to Frederick Reines’ detection of reactor neutrinos to Raymond Davis’ first observation of solar neutrinos. Since neutrinos are so unwilling to interact with matter, they are hard to detect and their properties are difficult to observe. Two particular questions are on Mößbauer’s mind: the mass of the neutrinos and the possibility for neutrinos to oscillate from one type to another. Today, both these questions have found their answers (the mass is non-zero, they do oscillate). These answers could only be found by the construction of very large and expensive underground detectors.

Rudolf Mößbauer (1982) - The world is full of neutrinos (German presentation)

Dear students, ladies and gentlemen. I would like today … I would like today to talk a little about neutrinos, a topic which has been very much at the focus of interest in physics in recent years. And would like, as someone who comes from Germany, to start with a few historical remarks. I won’t begin with the ancient Greeks, but somewhere around the year 1930 with Wolfgang Pauli, who is really the inventor of the neutrino. Inventor in the best sense of the word, at the time it was just a stopgap which later turned out to be correct. Let me quickly outline the problems that faced us in the 1930s. Radioactive beta decay had been observed, in which a nucleus of atomic number Z emits an electron and is transmuted into a new nucleus of atomic number Z+1. Since the original and the final nucleus are both characterised by a well-defined energy, one should assume that the electron, apart from its own mass, carries this energy difference, in other words that the emitted electron would have a sharply defined energy. But that was not the case, it was known at that time that the electron spectrum did not have a sharply defined energy, but that it was a whole spectrum ranging up to a maximal energy which corresponded with the expected sharply defined energy. That was a puzzle, understanding this spectrum, because it really looked as though the conservation of energy no longer applied, and in fact no less than Niels Bohr showed himself prepared to sacrifice the law of the conservation of energy in this special case. Wolfgang Pauli did not think much of this at all and he racked his brains a lot, and I would like perhaps to quote a letter which he wrote at the time, also to show the students something, that scientific progress mostly consists of false starts, retreats and a zigzag course, and that we only occasionally have the luck to find, or, I would almost say, to guess the right one. Wolfgang Pauli initially had assumed that, besides this electron here, something else was also emitted, that is a normal gamma quantum, and he believed that it had been overlooked in the experiment and he expressed himself on this in the following way, and I now quote from a letter that he wrote to Klein in February 1929. So, I quote: that gamma rays must be the cause of the continuous spectrum of the beta rays, and that Niels Bohr is completely on the wrong track with his remarks in this connection about a violation of the conservation of energy. I also believe that the experimenters who measured the energy made some kind of mistake and that they have so far missed the gamma rays simply as a result of their lack of skill. But I understand experimental physics too little to be able to prove this view and so Bohr is in the pleasant position, for him, to exploit my general helplessness in the discussion of experiments; he can invoke Cambridge authorities, incidentally without bibliographical references, and is able to fool himself and us however he likes.“ So much for the quote from Wolfgang Pauli. Now, in the following year Wolfgang Pauli had gained a little more faith in the assertions of the experimenters, who said they simply did not see any gamma rays, and then he invented the neutrino. Invented in the sense that he said that, besides the electron, another particle is emitted, a particle which he initially named the neutron. Later the neutron was used for something else and it was then called the neutrino, from the Italian for “little neutron”. So this neutrino was, so to speak, invented to save energy conservation, and this invention later turned out in practice to be right. But it still took until the year 1956 before Reines and Cowan provided direct evidence that this neutrino exists, in a direct experiment, in a direct experimental reaction that I have written down for you here and that I will discuss still further. Reines simply fired electron-neutrinos – this slash means antineutrinos, that is not so important now – at protons and then produced a neutron and a positron and showed, using the evidence of these two particles, there really is such a thing, such a thing as a neutrino exists. Today we believe we know three sorts of neutrinos, the electron-neutrinos, the muon-neutrinos and probably also the tau-neutrinos. The tau has already been seen, the associated neutrino not really yet, but we do believe that it exists. Neutrinos have, as I said earlier, a great significance at the moment in physics and I have briefly assembled the principal reasons for this here. First of all, they are very interesting, since they are solely subject to what is known as the weak interaction. Almost everything that we measure in physics today is subject either to the strong interaction, the interaction which is responsible for the stability of atomic nuclei, or at least the somewhat weaker electromagnetic interaction, whenever charges are involved then there is an electromagnetic interaction. These are very strong interactions compared with what is known as the weak interaction which is responsible for this radioactive decay up here and which one normally cannot see because the strong interactions I mentioned overshadow it completely. Only with the neutrinos is it the case that these other interactions are not there and that we can then study the weak interaction in isolation. A second important reason that we are so interested in neutrinos in these years is that the neutrinos are responsible for the reactions which take place in the Sun, that they are essential for these reactions. In the Sun, protons, hydrogen nuclei, are somehow fused together and you finally end up with helium. This kind of fusion of protons, which includes a transformation of protons into neutrons, only works if neutrinos exist. This means that our existence is ultimately dependent on the existence of neutrinos. Further reasons are that after the great successes that Glashow, Weinberg and Salam had a few years ago, efforts are being made today to unify the weak, excuse me, the electromagnetic interaction with this weak interaction. Efforts are now being made to extend this schema and place the strong interaction under a common roof with these other two interactions. Here, too, the neutrinos could play an important role, insofar as a mass scale plays a role with these unifying principles, a role about which we know very little for certain even today. That focuses attention on the problem of what mass the neutrinos have, if they have one at all, and if so, which. And finally, really briefly to conclude, the astrophysicists and the cosmologists, in particular the astrophysicists are very interested in the neutrinos because they could help them to solve and to understand a whole range of problems which are causing them great difficulties at the moment. There is not only the problem whether our universe is an open or closed one, we of course assume, as we just heard in Herr Alfvèn’s talk, that our universe is expanding, but we do not know whether that is so forever, or if it expands at a decreasing rate, if it finally slows down so much that it turns around and then, so to speak, contracts again. Something like that would require sufficient mass to be present in this universe. We can make a whole range of statements about the masses, we can deduce them, the so-called visible masses which we see today are not sufficient to make the universe into a closed one. But it could still be that there are very many neutrinos present, which I will come back to later. And that these neutrinos have sufficient mass and the universe could be a closed one. Perhaps a more aesthetically satisfying aspect, but otherwise perhaps not so enormously important. A much more important aspect is that there is a whole range of indications in astrophysics that a large amount of hidden mass is present in the universe. Mass that we do not see. There is a whole range of phenomena, I just want to mention, for example, that the clusters of galaxies, this accumulation of galaxies, is hard to understand, what holds the whole thing together. How gravitation can hold it together, there is not enough mass present there in what we can see. One supposes that very much more mass must be present, which we don’t see. And this mass in turn could, that would be the simplest possibility, be present e.g. in neutrinos, and neutrinos would then be of decisive significance for the understanding of this phenomenon. There is a whole range of further astrophysical clues about such hidden masses, and there are many people who would like to attribute this hidden mass to the neutrinos. Now let me say a few words about the neutrino sources we have available today, we want after all to perform experiments, in the end we have to prove what we may be supporting here as a hypothesis, prove experimentally and for this we need neutrino sources for our measurements. One of our most important neutrino sources, one of our most interesting neutrino sources, as I have already mentioned, is the Sun. In the Sun, fusion processes take place, like the fusion of protons, the transmutation of protons into neutrons, we need neutrinos for that. And since we assume that all the Sun energy which we receive here essentially relies on such fusion processes, these neutrinos must participate in this, and these neutrinos, of course, come to us here on Earth. They have such a weak interaction that they don’t see the Earth at all, they go in at the front and out again at the back. Almost nothing happens there, the Earth hardly exists for this weak interaction of the neutrinos, but one can still, if one has a sufficiently larger number, and the numbers really are large, 6 times 10 to the power 10 per cm^2 and second, just from this actual fusion process extraordinarily high numbers of neutrinos. One can, in principle, measure them with very sensitive detectors. I have written down for you here two groups of neutrinos. One corresponding to the main fusion reaction and another group which comes from a small side reaction, but which has the advantage that it delivers neutrinos of very high energy, 14 MeV, with very much lower fluxes, nearly 10,000 times lower that this main chain. This little side chain is still very interesting at the moment since it is the chain which can be measured with terrestrial methods. These are the famous experiments of Davis and colleagues with headquarters in Brookhaven, and which were performed in a deep mine in the USA, and where the attempt was made to measure this solar neutrino flux which actually supplies us with the only direct expression of what goes on in the internals of the Sun, we only see the external Sun after all when we observe it optically. So the attempt was made to measure this solar neutrino flux, in order to see whether our ideas are correct about what is happening in the interior of the Sun and it is one of the really great puzzles at the moment that this flux was not found. The flux that is found is a factor of at least 3 lower than what was expected, and recently it almost looks, and of course that all has to be experimentally much more exactly checked, as though everything that is measured may be explicable with underground measurements. That is really a great puzzle and it would really be a catastrophe if this flux would not be there, or if we don't understand why it is not there. There are then all sorts of other possible excuses. I will have something to say about one of these excuses. It would be a catastrophe if this flux were not there, since that would then mean that we don't understand how the Sun produces its energy. We believe that we understand this very, very well. But as I said, we have to be sceptical, and one of the great puzzles is this missing solar neutrino flux, at the moment. There are new efforts, in part German laboratories are also involved here, to address this low energy area here, these are very expensive experiments, the BMFT is already groaning about it. Experiments, which are planned to be performed in a few years’ time with the help of gallium. There the thresholds for the reactions are very much lower and one can hope to study these reactions. Very expensive experiments, but extremely important experiments, for this missing solar neutrino flux is one of the really great puzzles that we have to live with at present. It is highly probable that a further large source of neutrinos is those remaining from the Big Bang which many people believe in. Our world came into being in a Big Bang, originally these neutrinos, which were in equilibrium at this Big Bang with the other particles at very high temperatures, were present in large numbers, and then, as the temperature moderated, fell, because the whole thing had expanded, they were no longer in equilibrium, but they should still be here today, with very low energies, but in very large numbers. We assume, we have not seen them so far, we assume that there are around 500 photons per cm³ here on the Earth, in the whole universe on average. That has been measured. One assumes that about the same number of neutrinos is present per cm³, a little bit less for reasons of statistics. So you can see that the world is full of neutrinos, around 400 such neutrinos per cm³ from this Big Bang with very low energies, but from the Sun too come gigantic numbers of neutrinos which pass through us continually from all sides. The environmental lobby has not yet noticed this and so they have not yet done anything about it. Now something about the artificial sources of neutrinos. Here is the most important source of neutrinos, the nuclear reactor. The fusion – not the fusion reactor, the fission reactor - which sends us so-called electrons antineutrinos, whether they are anti- or neutrinos, that is a matter of definition. In this case, as it is defined, here they are antineutrinos, with energies of a few MeV and quite remarkable fluxes. The flux strengths which I have quoted here are realistic insofar as I provide them at the location of the experiment. One obtains many powers of 10 higher fluxes if one goes to the centre of a nuclear reactor, but one cannot survive there, neither can our apparatus, in the places where we can station detectors there are fluxes of this order of magnitude, and you can see that is much more than what comes from the other sources. Then there are also accelerators, meson factories etc. which supply such neutrinos with higher energies, but considerably lower fluxes. First of all I will talk about the neutrinos produced in nuclear fission reactors and which, as I said, are completely harmless for our human health, as far as we know – the Earth is absolutely transparent and we of course, since we are puny in comparison with the diameter of the Earth, are all the more transparent for these neutrinos. It is extraordinarily difficult to prove their existence. The only hope is to detect them in the laboratory because their number is so extraordinarily high. Now I have already indicated several times the important aspect of the mass, the rest mass of the neutrinos, and would like to say a few words on what we know about that. Physics has lived quite happily for around 40 years with the opinion that the rest mass of the neutrino is zero. There were, in other words, no experiments that contradicted this, and the theoreticians appreciated it very much to include the zero rest mass in their theorems, since the theories were thus extraordinarily simplified. Now, critical, as we must be as physicists, in recent years, also for the reasons that I mentioned earlier, the idea arose that there is actually no good reason for the rest mass to be zero. At least there would have to be a new principle there which we do not understand, and one should therefore measure what the rest mass of this neutrino is. Now, nobody had been able to date really to measure this neutrino mass. I can only give you limits here. We know that that the mass of an electron-neutrino is something less than 35 electron-volts, how small it really is, no one knows. The muon neutrinos are lower than 510 KeV, and the tau neutrinos are lower than 250 MeV. You can see that these are enormous energies we are talking about here, and about which one can in principle say nothing at all. Again, because this weak interaction is so incredibly weak, because these neutrinos manifest themselves so enormously badly. The reason why it is so difficult to measure these masses is that the kinetic energies with which we normally work, especially with the electron neutrinos, are extraordinarily high compared with the rest mass, if there is one, and that this small fraction here is very difficult to measure next to this large fraction. There is a Russian measurement by Tretyakov and colleagues who believe they have seen the neutrino mass, they give values for the electron neutrino mass of between 14 and 46 electron-volts. But this experiment is a single experiment, it should definitely be verified by other laboratories or also by the same group. It is very difficult to make definite statements here, whether solid state effects might not be influencing matters and playing a dirty trick here, before these masses have been measured on a range of solid bodies. With the use of various solid bodies it is really too early to say that this is a valid measurement. Finally I should mention that the cosmologists provide limits on the mass of neutrinos. They say the sum of all neutrino masses of the different types should be less than about 50 electron-volts. Then there is also the possibility that very heavy neutrinos exist, but they would probably not be very long-lived. All that is still very much open, in any case that is a limit which the cosmologists believe in, and some of us more or less, that it is correct. So one has to look below this range if one wishes to find neutrino masses. Now there is an interesting possibility, first pointed out by Pontecorvo and a Japanese group, which is that the neutrinos we produce in the laboratory with beta decay, that these neutrinos are not single states of the weak interaction, in the context of which they were produced, but that these neutrinos may have more fundamental neutrinos behind them, in other words that the neutrinos produced in the context of the weak interaction are not stable, but can transform themselves into each other. That would lead to the possibility of so-called neutrino oscillations, and we have in fact conducted experiments in this direction, started a search for such oscillations in recent years. That would mean that neutrinos, say electron neutrinos, which are produced, in the course of time, as they fly, with practically the speed of light, transform into muon neutrinos and then e.g., that is a particularly simple two-neutrino model here, change back into electron neutrinos, back into muon neutrinos, that such neutrino oscillations take place. In concrete terms, that means that if I have a fission reactor here in the centre of my circle producing electron neutrinos or antineutrinos for me, and they shoot out in some direction or other, in all directions of course, e.g. in this one, then, after a particular time of flight or distance of flight, say at this red position, they would transform into muon neutrinos. Somewhat later they would again be electron neutrinos, a bit later again they would be muon neutrinos and so on and so forth. Thus you have such oscillations here, along this region here. And if you set up a detector here, that e.g. only reacts to the green sort, then you would find such neutrinos here, here you see nothing, here again you find these neutrinos, so you would observe an oscillation in intensity in this detector and therefore be able to establish the existence of these neutrinos directly. Now, what can we learn from such oscillations? What we in principle can learn from that is whether these oscillations appear at all, that means whether these neutrinos of the various types can transform into each other at all, whether they are mixed and I can express this mixing with what is known as a mixing angle, that is one quantity, and we also learn something about this neutrino mass, since the length of these oscillations depends, as can be shown quite simply, I don't have the time for this here, on the mass, more precisely on the difference in mass of the neutrinos involved. So if I assume I have, say, an oscillation between electron and muon neutrinos, then this involves the difference of mass between electron and muon neutrinos, or the fundamental neutrinos behind them. So I can learn something about the neutrino masses and I can learn something about the mixing of these neutrinos. Now, we have been performing such experiments for several years, firstly in an experiment, which was an American-French-German cooperation at the research reactor of the Institut Laue-Langevin in Grenoble. We took measurements at a fixed distance of 8.76 m from the reactor and essentially studied the energy dependence of our neutrinos, so we absorbed neutrinos and had a look to see whether this absorption behaved the same at all energies or whether it is energy-dependent. If it is energy-dependent, that would suggest neutrino oscillations. We now have, in the meantime, I told you three years ago that we planned this experiment, this experiment has now been carried out, a second experiment in turn has also been completed, an American-Swiss-German joint project at the power reactor of the nuclear power station in Gösgen in Switzerland where we carried out a new oscillation experiment at a distance of about 38 m, and I would like to tell you a few details of this experiment just so as to give you a feel for how such experiments run in detail. We use this reaction that I have already mentioned, that we fire electron antineutrinos at protons. So we have a detector which contains very many hydrogen nuclei. In our case it is a liquid which contains a lot of hydrogen and which serves us both as a detector and also as evidence for the neutrinos received, so the protons undergo these reactions, they are transformed here into neutrons and positrons and we measure these two particles together in coincidence, that is in both temporal as well as spatial coincidence. In temporal coincidence, in the sense that they have to appear simultaneously if this reaction occurs at all, that is when we observe neutrinos. And in spatial coincidence, that helps us to solve our substantial underground problems. Because although we have very high neutrino rates, it is only very occasionally that one is caught, so we get very low count rates and you can imagine that it is very difficult with such low count rates to fight against all the other processes which of course occur. You always have natural radioactivity from the environment, not from the nuclear reactor, that provides us with nothing at all, but from our detector itself; radiation comes from the glass in the multipliers, radiation comes out of the concrete walls which we use for shielding, and of course radiation pours down on us from space, cosmic radiation, one has to fight against all that, and that is served by this location-sensitive evidence which I am outlining here. Now, I don’t want to bother you with all the details, I just want to mention briefly once more that the oscillation which I have written up formally here, that is a simple function here, this cosine term is significant, a trigonometric function. It depends firstly on the energy of the neutrinos, as I said, if we had no neutrino oscillation it should not be dependent on the energy. Then it depends on the distance, then it depends on this mass difference which I mentioned and which I have written down exactly here, Delta^2. This quantity which occurs here in the argument of the trigonometric function, depends on the masses M1 and M2 of the two neutrinos which I refer to in the square expression as I have written it here, and finally then the mixing angle is involved. You can see immediately that when the mixing angle is zero then there is no neutrino oscillation, that the whole expression here is zero and then 1 comes out quite simply. That means that nothing at all happens, neither as a function of the distance nor as a function of the energy does anything at all appear. But when a mixing angle is present, that is when the phenomenon of oscillations exists, then an oscillation term appears and from the length of this oscillation, from the argument of the trigonometric function we obtain information about this quantity Delta^2, about this square of the mass difference of the neutrinos, which we are interested in. Now, how does that look in practice? Such a detector looks very roughly like this sketch of mine here. We have here 30 such white boxes, they are the proton counters, the whole thing is roughly the inner counter, say 1m by 1m by 1m. So we have 30 such proton counters in which the neutrinos which come from the reactor, which come from somewhere outside here and arrive here, occasionally experience a transformation, react with a proton and produce a neutron and a positron. And we have to now detect this neutron and this positron. We detect the positron directly in these counters, there photomultipliers just sit at the end, the flashes of light which the positron makes in this scintillation counter, in the scintillation liquid which he have in here, are detected and they give us direct evidence of the positron. And the neutrons which are thereby produced, they come over here in these big helium-3 chambers marked in yellow, in which they are detected by neutron capture. This means that we detect the positron here, we detect the neutron here, and if the two occur simultaneously or practically simultaneously then we know that a real neutrino absorption event has occurred with high probability. The rest of this apparatus, and that is the greater part, that consists of what are known as anti-coincidence counters, which tell us that something wrong is coming from outside, some particle from cosmic radiation, we can then exclude that, then we don’t count it. Then there also a lot of other things here which I don't want to go into. The decisive thing is that we have many metres of concrete around the whole thing. The whole detector weighs around 1000 t, so they are large items of apparatus. In fact the Swiss Army helped us to drive this 1000 t around the area because we are not in a position ourselves to do this without help and we are not keen on spending our limited research funding on the transport of concrete. Now perhaps I will show you this inner counter once again more exactly, how it looks in detail. Here you see once more an enlarged view of the inside, you can see these 30 counters here, here the covers are removed in some cases, those are the photomultipliers which sit in front and behind these counters, and allow us to detect the light impulses, here in between, yellow, are these big helium-3 chambers, we put 400 l of the very rare isotope helium-3 in our detector. Now I would like to show you the results very briefly. What you see here is up above the count rate, this upper curve, recording the count rate per hour. You see, we have typically about 2 per hour here as a function of the neutrino energy or the positron energy which is directly linked with the neutrino energy. You see this upper curve here for the case that the reactor was in operation. We spent about half a year measuring this curve. You see that one needs time with this low count rate, and here below you see the curve we get when the reactor is switched off. That means they are so to say undesired side-events which we have to subtract from the desired events here above. I may be allowed to mention on the side that it was very difficult for this curve here below, we could only make measurements for about 4 weeks on this lower curve, these power reactors in the generating stations have the unpleasant characteristic that they are always in operation and are very rarely switched off. As a physicist, one would rather have reactors which run half the time so that one can measure this curve, and are switched off half the time, so that one can measure this curve. But one must of course subordinate oneself to the conditions which really exist. Now, the difference of these two curves here is that what you see recorded here below, that is the real spectrum and a curve is also drawn here which is not something like a fit to these experimental data, but is the curve that we would have had to expect if we had no neutrino oscillations. So all deviations between this continuous curve and our experimental data, and you can see a little bit here and maybe there, with a lot of imagination, all this would indicate oscillations. What we can state in this case is not masses, we saw no neutrino oscillations in the framework of the statistics that we applied, I will justify that in a moment, but we can state limits for these masses, and that is shown in this figure here, they are the latest, not yet published data where I can state the most accurate limits for the neutrino masses and the mixing angle. What you see here, and that is the green curve, in fact the continuous curve drawn on the right hand edge of the green curve, that is the so-called 90% confidence level for the exclusion of neutrino oscillations. And what is excluded is the whole right-hand area, to the right of this curve, and permitted, on the basis of 90% confidence, is what lies to the left of this curve. Displayed here is up above, this Delta^2, this squared mass difference of the neutrinos, and to the right the mixing angle. So here mixing angle zero and here complete mixing on this side. You see that a further region here is excluded, but everything here that remains to the left of this curve, in the left area, that is the region where neutrino oscillations and thus neutrino masses and neutrino mixing angles are still possible as before. We are now involved in extending these measurements to still greater distances. Here our goal is firstly to examine in more detail this region here, which I will have something more to say about soon, and in particular to go still further downwards here below. That means, if neutrino masses are there, with relatively high values, that is in the region of eV as the cosmologists and astrophysicists would have it, then such masses could only appear with extremely small mixing angles, that is with mixing angles which are clearly smaller than the angle that we like to use today in high energy physics, the Cabibbo angle and the Weinberg angle, which are both a little greater than 0.2. So we are already below this angle in this region here. Of course there is no reason why this mixing angle should agree with this other angle here, but still one thinks a bit in this direction, maybe it is a gift that they are of this order of magnitude. But that is not the case; here they are already, as you can see, below this region. So we can already extrapolate up to arbitrary masses. We can do that because here in these high masses, in this high mass region our oscillation term is averaged out, and that is e.g. one of the hopes which one has to explain the absent solar neutrino flux. It could in fact be that the neutrinos which come to us from the Sun undergo oscillations, that they transform into other kinds of neutrinos, that the electron neutrinos from the Sun may become muon neutrinos and tau neutrinos and the whole thing is mixed up, so that then, when it is roughly equally mixed - and one would assume that, if the oscillation lengths are small compared with the distance from the Sun to the Earth – that we can then assume, if we have three types of neutrinos, that each type accounts for about 1/3 of the intensity, and that would be about what we are measuring at the moment. But that is still very strong wishful thinking, I would say, that must still be verified much more precisely. In any case, in this left region here oscillations are still possible, in this right-hand area they are excluded, here below with really small neutrino masses, and there could of course be some, it could be the case that the neutrinos have this small mass, there they are still fully compatible with all mixing angles. Now I would like to show you, perhaps without going into numerical detail, another picture which caused a bit of excitement about a year ago. And here I show you the same curve again which you just saw in green, in lilac here, and simultaneously I show you measurements here which were made by Reines and his colleagues, very famous measurements, in which neutral and charged flux reactions were carried out with the help of neutrinos on the example of the deuteron, and in which these measurements were interpreted under the assumption that neutrino oscillations exist. Here it is the case that the permitted region is to the left with us, here the permissible regions is to the right. Here you can 90% confidence curve from Reines, to the right you can see the 90% confidence curve of our experiment, here there is no overlap of these curves, which means that the two experiments, at least on the 90% basis, and that can be extended further, in clear contradiction to each other. So we and our experiments do not agree with the assertions of this American group. Now, finally, a last summary of those data which we obtained at the nuclear reactor in Gösgen. It shows you very nicely the difference of distance and also of reactors. I show you again here in blue what you have already seen in other colours, that is our measurements which we carried out in Switzerland, at the Swiss power reactor, and at the same time I show you here in red, once more…

Liebe Studenten, meine sehr verehrten Damen und Herren. Ich möchte heute … Ich möchte heute einiges über Neutrinos erzählen, ein Gebiet, was in den letzten Jahren sehr in den Brennpunkt des physikalischen Interesses gerückt ist. Und möchte da, weil ich aus Deutschland komme, mit einigen historischen Bemerkungen beginnen. Ich fang’ nicht bei den alten Griechen an, sondern etwa um das Jahr 1930 bei Wolfgang Pauli, der eigentlich der Erfinder der Neutrinos ist. Erfinder im besten Sinne des Wortes, es war damals eine Notlösung, die sich später als richtig herausgestellt hat. Lassen Sie mich ganz kurz die Problematik, die in den 30er Jahren vorlag, schildern. Man hatte den radioaktiven Beta-Zerfall gesehen, bei dem ein Atomkern mit der Ordnungszahl Z und der Emission eines Elektrons in einen neuen Atomkern mit der Ordnungszahl Z+1 übergeht. Da der Anfangskern und der Endkern beide durch eine wohldefinierte Energie ausgezeichnet sind, sollte man annehmen, dass das Elektron dann eben, abgesehen von seiner eigenen Masse, diese Energiedifferenz mitbringt, dass also eine scharfe Energie des rauskommenden Elektrons beobachtet wird. Dem war jedoch nicht so, man wusste zu dieser Zeit, dass das Elektronenspektrum nicht eine scharfe Energie hatte, sondern dass es ein ganzes Spektrum war, bis herauf zu einer maximalen Energie, die dieser scharfen erwarteten Energie entsprach. Das war ein Rätsel, dieses Spektrum zu verstehen, denn es sah ja so aus, als wenn der Energiesatz nicht mehr gültig wäre, und in der Tat hat kein geringerer als Niels Bohr damals die Bereitschaft gezeigt, diesen Energiesatz in diesem speziellen Fall zu opfern. Wolfgang Pauli schätzte das gar nicht und er hat sich viel den Kopf zerbrochen und ich möchte vielleicht einen Brief zitieren, den er damals geschrieben hat, um auch den Studenten etwas zu zeigen, dass wissenschaftliche Entwicklung meistens aus Fehlschlägen, Rückschlägen und einem Zickzack-Kurs besteht und dass wir nur gelegentlich das Glück haben, mal das richtige, ich möchte fast sagen, zu erraten oder zu finden. Wolfgang Pauli hat nämlich zunächst einmal angenommen, dass außer diesem Elektron hier, noch etwas anderes emittiert wird, und zwar einfach ein gewöhnliches Gammaquant und er glaubte, das habe man einfach zunächst experimentell noch nicht gesehen und er äußerte sich diesbezüglich in folgender Weise, und ich zitiere jetzt aus einem Brief, den er an Klein im Februar 1929 geschrieben hat. Ich zitiere also jetzt: dass Gammastrahlen die Ursache des kontinuierlichen Spektrums der Betastrahlen sein müssen, und dass Niels Bohr mit seinen diesbezüglichen Betrachtungen über eine Verletzung des Energiesatzes auf vollkommen falscher Fährte ist. Auch glaube ich, dass die wärmemessenden Experimentatoren irgendwie dabei mogeln und die Gammastrahlen ihnen nur in Folge ihrer Ungeschicklichkeit bisher entgangen sind. Aber ich verstehe zu wenig von Experimentalphysik, um diese Ansicht beweisen zu können und so ist Bohr in der für ihn angenehmen Lage, unter Ausnutzung meiner allgemeinen Hilflosigkeit bei der Diskussion von Experimenten sich selber und mir unter Berufung auf Cambridgescher Autoritäten, übrigens ohne Literaturangabe, da etwas Beliebiges vormachen zu können.“ Soweit also das Zitat von Wolfgang Pauli. Nun, Wolfgang Pauli hat dann im folgenden Jahr etwas mehr Zutrauen zu den Aussagen der Experimentatoren gefasst, die gesagt haben, wir sehen einfach keine Gammastrahlen und hat dann das Neutrino erfunden. Erfunden in dem Sinn, dass er sagte, außer dem Elektron hier wird noch ein Teilchen ausgesandt, ein Teilchen, was er zunächst Neutron nannte. Man hat dann später das Neutron für was anderes verwendet und nannte das dann Neutrino, aus dem Italienischen, das „kleine Neutron“. Also dieses Neutrino wurde sozusagen erfunden, um den Energiesatz zu retten, und diese Erfindung hat sich dann später in der Tat als richtig herausgestellt. Aber es dauerte immerhin bis zum Jahr 1956, bis es Reines und Cowan gelang, in einem direkten Experiment, in einer direkten experimentellen Reaktion, die ich Ihnen hier aufgeschrieben habe und die ich noch mehr diskutieren werde, den direkten Beweis zu erbringen, dieses Neutrino existiert. Reines hat einfach Elektronen, Neutrinos - dieser Querstrich bedeutet Antineutrinos, das ist jetzt nicht so wichtig – auf Protonen geschossen und hat dann ein Neutron und ein Positron erzeugt und hat eben durch den Nachweis dieser beiden Teilchen gezeigt, so etwas gibt es wirklich, so ein Neutrino existiert. Heute glauben wir, drei Sorten von Neutrinos zu kennen, die Elektron-Neutrinos, die Myon-Neutrinos und wahrscheinlich auch die Tauon-Neutrinos. Das Tauon hat man bereits gesehen, das zugehörige Neutrino noch nicht so richtig, aber man glaubt wohl, dass es existiert. Die Neutrinos haben, wie ich vorher schon sagte, eine große Bedeutung im Augenblick in der Physik und ich habe hier mal kurz die wesentlichen Gründe dafür zusammengestellt. Einmal sind sie sehr interessant, weil sie ausschließlich der sogenannten schwachen Wechselwirkung unterliegen. Fast alles, was wir heutzutage in der Physik messen, das unterliegt entweder der starken Wechselwirkung, jener Wechselwirkung, die für die Zusammenhaltung der Atomkerne wesentlich ist, oder aber zumindest der etwas schwächeren elektromagnetischen Wechselwirkung, wenn immer Ladungen damit verbunden sind, dann gibt es eine elektromagnetische Wechselwirkung. Diese sind sehr starke Wechselwirkungen im Vergleich zu der sogenannten schwachen Wechselwirkung, die für diesen radioaktiven Zerfall hier oben verantwortlich ist und die man normalerweise nicht sehen kann, weil eben diese stärkeren genannten Wechselwirkungen sie völlig überdecken. Nur bei den Neutrinos ist es so, dass diese anderen Wechselwirkungen nicht da sind und dass wir dann die schwache Wechselwirkung in Reinkultur studieren können. Ein zweiter wesentlicher Grund, warum wir uns so für Neutrinos in diesen Jahren interessieren, ist, dass die Neutrinos für die Reaktionen verantwortlich sind, die sich in der Sonne abspielen, dass sie wesentlich sind für diese Reaktionen. In der Sonne werden ja irgendwie Protonen, Wasserstoffkerne verschmolzen und man landet schließlich beim Helium. So eine Verschmelzung von Protonen, die eine Umwandlung von Protonen in Neutronen beinhaltet, geht nur, wenn es Neutrinos gibt. Das heißt, unsere Existenz beruht also letzten Endes auf der Existenz von Neutrinos. Weitere Gründe sind, dass man sich heute bemüht, nach den großen Erfolgen, die vor einigen Jahren Glashow, Weinberg und Salam hatten, die schwache, verzeihen Sie, die elektromagnetische Wechselwirkung mit dieser schwachen Wechselwirkung zu vereinen. Man bemüht sich nun, dieses Schema auszudehnen und auch die starke Wechselwirkung unter einen einheitlichen Hut mit diesen anderen beiden Wechselwirkungen zu bekommen. Auch hierbei dürften die Neutrinos eine große Rolle spielen, insofern als eine Massenskala bei diesen Vereinigungsprinzipien eine Rolle spielt, über die man heute noch ganz wenig und verschwommenes weiß. Das fokussiert die Aufmerksamkeit auf das Problem, welche Masse haben die Neutrinos, haben sie überhaupt eine, und wenn ja, welche. Und schließlich ganz kurz noch zum Schluss, die Astrophysiker und die Kosmologen, vor allem die Astrophysiker sind sehr an den Neutrinos interessiert, denn sie könnten ihnen helfen eine ganze Reihe von Problemen zu lösen und zu verstehen, die ihnen im Augenblick große Schwierigkeiten machen. Da ist nicht nur das Problem, ob unser Weltall, unser Universum ein offenes oder ein geschlossenes ist, wir nehmen ja an, wie wir gerade im Vortrag von Herrn Alfvèn noch mal gesehen haben, dass unser Universum expandiert, aber wir wissen nicht, ob das für immer so ist, oder ob es expandiert in verlangsamter Weise, ob es sich schließlich so weit verlangsamt, dass es wieder umkehrt, und sich dann sozusagen wieder zusammenzieht. So etwas würde voraussetzen, dass genügend viel Masse in diesem Universum vorhanden ist. Wir können eine ganze Reihe von Aussagen über die Massen machen, wir können sie ableiten, die sogenannten sichtbaren Massen, die wir heute sehen, reichen nicht aus, um das Universum zu einem geschlossenen zu machen. Aber es könnte ja sein, dass sehr viele Neutrinos vorhanden sind, darüber werde ich noch reden. Und dass diese Neutrinos genügend viel Masse tragen und dann könnte das Universum ein geschlossenes sein. Ein vielleicht ästhetisch befriedigender, aber sonst nicht vielleicht so wahnsinnig wichtiger Aspekt. Ein viel wichtigerer Aspekt ist, dass es eine ganze Reihe von Indizien gibt in der Astrophysik, dass eine große Menge an verborgener Masse im Universum vorhanden ist. Masse, die wir nicht sehen. Es gibt eine ganze Reihe von Erscheinungen, ich will z.B. nur erwähnen, dass die Clusters von Galaxien, diese Anhäufung von Galaxien, schwer verständlich ist, wie das Ganze zusammenhält. Wie die Gravitation das zusammenhalten kann, da ist nicht genügend Masse an dem, was wir sehen, vorhanden. Man vermutet, da muss noch sehr viel mehr Masse sein, die wir nicht sehen. Und diese Masse wiederum könnte, das wäre die einfachste Möglichkeit, z.B. in Neutrinos stecken, und Neutrinos wären dann für das Verständnis dieser Phänomene von entscheidender Bedeutung. Es gibt eine ganze Reihe weiterer astrophysikalischer Hinweise über solche verborgenen Massen, und es gibt viele Leute, die diese verborgene Masse gern den Neutrinos in die Schuhe schieben. Nun lassen Sie mich ein paar Worte sagen über was wir heute für Neutrinoquellen zur Verfügung haben, wir wollen ja experimentieren, wir müssen ja letzten Endes beweisen, das was wir hier als These vielleicht vertreten, im Experiment beweisen und müssen damit Neutrinoquellen haben, an denen wir messen können . Eine unsere wichtigsten Neutrinoquellen, eine unserer interessantesten Neutrinoquellen ist, wie ich schon erwähnt habe, die Sonne. In der Sonne spielen sich Fusionsprozesse ab, die Verschmelzung von Protonen etwa, die Umwandlung von Protonen in Neutronen, dazu brauchen wir Neutrinos. Und nachdem wir annehmen, dass die ganz Sonnenenergie, die wir hier bekommen, im Wesentlichen auf solchen Fusionsprozessen beruht, müssen diese Neutrinos daran beteiligt sein, und diese Neutrinos kommen natürlich hierher zu uns auf die Erde. Sie haben eine so schwache Wechselwirkung, dass sie die Erde gar nicht sehen, sie gehen vorne rein und hinten wieder raus. Da passiert fast nichts, die Erde ist fast nicht existent, wegen dieser schwachen Wechselwirkung der Neutrinos, aber man kann sie trotzdem, wenn man eine genügend große Zahl hat, und die Zahlen sind recht groß, kommen allein von diesem eigentlichen Fusionsprozess also außerordentlich hohe Zahlen an Neutrinos. Man kann sie im Prinzip mit sehr empfindlichen Detektoren messen. Ich habe Ihnen hier zwei Gruppen von Neutrinos aufgeschrieben. Eine, die der Hauptfusionsreaktion entspricht und eine andere Gruppe, die eine kleine Nebenreaktion beinhaltet, die aber den Vorteil hat, dass sie hohe Energien an Neutrinos liefern, 14 MeV, mit sehr viel geringeren Flüssen, fast 10.000 mal weniger wie diese Hauptkette. Trotzdem ist diese kleine Nebenkette im Augenblick sehr interessant, denn es ist die Kette, die man messen kann, mit terrestrischen Methoden. Es sind die berühmten Experimente von Davis und Mitarbeiter mit Hauptquartier in Brookhaven, die in einer tiefen Mine in den USA durchgeführt werden, und wo man versucht hat, diesen solaren Neutrinofluss, der uns also eigentlich die einzige Aussage liefert über direkt, was im Inneren der Sonne vor sich geht, wir sehen ja nur die äußere Sonne, wenn wir sie optisch ansehen. Man hat also versucht, diesen solaren Neutrinofluss zu messen, um zu sehen, ob das stimmt, was wir glauben, was im Inneren der Sonne sich abspielt und es ist eines der ganz großen Rätsel im Augenblick, dass man diesen Fluss nicht gefunden hat. Der Fluss, den man findet ist mindestens einen Faktor 3 niedriger, als das, was man erwartet und in letzter Zeit sieht es fast so aus, und das muss natürlich experimentell alles noch sehr viel genauer überprüft werden, als wenn alles, was man misst unter Umständen mit Untergrundmessungen zu erklären ist. Das ist ein ganz großes Rätsel und es wäre wirklich eine Katastrophe, wenn dieser Fluss nicht da wäre, bzw. wenn wir nicht verstehen, warum er nicht da ist. Da gibt es dann alle möglichen anderen Ausreden unter Umständen. Auf eine dieser Ausreden werde ich dann zu sprechen kommen. Es wäre eine Katastrophe, wenn dieser Fluss nicht da wäre, denn dann würde es heißen, wir verstehen nicht, wie die Sonne ihre Energie produziert. Wir glauben, wir verstehen das sehr, sehr gut. Aber wie gesagt, wir müssen misstrauisch sein, und eines der großen Rätsel ist dieser fehlende solare Neutrinofluss, im Augenblick. Es gibt neue Anstrengungen, auch zum Teil deutsche Laboratorien sind hier beteiligt, jetzt diesen niederenergetischen Bereich hier anzugehen, das sind sehr kostspielige Experimente, das BMFT stöhnt darüber bereits. Experimente, die wohl in einigen Jahren mit Hilfe von Gallium über die Bühne gehen. Man hat dort sehr viel niedrigere Schwellenwerte für die Reaktionen und kann hoffen, diese Reaktionen zu studieren. Sehr kostspielige Experimente, aber außerordentlich wichtige Experimente, denn dieser fehlende solare Neutrinofluss ist eines der ganz großen Rätsel, mit dem wir zur Zeit leben müssen. Eine weitere große Quelle von Neutrinos ist mit größter Wahrscheinlichkeit das was übrig geblieben ist von dem Urknall, an den viele Leute glauben. Unsere Welt ist also in einem Urknall entstanden, ursprünglich waren diese Neutrinos, die bei diesem Urknall im Gleichgewicht waren, mit den anderen Teilchen bei sehr hohen Temperaturen in großer Zahl vorhanden und sie sind dann, wie die Temperatur abgeklungen ist, abgesunken ist, weil sich das Ganze expandiert hat, sind sie aus dem Gleichgewicht ausgestiegen, aber sie sollten heute noch da sein, mit sehr niedrigen Energien, aber mit sehr großen Zahlen. Wir nehmen an, wir haben sie nicht gesehen bis jetzt, wir nehmen an, dass wir etwa 500 Photonen pro cm³ hier auf der Erde, im gesamten Universum im Mittel vorhanden haben. Das hat man gemessen. Man nimmt an, dass etwa die gleiche Zahl, ein kleines bisschen weniger, aus Gründen der Statistik, an Neutrinos ebenfalls pro cm³ vorhanden ist. Sie sehen also, die Welt ist voll von Neutrinos, etwa 400 solcher Neutrinos pro cm³ aus diesem Urknall mit sehr niedrigen Energien, aber auch von der Sonne her kommen außerordentlich hohe Zahlen an Neutrinos, die uns ständig von allen Seiten her durchstrahlen. Die Umweltschützer haben das noch nicht gemerkt und drum haben sie dagegen noch nichts unternommen. Nun etwas zu den künstlichen Quellen an Neutrinos. Hier ist die wichtigste Quelle an Neutrinos, der Kernreaktor. Der Fusions- nicht der Fusionsreaktor, der Spaltungsreaktor, der uns sogenannte Elektronen, Antineutrinos, ob das nun Anti- oder Neutrinos sind, das ist eine Definitionssache. In dem Fall, so wie es definiert ist, sind es hier Antineutrinos, liefert, mit Energien von einigen MeV und ganz beträchtlichen Flüssen. Die Flussstärken, die ich Ihnen hier angegeben habe, sind realistische, insofern, als ich sie Ihnen am Ort des Experiments angebe. Man kriegt noch um viele 10er Potenzen höhere Flüsse, wenn man in das Zentrum eines Kernreaktors geht, aber da kann man sich nicht aufhalten, auch unsere Apparaturen können sich dort nicht aufhalten, da, wo wir also die Detektoren aufstellen können, liegen Flüsse dieser Größenordnung vor, und Sie sehen, das ist noch weit mehr, als was aus den anderen Quellen kommt. Es gibt dann auch noch Beschleuniger, Mesonenfabriken usw., die solche Neutrinos liefern, mit höheren Energien, aber deutlich niedrigeren Flüssen. Ich werde mich vor allem auf die Neutrinos, die in den Kernspaltungsreaktoren produziert werden und die wie gesagt, für unsere menschliche Gesundheit nach allem, was wir wissen, völlig harmlos sind – die Erde ist absolut transparent und wir natürlich, die wir mickrig sind im Vergleich zum Durchmesser der Erde, sind erst recht transparent für diese Neutrinos. Es ist außerordentlich schwer, sie nachzuweisen. Man kann sie nur deswegen hoffen überhaupt im Laboratorium nachzuweisen, weil ihre Zahl so außerordentlich groß ist. Nun habe ich schon mehrmals auf den wesentlichen Gesichtspunkt der Masse, der Ruhemasse der Neutrinos hingewiesen, und möchte ein paar Worte darüber sagen, was wir darüber wissen. Die Physik hat rund 40 Jahre lang sehr gut mit der Auffassung gelebt, die Ruhemasse der Neutrinos ist null. Es gab, mit anderen Worten, kein Experiment, was dem widersprach und die Theoretiker haben das sehr geschätzt, die Ruhemasse null in ihre Theorien einzuführen, denn die Theorien wurden dadurch außerordentlich versimplifiziert. Nun, kritisch, wie wir als Physiker sein müssen, ist man in den letzten Jahren, auch aus den Gründen, die ich vorhin genannt habe, auf die Idee gekommen, das es eigentlich keinen echten Grund gibt, warum die Ruhemasse null ist. Zumindest müsste da ein neues Prinzip dahinter sein, was wir nicht verstehen und man muss also messen, was die Ruhemasse dieser Neutrinos ist. Nun, niemand hat bisher echt diese Neutrino-Masse messen können. Ich kann Ihnen hier nur Grenzen angeben. Wir wissen, dass die Elektron-Neutrino-Masse etwa kleiner als 35 Elektronenvolt ist, wie klein sie dann wirklich ist, weiß man nicht. Die Myonen-Neutrinos sind kleiner als 510 KeV und die Tauon-Neutrinos sind wohl kleiner als 250 MeV. Sie sehen, das sind gewaltige Energien, über die man hier spricht, und über die man im Prinzip überhaupt nichts aussagen kann. Eben wieder, weil diese schwache Wechselwirkung ebenso wahnsinnig schwach ist, weil sich diese Neutrinos so ungeheuer schlecht manifestieren. Der Grund, warum es so schwer ist, diese Massen zu messen, liegt darin, dass die kinetischen Energien, mit denen wir vor allem bei den Elektron-Neutrinos normalerweise arbeiten, eben außerordentlich groß sind gegenüber der Ruhemasse, wenn es eine gibt, und dass man diesen kleinen Anteil eben sehr schwer an diesem großen Anteil messen kann. Es gibt eine russische Messung, von Tretyakov und Mitarbeitern, die glauben, die Neutrinomasse gesehen zu haben, die geben also Werte an für die Elektronen-Neutrino-Masse zwischen 14 und 46 Elektronenvolt. Aber dieses Experiment ist ein einziges Experiment, es muss unbedingt von anderen Laboratorien oder auch von derselben Gruppe verifiziert werden. Es ist sehr schwierig, hier genaue Aussagen zu machen, ob nicht Festkörpereffekte hereinspielen und hier einen bösen Trick spielen, ehe man nicht an verschiedenen Festkörpern diese Massen gemessen hat. Unter Verwendung verschiedener Festkörper ist es wohl noch zu früh, zu sagen, das ist eine echte Messung. Schließlich sollte ich noch sagen, dass die Kosmologen Grenzen angeben für Neutrinomassen. Sie sagen, dass die Summe aller Neutrinomassen der verschiedenen Typen kleiner als etwa 50 Elektronenvolt sein sollte. Es gibt dann auch noch die Möglichkeit, dass ganz schwere Neutrinos existieren, aber die werden wahrscheinlich nicht sehr langlebig sein. All das ist noch sehr offen, jedenfalls ist das eine Grenze, an die die Kosmologen glauben und einige von uns auch so einigermaßen, dass die wohl richtig ist. Man muss also unterhalb dieses Bereiches suchen, wenn man Neutrinomassen finden will. Nun gibt es eine interessante Möglichkeit, auf die zuerst Pontecorvo und eine japanische Gruppe hingewiesen haben, nämlich, dass die Neutrinos, die wir im Laboratorium im Rahmen des Beta-Zerfalls produzieren, dass diese Neutrinos nicht Eigenzustände der schwachen Wechselwirkung sind, im Rahmen derer sie produziert werden, sondern, dass diese Neutrinos evtl. mehr fundamentale Neutrinos hinter sich stehen haben, mit anderen Worten dass die erzeugten Neutrinos, im Rahmen der schwachen Wechselwirkung erzeugten Neutrinos nicht stabil sind, sondern sich ineinander umwandeln können. Das würde dazu führen, dass sogenannte Neutrino-Oszillationen möglich sind und wir haben in der Tat Experimente in dieser Richtung durchgeführt, eine Suche nach solchen Oszillationen in den letzten Jahren angestellt. Das würde bedeuten, dass Neutrinos, etwa Elektron-Neutrinos, die erzeugt werden, sich im Laufe der Zeit, wenn sie fliegen, mit praktisch Lichtgeschwindigkeit, in Myonen-Neutrinos umwandeln und dann z.B., das ist ein besonders einfaches Zwei-Neutrino-Modell hier, wieder zurückverwandeln in Elektroneutrinos, wieder in Myon-Neutrinos, dass also solche Oszillationen an Neutrinos zustande kommen. Konkret ausgedrückt bedeutet das, wenn ich etwa hier im Zentrum meines Kreises einen Kernspaltungsreaktor habe, der mir Elektronen-Neutrinos oder Antineutrinos produziert, und die fliegen los, in irgendeiner Richtung, in allen Richtungen natürlich, z.B. in dieser, dann würden sie nach einer gewissen Flugzeit oder gewissen Flugstrecke, an dieser roten Stelle etwa, in Myon-Neutrinos umgewandelt werden.Etwas später wären es wieder Elektron-Neutrinos, wieder etwas später wären es Myon-Neutrinos und so weiter und so fort. Sie haben also hier solche Oszillationen,entlang dieses Bereiches hier. Und wenn Sie einen Detektor hier aufstellen, der z.B. nur auf die grüne Sorte anspricht, dann würden Sie hier solche Neutrinos finden, hier sehen Sie nichts, hier finden Sie wieder diese Neutrinos, Sie würden also eine Oszillation der Intensität in diesem Detektor beobachten und damit direkt diese Neutrinos nachweisen können. Nun, was können wir aus solchen Oszillationen lernen? Was wir im Prinzip daraus lernen können ist einmal, ob diese Oszillationen überhaupt auftreten, das heißt ob diese Neutrinos der verschiedenen Typen überhaupt ineinander übergehen können, ob sie gemischt sind und diese Mischung kann ich durch einen sogenannten Mischungswinkel zum Ausdruck bringen, das ist die eine Größe, und zum anderen lernen wir etwas über diese Masse der Neutrinos, denn die Länge dieser Oszillationen hängt, wie sich ganz einfach zeigen lässt, ich hab dazu die Zeit nicht hier, von der Masse, genauer von der Massendifferenz der beteiligten Neutrinos ab. Wenn ich also annehme, ich habe etwa eine Oszillation zwischen Elektron- und Myon-Neutrinos, dann geht die Differenz Elektron-Neutrino- und Myon-Neutrino-Masse, bzw. der dahinterliegenden Grundneutrinos ein. Ich kann also etwas über die Neutrino-Massen lernen und ich kann etwas über die Mischung dieser Neutrinos lernen. Nun, wir haben solche Experimente durchgeführt seit einigen Jahren und zwar zunächst in einem ersten Experiment, das war eine amerikanisch-französisch-deutsche Zusammenarbeit, an dem Forschungsreaktor des Instituts Laue-Langevin in Grenoble. Wir haben dort gemessen bei einer festen Entfernung von 8,76 m vom Reaktor, und haben da im Wesentlichen die Energieabhängigkeit unserer Neutrinos studiert, wir haben also Neutrinos absorbiert und haben geschaut, ob diese Absorption sich bei allen Energien gleich verhält oder ob die energieabhängig ist. Wenn sie energieabhängig ist, würde das auf Neutrino-Oszillationen hindeuten. Wir haben nun inzwischen, ich hab Ihnen vor drei Jahren gesagt, dass wir dieses Experiment vorhaben, dieses Experiment ist nun inzwischen abgeschlossen, ein zweites Experiment ist wiederum ebenfalls abgeschlossen, eine amerikanisch-schweizer-deutsche Zusammenarbeit an dem Leistungsreaktor des Kernkraftwerks in Gösgen in der Schweiz haben wir nun bei einer Entfernung von etwa 38 m ein neues Oszillations-Experiment durchgeführt und über dieses Experiment möchte ich Ihnen ein paar Details erzählen, bloß damit Sie ein Gefühl dafür bekommen, wie solche Experimente im Einzelnen sich abspielen. Wir verwenden diese Reaktionen, die ich schon mal erwähnt habe, dass wir Elektron-Antineutrinos auf Protonen schießen. Wir haben also einen Detektor, in dem sich sehr viele Wasserstoffkerne befinden. In unserem Fall ist das eine Flüssigkeit, die sehr wasserstoffreich ist, und die uns gleichzeitig als Detektor dient und auch als Nachweis für die empfangenen Neutrinos, also die Protonen machen diese Reaktionen, sie werden umgewandelt hier in Neutronen und in Positronen und wir messen diese beiden Teilchen zusammen in Koinzidenz und zwar sowohl in zeitlicher wie in räumlicher Koinzidenz. In zeitlicher Koinzidenz insofern, als sie gleichzeitig natürlich auftreten müssen, wenn diese Reaktion überhaupt eintritt, wenn wir also Neutrinos beobachten. Und in räumlicher Koinzidenz, das hilft uns, unsere sehr erheblichen Untergrundprobleme zu lösen. Denn obwohl wir sehr große Neutrinoraten haben, bleibt eben nur so gelegentlich mal so eins hängen, wir kriegen also ganz geringe Zählraten und Sie können sich vorstellen, dass es sehr schwierig ist, mit solch geringen Zählraten gegen alle anderen Prozesse anzukämpfen, die natürlich auftreten. Sie haben immer eine natürliche Radioaktivität von der Umgebung, nicht vom Kernkraftreaktor, der liefert uns gar nichts, sondern aus unserem Detektor selbst, aus dem Glas, was in den Multipliern ist, kommt Strahlung raus, aus dem Betonwänden, die wir zur Abschirmung verwenden, kommt Strahlung raus und es kommt natürlich ganz saftig Strahlung von oben her aus dem Weltall, die kosmische Strahlung, gegen all das muss man ankämpfen, und dazu dient dieser positionsempfindliche Nachweis, den ich hier kurz andeute. Nun, ich will Sie nicht mit den Einzelheiten behelligen, ich will nur ganz kurz noch mal drauf hinweisen, dass die Oszillation, die ich hier mal formal angeschrieben habe, das ist eine einfache Funktion hier, wesentlich ist hier dieser Cosinus-Term, eine trigonometrische Funktion. Sie hängt einmal ab von der Energie der Neutrinos, wie gesagt, wenn wir keine Neutrino-Oszillation hätten, sollte sie nicht von der Energie abhängen. Dann hängt sie ab von der Entfernung, dann hängt sie ab von dieser Massendifferenz, die ich erwähnt habe und die ich hier noch mal genau angeschrieben habe, Delta2, diese Größe, die hier im Argument der trigonometrischen Funktion auftritt, ist abhängig von den Massen M1 und M2 der beiden Neutrinos, auf die ich mich beziehe in dieser quadratischen Weise, wie ich es hier angeschrieben habe, und dann geht schließlich noch der Mischungswinkel ein. Sie sehen sofort, wenn der Mischungswinkel null ist, dann gibt es keine Neutrino-Oszillationen, da wird nämlich diese ganze Geschichte hier null und dann kommt hier einfach 1 raus. Das heißt, dann rührt sich gar nichts, weder als Funktion der Entfernung noch als Funktion der Energie tritt dann irgendetwas auf. Wenn aber ein Mischungswinkel vorhanden ist, wenn also das Phänomen der Oszillationen existiert, dann tritt so ein oszillierender Term auf, und aus der Länge dieser Oszillation, aus dem Argument der trigonometrischen Funktion kriegen wir Informationen über diese Größe Delta2, über diese quadratische Massendifferenz der Neutrinos, auf die es uns ankommt. Nun, wie sieht das in der Praxis aus? Ganz grob schaut so ein Detektor so aus, wie ich’s Ihnen hier aufgemalt habe. Wir haben also hier 30 solcher weißen Kästchen, das sind die Protonenzähler, das Ganze ist ungefähr der innere Zähler, grob 1m mal 1m mal 1m. Wir haben also 30 solcher Protonenzähler, in denen die Neutrinos, die vom Reaktor kommen, die irgendwie von hier außen kommen und hier einfallen, gelegentlich mal eine Umwandlung erfahren, mit einem Proton reagieren und ein Neutron und ein Positron produzieren. Und dieses Neutron und dieses Positron müssen wir jetzt nachweisen. Das Positron weisen wir direkt nach in diesen Zählern, da sitzen einfach Photomultiplier am Ende, die Lichtblitze, die dieses Positron in diesem Szintillationszähler, in dieser Szintillationsflüssigkeit macht, die wir hier drin haben, werden nachgewiesen und die geben uns direkt einen Hinweis auf das Positron. Und die Neutronen, die dabei produziert werden, die kommen hier herüber, in diese gelb angedeuteten großen Helium-3-Kammern, in denen sie durch Neutroneneinfang nachgewiesen werden. Das heißt hier weisen wir das Positron nach, hier weisen wir das Neutron nach, und wenn sie beide gleichzeitig oder praktisch gleichzeitig auftreten, dann wissen wir, mit guter Wahrscheinlichkeit hat ein echtes Neutrinoabsorptionsereignis stattgefunden. Den Rest dieser Apparatur, und der ist der größere Teil, der besteht darin, dass wir hier einmal sogenannte Antikoinzidenzzähler haben, die uns sagen, von außen kommt irgendetwas falsches, irgendein Teilchen aus der kosmischen Strahlung, das können wir dann aussondern, dann zählen wir das nicht. Dann gibt es hier noch viele andere Dinge, auf die ich jetzt nicht eingehen will. Das Entscheidende ist, das wir hier noch viele Meter Beton um das Ganze haben. Der ganze Detektor wiegt etwa 1000 t, das sind also große Apparaturen. In der Tat hat uns die Schweizer Armee geholfen, diese 1000 t in der Gegend herum zu fahren, weil wir dazu natürlich selbst nicht so ohne Weiteres in der Lage gewesen sind und wir nicht gern unsere knappen Forschungsmittel für den Transport von Beton verwenden. Nun will ich Ihnen vielleicht diesen inneren Zähler noch einmal genauer zeigen, wie der im Einzelnen aussieht. Sie sehen hier noch einmal ein vergrößertes Bild der Innereien, Sie sehen hier diese 30 Zähler, hier sind die Kappen abgenommen in einigen Fällen, das sind die Photomultiplier, die vorne und hinten an diesen Zählern sitzen, und die uns den Nachweis der Lichtimpulse hier gestatten, hier zwischendrin, gelb, sind diese großen Helium-3-Kammern, wir haben 400 l von dem sehr seltenen Isotop Helium-3 in unserem Detektor untergebracht. Nun möchte ich Ihnen die Ergebnisse ganz kurz zeigen. Was Sie hier sehen, ist im oberen Teil die Zählrate, diese obere Kurve, aufgetragen ist hier die Zählrate pro Stunde Sie sehen, wir haben so typisch etwa 2 pro Stunde hier als Funktion der Neutrinoenergie, bzw. der Positronen-Energie, die direkt mit der Neutrinoenergie verbunden ist. Sie sehen hier diese obere Kurve, für den Fall, dass der Reaktor in Betrieb gewesen ist. Wir haben ungefähr ein halbes Jahr an dieser Kurve gemessen. Sie sehen, mit diesen geringen Zählraten braucht man Zeit, und Sie sehen hier unten jene Kurve, die wir bekommen, wenn der Reaktor abgeschaltet ist. Das heißt, das sind sozusagen unerwünschte Nebenereignisse, die wir von den erwünschten Ereignissen hier oben abziehen müssen. Ich darf vielleicht am Rand erwähnen, dass es für diese untere Kurve sehr schwierig war, wir haben nur etwa 4 Wochen messen können, an dieser unteren Kurve, diese Leistungsreaktoren der Elektrizitätswerke haben die unangenehme Eigenschaft, dass sie immer in Betrieb sind, und sehr selten abgeschaltet sind. Als Physiker hätte man gern Reaktoren, die zur Hälfte laufen, damit man diese Kurve messen kann und zur Hälfte abgeschaltet sind, damit man diese Kurve messen kann. Aber man muss sich da natürlich den Bedürfnissen unterordnen, die da wirklich vorliegen. Nun, die Differenz dieser beiden Kurven hier, ist das, was Sie hier unten aufgetragen sehen, das ist also jetzt das echte Spektrum und eingezeichnet ist noch eine Kurve hier, die nicht etwa ein Fit an diesen experimentellen Daten ist, sondern die jene Kurve ist, die wir erwarten müssten, wenn wir keine Neutrino-Oszillationen hätten. Also alle Abweichungen zwischen dieser durchgezogenen Kurve und unseren experimentellen Daten, und Sie sehen da so ein bisschen was hier und vielleicht da, mit viel Fantasie, alles dieses würde auf Oszillationen hindeuten. Was wir angeben können in diesem Fall sind keine Massen, wir haben keine Neutrino-Oszillationen gesehen im Rahmen der Statistik, die wir anlegen, ich werde Ihnen das gleich begründen, wir können aber Grenzen angeben, für diese Massen, und das ist hier in diesem Bild aufgetragen, das sind jetzt neueste, noch unveröffentlichte Daten, wo ich Ihnen die jetzt genauesten Grenzen für die Neutrinomassen und die Mischungswinkel angebe. Was Sie hier sehen, und das ist die grüne Kurve, und zwar die durchgezogene am rechten Rand der grünen Kurve befindliche Kurve, das ist das sogenannte 90% Konfidenzniveau für den Ausschluss von Neutrino-Oszillationen. Und zwar ist ausgeschlossen, das ganze rechte Gebiet, rechts dieser Kurve, und erlaubt, auf der Basis von 90% Konfidenz ist das, was links von dieser Kurve sich befindet. Aufgetragen ist nach oben, dieses Delta2, diese quadratische Massendifferenz der Neutrinos und nach rechts der Mischungswinkel. Hier also Mischungswinkel null und hier totale Mischung auf dieser Seite. Sie sehen, dass ein weiter Bereich hier ausgeschlossen ist, alles was aber hier links von dieser Kurve noch ist, in diesem linken Bereich, das ist der Bereich, wo Neutrino-Oszillationen und damit Neutrinomassen und Neutrinomischungswinkel nach wie vor möglich sind. Wir sind jetzt dabei, diese Messungen auszudehnen, zu noch größeren Entfernungen. Dabei ist es unser Ziel, einmal diesen Bereich hier, auf den ich gleich noch zu sprechen kommen werde, genauer anzusehen, und vor allem hier unten noch weiter herunter zu gehen. Das heißt, wenn Neutrinomassen da sind, mit relativ großen Werten, also im Bereich von eV, wo es die Kosmologen und die Astrophysiker gerne haben würden, dann können solche Massen nur noch auftreten mit außerordentlich kleinen Mischungswinkeln, und zwar sichtlich mit Mischungswinkeln, die kleiner sind als jene Winkel, die wir heute in der Hochenergiephysik so gerne verwenden, nämlich der Cabibbo-Winkel und der Weinbergwinkel, die beide so ein bisschen größer wie 0,2 sind. Wir sind also hier in diesem Bereich bereits unter diesen Winkeln. Natürlich gibt es keinen Grund, warum diese Mischungswinkel mit diesen anderen Winkeln hier übereinstimmen sollten, aber so ein bisschen denkt man doch, vielleicht ist es ein Geschenk, dass sie von dieser Größenordnung sind. Das ist aber nicht so, sie sind aber hier schon, wie Sie sehen, unterhalb dieses Bereiches. Wir können also schon bis zu beliebigen Massen herauf extrapolieren. Wir können das deswegen, weil hier in diesen hohen Massen, in diesem hohen Massenbereich unserer Oszillations-Term ausgemittelt wird, und das ist z.B. eine der Hoffnungen, die man hat, um den abwesenden solaren Neutrinofluss zu erklären. Es könnte nämlich sein, dass die Neutrinos, die von der Sonne zu uns kommen, Oszillationen machen, dass sie sich umwandeln in andere Arten von Neutrinos, dass die Elektron-Neutrinos der Sonne etwa in Myon-Neutrinos und Tauon-Neutrinos umgewandelt werden und dass das Ganze dann mischt, sodass wir dann, wenn wir sie etwa gleich gemischt haben - und das würde man annehmen, wenn die Oszillationslängen klein sind gegen die Entfernung Erde-Sonne - dass wir dann annehmen können, wenn wir drei Typen von Neutrinos haben, dass auf jeden Typ dann ein 1/3 entfällt an Intensität, und das wäre etwa das, was man im Augenblick misst. Aber das ist noch sehr starkes Wunschdenken, würde ich sagen, das muss noch sehr viel genauer verifiziert werden. Jedenfalls, in diesem linken Bereich hier sind Oszillationen noch möglich, in diesem rechten Bereich sind sie ausgeschlossen, hier unten bei ganz kleinen Neutrinomassen, und da könnten natürlich welche vorliegen, es könnte so sein, dass die Neutrinos diese kleinen Massen haben, da sind sie noch mit allen Mischungswinkeln voll verträglich. Nun möchte ich Ihnen, ohne auf vielleicht Zahlen hier einzugehen, noch ein Bild zeigen, was etwas Aufregung verursacht hat, vor rund einem Jahr. Und zwar zeige ich Ihnen noch mal dieselbe Kurve, die Sie gerade in grün gesehen haben, hier in lila, und gleichzeitig zeige ich Ihnen hier Messungen, die von Reines und seinen Mitarbeitern gemacht worden sind, sehr berühmte Messungen, in denen neutrale und geladene Stromreaktionen mit Hilfe von Neutrinos durchgeführt worden sind am Beispiel des Deuterons, und von denen diese Messungen interpretiert worden sind, indem man annahm, Neutrino-Oszillationen existieren. Hier ist es so, dass bei uns der zulässige Bereich links liegt, in dem Fall liegt der zulässige Bereich rechts. Sie sehen hier die 90% Konfidenzkurve von Reines, Sie sehen hier rechts die 90% Konfidenzkurve unseres Experiments, hier ist kein Überlapp dieser Kurven, das heißt, diese beiden Experimente sind zumindest auf der 90% Basis, und das kann man noch ausdehnen, in klarem Widerspruch zueinander. Wir stimmen also mit unseren Experimenten nicht mit den Aussagen dieser amerikanischen Gruppe überein. Nun schließlich noch eine letzte Zusammenfassung jener Daten, die wir bekommen haben an dem Kernkraftreaktor in Gösgen. Der zeigt Ihnen sehr schön den Unterschied der Distance und auch der Reaktoren. Ich zeige Ihnen hier in blau nochmal, was Sie vorher schon in anderen Farben gesehen haben, nämlich unsere Messungen, die wir in der Schweiz, an dem Schweizer Leistungsreaktor durchgeführt haben, und gleichzeitig zeige ich Ihnen hier in Rot, noch einmal …


(00:19:42 - 00:22:55)

The theoretical physicist Steven Weinberg received the Nobel Prize in Physics 1979 together with Abdus Salam and Sheldon Glashow “for their contributions to the theory of the unified weak and electromagnetic interaction between elementary particles, including, inter alia, the prediction of the weak neutral current”. One might think that a lecture given by such a Nobel Laureate might be very difficult to understand. But Weinberg is gifted with a talent for popularisation, as can be judged from his well-known book “The first three minutes”. In his lecture in Lindau 1982, entitled “Prospects for Further Unification in the Theory of Elementary Particles”, he first gives a very clear presentation of the Standard Model. He then leads the discussion into questions of the unknown by introducing supersymmetry, a property which is still under discussion and which is actively looked for at the LHC at CERN today (02/2012).

Theoretical physicists thrive on ideas that can be treated mathematically, but always have to wait for experiments to decide if their ideas survive as theories. David Gross, who received the Nobel Prize in Physics 2004 together with David Politzer and Frank Wilczek “for the discovery of asymptotic freedom in the theory of the strong interaction”, has been an active proponent for string theories and other mathematically intriguing extensions of the known theories of subatomic particles. When he gave his Lindau lecture in 2008, he felt the day coming when some of his theories would be put to test by the LHC at CERN and gave his talk the title “The Large Hadron Collider and the Super World”. Today, (02/2012), the accelerator experiments have not been able to answer his questions. But since both the energy of the particles in the LHC and the statistics of detection are increasing functions of time, some answers might still be out there!



Additional lectures by the Nobel Laureates associated with Subatomic Particles:

Introductory Mini Lecture on Subatomic Particles
Werner Heisenberg 1953: Developments and Difficulties in the Quantum Theory of Elementary Particles
Hideki Yukawa 1953: Attempt at a Unified Theory of Elementary Particles.
Paul Dirac 1956: Electrons and the Vacuum.
Werner Heisenberg 1956: Problems in the Theory of Elementary Particles (German presentation).
Hideki Yukawa 1956: Elementary Particles.
Werner Heisenberg 1959: Report on Recent Findings Regarding A Unified Field Theory of Elementary Particles.
Werner Heisenberg 1962: Progress in the Unified Field Theory of Elementary Particles (German presentation.
Robert Hofstadter 1962: Recent Results on Nucleon Structure.
George Thomson 1965: Discovery of the Electron.
Robert Hofstadter 1968: New Detectors for High Energy Physics.
Robert Hofstadter 1971: Detectors for High Energy Physics.
Robert Hofstadter 1973: Applications to High Energy Physics of New Total Absorption Detectors.
Chen Ning Yang 1973: The Structure of the Proton.
Robert Hofstatder 1982: The Crystal Ball Experiment.
Val Fitch 1982: Aspects of CP-Violation.
Samuel Ting 1982: Quarks, Gluons and New Particles in Nature.
Il'ja Frank 1985: Some Peculiarities of Neutron-Nuclear Interaction.
Rudolf Mössbauer 1985: The Rest Masses of the Neutrinos.
Samuel Ting 1985: Search for the Fundamental Building Blocks of Nature.
Simon van der Meer 1988: Plans for Future Electron Positron Colliders.
Rudolf Mössbauer 1988: The Solar Neutrino Problem.
Frank Wilczek 2005: The Universe is a Strange Place.
Martinus Veltman 2008: The Development of Particle Physics.
David Gross 2010: Frontiers of Physics.
Gerardus ’t Hooft 2010: The Big Challenges.


Cite


Specify width: px

Share

Cite


Specify width: px

Share