J. Hans Jensen

Change in meaning of the term "elementary particle" (German presentation)

Category: Lectures

Date: 30 June 1965

Duration: 38 min

Quality: HD MD SD

Subtitles: EN DE

J. Hans Jensen (1965) - Change in meaning of the term 'elementary particle' (German presentation)

Jensen, who studied physics, mathematics, physical chemistry, chemistry and philosophy in Hamburg and Heidelberg, later worked as a theoretical physicist, investigating the structure of atomic nuclei amongst other things

Ladies and Gentlemen! My colleague, Mr. Mecke, put me somewhat on the spot with his phone calls, because I was now in the difficult situation of having to prepare a lecture for an auditorium in front of which I was not accustomed to speak. I was not able on such short notice to draw up an adequate report from my research field, so I had no choice but ask Mr. Mecke for permission to reach into my desk drawer and largely base my lecture on the manuscript of a presentation I held a few weeks ago at the anniversary celebration of the Heidelberg Academy. I must therefore ask the physicists among you who attended the Heidelberg lecture to bear with me today should I mention too many trivialities. Back then I also thought it would be better to focus not so much on the newest facts and realizations that came to light over the last few years in the world of elementary particles, but instead to reflect on how these concepts were formed. And I find this to be a particularly impressive example of how all of our concepts in the field of physics, and not just the concepts, but also our ways of thinking, must constantly be corrected by and adapted to experience, and how little a priori knowledge has in fact remained in today’s description of nature. The topic I had chosen was “The change in meaning of the term ‘elementary particle’”, and this change in meaning is caused by the fact that in the development of coining terms in physics, it is common practice to keep outdated names and words, but at the same time to give them a different, more precise definition, and to free all of these thus used terms of subtle associations to the greatest extent possible. Naturally, I had to, when discussing such a topic, spend a large part of my lecture on what you could call historical observations. However, there are many reasons why I have to forego explaining the origin of the terms “element” and “particle” in ancient thinking, not least because we are short on time. Unfortunately also because I never had the fortune of receiving a classical humanistic education, which is why in spite of it all, my efforts to fully grasp the ways of thinking in ancient times remain those of an amateur. Terms such as particle or atom most likely arose from conclusions inferred by reflecting on very simple observations. Meaning that when you take apart complicated structures, e.g. when you break up a piece of fruit or a sacrificial animal, you will end up with individual parts that fundamentally differ from each other and also differ from the structure as a whole. Yet when you make a drop of mercury burst into smaller droplets, all of these droplets, apart from their size, appear to be completely identical to the original drop. That gave rise to the obvious question whether it was possible to continually perpetuate this division process and keep ending up with identical particles, or whether this division process ends when you reach minute, non-divisible particles, the atomoi. In the ancient world, the art of experimenting of course and most likely also the ability to formulate questions was not yet sophisticated enough to allow thinkers to actively test such questions. It was not until the second half of the previous century that scientists began to provide substantial answers, develop processes to count atoms, and particularly in the first half of this century, to determine their diameters. It might be helpful to point out that in the ancient world the conceptualization of atoms gave rise to some very peculiar speculations. Namely, if matter is supposedly made up of atoms, then these atoms must be separated from each other by a void. This question of emptiness kept resurfacing in antiquity, the question of how this “void”, the “pure nothingness” or the “non-existing” could possibly exist, meaning how it could be of importance to us, to the world that surrounds us. We will later see how modern-day physics has learned to give a very substantial and concrete and highly unexpected reply to this dilemma, if you would call it that. I have even less time to elaborate on the development that led to the modern term chemical element. It seems that in today’s concept of elementary particles, the term “elementary” is once again converging in a sense with ancient ways of thinking. I will also revisit this topic later on in my lecture. In my opinion, one of the fundamental, most important steps with regard to more precisely defining the concept of atoms in the physical understanding of matter took place in the age of Isaac Newton, and please allow me to read out some passages from his book entitled “Opticks” published in the year 1704. This is one of the few works he wrote in English. And in the roughly 60-page annex to this work, which he called “Queries”, Newton discusses a very large number of different phenomena, which we would nowadays assign to the field of physical chemistry, and then he summarizes his conclusions in a few sentences, which I - well, should I read them out in English – I could perhaps start by reading out the abridged translation, meaning the German version. So he discusses all of these facts, and then he continues as follows: massy, […] impenetrable, movable particles, […] as most conduced to the end for which he formed them; and that these primitive particles […] are incomparably harder than any porous bodies compounded of them; even so very hard, as to never wear or break in pieces; no ordinary power being able to divide what God made one in the first creation.” are to be placed only in the various separations and new associations and motions of those permanent particles.” Up to this point, these are still largely concepts adopted from ancient thinking. But then the great discoverer of celestial mechanics and the law of gravity has his say. I will have to read out this part in English. accompanied with such passive laws of motion as naturally result from that force, but also that they are moved by certain active principles.” That is what forces used to be called back then. And now comes the important sentence: He then explains this by emphasizing his opposition to the conventional understanding of his time, which still used the concept of “occult qualities” as adopted and passed on by scholasticism and the Renaissance. and to be the unknown causes of manifest effects […] uncapable of being discovered.” And then Newton continues as follows: which it acts and produces manifest effects, is to tell us nothing: but to derive two or three general principles of motion from phenomena, and afterwards to tell us how the properties and actions of all corporeal things follow from those manifest principles, would be a very great step in philosophy.” With these sentences, Newton, fully in line with his celestial mechanics, formulated a program which researchers in the field of physics systematically pursued in the subsequent centuries. Basically, just like gravitational forces act between inert celestial bodies, Newton’s “massy particles” also do not possess specific, inexplorable occult qualities that cause the variety of their behaviour, but that instead there are universal, explorable forces acting between them and determining their motion and their cohesion. Discovering these laws became the task of physicists researching matter. Newton himself, by studying the phenomena discussed above, had already concluded that the forces between atoms over a shorter distance should be much stronger than the gravitational forces, but that they rapidly become weaker the greater the distance becomes. Now, this diagram of matter is based on a dualism that is also characteristic of Newtonian celestial mechanics. We have, on the one hand, the massy atoms, on the other, the forces between them acting in the void, which determine the movement of the atoms, and thus a peculiar dualism, which in the previous century was described using keywords like force and matter, and was heavily discussed even in non-scientific literature. This dualism was resolved in a highly unexpected way around the turn of the century, on the one hand by Faraday’s field theory, and later by the concept of a complementary description of Nature developed by Born, Heisenberg and Bohr. And even though these things have already been mentioned here today, and will also be addressed tomorrow by much more qualified experts, I do have to quickly touch upon some aspects. Not until the 19th century did researchers ascertain that the forces Newton assumed acted between the atoms could be ascribed exclusively to the electromagnetic phenomena, and that we must therefore build on the terms derived from the art of experimentation and from the genius of Faraday and Maxwell, namely Faraday’s concept of force fields, which was certainly one of the most promising terms in physics. It was not until the start of this century, I believe, that this concept gradually gained acceptance on the continent, while the term “action at a distance” remained dominant under Neumann and Gauss for a long time. The basic principle, as you all know, is that an electrical charge does not act on another through a void, but instead acts via an agent, albeit not a material one in the traditional sense of the word. Namely, every charge must be understood as the source of an electrical force field that suffuses space, and that its effect can be detected by another charge. And yet this field must suffuse the space in reality, even when its presence cannot be detected by another charge at a particular moment. The most important finding of this experiment was that if one moves the source of such a field through space, more specifically accelerating it, then these fields can even become detached from their sources and travel through space and thereby - by studying this motion, it was also established that changes in the electrical fields are linked to changes in magnetic fields in the same location, and vice versa. However, this statement that these fields exist in reality, only made sense after showing new, verifiable physical consequences. These consequences emerged in the finding that the fields continually distributed in space carry both energy and momentum; properties that, up until the turn of the century, were commonly only ascribed to material particles. And, as you know, all of these consequences were proven by the discovery made by Heinrich Hertz and all of the scientific work that followed. That is how experience gained through experiments as perceived by the ancients turned the dichotomy of the filled, “to pleres”, and the void “to kenon”, into a picture of no-longer-material yet real fields existing everywhere in space, and their sources connected to atomic matter. However, as you all know and as we will hear tomorrow, this picture was subject to yet another fundamental change, this time initiated by Max Planck. That is because more subtle experiments showed that the electromagnetic fields travelling through space as waves do in fact transport energy and momentum in a quantum-like manner during certain experiments, and that at the same time these fields also showed traits hitherto commonly described solely in the corpuscular picture. Well, this conflict was long considered to be an irritating paradox, until the researchers mentioned earlier taught us to better adapt this term to the empirical world in the sense that both the concept of corpuscles and the concept of a space-filling field continuum are, on their own, not suitable for describing natural phenomena right down to the last detail. They are both necessary, both useful in the sense that they grow together as mutually limiting but also as complementary terms in a closed description of the phenomena. For this Bohr coined the term “complementary description of Nature”. As you know, since then it has also been the reverse, that not only the electromagnetic fields show corpuscular properties, but that precisely what we used to define as corpuscles, such as electrons, also possesses inherent field properties. Tomorrow you will hear more on this topic, so I can be brief. What I find peculiar is that these formulations of complementary description apparently appear more familiar and plausible to the younger generation of physicists than Newtonian celestial mechanics with its action at a distance, and that one keeps getting asked: For our purpose, now that I will be talking about the actual topic of this lecture – unfortunately 20 minutes later than planned – suffice it for us to note that whenever the subject of elementary particles is addressed in future, these particles are not only sources of force fields with reciprocal interaction, but that at the same time they themselves, in their function as elementary particles, also possess field properties as far as their laws of motion are concerned, and that these field properties are even dominant in suitable experiments. Furthermore, it does not matter whatsoever whether we are talking about elementary fields or elementary particles. They mean the same thing in Bohr’s sense of the word. I would now like to revisit the subject of atoms. Allow me to once again repeat the peculiar phrase in Newton’s work: If by “ordinary power” he meant the technical means available in his time, then he was certainly right. It was not until the end of the past century that researchers in the field of electrical engineering managed to harness electric voltage in a laboratory, such as the one that occurs between a storm cloud and the Earth, that we were forced to realize that the atom is not the last unit either, but that it in fact has a structure. And I heard that this very development was illustrated in an impressive manner just yesterday, so that I can once again be brief. We still electrons and about atomic nuclei to talk about, the volume of which is trillions of times smaller than that of the atom as a whole. Well, but that still means that the more than 100 chemical elements known today correspond to more than 100 different atomic nuclei. And today it seems natural to ask ourselves if these nuclei could possibly have a structure of their own and if they are comprised of elementary building blocks. And what is interesting is that long before the atomic hypothesis was experimentally consolidated, Prout, an English natural scientist and also highly renowned doctor, Prout put forth in the year 1850, albeit cautiously and using a pseudonym an essay presenting the hypothesis that – in fact two papers, published in 1815 and 1816 in the “Annals of Philosophy” – he hypothesized that all chemical elements are derived from a primitive substance which he called “prote hyle”. He supported his hypothesis by bringing up the apparently integer relations between atomic weights, which at that time were not yet precisely known. Now, as you know, this hypothesis has been fully confirmed. The first indication of a structure within the atomic nucleus was given to us by Nature itself, in the form of natural radiation discovered and studied in the 70 years ago by Becquerel and the Curies. But from experiments with electromagnetically accelerated particles we then learned that the atomic nucleus consists of two building blocks. One is the nucleus of the hydrogen atom, the proton. The other an electrically neutral particle with an almost identical mass, the neutron. And now we come to the point: Do we want to call the neutron an elementary particle? I still vividly recall in the first few years following the discovery of the neutron a wide-spread debate that came up during my university days: Is perhaps the neutron in fact made up of an electron and a proton? This was supported by the fact, after all experimental discrepancies were eliminated when determining mass, that the neutron was lighter than the proton. It was also seemingly supported by the fact that a neutron could also disintegrate into an electron and a proton. But then we learned, especially by studying artificial radioactivity, that the opposite can also occur. A proton can just as well turn into a neutron and a positron. It does not make sense to discuss whether a neutron is made up of an electron and a proton, or whether a proton is made up of a neutron and a positron. Instead, we need to say that in these disintegration processes, these new, meaning these light-weight particles, the electron, and, as you also know, I will soon revisit this topic, that the neutrino only really come into existence, are only really created in this act of decay. Accordingly, we can rightly consider the proton and the neutron as simply being two manifestations of one and the same particle, an elementary particle, of which one of these manifestations in unstable. During this decay, electrons are created in the same way as we always assumed, that light, meaning its quanta, the photons, are surely not present in a glowing body before they are emitted in the illumination. We have thus distanced ourselves quite a bit from the conceptualizations of elementary particles, because originally – which is why I quoted the Newtonian laws earlier – the stability was the primary feature traditionally associated with the concept of anything elementary. Later on we will see that there are particles that are much more short-lived than the neutron, which after all has a lifespan of 1000 seconds, and we would like to consider these particles as being elementary. The next step leading us away from the naïve concept of particles then made us come to the realization that we must ascribe certain intrinsic properties to the elementary particles if we wish to characterize them. This wording sounds at first, so - it is reminiscent of the occult qualities that Newton rebuked so strongly. We will however see that this is not the persuasion, but rather that these intrinsic properties can be very precisely defined, measured. Namely, apart from the electric charge, that distinguishes a proton from a neutron, we also need to attribute a size to these particles, as an intrinsic property. Namely one that can be dynamically characterized and that is described using the term spin in classic mechanics or electrodynamics, similar to the effect of a billiard ball. Without there being any point in saying that the particle really rotates in space. Because it is no longer possible to attach markers or something similar to these particles in order to observe any rotation. This is an external argument. The important thing is that the structure, the mathematical structure of these intrinsic properties, is such that this rotation principally cannot be observed. Incidentally, this intrinsic spin is pretty much the only characteristic of a neutrino, which I mentioned earlier in connection with beta decay. This uncharged particle without mass has such low interaction with the matter of which our measuring equipment is made up, that it could not be verified empirically until about ten years ago, even though Pauli had already proposed its existence back in 1930 in a famous letter addressed to his colleagues attending a session in Tübingen, so as to bring order into radioactivity-related phenomena, which were largely unexplained at that time. It is only thanks to the advances made in experimentation technology thereafter that it became possible to finally prove its real existence. Now, in the case of the neutrino, the intrinsic spin was pretty much the only characteristic of this elusive particle, which Pauli was able to positively predict - apart from the fact that it transported energy. Almost all other characterizations can only be expressed as negations. It has no mass, it has no charge, no electromagnetic effect, etc. And we could thus, with regard to the neutrino, allude to the slightly altered version of a verse penned by Christian Morgenstern: “It is a spin, nothing more.” The reason I have told you this is to highlight the different opinions on intrinsic properties. These intrinsic properties also made it subsequently possible to develop the concept of antiparticles, how the positron is the antiparticle of an electron. They can both, when joined, completely cancel each other out. All of the particles’ intrinsic properties disappear along with the particles themselves, and are replaced by the mechanical and energy-momentum, angular-momentum properties that now resurface in the emitted radiation thereby. These antiparticles are also created in pairs. I do not believe it is necessary to analyse the numerous, rather confusing accounts that have been portrayed in the media over the past few weeks following the discovery of the antideuteron, or the detection of the antideuteron. So these antiparticles of protons, first predicted by Dirac, were discovered roughly ten years ago by a group of researchers in Berkeley, and in the meantime there were many, many other particles, almost too many other particles, that would become hotly debated and now already had antiparticles. And the only possibly exciting thing about all of this is that two antiparticles were simultaneously created in the antideuteron, which requires a large amount of energy and momentum. And that the transfer of energy and momentum to these two particles, the created antiproton and antineutron, was such that they even stayed together and could move through the measuring apparatus as a deuteron. That they did not immediately break apart again into an antiproton and an antineutron. Yes, then let us move on to the main problem, namely that up until the mid-‘30s, the known building blocks of matter were the nucleon in its two manifestations, as well as the electron, which itself acted as a source of the electromagnetic field. Just like the charged forms of the nucleon. In addition, we knew of the quanta of electromagnetic radiation, the photons, and could finally rightly also define the neutrino as an elementary particle. Back then, the only problem that seemingly still needed to be solved was the question regarding the nature of forces that hold the protons and the neutrons together, and use these building blocks to form the nucleus. And scientists hypothesized that these forces do not in fact act at long distance between the nucleons, but that they are transmitted through a field instead. This hypothesis and all its consequences will be presented tomorrow by Mr. Yukawa. Researchers knew that these forces - or Yukawa also decided that these forces must be significantly stronger than the electromagnetic force when the nucleons are within close proximity of each other. And because of this short distance, it became necessary to finally ascribe a finite mass to the quanta of this new force field that was now expected to complete the picture of matter, around 1/7 of the nucleon mass. And Yukawa called the quanta of this field, which transfers the interaction of the nucleons, the “mesons”. And back then, physicists were actually convinced that by conducting experiments to study these mesons, these very quanta which could be created in sufficient numbers using the right accelerators, it would be possible to obtain all the needed information about the nuclear forces, and that they would thereby be able to truly complete the picture of the structure of matter. Now, as you know, these mesons were initially discovered at a location from where the universe itself sends us very highly energetic projectiles, in cosmic radiation. And I do not wish to elaborate on the slight confusion that existed with regard to correlating the particles discovered in this cosmic radiation with these quanta of nuclear forces. Many years later, it finally turned out that the particles scientists initially believed to be Pi mesons, the quanta of the nuclear force field, in the cosmic radiation were not Pi mesons at all, but in fact only still the decay product of this Pi meson. Yet later the Pi meson itself was also discovered in cosmic radiation, and I believe that the whole program in which physicists all over the world, as long as sufficient funds were available and other conditions were met, then began investing great efforts into building particle accelerators in the post-war years in order to study these mesons, it was founded on a firm belief: Once we know these mesons, we can then complete our picture of matter, we can then calculate all of the interactions, define them quantitatively, because in principle all chemical effects are described by quantum mechanics and electrodynamics. Looking back now, I am always reminded of a verse from Goethe’s Faust. When Faust journeys up the Brocken Mountain on Walpurgis Night and delivers the famous line: To which Mephistopheles icily replies: “But many a puzzle’s knotted so.” That was exactly the result of developing particle accelerators to experiment with radiation. Namely that in addition to this meson, the Pi meson, which was believed to be transmitted by the nuclear forces, it turned out that there was still a large, large number of other particles in Nature that we had now already seen under these conditions, some of them also in cosmic radiation, and that this opened up a whole new field of activity. First, back to the meson. As you know, the meson can exist as a neutral, as a positively and as a negatively charged meson. That is its simplest intrinsic property. Furthermore, experiments have clearly shown that it does not have an intrinsic spin. In contrast, it does have a different intrinsic property, which was initially a source of peculiar unease for the physicists conducting the experiments. Namely that these properties can simply be described not in terms of the particles, but in terms of the properties of the field corresponding to that particle. The Yukawian force fields. This is the so-called intrinsic parity. Allow me to use this opportunity to tell you a funny story about how, actually by a hair’s breadth, if Dirac had been right about his hypothesis that free magnetic monopoles could possibly exist, if he had been right or perhaps even is right, that this question of the intrinsic parity of particles then really was already present in the classical physics of fields and their sources. Namely the magnetic pole, the pole, not the dipole, but the pole, must have an opposing intrinsic parity, such as the electric elementary charge. Because you all know that in the case of parity transformations, the magnetic field reacts differently than the opposing like the electrical field. Furthermore, you know that magnetic dipoles react like the magnetic fields. Meaning that their plus/minus sign does not change when transitioning from the right-handed to the left-handed coordinate system. Yet if you consider the dipole a position vector and multiply it with the pole strength, then you will see that the sign of the position vector changes, meaning that the sign of the magnetic monopole must also change when transitioning from the right-handed to the left-handed coordinate system. So, basically, all of this would have already been present in classical electrodynamics if there had been not only magnetic dipoles but also magnetic poles. Now, we were forced to ascribe this property to the Pi meson. That, too, had to behave like a magnetic monopole would have to behave. And in turn imposed by a series of experiments, the details of which I cannot go into at this time. So as I said, another one of the setbacks with regard to structuring the concept of elementary particles is the meson’s short lifespan. Of this quantum that transmits the nuclear forces, namely, it has nothing to do with the nuclear forces. It has nothing to do with the interactions with the nucleons, that it can decay again. A neutral one decays within 10^-16 seconds when exposed to hard x-rays. A charged meson has a lifespan of 10^-8 seconds and, strangely enough – and this is where the confusion starts – it has two possible forms of decay. Namely very rarely: in one in ten million of all cases, almost in one in one hundred million of all cases, the end product is not an electron and a neutrino. And otherwise, in the vast majority of cases, the end product is either a particle itself, that in many, many respects behaves exactly like an electron and has a mass that is only 207 times greater, but can in turn decay into an electron and a neutrino and an antineutrino. This intermediate product, the Mu meson, surely remains one of the most mysterious particles, and one of our most difficult tasks is to understand its role in the plan of creation. I don’t know, Mr. Heisenberg might disagree somewhat. It did reach a factor of 207. Yet as I just said, apart from this Mu meson puzzle, the hopes in line with the Newtonian program of now using the electron of the neutrino and the Pi meson to obtain all the data needed to complete the picture of matter did not come true, because it brought up refined forms of experimentation and so many other particles. What was very peculiar was that the first - or rather, what was very remarkable was that the first of these new particles was not in fact detected using artificial accelerators, but by a Manchester-based group studying cosmic radiation. most of them not in the bubble chamber but in the Wilson chamber. And then Butler and his colleagues from the Blackett group in Manchester were the first to observe cases in which either a charged particle or an uncharged, high-energy particle collided with a nucleus and underwent a nuclear transformation, yet then at a certain distance (though apparently in direct correlation), they also detected traces of two charged particles, one proton and one Pi meson, for example. And if you take the total momentum carried by these two particles and extend it backwards, you would end up exactly at the centre of this reaction. This shape is the reason, hmm, I should have drawn this diagram the other way around, why these particles are called V particles. Just to give it a name to work with. I still remember very clearly that I happened to take part in a seminar in Pasadena, at which Anderson’s colleagues, or people from Anderson’s group in Pasadena, had systematically studied the generation of these particles and the relative frequency with which this group of particles, which leaves such a V-shaped trace, was detected in predefined conditions, such as known intensities of cosmic radiation, known material thickness, in which these particles can be produced, etc. And I remember so very vividly how Feynman, a very temperamental man, would suddenly leap up and say: And this process of creation had to be triggered by nucleons or available Pi mesons interacting in such a way as to create such an uncharged particle, which in turn could then decay into a Pi meson and a proton. And that brings us to the following: If these particles could have disintegrated into a proton and a Pi meson, then the probability of their creation would have to be determined by the decay rate. That was the assumption. Then it turned out, however, that they are created so frequently, that if you were to conversely calculate the decay rate, the particle would already have to decay up here in the nucleus and not travel a long distance of several centimetres. Feynman was extraordinarily temperamental and exclaimed: “This is impossible!” It is simply inconsistent. Then there was a long discussion – I mean, of course Feynman was not the only one to voice this opinion – that lasted almost six months, as far as I know, until Pais suggested completely decoupling this decay process from the creation process by means of a very peculiar postulation, which, however, later proved to be completely true. Namely, occasionally there were other, not one, but two such scenarios, in which the second particle would decay into Pi+ and Pi-, for example. Once again a second V particle, which did not decay into a proton and a pion, however, but into two pions. And Pais was the first to formulate the hypothesis that the creation process is perhaps coupled to a specific condition, that these two particles must always be created in pairs. That, if they were together, they could still meet again, that they could destroy each other again Yet once they are created, they drift far apart, so these are two different types of particles that do not find a partner with whom they could fulfil this condition of interacting in pairs in order to decay again, so that the decay is completely decoupled from the creation process. And then it is probably typical for modern-day physics to take a close look at this postulation. These particles were eventually named V particles, or later it was turned around and they were called Lambda particles, so particles that are always neutral and decay into a least a proton. And the other particle was called a K particle. In this case K0, that can only decay into particles that do not have a spin, or ultimately into light quanta. So that the total spin is an integer, in any case. Now, it is typical that scientists immediately tried quantitatively expressing the phrase: And it was one of Mr. Heisenberg’s colleagues, Nishima, or at least a temporary colleague of Mr. Heisenberg, as well as Gell-Mann in Pasadena who said that if this is supposed to be such a clearly formulated principle, then we could probably characterize this law with another property that is intrinsic to all elementary particles; we could give them simple numbers, positive and negative. So that the common particles that we already know of, that have this intrinsic property, which was named “strangeness” which is selected in such a way that it is first of all an integer, positive or negative for all hitherto known particles, for the protons, for the pions, for the nucleons this strangeness should be equal to zero. And then comes a random assignment, for example by giving this particle a strangeness of -1 and this other particle a strangeness of +1, so that a law of conservation applies to such intrinsic properties, just like there is a law of conservation for the charges. In the meantime, if the null is slightly shifted, this intrinsic property is often directly characterized as a hypercharge. Now, I fear I am almost out of time, and it turns out that among these different, frequently studied, newly discovered particles, with regard to these two new intrinsic quantum numbers that, on the one hand, by the parity, the transformation behaviour of the fields or the assigned particles when transitioning from a right-handed to a left-handed coordinate system, and secondly by this peculiar quantum number, the strangeness, one would end up with a schematic outline into which you could initially insert all the reactions in such a way that no internal contradictions arise. No internal contradictions of the sort that I characterized earlier, and which Feynman reacted to in a truly distinctive way by exclaiming: that is by no means an occult quality any longer. Well, I could go on and on in this vein. So there are meanwhile particles that need to be characterized using such quantum numbers This means that we now have a large number of elementary particles, a number that is now almost as large as the number of chemical elements known at the turn of the century, but which, using these few terms that can be formulated so precisely, can already be organized in a classification scheme in a manner similar to the first attempts at classifying chemical elements. There is hope that by using these terms, as well as this classification scheme now (which is still largely qualitative in nature), it will become possible to make some quantitative predictions about the relative frequency with which this or that particle is created when one bombards a nucleus with a particular type of particle, etc. This means that thanks to the theorem of nucleons and antinucleons, we got rid of the diversity of nuclei, yet all of these forces between the particles, also between the nucleons, that make up the nucleus are not only determined by the this force field, the Yukawian pion force field, but also by the abundance of force fields that all correspond to these “strange particles”. These forces are, furthermore - first I would like to point out that precisely with this concept of complementarity, that there are always particles, that forces act between the particles, that these forces, according to our program, are apparently transmitted through fields, yet that these fields have quanta, and that these quanta lead to the creation of new particles between which interactions can once again exist, so that this could lead to an infinite regress. Now, the fact that very strong interactions do in fact also exist between the pions themselves, meaning between the Pi mesons themselves, and also between the strange particles, has been experimentally verified. Especially since it is possible to temporarily create conditions which later However, in accordance with the energy- and momentum principle, it is possible to subsequently say with certainty that, temporarily, these pions were once particles. If they only break apart as pions, then that must have therefore been caused by forces present between the pions. So these forces do exist. It could therefore be feared that now there is no stopping it. These forces must be transmitted through fields again and again, these fields contain quanta, and there are forces between these quanta. And this is precisely the point of the matter, namely that in Bohr’s concept of complementarity, the possibility of closing this regress in itself already exists. Because among the numerous particles discovered this way, there are always already some whose assigned fields can transmit the effect between other particles. And that is why it is not necessary for this regress, this search for new particles, to be infinite. In addition perhaps we should also embrace the tradition of the Ionian natural philosophers, the new way in which questions were formulated back then in the Ionian Age. Unfortunately, I can, there are, among other things, philological barriers that lie before me So now, naturally we cannot adopt these early Ionian answers, meaning the various answers provided by the Ionian natural philosophers. Nevertheless, their dream has remained alive everywhere in physics, especially in light of the abundance of particles, searching for the primitive field, which would help us understand all these other fields according to one unified principle. But I will leave it to the more qualified people present here today to talk about that topic in more depth.

Meine Damen und Herren! Herr Kollege Mecke hatte mich mit seinen Telefonanrufen etwas in Verlegenheit gebracht, weil ich jetzt in die schwierige Situation kam, auf Abruf einen Vortrag zu präparieren für ein Auditorium, vor dem ich zu sprechen nicht gewohnt bin. Es war mir nicht möglich, in der kurzen Zeit noch einen vernünftigen Bericht aus meinem eigenen Arbeitsgebiet zu geben und es blieb mir nichts anderes übrig als von Herrn Mecke die Erlaubnis zu erbitten, dass ich in die Schublade griff und meinen Vortrag im Wesentlichen basieren möchte auf ein Manuskript eines Referats, das ich vor einigen Wochen anlässlich der Jahresfeier der Heidelberger Akademie gehalten habe. Ich muss also deshalb die entsprechend dem Hörerkreis damals anwesenden Physiker um Nachsicht bitten, wenn ich gar so viele triviale Dinge erzähle. Damals hatte ich auch gedacht, es sei nützlicher nicht so sehr auf die letzten, in den letzten Jahren gewonnenen neuen Fakten und Einsichten aus der Welt der Elementarteilchen einzugehen, sondern ein bisschen die Besinnung pflegen, wie eigentlich diese Begriffsbildungen zustande gekommen sind. Und ich glaube, darin liegt ein besonders eindrucksvolles Beispiel, wie sehr alle unsere Begriffsbildungen in der Physik ständig, nicht nur die Begriffsbildungen, sondern sogar auch unsere Denkweisen, an der Erfahrung korrigiert werden müssen und an die Erfahrung angepasst werden müssen, und wie wenig Apriorisches in unserer heutigen Naturbeschreibung verblieben ist. Ich hatte das Thema gewählt "Bedeutungswandel des Begriffs 'Elementarteilchen'", und dieser Bedeutungswandel wird verursacht durch einen allgemeinen Gebrauch in der Entwicklung des physikalischen Begriffssystems, zwar überkommene Namen und Worte beizubehalten, diesen aber meist einen veränderten, vor allem präzisierten Sinn beizulegen und alle diese so benutzten Begriffe möglichst von unterschwelligen Assoziationen zu befreien. Naturgemäß musste ich bei dieser Diskussion einen größeren Teil des Vortrags mit fast historischen Betrachtungen einräumen. Allerdings muss ich mir aus vielen Gründen versagen, auf die Entstehung der Begriffe "Element" und "Teilchen" im antiken Denken einzugehen, schon der Zeit halber. Leider aber auch, weil ich nicht das große Glück hatte, die Schulung eines humanistischen Gymnasiums zu erfahren und deshalb in all meinen Bemühungen in die Denkweise der Antike einzudringen, doch ein Dilettant geblieben bin. Der Begriff des Teilchens oder des Atoms ist wohl aus Überlegungen entstanden, die durch sehr einfache Beobachtungen nahegelegt wurden. Nämlich bei der Teilung komplizierterer Strukturen, z.B. dem Zerlegen einer Frucht oder eines Opfertieres, gelangt man zu Teilen, die wesentlich von einander und vom Ganzen verschieden sind. Wenn man dagegen einen Quecksilbertropfen zerspringen lässt in kleinere Tröpfchen, so sind allem Anschein nach diese Tröpfchen, abgesehen von ihrer Größe, dem Ausgangstropfen völlig gleich. Es war eine naheliegende Frage, ob man in solchen Fällen den Teilungsprozess immer weiter fortsetzen könne und immer wieder zu gleichartigen Teilchen komme oder ob diesem Teilungsprozess durch kleinste, nicht weiter teilbare Teilchen den Atomoi eine Grenze gesetzt sei. In der antiken Welt war natürlich die Experimentierkunst und auch wohl die Fragestellung nicht weit genug entwickelt, um solche Fragen durch tätiges Nachprüfen zu entscheiden. Das war der zweiten Hälfte des vorigen Jahrhunderts vorbehalten hierauf zuerst gegenständliche Antworten zu geben, Verfahren zu entwickeln, die Atome zu zählen und vor allen Dingen in der ersten Hälfte unseres Jahrhunderts auch ihre Durchmesser zu bestimmen. Vielleicht ist es doch aber nützlich darauf hinzuweisen, dass die Atomvorstellung in der antiken Welt Anlass zu sehr merkwürdigen Spekulationen gab. Nämlich, wenn die Materie aus Atomen aufgebaut sein soll, so müssten diese durch den leeren Raum getrennt sein. Diese Frage des Leeren hat dann die ganze Antike immer wieder beschäftigt, nämlich, wie sollte dieses "Leere", das "reine Nichts" oder das "nicht Seiende" existieren, das heißt für unsere, uns umgebende Welt, bedeutsam sein können? Wir werden später sehen, wie die heutige Physik zu diesem Dilemma, wenn man es als solches ansprechen will, etwas sehr wesentliches und konkretes und sehr unerwartetes zu sagen gelernt hat. Noch weniger kann ich eingehen auf die Entwicklung, die zu dem heutigen Begriff des chemischen Elements geführt hat. In der heutigen Vorstellung von Elementarteilchen hat sich der Sinn des Begriffs "Elementar-" wohl in gewisser Hinsicht antiken Gedankengängen wieder genähert. Auch darauf werde ich zurückkommen. Ein wie mir scheint ganz fundamentaler, wichtiger Schritt zur Präzisierung der Atomvorstellung im physikalischen Bild von der Materie geschah im Zeitalter Isaac Newtons, und ich möchte Sie bitten, mir zu erlauben, dass ich Ihnen einige Sätze vorlese aus der im Jahre 1704 erschienenen "Opticks". Das ist eins der wenigen Werke, das er in englischer Sprache verfasst hat. Und in dem Anhang dieses Werks, "Queries" genannt, diskutiert Newton zunächst auf etwa 60 Seiten eine ganz große Zahl verschiedener Phänomene, die wir alle heute in die physikalische Chemie rechnen würden, und dann fasst er seine Ergebnisse in ein paar Sätzen zusammen, die ich ich kann es vielleicht zunächst in abgekürzter Übersetzung, also zunächst das Deutsche sagen. Also er diskutiert all diese Tatsachen und fährt fort: dass Gott im Anfang die Materie als massive, undurchdringliche aber bewegliche Teilchen schuf, als am besten seinen Absichten entsprechend, und dass diese Urteilchen unvergleichlich härter sind als alle aus ihnen ausgebauten Körper, so hart, dass sie niemals verschleißen können ("to wear"), oder in Stücke brechen, und dass keine gewöhnliche Macht imstande ist, das zu teilen, was Gott im Anfang als Eines schuf." neuen Zusammenballungen und Bewegungen dieser beständigen Urteilchen zurück zu führen." Das sind bis dahin noch im Wesentlichen aus der Antike übernommene Vorstellungen. Aber dann spricht der große Entdecker der Himmelsmechanik und des Gravitationsgesetzes. Jetzt müsste ich aber englisch lesen. accompanied with such passive laws of motion as naturally result from that force, but that they are moved by certain active principles." Das ist die damalige Bezeichnung für Kräfte. Und dann kommt der wichtige Satz: Und zur Erläuterung betont er dann seinen Gegensatz zur konventionellen Auffassung seines Zeitalters, die noch die durch Scholastik und Renaissance übernommenen und weitergereichten Vorstellungen der verborgenen Qualitäten benutzten. but to be - seine Zeitgenossen - supposed these qualities to lie hid in the bodies and to be the unknown causes of manifest effects uncapable of being discovered." Und dann fährt Newton fort: and produces manifest effects, is to tell us nothing: But to derive two or three general principles of motion from the phenomena, afterwards to tell us how the properties and actions of all corporal things follows from those manifest principles, would be a very great step in philosophy." Mit diesen Sätzen hat Newton ganz im Sinne seiner Himmelsmechanik ein Programm formuliert, dem die physikalische Forschung in den folgenden Jahrhunderten systematisch nachgegangen ist. Nämlich wie zwischen den mit Masse, d.h. trägheitsbehafteten Himmelskörpern, die Gravitationskräfte wirkten, so sollen auch Newtons "massy particles" nicht etwa mit spezifischen okkulten, unerforschlichen Qualitäten begabt sein, die die Vielfalt ihres Verhaltens verursachen, sondern zwischen ihnen sollen universelle erforschbare Kräfte wirken, die ihre Bewegung und den Zusammenhalt determinieren. Dem Aufsuchen dieser Gesetze galt die physikalische Erforschung der Materie der Folgezeit. Schon Newton schloss aus vielen von den anfangs diskutierten Phänomenen, dass die Kräfte zwischen den Atomen bei kleiner Entfernung viel stärker seien müssten als die Gravitationskräfte, aber mit zunehmendem Abstand rasch abfallen. Nun, diesem Bild von der Materie liegt ein Dualismus zugrunde, der auch für die Newtonsche Himmelsmechanik charakteristisch ist. Wir haben einerseits die mit Masse behafteten Atome, andererseits die zwischen ihnen durch den leeren Raum wirkenden Kräfte, welche die Bewegung der Atome bestimmen, und damit einen merkwürdigen Dualismus, der im vorherigen Jahrhundert durch Schlagworte wie Kraft und Stoff, was ja auch in der nichtwissenschaftlichen Literatur viel diskutiert wurde. Dieser Dualismus wurde aufgelöst in sehr unerwarteter Weise, gegen die Jahrhundertwende, einerseits durch Faradays Feldbegriff und dann später der Born-Heisenberg-Bohrschen Konzeption der komplementären Naturbeschreibung. Und obwohl bereits von diesen Dingen die Rede war heute und auch aus vielberufenerem Munde Sie morgen davon hören werden, müsste ich doch ganz kurz auf ein paar Punkte eingehen. Erst im 19. Jahrhundert wurde sichergestellt, dass die von Newton vermuteten zwischen den Atomen wirkenden Kräfte ausschließlich auf die elektromagnetischen Erscheinungen zurückgeführt werden können und dementsprechend wir anknüpfen müssen an die Begriffsbildungen, die sich an die Experimentierkunst und dem Genie Faradays und Maxwell anknüpften, nämlich die Faradaysche Konzeption des Kraftfeldes, die wohl eine der zukunftsträchtigsten Begriffsbildungen der Physik war. Erst zu Beginn des Jahrhunderts, glaube ich, hat sie sich erst auf dem Kontinent überhaupt durchgesetzt, während der Begriff der Fernwirkung noch lange unter der Autorität von Neumann und Gauss dominierte. Der Grundgedanke ist, wie Sie alle wissen, dass eine elektrische Ladung auf eine andere nicht durch den leeren Raum wirkt, sondern dass die Wirkung durch ein Agens vermittelt wird, das zwar nicht im überkommenden Sinn materiell ist. Nämlich jede Ladung ist als Quelle eines elektrischen Kraftfeldes aufzufassen, das den Raum durchflutet und wieder durch eine andere Ladung in seiner Kraftwirkung wahrgenommen werden kann. Aber dabei soll das Feld den Raum realiter erfüllen und vorhanden sein auch dann, wenn seine Anwesenheit nicht gerade durch eine andere Ladung aufgewiesen wird. Das wichtigste Ergebnis der experimentellen Untersuchung war, dass wenn man dann eine Quelle eines solchen Feldes durch den Raum bewegt, und zwar beschleunigt bewegt, dass dann sogar diese Felder sich von ihren Quellen ablösen können, durch den Raum wandern und dabei - bei dem Studium dieser Bewegung wurde ferner festgestellt, dass Änderungen der elektrischen Felder mit Änderungen magnetischer Felder am gleichen Ort verknüpft sind und viceversa. Nun aber diese Aussage, dass diese Felder realiter vorhanden sind, bekommt erst einen Sinn durch die Aufweisung neuer nachprüfbarer physikalischer Konsequenzen. Diese Konsequenzen ergaben sich in der Feststellung, dass die kontinuierlich im Raum verteilten Felder zugleich Träger von Energie und Impuls sind, Eigenschaften, die man bis in die Jahrhundertwende nur materiellen Teilchen zuzuschreiben gewohnt war. Und, wie Sie wissen, sind alle diese Konsequenzen durch die Entdeckung von Heinrich Hertz und alles was sich daran anschloss nachgewiesen worden. So hat sich wirklich durch experimentelle Erfahrung der von den Alten so viel besprochene Gegensatz des Vollen, "to pleres" und des Leeren, "to kenon" in das Bild von überall im Raum vorhandenen, zwar nicht mehr materiellen aber doch realen Feldern, und ihren an atomarer Materie verhafteten Quellen aufgelöst. Aber, wie Sie auch alle wissen und wie wir auch morgen wieder hören werden, erfuhr dieses Bild eine weitere, durch Max Planck eingeleitete tiefe Wandlung. Denn die subtileren Experimente ergaben, dass die als Wellen durch den Raum wandernden elektromagnetischen Felder doch den Energie- und Impulstransport bei gewissen Experimenten in quantenhafter Weise vollziehen und dass die Felder zugleich Züge zeigten, die man sonst ganz im korpuskularen Bilde zu beschreiben gewohnt war. Nun, dieser Konflikt wurde lange als quälendes Paradoxon empfunden, bis wir von den genannten Forschern lernten, diese Begriffsbildung der Erfahrungswelt besser anzupassen in dem Sinne, dass beides, die Vorstellung von Korpuskeln oder von raumerfüllendem Feldkontinuum, jedes für sich nicht geeignet sind, das Naturgeschehen bis ins Kleinste zu beschreiben. Sie sind beide notwendig, beide brauchbar in dem Sinn, dass sie als einander wechselseitig begrenzende aber auch ergänzende Begriffe in einer geschlossenen Darstellung der Phänomene zusammenwachsen. Dafür prägte Bohr eben den Namen "Komplementäre Naturbeschreibung". Sie wissen, dass seither auch umgekehrt, nicht nur die elektromagnetischen Felder Korpuskeleigenschaften zeigen, sondern dass auch das, was wir zunächst als Korpuskeln zu beschreiben gewohnt waren, z.B. die Elektronen, eben auch inhärente Feldeigenschaften haben. Morgen werden Sie mehr davon hören und ich darf mich mit diesem Hinweis begnügen. Merkwürdig ist, dass der jüngeren Physiker-Generation diese Formulierungen der komplementären Beschreibung offensichtlich schon fast geläufiger und eher einleuchtender erscheint als die Newtonsche Himmelsmechanik mit ihren Fernwirkungen und dass man immer wieder gefragt wird: Warum habt ihr euch damals in den 30iger Jahren so viel Sorgen und Gedanken gemacht, dass das alles nicht anschaulich sei? Für unsere Zwecke, wenn ich jetzt zum eigentlichen Thema des Vortrags komme - leider nach 20 Minuten erst - wollen wir nur festhalten, dass wenn weiterhin von Elementarteilchen die Rede sein soll, zugleich immer unterstellt ist, dass diese Teilchen nicht nur Quellen von Kraftfeldern sind, die die Wechselwirkung untereinander vermitteln, sondern dass sie selber als Elementarteilchen zugleich in ihren Bewegungsgesetzen Feldcharakter haben, der bei geeigneten Experimenten sogar dominiert. Es ist also völlig gleichgültig, ob wir von Elementarfeldern oder von Elementarteilchen reden. Wir meinen dasselbe in dem Bohrschen Sinne. Nun, um nochmal auf die Atome zurückzukommen, lassen Sie mich noch einmal auf den merkwürdigen Satz bei Newton hinweisen Wenn er damals mit "ordinary power" die seinerzeit zugänglichen technischen Hilfsmittel meinte, dann hatte er durchaus recht. Erst als es gegen Ende des vorigen Jahrhunderts der Elektrotechnik gelang, solche elektrischen Spannungen ins Labor zu bannen, wie sie etwa zwischen der Gewitterwolke und der Erde bestehen, mussten wir feststellen, dass das Atom auch keine letzte Einheit ist sondern eine Struktur besitzt und, wie ich erfahre, ist gerade darüber gestern in so eindrucksvoller Weise berichtet worden, sodass auch dort ich mich kurz fassen kann. Wir haben die Elektronen vor uns und die Atomkerne, die dem Volumen nach Billionen mal kleiner sind als die Atome als Ganzes. Nun, dann entsprechen aber immer noch den heute mehr als 100 bekannten chemischen Elementen einmal über 100 verschiedene Atomkerne. Und heute erscheint es uns als eine naheliegende Frage, ob nicht diese Kerne selbst wieder eine Struktur besitzen und aus elementareren Bausteinen konstituiert sind und es ist interessant, dass lange vor der experimentellen Konsolidierung der Atomhypothese Prout, ein englischer, auch als Naturforscher hoch angesehener Arzt, sprach Prout in den Jahren 1850 in einem allerdings vorsichtig unter einem Pseudonym veröffentlichten Aufsatz die Hypothese aus, dass - und zwar sind es zwei Aufsätze, 1815 und 1816, in den "Annals of Philosophy" - dort sprach er die Vermutung aus, dass alle chemischen Elemente aus einem Urstoff aufgebaut seien, dem er den Namen "prote hyle" gab. Als Argument zugunsten der Hypothese führte er damals die nicht sehr präzise bekannten, anscheinend ganzzahligen Relationen zwischen Atomgewichten an. Nun, wie Sie wissen, hat sich diese Hypothese völlig bestätigt. Den ersten Hinweis auf eine Struktur des Atomkerns hat uns die Natur selber gegeben, in den vor 70 Jahren durch Becquerel und das Ehepaar Curie entdeckten und studierten Erscheinungen der natürlichen Radioaktivität. Dann aber aus Experimenten mit elektromagnetisch beschleunigten Teilchen haben wir gelernt, dass der Atomkern aus zwei Bausteinen besteht. Der eine ist der Kern des Wasserstoffatoms, das Proton. Der andere das in der Masse fast gleiche elektrisch neutrale Teilchen, das Neutron. Und jetzt kommt der Punkt: Wollen wir das Neutron ein Elementarteilchen nennen? Ich erinnere mich noch gut aus den ersten Jahren nach der Entdeckung des Neutrons, zu meiner Studienzeit, als eine große Diskussion ging: Ist vielleicht das Neutron nicht doch aus Elektron und Proton zusammengesetzt? Dafür sprach die Tatsache, nachdem allerlei experimentelle Unstimmigkeiten in den Massenbestimmungen beseitigt waren, nach denen das Neutron leichter war als das Proton. Dafür schien die Tatsache zu sprechen, dass das Neutron auch zerfallen konnte in Elektron und Proton. Dann aber lernten wir, vor allen Dingen durch das Studium der künstlichen Radioaktivität, dass auch das Umgekehrte passieren kann. Es kann sich genauso gut das Proton in ein Neutron und in ein Positron umwandeln. Es hat gar keinen Sinn davon zu sprechen, ob nun etwa das Neutron aus Elektron und Proton, oder ob das Proton aus Neutron und Positron zusammengesetzt ist. Vielmehr müssen wir sagen, dass bei diesen Umwandlungsprozessen diese neuen, also diese leichten Teilchen, das Elektron und, wie Sie auch wissen, ich komme gleich noch darauf zurück, das Neutrino wirklich erst entstehen, wirklich erzeugt werden in dem Akt der Umwandlung. Dementsprechend können wir mit gutem Recht das Proton und das Neutron einfach als zwei Erscheinungsformen eines Teilchens, eines elementaren Teilchens ansehen, wovon die eine Erscheinungsform instabil ist. Bei der Umwandlung entstehen die Elektronen ebenso, wie wir eigentlich immer unterstellt hatten, dass das Licht, also ihre Quanten, die Photonen, sicher nicht in einem glühenden Körper vorhanden sind, bevor sie im Aufleuchten emittiert werden. Damit haben wir uns von den Vorstellungen eines Elementarteilchens weit entfernt, denn ursprünglich - deshalb habe ich gerade die Newtonschen Gesetze zitiert - war sicher die Beständigkeit das wesentlichste Merkmal, das man ursprünglich mit der Vorstellung elementar verknüpfte. Nachher werden wir sehen, dass es noch viel kurzlebigere Teilchen als das Neutron gibt, das immerhin eine Lebensdauer von 1000 Sekunden hat, die wir doch gerne als elementar ansprechen möchten. Einen weiteren Schritt von dem naiven Teilchenbilde weg führte dann die Erkenntnis, dass wir den elementaren Teilchen zu ihrer Charakterisierung gewisse innere Eigenschaften zuschreiben müssen. Das klingt zunächst in der Wortwahl fast so - hier klingen die verborgenen Qualitäten an, die Newton so gerügt hat. Wir werden aber sehen, dass das nicht die Meinung ist, sondern dass die inneren Eigenschaften ganz scharf präzisierbar sind, messbar. Nämlich neben der elektrischen Ladung, durch die sich eben das Proton vom Neutron unterscheidet, müssen wir diesen Teilchen zunächst auch eine Größe beilegen, als innere Eigenschaft. Nämlich die dynamisch charakterisierbar ist und die in der klassischen Mechanik oder Elektrodynamik auch durch einen Drall beschrieben wird, so wie das Effet bei einer Billardkugel. Ohne dass es irgendeinen Sinn hätte, davon zu sprechen, dass das Teilchen wirklich im Raume rotiert. Nämlich an diesen Teilchen kann man nicht mehr Markierungen anbringen oder so etwas, um eine Rotation zu beobachten. Das ist ein äußerliches Argument. Das Wichtige ist, dass die Struktur, die mathematische Struktur dieser inneren Eigenschaften gerade so ist, dass diese Rotation prinzipiell gar nicht beobachtet werden kann. Übrigens ist dieser innere Drall fast das einzige Merkmal des Neutrinos, was ich schon im Zusammenhang mit dem Beta-Zerfall nannte. Dieses ungeladene massenlose Teilchen hat eine so geringe Wechselwirkung mit der Materie, aus denen unsere Messapparaturen aufgebaut sind, dass es sich bis vor etwa zehn Jahren dem experimentellem Nachweis entzogen hatte, obgleich Pauli seine Existenz bereits 1930 vorgeschlagen hatte in einem berühmten Brief an seine in Tübingen tagenden Kollegen, um Ordnung in die damals weitgehend ungeklärten Phänomene der Radioaktivität zu bringen. Erst den seitherigen Fortschritten der Experimentiertechnik ist schließlich der Nachweis seiner realen Existenz gelungen. Nun, bei dem Neutrino war der innere Drall, meist mit dem englischen Namen "intrinsic spin" bezeichnet, eigentlich die einzige Eigenschaft dieses so schwer fassbaren Teilchens, welche Pauli positiv vorhersagen konnte fast alle anderen Charakterisierungen konnten nur als Negation ausgesprochen werden. Es hat keine Masse, es hat keine Ladung, überhaupt keine elektromagnetische Wirkung usw. Und man kann dann auch heute noch in leichter Abwandlung eines Morgensternschen Verses vom Neutrino sagen: Ich habe das nur erzählt um klar zu machen, was die Meinungen bei diesen inneren Eigenschaften sind. Diese inneren Eigenschaften haben dann auch die Konzeption der Antiteilchen ermöglicht, wie das Positron das Antiteilchen des Elektrons ist. Beide können sich in der Vereinigung völlig aufheben. Alle inneren Eigenschaften der Teilchen verschwinden mit den Teilchen und stattdessen entstehen, jetzt kommen die mechanischen und Energieimpuls-, Drehimpulseigenschaften dann in der dabei emittierten Strahlung wieder zutage. Diese Antiteilchen werden auch paarweise erzeugt. Ich glaube, es ist nicht nötig, auf die vielen etwas verwirrenden Darstellungen der Presse einzugehen, die gerade in den letzten Wochen durch die Entdeckung des Antideuterons oder den Nachweis des Antideuterons entstanden sind. Diese Antiteilchen sind, zuerst von Dirac prophezeit, also für die Protonen vor etwa zehn Jahren durch eine Gruppe von Forschern in Berkeley entdeckt worden und inzwischen gab es von vielen, vielen anderen Teilchen, schon zu vielen anderen Teilchen, von denen noch die Rede sein wird, bereits Antiteilchen. Und das einzige vielleicht Aufregende ist, dass man im Antideuteron zwei Antiteilchen simultan erzeugt hat, wozu im Allgemeinen also ein großer Energie- und Impulsaufwand nötig ist. Und dass die Energie- und Impulsübertragung an diese beiden Teilchen, die beiden erzeugten Antiproton/Antineutron, so war, dass die sogar beisammen blieben und sich als Deuteron durch die Messapparaturen bewegen konnten. Dass sie nicht sofort wieder in Antiproton und ein Antineutron auseinander platzten. Ja, dann kommen wir eigentlich zu dem Hauptproblem, nämlich, dass bis um die Mitte der 30iger Jahre eben die bekannten Bausteine der Materie, das Nukleon in seinen beiden Erscheinungsformen war, dazu das Elektron, das selbst wiederum als Quelle des elektromagnetischen Feldes wirkte. Ebenso wie die geladenen Formen des Nukleons. Dazu kannten wir die Quanten der elektromagnetischen Strahlung, die Photonen, und konnten diese auch in gutem Sinn, und schließlich noch das Neutrino als Elementarteilchen bezeichnen. Damals schien das einzige noch zu lösende Problem jetzt die Frage nach der Natur der Kräfte, die Protonen und die Neutronen beisammen hielten und aus diesen Bausteinen den Kern aufbauten, und es war zu vermuten, dass diese Kräfte eben wieder nicht als Fernwirkung zwischen den Nukleonen agierten, sondern dass sie durch ein Feld vermittelt wurden. Diese Hypothese in allen ihren Konsequenzen wurde von Herrn Yukawa, den Sie morgen hören werden, ausgesprochen. Man wusste, dass diese Kräfte - oder Yukawa beschloss auch, dass diese Kräfte sehr viel stärker sein mussten, als die elektromagnetischen bei nahen Entfernungen der Nukleonen. Und wegen ihrer kurzen Reichweite musste man den Quanten dieses neuen Kraftfeldes, das jetzt das Bild der Materie abrunden sollte, eben eine endliche Masse zuschreiben, etwa 1/7 der Nukleonenmasse. Und Yukawa nannte diese Quanten dieses Feldes, das die Wechselwirkung der Nukleonen vermittelt, die "Mesonen". Und es war damals eigentlich die Überzeugung der Physiker, dass man durch ein experimentelles Studium dieser Mesonen, gerade dieser Quanten, mit denen man mit geeigneten Beschleunigern eine genügende Zahl erzeugen konnte, alle Informationen über die Kernkräfte gewinnen könnte und dann das Bild von der Struktur der Materie wirklich abschließen könnte. Nun, wie Sie wissen, sind diese Mesonen zunächst dort entdeckt worden, wo uns das Weltall selbst sehr hoch energetische Projektile liefert, in der Höhenstrahlung. Und ich möchte nicht eingehen auf die leichte Konfusion, die in der Zuordnung von in der Höhenstrahlung beobachteten Teilchen zu diesen Quanten der Kernkräfte existiert hat. Viele Jahre lang stellte sich schließlich heraus, dass man das, was man zunächst für die Pi-Mesonen, die Quanten des Kernkraftfeldes hielt, in der Höhenstrahlung gar nicht die Pi-Mesonen waren, sondern erst ein Zerfallsprodukt dieses Pi-Mesons. Aber später wurde auch das Pi-Meson selbst in der Höhenstrahlung gefunden und ich glaube, das ganze Programm, mit dem dann nach Kriegsende die Physiker überall in der Welt, soweit die finanziellen und andere Voraussetzungen gegeben waren, mit solch großen Anstrengungen Teilchenbeschleuniger bauten, um diese Mesonen zu studieren, war es von dem Vertrauen getragen: Wenn wir einmal diese Mesonen kennen, dann wird sich unser Bild von der Materie völlig abgerundet haben, wir können dann alle Wechselwirkungen ausrechnen, quantitativ beschreiben, weil im Prinzip eben mit der Quantenmechanik und Elektrodynamik alle chemischen Wirkungen beschrieben sind. Wenn man jetzt zurückblickt werde ich immer erinnert an eine Zeile in Goethes Faust. Wie der Faust dort in der Walpurgisnacht zum Brocken hinauf steigt und den klassischen Spruch dann sagt: Und dann Mephisto ihm sehr kalt antwortet: Genau das ist das Ergebnis der Entwicklung des Experimentierens mit den Strahlen aus den Teilchenbeschleunigern gewesen. Nämlich, zusätzlich zu diesem Meson, dem Pi-Meson, das uns die Kernkräfte vermitteln sollte, stellt sich heraus, dass es noch eine große, große Fülle von weiteren Teilchen in der Natur gibt, die wir jetzt unter diesen Bedingungen, zwar einige davon auch in der Höhenstrahlung, schon gesehen hatten und die uns ein ganz neues Aufgabengebiet eröffnet. Zunächst aber noch zum Meson. Sie wissen, es gibt das Meson als neutrales, als positiv und als negativ geladenes Meson. Das ist die einfachste innere Eigenschaft, die es hat. Ferner haben Experimente eindeutig ergeben, es hat keinen inneren Drall. Dagegen hat es eine andere innere Eigenschaft, gegen die zunächst bei den experimentierenden Physikern ein gegen deren Benutzung bei den experimentierenden Physikern ein merkwürdiges Unbehagen war. Nämlich, eigentlich ganz simpel kann man diese Eigenschaften nur beschreiben, nicht an dem Teilchen sondern an den Eigenschaften des Feldes, das mit dem Teilchen korrespondiert. Den Yukawaschen Kraftfeldern. Das ist die sogenannte innere Parität. Ich darf aber vielleicht diese Gelegenheit benutzen, um auf einen Spaß hinzuweisen, dass eigentlich schon um ein Haar, wenn Dirac mit seiner Vermutung, dass es freie magnetische Monopole geben könne, recht gehabt hätte oder sogar vielleicht recht hat, dass dann diese Frage der inneren Parität von Teilchen durchaus schon in der klassischen Physik der Felder und ihrer Quellen vorhanden war. Nämlich der magnetische Pol, der Pol, nicht der Dipol, sondern der Pol muss eine entgegengesetzte innere Parität haben, wie die elektrische Elementarladung. Sie wissen nämlich alle, dass das magnetische Feld bei Raumspiegelungen sich anders benimmt als das entgegengesetzte ???(33:25) wie das elektrische Feld. Ferner wissen Sie, dass die magnetischen Dipole sich verhalten wie die magnetischen Felder. Also im Übergang vom rechtshändigen zum linkshändigen Koordinatensystem nicht das Vorzeichen wechseln. Da aber, wenn Sie den Dipol als einen Ortsvektor, multipliziert mit der Polstärke multiplizieren, dann sehen Sie, dass der Ortsvektor seine Vorzeichen ändert, also muss auch der magnetische Monopol sein Vorzeichen wechseln beim Übergang vom rechtshändigen zum linkshändigen Koordinatensystem. Also, im Grunde genommen wäre das schon alles in der klassischen Elektrodynamik vorhanden gewesen, wenn es nicht nur magnetische Dipole sondern auch magnetische Pole gegeben hätte. Nun, diese Eigenschaft wurden wir genötigt dem Pi-Meson zuzuschreiben. Auch das müsste sich so benehmen, wie ein magnetischer Monopol sich zu benehmen hätte. Und zwar wiederum aufgezwungen durch eine Reihe von Experimenten, auf die ich nicht eingehen kann. Also wie gesagt, eines der weiteren Einbrüche in die Struktur des Begriffes Elementarteilchen ist eben die kurze Lebensdauer des Mesons. Dieses Quants, das die Kernkräfte vermittelt, nämlich, es hat nichts mit den Kernkräften zu tun. Es hat nichts mit seinen Wechselwirkungen mit den Nukleonen, dass es sich selber wieder zerfallen kann. Das neutrale zerfällt innerhalb von 10^-16 Sekunden in harte Röntgenstrahlen. Das geladene Meson hat eine Lebensdauer von 10^-8 Sekunden und hat merkwürdigerweise - und schon fängt die Konfusion an - zwei Zerfallsweisen. Nämlich sehr selten: In dem zehnmillionsten Teil aller Fälle, fast im hundertmillionsten Teil aller Fälle, ist das Endprodukt nicht ein Elektron und ein Neutrino. Und sonst, im ganz überwiegenden Teil ist das Endprodukt selbst wieder ein Teilchen, das sich in vieler, vieler Hinsicht genau wie das Elektron benimmt und nur eine 207 mal größere Masse hat, aber selber wieder zerfallen kann in ein Elektron und Neutrino und Anitneutrino. Dieses Zwischenprodukt, das Mü-Meson ist wohl für uns noch das mysteriöseste Teilchen, deren Rolle im Schöpfungsplan zu verstehen eine der härtesten Aufgaben ist. Ich weiß nicht, Herr Heisenberg ist vielleicht etwas anderer Meinung. Es hat den Faktor auch 207 erreicht. Aber, eben wie gesagt, abgesehen von diesem Mü-Meson-Rätsel hat sich die Hoffnung gemäß dem Newtonschen Programm jetzt mit dem Elektron an dem Neutrino und dem Pi-Meson alle Daten in der Hand zu haben für ein geschlossenes Bild der Materie nicht erfüllt, weil es die verfeinerte Experimentierkunst und so viele weitere Teilchen aufgewiesen hat. Sehr merkwürdig war, dass die erste - oder sehr beachtlich war, dass das Erste dieser neuen Teilchen wiederum nicht mit den künstlichen Beschleunigern gefunden wurde, sondern beim Studium der Höhenstrahlung durch die Gruppe in Manchester. meistens noch nicht in der Blasenkammer, sondern in der Wilson-Kammer sichtbar gemacht worden, und da beobachteten zuerst Butler und Mitarbeiter aus der Blackett-Gruppe in Manchester Fälle, wo entweder ein geladenes Teilchen oder ein ungeladenes sehr energiereiches Teilchen auf einen Kern stieß und eine Kernumwandlung machte, dann aber in einer gewissen Entfernung, aber offensichtlich damit korreliert, Spuren von zwei geladenen Teilchen, einem Proton und einem Pi-Meson zum Beispiel - und wenn man den Gesamtimpuls, den diese beiden Teilchen tragen, rückwärts verlängerte, führte er genau zu dem Zentrum dieser Reaktion. Wegen dieser Gestalt, na, ich hätte das Bild eigentlich anders herum zeichnen sollen, wurden diese Teilchen V-Teilchen genannt. Nur um erst einmal einen Namen zu haben. Dann erinnere ich mich noch selber sehr deutlich, dass ich zufällig in einem Seminar in Pasadena war, in dem die Mitarbeiter von Anderson, oder Leute aus der Gruppe von Anderson in Pasadena, ein systematisches Studium dieser Erzeugung zunächst dieser Teilchen vorgenommen hatten und etwa die relative Häufigkeit, mit der diese Gruppe von Teilchen, deren Spur so ein V machte, bestimmt wurde, bei vorgegebenen Bedingungen bekannter Intensität der Höhenstrahlung, bekannter Materialdicke, in denen also diese Teilchen produziert werden konnten usw. Und ich erinnere noch so außerordentlich lebhaft, wie Feynman mit all seinem Temperament aufsprang und sagte: Nämlich, es stellte sich heraus, diese Teilchen wurden sehr, sehr häufig erzeugt, relativ. Und diese Erzeugung musste also dadurch zustande kommen, dass die Nukleonen oder die Pi-Mesonen, die dort vorhanden waren, miteinander so wirkten, dass dieses ungeladene Teilchen also entsteht, das selber wieder dann in Pi-Meson und Proton zerfallen kann. Und jetzt ist Folgendes: Wenn diese Teilchen hätten in Proton und Pi-Meson zerfallen können, dann müsste ihre Erzeugungswahrscheinlichkeit durch die Zerfallsrate bestimmt sein. Das war die Unterstellung. Dann stellte sich aber heraus, die werden so häufig erzeugt, dass wenn man umgekehrt die Zerfallsrate berechnen würde, das Teilchen schon hier oben im Kern zerfallen müsste und nicht einen langen Weg von einigen Zentimetern zurücklegen. Feynman war außerordentlich temperamentvoll und sagte "This is impossible". Es ist einfach inkonsistent. Dann gab es eine lange Diskussion für - ich meine, es wurde natürlich nicht nur von Feynman geäußert - fast ein halbes Jahr lang, bis, soviel ich weiß, Pais den Vorschlag machte, diesen Zerfallsprozess völlig zu entkoppeln von dem Erzeugungsprozess, durch eine sehr merkwürdige Forderung, die sich aber auch vollständig nachher bestätigt hat. Nämlich gelegentlich gab es noch andere, nicht nur eins, sondern zwei solche Bilder, bei denen das zweite Teilchen z.B. in ein Pi+ und Pi- zerfällt. Wiederum ein zweites V-Teilchen, das aber nicht Proton und Pion ist, sondern zwei Pionen. Und Pais formulierte als erster die Hypothese, dass vielleicht der Entstehungsprozess gekoppelt ist an die Bedingung, dass diese beiden Teilchen notwendigerweise paarweise erzeugt werden müssen. Dass sie sich auch zwar, wenn sie beisammen wären, sich wieder treffen können, wieder sich auch vernichten können - aber nur dann, wenn sie beieinander sind. Aber nachdem sie einmal erzeugt wurden, sind sie weit auseinander gelaufen, und das sind also zwei verschiedene Sorten von Teilchen, die keinen Partner finden, mit dem sie dann nach dieser Forderung, dass sie paarweisen reagieren sollen, wieder zerfallen können, sodass der Zerfall völlig entkoppelt wird von dem Erzeugungsprozess. Und dann ist es für die heutige Physik wohl typisch, dass man da ran geht, eine solche Forderung. Diese Teilchen wurden dann also schließlich V-Teilchen genannt oder später wurde das umgedreht und es wurde das Lambda-Teilchen genannt, das also immer neutral vorkommt, und das zumindest in ein Proton zerfällt. Und das andere Teilchen wurde ein K-Teilchen genannt. In diesem Falle K0, das nur in Teilchen, die keinen Spin haben, zerfallen kann oder schließlich in Lichtquanten. So dass der Gesamtspin jedenfalls ganzzahlig ist. Nun, es ist typisch, dass diese Formulierung sofort versucht wurde, quantitativ zu fassen. Und es war ein Mitarbeiter von Herrn Heisenberg, Nishima, oder jedenfalls zeitweise Mitarbeiter von Herrn Heisenberg, und Gell-Mann in Pasadena, die sagten, wenn das ein so klar formuliertes Prinzip sein soll, dann können wir wahrscheinlich dieses Gesetz durch eine weitere innere Eigenschaft aller Elementarteilchen charakterisieren, ihnen einfach durch einfache Zahlen angeben kann, positiv und negativ. Dass bei den gewöhnlichen Teilchen, die wir bisher kennen, diese innere Eigenschaft, die dann den Namen "strangeness" - ich weiß nicht, ob es eine vernünftige Übersetzung gibt - die so gewählt wird, dass sie erstens ganzzahlig ist, positiv oder negativ für alle bisher bekannten Teilchen, für die Protonen, für die Pionen, für die Nukleonen sollte diese strangeness gleich null sein. Und dann ist eine willkürliche Festsetzung, dass man z.B. diesen Teilchen die strangeness -1 gibt und die strangeness +1, und dass so ein Erhaltungssatz für solche inneren Eigenschaften gilt, wie es einen Erhaltungssatz für die Ladungen gibt. Inzwischen wird auch häufig bei einer leichten Verschiebung der Nullstelle diese innere Eigenschaft direkt als Hyperladung charakterisiert. Nun, ich fürchte meine Zeit ist fast verbraucht und es stellt sich heraus, dass zunächst bei denen so studierten verschiedenen neu gefundenen Teilchen man tatsächlich bei diesen beiden neuen inneren Quantenzahlen, einerseits der Parität, das Spiegelungsverhalten der Felder oder der zugeordneten Teilchen beim Übergang vom rechtshändigen zum linkshändigen Koordinatensystem, einerseits, und zweitens durch diese merkwürdige Quantenzahl, die strangeness, man ein Schema bekommen hat, in dem man jedenfalls zunächst alle die Reaktionen so einbauen konnte, dass keine inneren Widersprüche auftraten. Keine inneren Widersprüche von der Art, wie ich charakterisiert hatte, wie Feynman wirklich ganz exklusiv bemerkt hatte und sagte "This is impossible". Und es war wirklich, dieses Erschrecken konnte wieder aufgelöst werden durch die Erfindung eines quantitativen Begriffs einer inneren Eigenschaft, die keineswegs mehr eine okkulte Qualität ist. Nun, ich könnte jetzt in diesem Sinne fortfahren. Inzwischen gibt es also gerade durch solche Quantenzahlen zu charakterisierenden Teilchen die sich dann wieder mit der strangeness zusammenfassen lassen. So gibt es inzwischen eine große Zahl von Elementarteilchen, deren Zahl kaum mehr der Zahl der um die Jahrhundertwende bekannten chemischen Elemente nachsteht, die aber durch diese paar ganz scharf formulierbaren Begriffe immerhin schon so weit in ein Ordnungsschema gebracht werden können, wie es den ersten Versuchen, Ordnung in die chemischen Elemente zu bringen, entspricht. Es besteht die Hoffnung, dass man mittels dieser Begriffe jetzt auch noch diese Ordnung, die zum großen Teil noch qualitativer Natur ist - einige quantitative Vorhersagen kann man machen, man kann häufig angeben die relativen Erzeugungshäufigkeiten des einen oder des anderen Teilchens, wenn man einen Kern mit einer bestimmten Teilchensorte beschießt usw. Dabei sind wir trotzdem noch zwar die Vielfalt der Kerne losgeworden, durch das Gesetz der Nukleonen und der Anti-Nukleonen, aber alle diese Kräfte zwischen den Teilchen, auch zwischen den Nukleonen, die den Kern konstituieren, sind nicht nur bestimmt durch dieses eine Kraftfeld, das Yukawasche-pionische Kraftfeld, sondern durch eine Fülle von Kraftfeldern, die alle diesen seltsamen "strange particles" entsprechen. Diese Kräfte sind außerdem - zunächst möchte ich noch auf einen Punkt hinweisen, dass gerade mit dieser Vorstellung der Komplementarität, dass es also immer Teilchen gibt, zwischen den Teilchen wieder Kräfte wirken, diese Kräfte offensichtlich wieder, nach unserem Programm, durch Felder vermittelt werden, diese Felder aber wieder Quanten haben und durch diese Quanten wieder neue Teilchen entstehen, zwischen denen wieder Wechselwirkungen bestehen könnten, dass das also zu einem Regress ohne Ende führen könnte. Nun, dass tatsächlich auch zwischen den Pionen und Pionen untereinander, also den Pi-Mesonen untereinander, und auch zwischen den strange particles sehr starke Wechselwirkungen entstehen, das ist inzwischen experimentell sichergestellt, gerade dadurch, dass man temporär Zustände herstellen kann, die nachher - also zwar in sehr kurzer Zeit, 10^-18 Sekunden wieder in mehrere Pionen auseinander fallen, bei denen man aber nach dem Energie- und Impulssatz sicher sagen kann, temporär waren das Teilchen. Wenn sie nur aus Pionen auseinander fliegen, dann muss es also durch Kräfte zwischen den Pionen zustande gekommen sein. Es gibt also solche Kräfte. Man könnte also sehr fürchten, jetzt gibt es kein Halten mehr. Diese Kräfte müssen wieder durch Felder vermittelt werden, diese Felder haben Quanten, zwischen diesen Quanten gibt es Kräfte. Und da ist eben der wesentliche Punkt, dass zunächst in Bohrschen Gedanken der Komplementarität gerade schon eine Möglichkeit besteht, diesen Regress in sich zu schließen. Nämlich unter den vielen so gefundenen Teilchen gibt es immer schon solche, deren zugeordnete Felder gerade die Wirkung zwischen anderen Teilchen vermitteln können. Und deshalb ist es nicht notwendig, dass dieser Regress, das Suchen nach neuen Teilchen gar kein Ende nimmt. Daneben aber muss man vielleicht doch an die Tradition der ionischen Naturphilosophen anschließen, an die damals in der ionischen Zeit neue Art, Fragen zu formulieren. Leider kann ich, da liegen unter anderem philologischer Grenzen bei mir vor - Solche Fragen zu formulieren, auf die Thales eine Antwort geben zu können glaubte: Ich finde diese Fragestellung schön. Nun, also diese frühen ionischen Antworten, also die diversen Antworten der ionischen Naturphilosophen können wir natürlich nicht übernehmen. Trotzdem aber ist ihr Traum immer noch lebendig überall in der Physik, gerade angesichts dieser Fülle von Teilchen das Urfeld aufzusuchen, von woher sich alle diese verschiedenen Felder nach einem einheitlichen Prinzip verstehen lassen. Aber auch darüber zu sprechen sind berufenere Leute anwesend.


Jensen, who studied physics, mathematics, physical chemistry, chemistry and philosophy in Hamburg and Heidelberg, later worked as a theoretical physicist, investigating the structure of atomic nuclei amongst other things. In his 1965 Lindau lecture, which he gave merely two years after receiving the Nobel Prize, he gives an overview of the historical change of meaning of the term “elementary particle”. This change of meaning was very profound indeed, despite the fact that the definition of the term remained practically unchanged since ancient times: an elementary particle cannot be divided or broken up any further and hence represents a basic building block of the matter in our universe.
However, since the beginning of the 20th century, scientists developed impressive skills in breaking up particles which were considered elementary before. And so, quite a few particles had to be disqualified from the “elementary” group. The first one of them was the atom itself (the word atom translates to “the indivisible” in ancient Greek), which was shown to consist of electrons, neutrons and protons in the first decades of the 20th century. What seems to be unfortunate from the perspective of the particle was usually very fortunate for the involved scientists: various discoveries in the field of elementary and subatomic particles were rewarded with Nobel Prizes (for an overview please refer to the Mediatheque Topic Cluster Subatomic Particles). And the quest is still ongoing. Just one year before Jensen’s talk (unmentioned by him in his lecture), the Higgs-boson was postulated as a new elementary particle. In fact, to date, the Higgs-boson has remained the only widely accepted elementary particle, which has never been detected experimentally. Currently (02/2012) more than 10.000 international scientists are working on the ATLAS and CMS experiments of CERN’s Large Hadron Collider (LHC) to change that.
Looking at the scientific developments since Jensen’s Lindau lecture, the rather philosophical questions he raises towards the end of his talk seem even more relevant. Will there be a “never-ending regress”? Will we, by building more and more powerful particle accelerators, go on to discover heavier and heavier elementary particles without limits and bounds? Jensen obviously harboured doubts concerning the more optimistic beliefs of some of his contemporaries, who were hopeful that a comprehensive and closed theory of elementary particles could be found. From a today’s perspective, however, the optimists appear to have ended up being right, since the Standard Model of only three families of quarks and leptons remains so successful.

David Siegel