Chen Yang (1973) - The Structure of the Proton

When Chen Ning Yang and Tsung-Dao Lee received the 1957 Nobel Prize in Physics for their theoretical prediction of parity violation, they were still in their thirties and could look forward to long careers as theoretical physicists. They were both invited to Lindau for the physics meeting in 1959, but none of them accepted the invitation

The proton is the smallest nucleus. That physicists should want to study its structure and should want to take it apart is of course in the best tradition of physics. We recall that from the year, about 1890, for 40 years physicists studied the structure of the atom. Through a series of brilliant experimenter and theoretical discoveries during those 40 years, one was led to a comprehensive and accurate understanding of the structure of the atom. We all recall that culminated in one of the great revolutions in the history of physics in the discovery of quantum mechanics and I'm sure it's a satisfaction on the part of everybody here that we have with us some of the principle architects of this whole enterprise. Since that time physicists of course tried to continue this tradition and want to study the next smaller building block of matter. And that was of course easily leading us to the study of the structure of the proton, at which physicists have been working for many years. What is it that physicists have learned? Have physicists understood the structure of the proton? What are the prospects in the next few years? It is these questions that I should like to report to you this morning very briefly. I will discuss the following items: First, elastic scattering, that means proton-proton collision going into only proton-protons. And second, inelastic scattering or fragmentation process. And thirdly, I will report to you some very exciting recent discoveries which I shall label as darker or blacker and blacker proton. And lastly some remarks about the future. So this would be sort of the brief outline of what I will discuss with you during the next 40 minutes. Let us begin from the end of the Second World War. There was a period of perhaps what we could call the age of innocence in which people thought that if we hit two protons against each other and studied the elastic scattering of those two protons we would know everything about the elastic scattering and hence the force between the two protons. And from that in the same way that people learned about the structure of the atom, we would know everything about nuclear forces and the subject would be successfully carried to an end. It very rapidly became evident that that was not so. Because when two protons collided with each other at energies which is somewhat higher than the lowest energies, an enormous number of other particles were produced. And in many senses physicists or high needed physicists' attention was diverted to the topic of classification and the study of the intrinsic properties of these other particles. And that led to great excitement in the late '40s and throughout the '50s and early '60s. But the structure of the proton itself eluded these studies for a long time. Now during the '50s, an enormously important set of experiments was started by Bob Hofstadter. And I think he referred to it this morning earlier in trying to find the electromagnetic structure of the proton. And for simplicity, let us just say that what he was trying to do was to study the charge distribution inside of the proton. And that was an extremely important line of research, very successfully carried out, first by him and then by various laboratories all over the world. So that now we have a detailed understanding, experimentally, of that structure. Now it was found that the proton was not a single point charge. It had a charge distribution which in small dimensions is somewhat like a Gaussian, it's not exactly a Gaussian. And then it has a long tail and whether that tail is, the precise shape of that tail is not very easy to completely determine. But it in general looks like that with a characteristic size of about 0.7 x 10^-13 centimetres. The next topic that one would study of course was to go back to the original proton-proton elastic scattering idea. Except by the '60s, people have already become sophisticated and knew that the scattering was not to be described as a kind of force between the two protons. But anyway, such experiments were started, first at Brookhaven in the early '60s, then in CERN and now at Serpukhov and at Batavia. Such studies led to very complicated results but it is fortunate for physicists that the results had rather dramatic and perhaps unifying features to it. In order to give you a general impression of this, let me present to you a composite picture which was recently put together of what elastic proton-proton scattering, angular distribution looks like. One thing good about this is that you can focus it yourself. What is plotted here in that scissor is the angular distribution, what is plotted precisely is the three-momentum-transfer squared in the centre of mass system. Therefore it is = 2 x k^2 x 1 - cos(theta), while k is the centre of mass momentum and theta is the centre of mass scattering angle. And what is plotted in the ordinate is the differential cross section in terms of d\sigma/dt, where t is the abscissae. So d\sigma/dt is of course proportional to d\sigma/d/omega, where omega is the solid angle. But you see that these were the experimental data. That's for incoming 3 BeV collision on the proton at rest. That's for 5 BeV, 7 BeV, etc, etc. Now this set of data points through which no line is then drawn, is at the highest energy which is the equivalent 1,500 GeV proton colliding on a proton at rest. Actually it is 27 GeV proton on 27 GeV proton at the intersecting storage ring at CERN. Now I call your attention to two important features of the slide. The 3, 5, 7, 10 GeV data were actually something like 10 years old. But it was already obvious from the first experiment at Brookhaven, up to about 30 GeV that there are characteristic features of elastic scattering which one can summarise as follows. The first important feature that one sees is that d\sigma/dt at large angles is very small. Now to impress you with this fact, let us go back to the previous slide. The previous transparency. You notice that the abscissae is a logarithmic plot, these points where the curves end are 90 degrees scattering. If you take let's say a 10 BeV incoming energy, you find that the 90 degrees scattering compared to the incoming is down by something like a factor of 10 million. If you go to a 30 BeV scattering, it's down by a factor of about 10^12. Nobody has yet studied it for the 1,500 BeV data because the cross section at 90 degrees is so vanishingly small, it presumably would not be able to be detected for a long time to come. If you try to extrapolate the 90 degree cross section, it is clear that it forms like the exponential of some power of the incoming energy, perhaps the square root of the incoming energy. So I think it is very easy to observe from the experimental data that there is this fact. In fact what was extremely startling to physicists 10 years ago when this data was first found, was the fact that if you do proton-proton scattering at 90 degrees, at 70 GeV, this has not yet been done. But if you do it and extrapolate from the lower energy data, lower energy being up to 30 GeV, you would find that the elastic proton-proton cross section, which is of course deriving from strong interactions, is smaller than that to be expected from weak interactions at the same energy. Now to a physicist who had traditionally thought that the weak interaction is just extremely weak compared to the strong interaction this was a most startling fact. A second important feature of elastic scattering at high energies as studied in the early '60s and that was true not only for P-P scattering. Both of these two features were true, not only for P-P scattering but for all the other elastic scattering which were later studied, was the statement that d\sigma/dt for a fixed t is not very much dependent, is not much dependent on the incoming energy. In other words for a fixed t it seems to become a function of t alone and independent of the incoming energy. Let us go back to the slide and see whether we would see that feature. Well that statement is clearly not true when you go to let us say t = 2 because you see that the 3 BeV cross section is higher than the 5 BeV, However, if you look at a small t value, let us say t = 0.2, these curves become very accurately falling on top of each other. And this was studied more accurately at small scattering angles by blowing up these diagrams and it was indeed a general feature. There are slow dependents, perhaps logarithm-wise, depending on the incoming energy, are logarithm-wise which we shall neglect in this discussion. Because we are here talking about the general features. If we do regard these as the perhaps characteristic general features of elastic high energy scattering between two hadrons, what is the a priore orientation that we should adopt in order to approach theoretically this question of very small distance structure of the hadrons. Now many schools of thought were developed trying to approach very high energy collisions and what I will be reporting to you is only one particular way of looking at it, which in my opinion has had considerable success. And that is that these two important features are in fact not at all difficult to understand once one accepts the view that the proton is as already demonstrated from Hofstadter's experiment, is not a point particle but an extended object with a finer dimension with many internal degrees of freedom. If you accept that view I would submit that these two important features are rather natural a priore consequences, almost independent of the subsequent detailed mathematical structure, which however can later be supplied. But even without the detailed mathematical structure, you would see that they can easily be accommodated in this picture. In fact it was natural from this picture because the first feature merely says that if you have two extended objects with many internal degrees of freedom, colliding on each other, if you want to study the 90 degree elastic cross section, the elastic cross section is very small. Where if you ask, if I have two drops of water, each droplet of course having many internal degrees of freedom, and I shoot them at each other at very high energies and ask, what is the elastic 90 degree cross section at high energies, the answer is of course extremely small. The a priore reason is because the many internal degrees of freedom in each droplet having its own energy momentum would not collaborate with each other if you want to transfer a large momentum simultaneously to the whole droplet. And therefore the probability of keeping the two droplets intact becomes exponentially small. So therefore, a priore, once you adopt seriously the structure, or the theoretical structure, of two extended objects with many internal degrees of freedom, with localised energy and momentum, it becomes almost inevitable that you would have feature 1. Feature 2 is also very easily a part of this picture because of the fact that of course t is nothing but 2k^2(1- cos(theta)) by definition. And for small values of angles for fixed t at large k, theta is of course very small, this is of course nothing but k^2 theta^2. Fixed t therefore is merely fixing k theta, fixing k theta is of course a well-known phenomenon, that's diffraction. Because fixing k theta and having a cross section which depends only on k theta merely means that as you go to a higher and higher wave numbers, you would go to smaller and smaller angles. That's of course nothing but well known diffraction phenomena. Therefore if you have two objects which have finite sizes and if there is any coherence in the scattering picture, you naturally would have a diffraction phenomenon which is a zero-approximation to the statement. Such a picture can in fact be extremely easily accommodated in what is known as the 'eikonal approximation'. The eikonal approximation is not new. It was already something which was discussed in optics because as you understood from what we just said in the last few minutes, what we are saying is that feature 2 is merely a wave propagation at very small wave numbers. And that of course was the subject of optics. So therefore the idea of eikonal approximation optics is very easily borrowed into high energy physics. In particular the eikonal approximation in the variety called the approximation of stationary phase was used by Molière in the 1930s to study high energy electron scattering. It was further sharpened and more clearly and rigorously worked on in the mid-1950s by Schiff and by T.T.Wu independently. But anyway, we have a very good picture in mathematical description of eikonal approximation which was also made use of by Serber in the late '40s. Only Serber's language was more expressed in terms of a force which is not the language that is used in recent times. But the spirit is the same. In eikonal approximation what one does is the following. First let's imaging that there is a scattering centre and let us have a plain wave impinging on this. Now in the eikonal approximation, the eikonal approximation is sort of a cross between the wave picture and the particle picture. So it has part of the characteristics of rays but yet it retains some of the coherence of the wave picture. It is in fact precisely the intermediary between the ray picture and the wave picture. And you can show that wave propagation under specific circumstances at high energies does rigorously give an expansion which to the leading order gives the eikonal approximation. But roughly the idea is that if there is a region where there is absorption, then the incoming wave front in going through this is described by rays. When it arrives at this point, it no longer has the same amplitude here, here the amplitude is 1, here the amplitude is less. It is not very much different from 1 at this point but is very much different from 1 at this point because it has gone through a lot of matter. And if we describe that by s, s is of course also the high energy physicist jargon, namely the s matrix or the survival amplitude. Then one would have a survival amplitude which is a function of b, b is the impact parameter. For large b, s is essentially 1 because there is nothing to obstruct it. For small b there is a lot of absorption. It turns out that for proton-proton scattering at large b, b, this characteristic distance, is of the size, is about 0.7 x 10^-13 centimetres. When you are much beyond that, s is essentially 1. When you are at the dead centre, s turns out to be approximately 24%. Now when you write s as s-1+1, that's tautology. However we can now use Huygens principle because if you use, start from this 1 here and further propagate, of course you get the undamped incoming wave. If you use now s-1 which vanishes at large distances and is finite in the small distance, that's precisely what comes out of a wave in going through a slit. So the subsequent scattering after that goes by the ordinary Huygens principle. And if you remember Huygens principle, you would immediately find the following result, d\sigma/dt = pi x the Fourier transform of this s-1. Because in a gradient or in any slit experiment it is always the Fourier transform, that's the outgoing amplitude. So this now is the formula which derives from the Eikonal approximation which expresses d\sigma/dt as a function of the s matrix. Now feature b that I emphasised before says that this is a function of t alone. That translated into this equation in the box merely says that s becomes a function of b alone. Let me repeat, select feature b merely says that the opaqueness of the proton when you go to very high energies become only dependent on the impact parameter. It's then a geometrical picture. So from the experimental data on d\sigma/dt which we exhibited in one of the earlier transparencies, you would be able to invert this equation and obtain s. And that's why I said before that s is about 24% in that centre. Now this kind of study has led to a picture of what the proton looks like and I will not go into the further mathematical details but they're all extremely elementary and it borrows from Huygens principle and eikonal picture and doesn't need any really drastic new mathematics. But among other things a most important question is what should this s(b), what should this, the previous formula relates the differential cross section to the survival coefficient s as a function of the impact parameter. But what is s as a function of the impact parameter? Here one has to do some hand waving argument and an essential feature which we had previously not built into the discussion must come to the fore. And that is that when we were talking here we were thinking of the passage of a structureless wave through a medium. And we would get this formula. However we know in proton-proton scattering, we have two extended objects going through each other. Therefore, this picture has to be modified a bit or rather it has to be supplemented a bit by the simultaneous existence of finite size of each of the colliding objects. Now this is a topic which is extremely complicated and there is no universally accepted picture at this time. But let me first present you with a hand waving argument which in the last five years has received amazing support from field theoretical calculations. And that idea is nearly the following. Let us think of P-P scattering and let us now emphasise that we have a stationary proton in the laboratory system. And we have an incoming proton which now I draw as a flattened disc because of Lorentz contraction. And this incoming proton goes through the stationary proton. Now you immediately recognise of course the different parts of the incoming proton would see different thicknesses of the stationary proton. And as a consequence, this picture of the survival coefficient becomes a much more complicated matter. Well, a hand waving argument which is a very simple one would say the following: That the survival coefficient first has to be an exponential. That is in the simple tradition of saying that if you have thickness, where you double the thickness the survival coefficient would go down geometrically. When the thickness increases arithmetically the survival coefficient of course goes down geometrically. And that is the exponentiation. The next statement is what should be this omega as a function of b, b in this case is the distance between the two centres. This b is now a complicated thing due to the fact that you have two objects but a moment of reflection would convince you that the easiest assumption is to say that there is a density distributing in the first proton, there is a density distributing in the second proton and this is nothing but a convoluting integral of the two. It's an overlap, convoluting integral means the overlap integral. And that's of course the averaging process. So one would write this as the density distributing in the first one, in the first proton, convoluted with a density distribution of the second proton. Now this is of course not based on a detailed field theory when written down. Nor was this one. These two were hand waving arguments made some six years ago. The very interesting thing was that through a series of theoretical studies of the infinite energy behaviour of field theory in high energy scattering, diagram by diagram. Both of these two features are found to be in amazing agreement with these studies. Unfortunately these studies are not rigorous. They have been carried out at great lengths requiring enormous lengthy and powerful calculations but nobody has succeeded in summing all diagrams. Nor is it clear what is meant by the summation of all Feynman diagrams because there are so many of them, therefore there's a question of in which order you should sum them. But let it be stated that these intuitive ideas were very much supported by much of this very complicated mathematical analysis of Feynman diagrams. Now what I want to say now is that from the experimental data one can obtain this, from this one can obtain the omega which is the opaqueness of the proton, of the proton-proton collision. If you substituted that in here, you would be able to get the density distribution of the proton. It was already speculated about 10 years ago that perhaps this density distribution is proportional to the charge distribution of the proton, which one has measured à la Hofstadter. And this was of very good experimental agreement. It is not precise but it was an excellent agreement, considering the crudeness of these arguments, the agreement was really amazing. In particular, if you do this process backwards and feed the experimental charge distributing into here and go into this computation backwards and arrive at the elastic scattering, you would find that the elastic scattering has a dip, which up to the moment of the calculation, which was in 1968, was not found. But that dip was later discovered at high energies because when one went at CERN to about 20 GeV, one began to see what was known as a shoulder, at t=1.3. Now the most recent ISR result which to my knowledge has not yet been published in fact shows an extremely good dip at this point. It is natural to extrapolate this and argue that at high energies in fact this dip would become more pronounced. All current ideas to try to fit this type of data proceed along the lines of approach with minor variations that we have been discussing in the last few minutes. If we depart now from the question of elastic scattering, next I would like to mention inelastic scattering. And this inelastic scattering discussion which is also called the fragmentation process was what Professor Hofstadter referred to when he was discussing the inclusive reaction process. The inelastic scattering, the idea behind this discussion of the inelastic scattering is a direct generalisation of the ideas that we have been discussing about elastic scattering. I should say I recall with great pleasure especially the fact that in developing the idea of the fragmentation picture at Stone Brook, one of our collaborators is Max Benecke of the Max Planck Institute at Munich. Now let me merely outline what is the general idea here. The idea is that if you have a proton with let's say a pion impinging on it at high energies, we said that for elastic scattering, the survivor amplitude here at s becomes a function only of the impact parameter. That's the zero order picture that we have been emphasising up to now. However we all know that the elastic scattering is only a very small fraction of the total cross section. At 1,500 equivalent GeV/c elastic scattering is only about 16 or 17% of the total cross section. The rest all go into inelastic scattering. That's of course a very natural thing in this picture too, namely you can draw it symbolically like this. That after the scattering this is the pion, this is the proton. This proton becomes vibrating or doing something on its own. And the question I would like to raise now is, is it conceivable to have a picture in which this incoming pion after passage through the proton remains intact in the original elastic state and this amplitude becomes a function of b alone and independent of the incoming energy? At the same time for an inelastic process not to have this inelastic s matrix, also becoming a function of b alone, independent of the incoming energy. In other words if the elastic s is independent of the incoming energy, shouldn't the inelastic s also be independent of the incoming energy? Now, if you try to make any model, any mathematical model with many constituent parts here, with any kind of interaction between them, you will rapidly come to the conclusion that it is not possible for a theory to have this approaching a limit and this not approaching a limit. Because in the process of passage there is a lot of energy and momentum and quantum number exchange between the constituents here and the constituents here. And the elastic scattering is only one of the outcomes. If the elastic scattering invariably comes out independent of the incoming energy, then the inelastic which represents the other channels must also do the same. If you do accept this, then of course after this pion has passed this vibrating proton would not remain stationary for very long. And it would finally disintegrate and that process was called fragmentation. And you in particular would arrive at a statement that the fragmentation product would have a momentum distribution in the logarithmic system which is independent of the incoming energy. This we called the hypothesis of limiting fragmentation. Let me repeat, what the hypothesis of limiting fragmentation says is the simple statement that if in a laboratory there's a proton and if I hit it with another hadron, after that hadron has passed by, this passing hadron would fragment. This laboratory proton would fragment but the laboratory proton's fragment distribution, momentum distribution, would be not dependent on the incoming energy. If you sweep the laboratory proton at 10 times the incoming momentum, the fragmentation product would still remain the same. Now this idea has recently gone through a precision test at the ISR. During the last 3 or 4 years, it has gone through many other tests, some of which was very much like the data that Professor Hofstadter was presenting us. But at ISR through an idea due to ... that one can do this experiment in a precision way. Because the statement we said before can be translated into the following picture. If I consider a 27 GeV collision on a 27 GeV proton beam, in that picture this proton is not addressed. But in its rest frame it will fragment into particles and therefore in the ISR frame it will become outgoing particles like this and this would become outgoing particles like this. These fragments, they are confusing fragments in the centre but let's forget about them. These forward moving ones are a spray which come from the fragmentation of this and these are the fragmentation of this. Now suppose I collide them in the following way: In an asymmetrical collision with 15 GeV on one side and 27 GeV on the other side. Since the fragmentation of this 27 GeV particle is the same for this one and this one, that's the concept that we are just developing. And since the Lorentz transformation, from the rest system of this proton to the ISR frame is exactly the same as that for this proton at rest to the ISR frame independently of this one. So therefore this forward distribution in this case should be the same as this case, while this distribution on this side would not be the same. Now this is something which can be tested in a precision way because the geometry of the detectors for these and the geometry of the detectors of these are exactly the same. And therefore you need no geometrical corrections and that is an experiment which has recently been performed. I think the papers have not yet been published. I have several slides but I don't think I have the time. So I'll just present you with one. And this is not the most interesting one. This is an angular distribution of the charged fragments of two ISR beams of the outgoing products in an ISR collision. And the circled points are 15 GeV on 15 GeV and this is a forward angle, these are backward angles. It's plotted with log of tangent of Theta/2 for convenience. But for our purpose we need not worry about that, let us look at the 15 GeV which are the circles and look at the 27 GeV on 27 GeV which are the triangles. Then they switched to the asymmetrical mode of 27 on this side and 15 on this side. And they found the black points. You see the black points follow very closely the triangle on this side and follows very closely the circle on this side, showing that the fragmentation of a 15 GeV particle or of a 27 GeV particle are respectively independent of the energy of the particle which is hitting it. And that's of course the basic premise that we were discussing. Now there were other tests which I shall not bother you with. I will now skip to the third topic, which is the question of, is there a darker and darker proton? In a totally unexpected manner, within the last half year there has been great excitement at CERN because of the simultaneous results of two experiments. One is a Rome-CERN collaboration, the other is a Pisa-Stone Brook collaboration, both of them measuring the total cross section at the highest ISR energies. And it has been sort of generally believed without real grounds that perhaps cross sections would remain fixed for P-P at about 39 millibars. One believed this because the lower energy data was clearly pointing in this direction. But the two sets of ISR data, both showed, that that does not seem to be true. What is plotted here is the data from one of the two collaborations, this is the Pisa-Stone Brook collaboration. The other one gave exactly the same data, same result within the comparable errors. What is plotted here is the laboratory momentum and that's 100 equivalent GeV, that's 1,000 equivalent GeV. And what is plotted here is the total cross section, this is not 0, this is 35, 40 and 45. And these were the earlier data including the Serpukhov data up to about 70 GeV. These circles are the not very accurate national accelerator laboratory data with bubble chambers. And as you know bubble chambers give not good enough statistics. So these have large error bars. These are the new ISR data. If this is about 39 millibars, this one, these have clearly indicated a 10% rise to about 43 millibars. Currently these experiments are being pushed to the limit of the CERN ISR machine at 31 GeV, that would be equivalent about 2,000 GeV. Preliminary indications were that indeed the cross section has risen a little bit more. Now that has led to many, many discussions because it was while not generally expected, it was not discussed either. The first person who seemed to have discussed this was Professor Heisenberg. Who in an article, I think it was in the early '50s but I am not absolutely sure, discussed the possibility of a cross section, a total cross section through increasing importance of bremsstrahlung-like processes which would rise with incoming energy like log of the laboratory incoming energy squared. To my knowledge this discussion was not later picked up very much and then in about 1968, '69, '70, T.T.Wu of Harvard and Hung Cheng of MIT, in their massive studies of the high energy limit of Feynman diagrams which I previously referred to were led to some sort of impasse. The impasse derived from the fact that some insight they had about how to sum the diagrams, led to results which were inconsistent with unitary. By looking at this for a long time and debating between themselves for a long time, they finally became very bold and came to the conclusion that everything would be consistent if you make the hypothesis that the total cross section would in fact rise like log of e^2 as Professor Heisenberg had discussed. The picture that they discuss is very complicated because it comes from asymptotic summations of enormous number of Feynman diagrams and they have not been able to make any rigorous arguments at all. I personally am pessimistic that any rigorous argument is to come out of such kind of pictures. But nevertheless the general features, the physical features are quite obvious from their discussions. And it is that the eikonal approximation and this general exponentiation picture that we were discussing and the convolution integral ideas were all amazingly born out by these insights that derived from their mathematical studies of Feynman diagrams. If you take these pictures, then the picture is in fact a physically extremely simple one. The increasing cross section at high energy derives from the fact that the proton appears to another proton as darker and darker an object. So that if I now plot the opaqueness as a function of the impact parameter, you would find that it becomes more and more dark an object. I didn't draw it symmetrically, it should be symmetrical of course. If you go to higher energies, very much higher energies, the opaqueness rises. Now, however the opaqueness is, as we define it, is a dimensionless quantity. When it becomes very large compared with 1 of course e^-omega is quenched and becomes very small. So if I now plot the survivor coefficient which is nothing but e^-omega, then those two pictures translate into nothing but this, this is 1, that means no opaqueness. At the centre there's an absorption. Now if the opaqueness becomes very large, now of course it would look like this. Now, if real opaqueness becomes enormous, then this picture becomes a dish, eventually it approaches something like this. This radius increases because the opaqueness is everywhere pushed up. But as soon as the opaqueness is large compared with 1, s is insensitive to it because s is already 0. And this is s. Now if you take 1-s, that's the shadow, that's how it scatters and that is what gives the elastic scattering. So if you take this picture, you would find that if you put a little bit more mathematics into it, you would find this radius increases like log of the incoming energy. And therefore the cross section which is the total cross section which is two times the geometrical size of this, would increase like log of e^2. The elastic scattering compared with the total cross section would be like that of a black disc, which is well known to be 1 to 2. There would be minima of scattering which are just zeros of beta function. These were all predictions which were made by Cheng and Wu in 1970 and there is now a lot of discussions whether one must buy the whole package from them, if we now believe that the total cross section is increasing. Now this is a topic which is under intensive discussion and there is no generally accepted consensus yet. Also the question of the implication of the increasing blackness on the elastic events is another topic which is under intensive discussion. Now I don't have much more time, so let me skip to the fourth item, which is some general remarks. What is it that one has learned? Now this question if you address it to high energy theorists today, you would get different answers from different people. Because as is evident to everybody who has observed the field, the field is by no means near the end of its efforts. We have learned a number of very interesting things with lots of details which do fall into some sort of picture but different people would put emphasis on different points of this rather complex phenomenon which is high energy collision. And as a consequence, different people would make different predictions what the future would tell us about the structure of the proton. So what I will be saying to you is a highly personal view of how things perhaps would be going. In my opinion what is clear is that the concept that a hadron is a particle of a dimension of 0.7 x 10^-13 centimetres with many internal degrees of freedom is so obvious from all the experimental data that perhaps that should be taken as the zeros order approximation. Now you may object and you may say that that maybe a dangerous thing to do because after all when we say that there is a geometrical size of 0.7 x 10^-13 centimetres that is a theoretical statement. What we study is always angular distribution. Namely we study the momentum transfer. The momentum transfer is the canonical conjugate to the coordinate space. And since nobody has succeeded in lining a series of protons together, crystal fashion, how do we know that the idea that the momentum transfer variable and the coordinate space variable is not just for theoretical convenience? In other words is the coordinate variable a really meaningful concept other than the fact that it's a Fourier transform of the momentum transfer which is directly exponentially observable. I think that's a very important question but I believe that there is ample reason to believe that we should take the coordinate space description seriously. Because as we heard from Professor Hofstadter, quantum electro dynamics experiments independently of hadronic structure has told us that quantum electro dynamics, namely the marriage of quantum mechanics, field theoretical concepts and Faraday-Maxwell's electro dynamics, have given a picture of electromagnetism in space time which is accurate down to at least let us say 10^-14 centimetres, perhaps better in fact. That means that the classical concept of space and time at least a la electric magnetism certainly holds down to much smaller sizes than the 0.7 x 10^-13 centimetres which is the characteristic hadron size. So therefore, coordinate space can meaningfully be described through electromagnetism like a euclidian space as we have been extrapolating from atomic sizes. Once you accept this, you will then try to describe, or if you accept this, you will then try to describe hadronic structure as a manifestation of additional hadronic degrees of freedom on the space time structure which is based on field theory and electrodynamics. At least I believe that this is a reasonable attitude. However we must bear in mind that this hadronic structure which is 0.7, the hadron distribution, this is about 0.7 fermis in size, is a drop and has many degrees of freedom. So in that sense, it has many features which are very similar to what we have been expecting from a drop. And we have lots of experience with drops. We have experience with drops of water, we have experience with drops of nuclear matter. But I want to emphasise that we must always bear in mind that this drop which is the hadron has some features which are also extremely different from that of the earlier droplets that we have been familiar with. For example like a drop of water or a drop of nuclear matter. And that difference is best described in the following fashion. In the earlier drops you can always think of cutting that drop into two. You can take a larger nucleus and cut it in two and it becomes two geometrically smaller nuclei. In fact that's nothing but fission, or fission is nothing but one type of that cutting-into-two-process. Similarly you can do the same thing for a drop of water, but not a proton. If I take a proton and take an imaginary knife and cut it into two, what would happen is that each region would then grow back to the original size and one of them would become perhaps a proton. The other would become a pion. Or one of them would become a neutron, the other would become a pion or a rho. But the proton and the rho or the proton and the pion each would have the original size. So in some sense this 0.7 fermis is a minimum quantum size of hadron physics. There are variations to it, this order of magnitude, about 0.7 fermis. And therefore any theory with which you try to explain hadron physics must have this feature in it. Otherwise you are having constituents which is not in agreement with what we have so far observed. Is that inconceivable, is that a consistent idea, that you can have some sort of a matter or many degrees of freedom inside and yet this exhibits a minimum size beyond which, lower than which you cannot go? The answer is yes, this is not strange at all. When you have an infinite degrees of freedom system, strongly coupled with each other, it is very easy, in fact the most natural thing is to have element ray excitations which have a finite size and a finite minimum order of magnitude size. However, this is an extremely complicated mathematical subject and we are only beginning to look into this. But ideas like this give many of the practicing high energy physicist great excitement. And we hope that slowly we'll learn to deal with this and understand more about the structure of the proton. Thank you. Applause.

Das Proton ist der kleinste Atomkern. Dass Physiker seine Struktur gerne untersuchen und es auseinandernehmen würden, ist natürlich beste Tradition der Physik. Wir erinnern uns: Ungefähr seit dem Jahr 1890 haben Physiker 40 Jahre lang die Struktur des Atoms untersucht. In diesen 40 Jahren führte eine Reihe brillanter experimenteller und theoretischer Entdeckungen zu einem umfassenden und genauen Verständnis der Struktur des Atoms. Höhepunkt all dessen war, wie wir wissen, eine der großen Revolutionen der Physikgeschichte – die Entdeckung der Quantenmechanik. Ich bin sicher, jeder hier freut sich darüber, dass einige der wichtigsten Architekten dieses Unternehmens bei uns sind. Seit jener Zeit versuchen die Physiker, diese Tradition fortzusetzen; sie wollen den nächstkleineren Baustein der Materie untersuchen. Das führte uns zwanglos zum Studium der Struktur des Protons, mit dem sich Physiker seit vielen Jahren beschäftigen. Was haben die Physiker herausgefunden? Haben die Physiker die Struktur des Photons verstanden? Wie sind die Aussichten für die nächsten Jahre? Diese Fragen möchte ich Ihnen heute Vormittag in aller Kürze beantworten. Ich werde die folgenden Themen erörtern: Zuerst die elastische Streuung, also die Proton-Proton-Kollision, aus der ausschließlich Proton-Protonen hervorgehen; zweitens die inelastische Streuung bzw. Fragmentationsprozess; drittens werde ich Ihnen über einige aufregende neue Entdeckungen berichten, die ich als dunkleres oder immer schwärzeres Proton bezeichnen möchte. Zum Schluss dann ein paar Bemerkungen über die Zukunft. Das ist also ein kurzer Überblick darüber, was ich in den nächsten 40 Minuten mit Ihnen erörtern möchte. Beginnen wir mit dem Ende des Zweiten Weltkriegs. Es gab einen Zeitraum, den wir vielleicht das Zeitalter der Unschuld nennen könnten – man dachte, wenn wir zwei Protonen zusammenstoßen lassen und die elastische Streuung dieser zwei Protonen untersuchen, würden wir alles über die elastische Streuung und damit über die zwischen den beiden Protonen wirkenden Kräfte wissen. Und ebenso, wie wir die Struktur des Atoms kennengelernt hatten, würden wir alles über Kernkräfte wissen, und das Thema würde erfolgreich abgeschlossen werden. Es stellte sich sehr schnell heraus, dass das nicht der Fall war. Wenn nämlich zwei Protonen mit Energien kollidierten, die etwas über den niedrigsten Energien lagen, wurde eine enorme Anzahl anderer Teilchen produziert. In vielfacher Hinsicht wurden die Physiker bzw. wurde deren dringend benötigte Aufmerksamkeit auf das Thema der Klassifizierung und der Untersuchung der intrinsischen Eigenschaften dieser anderen Teilchen gelenkt. Das führte zu der großen Begeisterung der späten Vierziger, die sich über die Fünfzigerjahre bis in die frühen Sechziger hinzog. Doch die Struktur des Protons selbst entzog sich diesen Untersuchungen für lange Zeit. In den Fünfzigern begann Bob Hofstadter mit einer ungemein bedeutenden Reihe von Experimenten. Ich glaube, er hat heute Vormittag darüber gesprochen – er versuchte, die elektromagnetische Struktur des Protons herauszufinden. Lassen Sie uns der Einfachheit halber sagen, dass er versuchte, die Ladungsverteilung im Inneren des Protons zu untersuchen. Das war eine äußerst wichtige Forschungsrichtung, die sich als sehr erfolgreich erwies – zuerst durch ihn selbst und dann durch verschiedene Labore auf der ganzen Welt. Heute haben wir auf experimentellem Weg genaue Kenntnisse von dieser Struktur. Man fand heraus, dass das Proton keine einzelne Punktladung aufweist. Es zeigte eine Ladungsverteilung, die im Kleinen so etwas wie eine Gaußverteilung ist – na ja, nicht genau eine Gaußverteilung. Und dann hat es ein langes Ende, dessen genaue Form sich nicht leicht vollständig bestimmen lässt. Im Großen und Ganzen sieht es etwa so aus, bei einer charakteristischen Größe von etwa 0,7 x 10^-13 Zentimeter. Das nächste untersuchenswerte Thema war natürlich die ursprüngliche Vorstellung von der elastischen Proton-Proton-Streuung. In den Sechzigern war man allerdings schon etwas weiter und wusste, dass sich die Streuung nicht als eine Art Kraft zwischen den Protonen beschreiben ließ. Jedenfalls begann man mit diesen Experimenten – zuerst, anfangs der Sechziger, in Brookhaven, dann im CERN und heute in Serpukhov und Batavia. Diese Studien führten zu sehr komplizierten Ergebnissen, doch zum Glück für die Physiker wiesen die Ergebnisse ziemlich dramatische, vielleicht auch vereinigende Eigenschaften auf. Um Ihnen einen allgemeinen Eindruck davon zu geben, zeige ich Ihnen ein Bild, das vor kurzem zusammengesetzt wurde. Man sieht darauf, wie die elastische Proton-Proton-Streuung, die Winkelverteilung aussieht. Das Gute daran ist, dass man es selbst scharfstellen kann. Hier in dieser Schere ist die Winkelverteilung aufgetragen, genauer: die ins Quadrat gesetzte Übertragung dreier Impulse im Zentrum des Massensystems. Es ist also gleich 2 x k^2 x 1 – cos(Theta), wobei k das Zentrum des Massenimpulses und Theta das Zentrum des Massenstreuwinkels ist. Auf der y-Achse ist der differentielle Querschnitt aufgetragen, im Sinn von d(Sigma)/dt, wobei t die x-Achse ist. d(Sigma)/dt ist natürlich proportional zu d(Sigma)/d(Omega), wobei Omega der Raumwinkel ist. Doch wie Sie sehen, waren das die experimentellen Daten. Das steht für eine Kollision mit 3 GeV am Proton im Ruhezustand, das für 5 GeV, 7 GeV usw. Diese Datenpunkte hier, durch die keine Linie gezogen ist, weisen die höchste Energie auf, entsprechend der Kollision eines Protons mit einem Proton im Ruhezustand mit 1.500 GeV. Tatsächlich haben wir im Intersecting Storage Ring im CERN ein 27 GeV-Proton an einem 27 GeV Proton. Nun möchte Ihre Aufmerksamkeit auf zwei wichtige Eigenschaften der Folie lenken. Die 3, 5, 7, 10 GeV-Daten waren ungefähr zehn Jahre alt. Doch seit dem ersten Experiment in Brookhaven – bis zu etwa 30 GeV – war schon klar, dass die elastische Streuung charakteristische Eigenschaften aufweist, die man folgendermaßen zusammenfassen kann. Die erste erkennbare wichtige Eigenschaft ist die Tatsache, dass d(Sigma)/dt bei großen Winkeln sehr klein ist. Um Sie mit dieser Tatsache beeindrucken zu können, gehe ich zum vorigen Blatt zurück. Zur vorigen Folie. Sie sehen, dass die x-Achse logarithmisch dargestellt ist; bei diesen Punkten, an denen die Kurven enden, handelt es sich um eine 90-Grad-Streuung. Wenn man eine eintreffende Energie von, sagen wir, 10 GeV nimmt, stellt man fest, dass die 90-Grad-Streuung im Vergleich zur einfallenden etwa um den Faktor 10 Millionen abnimmt. Wenn man eine 30 GeV-Streuung wählt, nimmt sie etwa um den Faktor 10^12 ab. Niemand hat sie bisher für die 1.500 GeV-Daten untersucht, denn der Wirkungsquerschnitt ist bei 90 Grad so verschwindend gering, dass sie wahrscheinlich noch für lange Zeit nicht nachgewiesen werden kann. Wenn man versucht, den 90-Grad-Querschnitt zu extrapolieren, bildet er natürlich so etwas wie das Exponential einer Potenz der eintreffenden Energie, vielleicht die Quadratwurzel der eintreffenden Energie. Ich denke also, anhand der experimentellen Daten lässt sich sehr leicht beobachten, dass es diese Tatsache gibt. Was die Physiker vor zehn Jahren, als diese Daten erstmals entdeckt wurden, in höchstem Maße verblüffte, war die Tatsache, dass dann, wenn man eine Proton-Proton-Streuung bei 90 Grad und 70 GeV ablaufen lässt... das wurde noch nicht gemacht. Wenn man es aber macht und von den niedrigeren Energiedaten extrapoliert, wobei die niedrigere Energie bis zu 30 GeV beträgt, würde man feststellen, dass der elastische Proton-Proton-Wirkungsquerschnitt, der natürlich von starken Wechselwirkungen herrührt, kleiner ist als derjenige, der von schwachen Wechselwirkungen mit derselben Energie zu erwarten ist. Für einen Physiker, der bis dahin der Ansicht war, dass die schwache Wechselwirkung im Vergleich zur starken Wechselwirkung extrem schwach ist, war diese Tatsache äußerst verblüffend. Eine zweite wichtige Eigenschaft der elastischen Streuung bei hohen Energien, wie sie in den frühen Sechzigern untersucht wurde – und das galt nicht nur für die pp-Streuung; diese beiden Eigenschaften galten gleichermaßen nicht nur für die pp-Streuung, sondern auch für alle später untersuchten elastischen Streuungen – war die Aussage, dass d(Sigma)/dt bei einem unveränderlichen t nur in geringem Maße von der eintreffenden Energie abhängt. Anders ausgedrückt: Bei unveränderlichem t scheint es zu einer Funktion nur von t zu werden, unabhängig von der eintreffenden Energie. Gehen wir zurück zu der Folie und überprüfen wir, ob wir diese Eigenschaft sehen würden. Nun, diese Aussage ist klarerweise nicht richtig, wenn man für t = 2 wählt, denn Sie sehen, dass der Wert für den 3 GeV-Wirkungsquerschnitt höher ist als der für 5 GeV, der wiederum höher ist als der für 7 GeV und so weiter und so fort. Wählt man jedoch für t einen kleinen Wert, sagen wir t = 0,2, dann liegen diese Kurven sehr genau übereinander. Das wurde bei kleineren Streuwinkeln genauer untersucht, indem man diese Diagramme vergrößerte, und es erwies sich in der Tat als eine allgemeine Eigenschaft. Es gibt langsame abhängige Variablen, vielleicht je nach eintreffender Energie logarithmusartig, die wir in dieser Erörterung vernachlässigen, denn wir sprechen hier über die allgemeinen Eigenschaften. Wenn wir dies als die vielleicht charakteristischen allgemeinen Eigenschaften der elastischen Hochenergiestreuung zwischen zwei Hadronen ansehen, wie sollten wir uns dann a priori orientieren, um uns theoretisch der Frage nach der Struktur von Hadronen mit sehr geringem Abstand zu nähern? Bei dem Versuch, den äußert hochenergetischen Kollisionen auf den Grund zu gehen, entwickelten sich zahlreiche Denkrichtungen. Ich berichte hier nur über eine ganz bestimmte Art der Betrachtungsweise, die meiner Meinung nach beachtliche Erfolge verbuchen konnte. Und zwar die, dass diese zwei wichtigen Eigenschaften in Wirklichkeit überhaupt nicht schwer zu verstehen sind, wenn man den Standpunkt akzeptiert, dass das Proton – wie schon aus Hofstadters Experiment ersichtlich – kein Punktteilchen ist, sondern ein ausgedehntes Objekt mit äußerst geringen Abmessungen und vielen inneren Freiheitsgraden. Wenn man diese Sichtweise akzeptiert, würde ich behaupten, dass diese zwei wichtigen Eigenschaften ziemlich natürliche A-Priori-Konsequenzen sind, fast unabhängig von der nachfolgenden detaillierten mathematischen Struktur, die aber natürlich später nachgeliefert werden kann. Aber auch ohne die detaillierte mathematische Struktur sieht man, dass die Eigenschaften sehr gut in dieses Bild passen. Eigentlich entstammen sie dem Bild, denn die erst Eigenschaft sagt ja nur aus, dass dann, wenn man bei zwei miteinander kollidierenden ausgedehnten Objekten mit vielen inneren Freiheitsgraden den elastischen 90-Grad-Wirkungsquerschnitt untersuchen möchte, dieser elastische Wirkungsquerschnitt sehr klein ist. Stellt man zum Beispiel die Frage: Wenn ich zwei Wassertropfen – beide Tropfen weisen natürlich viele innere Freiheitsgrade auf – mit sehr hoher Energie aufeinander schieße, und ich stelle die Frage, wie groß der elastische 90-Grad-Wirkungsquerschnitt bei hohen Energien ist, lautet die Antwort natürlich: extrem klein. Der Grund hierfür liegt a priori darin, dass die vielen inneren Freiheitsgrade in jedem der beiden Tropfen mit jeweils eigenem Energieimpuls nicht miteinander kollaborieren, wenn man einen großen Impuls gleichzeitig auf den ganzen Tropfen überträgt. Die Wahrscheinlichkeit, dass die beiden Tropfen intakt bleiben, wird daher exponentiell klein. Wenn man also die Struktur bzw. die theoretische Struktur zweier ausgedehnter Objekte mit vielen inneren Freiheitsgraden, lokalisierter Energie und lokalisiertem Impuls ernsthaft übernimmt, ist es so gut wie unausweichlich, dass man Eigenschaft 1 erhält. Aufgrund der Tatsache, dass t natürlich definitionsgemäß nichts anderes ist als 2k^2(1-cos(Theta)), ist Eigenschaft 2 ebenfalls ganz zwanglos ein Teil dieses Bildes. Bei kleinen Winkelwerten für unveränderliche t bei großem k ist Theta natürlich sehr klein – das ist ja nichts anderes als k^2 Theta^2. Ein unveränderliches t ist daher nur die Festlegung von k Theta. Die Festlegung von k Theta ist natürlich ein wohlbekanntes Phänomen, nämlich die Beugung. Denn die Festlegung von k Theta bedeutet im Verein mit der Tatsache, dass man einen nur von k Theta abhängigen Wirkungsquerschnitt hat, nichts anderes, als dass man immer kleinere Winkel erhält, je höhere Wellenzahlen man annimmt. Das sind natürlich wohlbekannte Beugungsphänomene. Hat man daher zwei Objekte von begrenzter Ausdehnung und ist das Bild der Streuung kohärent, erhält man ein Beugungsphänomen, bei dem es sich um eine Nullnäherung an die Aussage handelt. In der Tat lässt sich ein derartiges Bild ganz einfach in die so genannte „Eikonal-Näherung“ einfügen. Die Eikonal-Näherung ist nichts Neues. Sie wurde bereits in der Optik erörtert, denn wie Sie aus dem, was wir soeben besprochen haben, wissen, sagen wir, dass Eigenschaft 2 nur eine Wellenausbreitung bei sehr kleinen Wellenzahlen ist. Und das war natürlich das Thema der Optik. Die Idee der Eikonal-Näherung in der Optik konnte daher problemlos in die Hochenergiephysik übernommen werden. Insbesondere wurde die Eikonal-Näherung in der Varietät, die so genannte Näherung der stationären Phase, in den Dreißigern von Molière zur Untersuchung der hochenergetischen Elektronenstreuung verwendet. Mitte der Fünfziger wurde sie von Schiff und T.T. Wu unabhängig voneinander weiter verbessert sowie klarer und präziser ausgearbeitet. Jedenfalls aber verfügen wir mit der mathematischen Darstellung der Eikonal-Näherung über ein sehr gutes Bild, das in den späten Vierzigern auch von Serber verwendet wurde. Allerdings drückt sich Serber im Sinne einer Kraft aus; diese Ausdrucksweise ist in neuerer Zeit nicht mehr üblich. Doch der Geist ist der gleiche. Was man bei der Eikonal-Näherung tut, ist Folgendes. Stellen wir uns zunächst vor, dass es ein Streuungszentrum gibt, und lassen wir darauf eine ebene Welle prallen. In der Eikonal-Näherung... die Eikonal-Näherung ist eine Art Mischung aus Wellenbild und Teilchenbild. Sie hat also teilweise die Eigenschaften von Strahlen, behält aber dennoch Einiges von der Kohärenz des Wellenbildes bei. In der Tat ist sie ist genau die Zwischenphase zwischen dem Strahlenbild und dem Wellenbild. Und man kann zeigen, dass die Wellenausbreitung unter bestimmten Umständen bei hohen Energien exakt eine Expansion ergibt, die in führender Ordnung zur Eikonal-Näherung führt. Grob gesagt läuft die Vorstellung darauf hinaus, dass dann, wenn es eine Region mit Absorption gibt, die eintreffende Wellenfront beim Durchgang durch diese Region als Strahlung beschrieben wird. Kommt sie an diesem Punkt an, hat sie nicht mehr die gleiche Wellenlänge. Hier ist die Wellenlänge 1, hier ist sie geringer. An diesem Punkt unterscheidet sie sich nicht sehr stark von 1, doch an diesem Punkt weicht sie sehr stark von 1 ab, da sie durch eine Menge Materie hindurchgegangen ist. Und wenn wir das mit s beschreiben – s ist natürlich ebenfalls Jargon der Hochenergiephysiker, nämlich die S-Matrix oder die Überlebensamplitude – dann haben wir eine Überlebensamplitude, die eine Funktion von b ist. b ist der Einwirkungsparameter. Bei großem b ist s im Großen und Ganzen 1, denn es gibt nichts, was es aufhalten könnte. Bei kleinem b gibt es eine Menge Absorption. Wie sich zeigt, ist bei einer Proton-Proton-Streuung mit großem b dieser charakteristische Abstand etwa 0,7 x 10^-13 Zentimeter groß. Geht man weit darüber hinaus, ist s im Wesentlichen 1. Befindet man sich am Totpunkt, ergibt sich für s eine Größe von etwa 24 %. Schreibt man s als s-1+1, ist das eine Tautologie. Jetzt können wir aber das Huygenssche Prinzip heranziehen, denn wenn man hier bei 1 beginnt und weiter ausbreitet, erhält man natürlich die ungebremst eintreffende Welle. Verwendet man nun s-1, das bei großen Abständen verschwindet und in kurzer Entfernung endlich ist, dann erhält man genau das, was aus einer Welle kommt, die durch einen Schlitz geht. Die daraufhin folgende Streuung folgt also dem gewöhnlichen Huygensschen Prinzip. Wenn man sich das Huygenssche Prinzip ins Gedächtnis ruft, erhält man sofort das folgende Ergebnis: d(Sigma)/dt = Pi*x die Fourier-Transformation des s-1. Denn bei einem Gradienten bzw. bei einem Schlitzexperiment handelt es sich immer um die Fourier-Transformation; das ist die ausgehende Wellenlänge. Das ist jetzt die von der Eikonal-Näherung abgeleitete Formel, die d(Sigma)/dt als eine Funktion der S-Matrix ausdrückt. Die von mir vorhin hervorgehobene Eigenschaft b besagt, dass dies eine Funktion nur von t ist. Übertragen auf diese Gleichung im Kasten bedeutet das nur, dass es eine Funktion nur von b wird. Ich wiederhole: Die Auswahl von Eigenschaft b bedeutet nur, dass die Undurchlässigkeit des Protons dann, wenn man zu sehr hohen Energien greift, nur noch vom Einwirkungsparameter abhängt. Das ist dann ein geometrisches Bild. Anhand der aus einer der früheren Folien ersichtlichen experimentellen Daten über d(Sigma)/dt ist man nunmehr in der Lage, diese Gleichung umzukehren und s zu erhalten. Deshalb habe ich vorhin gesagt, dass s zu etwa 24 % in diesem Zentrum ist. Diese Art von Untersuchung hat ein Bild davon ergeben, wie das Proton aussieht. Ich werde jetzt mathematisch weiter ins Detail gehen, doch alles ist sehr grundlegend, dem Huygensschen Prinzip und dem Eikonalbild entlehnt. Eine völlig neue Mathematik ist wirklich nicht nötig. Eine der unter anderen Dingen wichtigsten Fragen lautet: Was sollte dieses s(b)... die vorherige Formel setzt den differenziellen Wirkungsquerschnitt mit dem Überlebenskoeffizienten s als Funktion des Einwirkungsparameters in Beziehung. Aber was ist s als Funktion des Einwirkungsparameters? Hier muss man auf ein etwas unausgegorenes Argument zurückgreifen, und eine wesentliche Eigenschaft, die bisher noch nicht in die Erörterung eingeflossen ist, tritt jetzt in den Vordergrund. Es handelt sich um Folgendes: Bei unseren Ausführungen stellten wir uns den Durchgang einer strukturlosen Welle durch ein Medium vor. Und wir würden diese Formel erhalten. Wir wissen aber, dass wir es bei der Proton-Proton-Streuung mit zwei ausgedehnten Objekten zu tun haben, die sich gegenseitig durchdringen. Diese Bild muss daher ein bisschen geändert werden – oder besser gesagt, es muss um die gleichzeitige Existenz einer begrenzten Ausdehnung jedes der kollidierenden Objekte ergänzt werden. Wir haben es hier mit einem über die Maßen komplizierten Thema zu tun, und derzeit gibt es kein allgemein anerkanntes Bild. Aber lassen Sie mich Ihnen zuerst ein unausgegorenes Argument vorstellen, das in den letzten fünf Jahren erstaunliche Unterstützung durch feldtheoretische Berechnungen erhalten hat. Die Idee sieht etwa folgendermaßen aus: Stellen wir uns eine pp-Streuung vor, wobei wir Wert darauf legen, dass sich im Labor ein stationäres Proton befindet. Dann haben wir ein eintreffendes Proton, das ich wegen der Lorentzkontraktion als abgeflachte Scheibe zeichne. Und dieses eintreffende Proton geht durch das stationäre Proton hindurch. Man erkennt natürlich sofort, dass die verschiedenen Teile des eintreffenden Protons das stationäre Proton in unterschiedlicher Stärke erleben. Als Folge davon wird aus diesem Bild des Überlebenskoeffizienten eine viel kompliziertere Angelegenheit. Nun, ein sehr unausgegorenes Argument würde folgendermaßen lauten: Der Überlebenskoeffizient muss zunächst ein Exponential sein. Das ist die herkömmliche Art zu sagen, dass dann, wenn Stärke vorhanden ist, eine Verdoppelung der Stärke zu einer geometrischen Absenkung des Überlebenskoeffizienten führt. Wenn sich die Stärke arithmetisch erhöht, geht der Überlebenskoeffizient natürlich geometrisch zurück. Das ist die Potenzierung. Die nächste Aussage lautet: Wie soll dieses Pi als Funktion von b aussehen; b ist in diesem Fall der Abstand zwischen den zwei Zentren. Aufgrund der Tatsache, dass man zwei Objekte hat, ist dieses b eine komplizierte Sache, doch ein Augenblick des Nachdenkens überzeugt einen davon, dass die einfachste Annahme in folgender Aussage besteht: Im ersten Proton gibt es eine Dichteverteilung, es gibt eine Dichteverteilung im zweiten Proton, und das ist nichts anderes als ein Faltungsintegral der beiden. Es handelt sich um eine Überschneidung; Faltungsintegral bedeutet Überschneidungsintegral. Und das ist natürlich die Mittelwertbildung. Man würde dies also als die Dichteverteilung im ersten Proton schreiben, verschachtelt mit einer Dichteverteilung des zweiten Protons. Als das niedergeschrieben wurde, lag dem natürlich keine detaillierte Feldtheorie zugrunde. Dem auch nicht. Es handelte sich um zwei unausgegorene Argumente, die vor etwa sechs Jahren vorgebracht wurden. Das wirklich Interessante daran war: Durch eine Reihe theoretischer Untersuchungen des Energieverhaltens der Feldtheorie bei hochenergetischer Streuung – in einem Diagramm nach dem anderen – stellte sich heraus, dass diese beiden Eigenschaften in erstaunlicher Weise mit den Untersuchungen übereinstimmen. Leider sind diese Untersuchungen nicht rigoros. Sie wurden in großer Ausführlichkeit durchgeführt und benötigten äußerst ausführliche und leistungsstarke Berechnungen, doch niemand schaffte es, alle Diagramme zu summieren. Es ist auch nicht klar, was mit der Summierung aller Feynman-Diagramme gemeint ist, denn es gibt sehr viele davon – es stellt sich also die Frage, in welcher Reihenfolge sie zu summieren sind. Wir können aber festhalten, dass diese intuitiven Vorstellungen von vielen dieser sehr komplizierten mathematischen Analysen durch Feynman-Diagramme in hohem Maße unterstützt wurden. Was ich jetzt sagen möchte, ist Folgendes: Aus den experimentellen Daten kann man das erhalten, man kann das Pi erhalten, bei dem es sich um die Undurchlässigkeit des Protons, der Proton-Proton-Kollision handelt. Wenn man das hier einsetzt, ist man in der Lage, die Dichteverteilung des Protons zu bestimmen. Schon vor etwa zehn Jahren wurde darüber spekuliert, dass sich diese Dichteverteilung möglicherweise proportional zur á la Hofstaedter gemessenen Ladungsverteilung des Protons verhält. Die experimentelle Übereinstimmung war sehr gut. Es fehlt die Präzision, doch die Übereinstimmung war angesichts der Unausgegorenheit dieser Argumente hervorragend; sie war wirklich erstaunlich. Wenn man insbesondere diesen Prozess rückwärts ablaufen lässt, die experimentelle Ladungsverteilung hier eingibt, in dieser Berechnung zurückgeht und bei der elastischen Streuung ankommt, stellt man fest, dass die elastische Streuung einen Abfall aufweist, der bis zum Moment der im Jahr 1968 durchgeführten Berechnung unentdeckt geblieben war. Dieser Abfall wurde später bei hohen Energien entdeckt, denn als man im CERN bis zu etwa 20 GeV ging, begann man bei t = 1,3 etwas zu sehen, was als Schulter bekannt ist. Das jüngste, soviel ich weiß noch nicht veröffentlichte ISR-Ergebnis zeigt an dieser Stelle tatsächlich einen extrem guten Abfall. Es ist natürlich, dass man das extrapoliert und argumentiert, dass dieser Abfall bei hohen Energien stärker ausgeprägt ist. Alle derzeitigen Ideen, die versuchen, diese Art von Daten anzugleichen, bewegen sich entlang diesen Linien – mit kleinen Abweichungen, die wir soeben erörtert haben. Verlassen wir nun das Problem der elastischen Streuung und wenden wir uns der inelastischen Streuung zu. Auf diese Diskussion der inelastischen Streuung, auch Fragmentationsprozess genannt, bezog sich Professor Hofstadter, als er den inklusiven Reaktionsprozess erörterte. Die inelastische Streuung, die hinter dieser Diskussion der inelastischen Streuung stehende Idee ist eine unmittelbare Verallgemeinerung der Vorstellungen, die wir im Rahmen der elastischen Streuung erörtert haben. Mit großer Freude denke ich daran, dass wir bei der Entwicklung der Idee des Fragmentierungsbildes an der Stone Brook unter anderem mit Max Benecke vom Max Planck Institut in München zusammengearbeitet haben. Lassen Sie mich kurz darlegen, wie die allgemeine Vorstellung aussieht. Die Idee ist die: Wenn man ein Proton hat, mit dem – sagen wir – ein Pion bei hoher Energie zusammenstößt, dann haben wir bei der elastischen Streuung gesagt, dass die überlebende Wellenlänge eine Funktion nur des Einwirkungsparameters wird. Das ist das bisher von uns betonte Bild der nullten Ordnung. Wir wissen aber alle, dass die elastische Streuung nur ein sehr kleiner Bruchteil des gesamten Wirkungsquerschnitts ist. Bei 1.500 GeV/c macht die elastische Streuung nur etwa 16 oder 17 % des gesamten Wirkungsquerschnitts aus. Der ganze Rest entfällt auf die inelastische Streuung. Das ist ebenfalls etwas sehr Natürliches an diesem Bild – dass man es nämlich symbolisch auf diese Weise zeichnen kann. Nach der Streuung ist dies das Pion, das ist das Proton. Dieses Proton beginnt zu vibrieren oder etwas von allein zu tun. Die Frage, die ich jetzt stelle, lautet: Ist ein Bild vorstellbar, in dem dieses eintreffende Pion nach dem Durchgang durch das Proton im ursprünglichen elastischen Zustand intakt bleibt und diese Amplitude eine Funktion nur von b wird, unabhängig von der eintreffenden Energie? Ist es gleichzeitig vorstellbar, dass ein inelastischer Prozess, der nicht diese S-Matrix aufweist, ebenfalls eine Funktion nur von b wird, unabhängig von der eintreffenden Energie? Anders ausgedrückt: Wenn das elastische s von der eintreffenden Energie unabhängig ist, sollte dann das inelastische s nicht ebenfalls von der eintreffenden Energie unabhängig sein? Wenn man versucht, ein Modell zu erstellen, irgendein mathematisches Modell mit vielen Bestandteilen und jeder Art von Wechselwirkung zwischen ihnen, kommt man rasch zu dem Schluss, dass es unmöglich eine Theorie geben kann, nach der sich dies einer Grenze annähert, jenes aber nicht, denn beim Prozess des Durchgangs findet zwischen den Bestandteilen hier und den Bestandteilen dort eine Menge Austausch von Energie, Impuls und Quantenzahlen statt. Und die elastische Streuung ist nur eines der Ergebnisse. Erweist sich die elastische Streuung als von der eintreffenden Energie unabhängig, dann muss für die inelastische Streuung, welche für die anderen Kanäle steht, das Gleiche gelten. Akzeptiert man das, würde natürlich dieses Pion nach dem Durchgang durch dieses vibrierende Proton nicht sehr lange stationär bleiben - es würde schließlich zerfallen. Dieser Prozess wurde Fragmentierung genannt. Insbesondere würde man zu der Aussage gelangen, dass das Fragmentationsprodukt eine von der eintreffenden Energie unabhängige Impulsverteilung im logarithmischen System aufweisen würde. Das nannten wir die Hypothese der limitierenden Fragmentierung. Ich wiederhole. Die Hypothese der limitierenden Fragmentierung trifft eine einfache Aussage: Wenn ich in einem Labor ein Proton habe und dieses Proton mit einem anderen Hadron beschieße, würde dieses Hadron nach dem Durchgang zerfallen. Dieses Labor-Proton würde zerfallen, doch der Zerfall, der Impulszerfall des Labor-Protons wäre unabhängig von der eintreffenden Energie. Wenn man das Labor-Proton mit dem zehnfachen Eintrittsimpuls dahinsausen lassen würde, würde das Zerfallsprodukt dennoch das Gleiche bleiben. Diese Idee wurde jüngst am ISR einem Präzisionstest unterzogen. In den vergangenen drei oder vier Jahren durchlief sie viele andere Tests, von denen einige den Daten, die uns Professor Hofstadter präsentierte, sehr stark ähnelten. Doch dank einer auf ...(unverständlich 32.21) zurückzuführenden Idee wurde es am ISR klar, dass man dieses Experiment auf präzise Art und Weise durchführen kann. Die Aussage, die wir vorhin getroffen haben, kann nämlich in das folgende Bild übersetzt werden: Wenn ich mir eine 27 GeV-Kollision an einem 27 GeV-Protonenstrahl vorstelle, ist das Proton in diesem Bild nicht erwähnenswert. Doch in seinem Ruhezustand wird es in Teilchen zerfallen, und deshalb wird es im ISR-Zustand zu abgehenden Teilchen ähnlich diesem und das würde zu abgehenden Teilchen ähnlich diesem. Diese Fragmente... es handelt sich um verwirrende Fragmente im Zentrum, doch vergessen wir sie. Diese sich vorwärts bewegenden sind ein von der Fragmentierung herrührender Spritzer; diese und jene sind die Fragmentierung hiervon. Nun nehmen wir an, ich lasse sie auf die folgende Art und Weise kollidieren: In einer asymmetrischen Kollision mit 15 GeV auf einer Seite und mit 27 GeV auf der anderen Seite. Da die Fragmentierung dieses 27 GeV-Teilchens für dieses und dieses gleich ist – das ist das Konzept, das wir gerade entwickeln – und die Lorentztransformation vom Ruhesystem dieses Protons zum ISR-Zustand genau die gleiche ist wie die für dieses Proton im Ruhezustand zum ISR-Zustand, unabhängig von diesem, sollte die Vorwärtsverteilung in diesem Fall die gleiche sein wie in diesem Fall, während die Verteilung auf dieser Seite nicht die gleiche wäre. Nun, das ist etwas, das sich auf präzise Art und Weise testen lässt, denn die Geometrie der Detektoren für diese Teilchen und die Geometrie der Detektoren für diese Teilchen sind genau gleich. Deshalb benötigt sind keine geometrischen Korrekturen erforderlich. Das Experiment wurde unlängst durchgeführt. Ich glaube, die Arbeiten wurden noch nicht veröffentlicht. Ich habe mehrere Folien, aber ich denke nicht, dass ich so viel Zeit habe. Ich präsentiere Ihnen also nur diese hier, und das ist nicht einmal die interessanteste. Das ist eine Winkelverteilung der geladenen Fragmente zweier ISR-Strahlen der Abgangsprodukte bei einer ISR-Kollision. Die eingekreisten Punkte sind 15 GeV an 15 GeV; das ist die Vorwärtsneigung, das sind Rückwärtsneigungen. Zur besseren Lesbarkeit wurden sie mit einem Tangentenlogarithmus von Theta/2 eingezeichnet. Für unsere Zwecke müssen wir uns darüber keine Sorgen machen. Sehen wir uns die 15 GeV an, das sind die Kreise, und sehen wir uns die 27 GeV an, das sind die Dreiecke. Dann wechselte man auf dieser Seite in den asymmetrischen Modus von 27 und auf dieser Seite in den von 15. Und man fand die schwarzen Punkte. Man sieht, die schwarzen Punkte folgen den Dreiecken auf dieser Seite in sehr engem Abstand, und auf dieser Seite folgen sie den Kreisen. Daran zeigt sich, dass die Fragmentierung eines 15 GeV-Teilchens bzw. die eines 27 GeV-Teilchens jeweils unabhängig von der Energie desjenigen Teilchens ist, von dem es getroffen wird. Das ist natürlich die Grundprämisse, die wir erörtern. Es gab noch andere Tests, mit denen ich Sie nicht behellige. Ich springe zum dritten Thema, nämlich zu der Frage: Gibt es ein immer dunkleres Proton? Auf völlig unerwartete Weise haben die gleichzeitigen Resultate zweier Experimente am CERN für große Aufregung gesorgt. Das eine Experiment ist eine Rom-CERN-Zusammenarbeit; das andere ist eine Zusammenarbeit zwischen Pisa und Stone Brook. Beide messen den gesamten Wirkungsquerschnitt bei den höchsten ISR-Energien. Ohne wirklichen Grund wurde allgemein angenommen, dass Wirkungsquerschnitte für P-P bei ungefähr 39 Millibar unverändert bleiben. Diese Annahme beruhte darauf, dass die Daten der niedrigeren Energie eindeutig in diese Richtung wiesen. Doch beide Gruppen der ISR-Daten wiesen darauf hin, dass das anscheinend nicht wahr ist. Hier sind die Daten aus einer der beiden Gemeinschaftsarbeiten aufgetragen; es ist die Pisa-Stone Brook-Zusammenarbeit. Die andere erbrachte genau die gleichen Daten – das gleiche Ergebnis mit vergleichbaren Fehlern. Hier ist der Laborimpuls eingezeichnet; er entspricht 100 GeV... er entspricht 1.000 GeV. Hier ist der gesamte Wirkungsquerschnitt aufgetragen – er beträgt nicht 0, er beträgt 35, 40 und 45. Das waren die früheren Daten einschließlich der Serpukhov-Daten bis zu etwa 70 GeV. Diese Kreise sind die nicht sehr genauen Daten des National Accelerator Laboratory mit Blasenkammern. Wie Sie wissen, ergeben Blasenkammern keine ausreichend guten statistischen Daten, weshalb es hier große Fehlerbalken gibt. Das sind die neuen ISR-Daten. Wenn das ungefähr 39 Millibar sind, lassen diese eindeutig einen 10 %-igen Anstieg auf etwa 43 Millibar erkennen. Derzeit werden diese Experimente bis zur Grenze der CERN ISR-Maschine bei 31 GeV getrieben; das würde etwa 2.000 GeV entsprechen. Vorläufige Befunde weisen darauf hin, dass der Wirkungsquerschnitt tatsächlich etwas stärker angestiegen ist. Das führte zu vielen, vielen Diskussionen, denn wenn es auch nicht allgemein erwartet wurde, wurde es doch bisher nicht erörtert. Der Erste, der sich damit befasste, war anscheinend Professor Heisenberg. In einem Artikel – ich glaube, es war in den frühen Fünfzigern, aber ich bin mir nicht ganz sicher – erörterte er die Möglichkeit eines Wirkungsquerschnitts, eines gesamten Wirkungsquerschnitts durch die Steigerung der Bedeutung von Prozessen nach Art der Bremsstrahlung, die mit der eintreffenden Energie ansteigen würde, wie der Logarithmus der im Labor eintreffenden Energie zum Quadrat. Soweit ich weiß, schenkte man dieser Erörterung später keine große Aufmerksamkeit. Dann, etwa in den Jahren 1968, 1969, 1970, wurden T.T. Wu aus Harvard und Hung Cheng vom MIT in ihren umfangreichen Studien über die Hochenergiegrenze von Feynman-Diagrammen, die ich vorhin erwähnt habe, in eine Art Sackgasse geführt. Das kam daher, dass einige Erkenntnisse, die sie darüber gewonnen hatten, wie die Diagramme zu summieren waren, zu Ergebnissen führten, die mit der Unitarität nicht vereinbar waren. Nach langen Untersuchungen und untereinander geführten Debatten erkühnten sie sich schließlich zu dem Schluss, dass alles vereinbar wäre, wenn man die Hypothese aufstellt, dass der gesamte Wirkungsquerschnitt tatsächlich, wie von Professor Heisenberg erörtert, wie der Logarithmus von e^2 ansteigt. Das Bild, das sie erörtern, ist sehr kompliziert, denn es entspringt asymptotischen Summierungen einer enormen Zahl von Feynman-Diagrammen, und sie waren nicht in der Lage, stringente Argumente vorzubringen. Ich persönlich glaube nicht, dass aus dieser Art von Bildern auch nur ein stringentes Argument hervorgeht. Dennoch sind die allgemeinen Eigenschaften, die physikalischen Eigenschaften aus ihren Abhandlungen, ziemlich einleuchtend. Und es erweist sich, dass die Eikonal-Näherung, die von uns erörterte Exponentiations-Abbildung und die Faltintegral-Vorstellungen in erstaunlicher Weise allesamt diesen Erkenntnissen entsprangen, die sie aus den mathematischen Untersuchungen von Feynman-Diagrammen abgeleitet hatten. Wenn man sich diese Abbildungen ansieht, dann ist das Bild in der Tat physikalisch extrem simpel. Der zunehmende Wirkungsquerschnitt bei hoher Energie ist auf die Tatsache zurückzuführen, dass das Proton einem anderen Proton als immer dunkleres Objekt erscheint. Wenn ich also jetzt die Undurchlässigkeit als eine Funktion des Einwirkungsparameters einzeichne, stellt man fest, dass es ein immer dunkleres Objekt wird. Ich habe das nicht symmetrisch gezeichnet; es sollte natürlich symmetrisch sein. Wenn man höhere Energien nimmt, viel höhere Energien, dann nimmt die Undurchlässigkeit zu. Allerdings ist die Undurchlässigkeit nach unserer Definition eine dimensionslose Größe. Wenn sie im Vergleich zu 1 sehr groß wird, dann wird e^Pi verringert und damit sehr klein. Wenn ich nun den Überlebenskoeffizienten eintrage, der nichts anderes ist als e^Pi, dann ergeben diese beiden Abbildungen nichts anderes als das, das ist 1, das bedeutet keine Undurchlässigkeit. Im Zentrum gibt es Absorption. Wenn nun die Undurchlässigkeit sehr groß wird, würde es natürlich so aussehen. Wenn die Undurchlässigkeit wirklich gewaltig wird, dann wird aus diesem Bild eine Schüssel, und schließlich sieht es immer mehr so aus. Dieser Radius nimmt zu, weil die Undurchlässigkeit überall in die Höhe geschraubt wird. Doch sobald die Undurchlässigkeit im Vergleich zu 1 groß ist, bleibt s davon unberührt, da s bereits 0 ist. Und das ist s. Nimmt man jetzt 1-s – das ist der Schatten, das ist die Art und Weise, wie es streut, das ergibt die elastische Streuung... wenn man also diese Abbildung nimmt, dann sieht man, dass man nur ein bisschen Mathematik hinzufügen muss, und schon erkennt man, dass dieser Radius wie der Logarithmus der eintreffenden Energie zunimmt. Und daher würde der Wirkungsquerschnitt – der gesamte Wirkungsquerschnitt, der die zweifache geometrische Größe davon aufweist – wie der Logarithmus von e^2 ansteigen. Die elastische Streuung wäre im Vergleich zum gesamten Wirkungsquerschnitt die einer schwarzen Scheibe, von der bekannt ist, dass sie 1 bis 2 beträgt. Es gäbe nur minimale Streuungen, die nur Nullen einer Betafunktion wären. All das sind von Chen und Wu im Jahr 1970 aufgestellte Vorhersagen. Derzeit wird heiß darüber diskutiert, ob man ihnen das ganze Paket abkaufen muss – ob wir nunmehr der Ansicht sind, dass der gesamte Wirkungsquerschnitt zunimmt. Dieses Thema wird derzeit intensiv diskutiert, und bisher gibt es keinen allgemein anerkannten Konsens. Das Problem der aus der zunehmenden Schwärze folgenden Konsequenzen für die elastischen Ereignisses ist ein weiteres Thema, das heiß diskutiert wird. Ich habe nicht mehr viel Zeit, weshalb ich zum vierten Punkt komme, der aus einigen allgemeinen Bemerkungen besteht. Was hat man gelernt? Wenn man diese Frage Hochenergietheoretikern heute stellt, erhält man von verschiedenen Personen verschiedene Antworten. Denn für jeden, der dieses Gebiet beobachtet, ist klar, dass das Gebiet noch lange nicht am Ende seiner Bemühungen angelangt ist. Wir haben eine Menge sehr interessanter Dinge mit vielen Einzelheiten gelernt, die ein gewisses Bild ergeben, doch verschiedene Personen würden verschiedene Punkte dieses ziemlich komplexen Phänomens Hochenergiekollision unterschiedlich betonen. Daher würden verschiedene Personen unterschiedliche Vorhersagen darüber treffen, was uns die Zukunft über die Struktur des Protons verraten wird. Was Sie von mir hören, ist also eine in hohem Maße persönliche Ansicht darüber, wie sich die Dinge möglicherweise entwickeln. Meiner Ansicht nach ist Eines klar: Die Vorstellung, dass ein Hadron ein Teilchen mit den Abmessungen 0,7 x 10^-13 Zentimeter mit vielen inneren Freiheitsgraden ist, ist anhand aller experimentellen Daten so einleuchtend, dass dies vielleicht als nullte Näherung betrachtet werden sollte. Dem könnten Sie jetzt widersprechen und sagen, dass das vielleicht gefährlich ist, denn wenn wir behaupten, dass es eine geometrische Größe von 0,7 x 10^-13 Zentimetern gibt, ist das immer noch eine theoretische Aussage. Was wir untersuchen, ist stets die Winkelverteilung, nämlich die Impulsübertragung. Die Impulsübertragung ist die kanonische Konjugation des Koordinatenraums. Und da es noch niemandem gelungen ist, eine Reihe von Protonen nach Art von Kristallen miteinander zu verknüpfen, woher wissen wir dann, dass die Vorstellung eines variablen Impulstransfers und eines variablen Koordinatenraums nicht nur theoretische Zwecke erfüllt? Anders ausgedrückt: Ist die Koordinatenvariable wirklich ein sinnvolles Konzept, abgesehen von der Tatsache, dass sie eine Fourier-Transformation des exponentiell direkt beobachtbaren Impulstransfers ist? Ich glaube, das ist eine sehr wichtige Frage, doch ich bin auch der Meinung, dass es gute Gründe dafür gibt, die Koordinatenraumbeschreibung ernst zu nehmen. Denn wie wir von Professor Hofstadter wissen, haben uns quantenelektrodynamische Experimente unabhängig von hadronischer Struktur gezeigt, dass uns die Quantenelektrodynamik, also die Vermählung von Quantenmechanik, feldtheoretischen Konzepten und Faraday-Maxwells Elektrodynamik, ein Bild des Elektromagnetismus in der Raumzeit vermittelt hat, das bis auf mindestens etwa 10^-14 Zentimeter genau ist, vielleicht sogar noch genauer. Das bedeutet, dass das klassische Konzept von Raum und Zeit, zumindest á la Elektromagnetismus, mit Sicherheit für viel kleinere Größen gilt als 0,7 x 10^-13 Zentimeter, der charakteristischen Hadron-Größe. Der Koordinatenraum lässt sich also durch den Elektromagnetismus sinnvollerweise als ein euklidischer Raum beschreiben, wie wir ihn von atomaren Größen extrapoliert haben. Wenn man das akzeptiert, wird man versuchen, hadronische Strukturen als Manifestationen zusätzlicher hadronischer Freiheitsgrade in der auf Feldtheorie und Elektrodynamik beruhenden Raum-Zeit-Struktur zu beschreiben. Jedenfalls glaube ich, dass das ein vernünftiger Ansatz ist. Wir müssen aber stets daran denken, dass es sich bei dieser hadronischen Struktur, bei dieser Hadron-Verteilung, die etwa 0,7 fermi groß ist, um einen Tropfen mit vielen Freiheitsgraden handelt. In diesem Sinn hat sie viele Eigenschaften, die denen, die wir von einem Tropfen erwarten, sehr ähnlich sind. Und mit Tropfen haben wir große Erfahrung. Wir haben Erfahrung mit Wassertropfen, wir haben Erfahrung mit Tropfen nuklearer Materie. Ich möchte aber betonen, dass wir eines nicht vergessen dürfen: Dieser Tropfen, um den es sich beim Hadron handelt, weist auch einige Eigenschaften auf, die sich von denen der früheren, uns vertrauten Tropfen stark unterscheiden. Etwa von denen eines Wassertropfens oder eines Tropfens nuklearer Materie. Dieser Unterschied lässt sich am besten auf die folgende Weise beschreiben: Bei den bekannten Tropfen hat man immer die Möglichkeit, den Tropfen in zwei Teile zu schneiden. Man kann einen großen Atomkern in zwei Teile schneiden, und er wird zu zwei geometrisch kleineren Atomkernen. Das ist nichts anderes als Kernspaltung bzw. Kernspaltung ist nichts anderes als eine Art des Prozesses der Zweiteilung. Mit einem Wassertropfen kann man das Gleiche machen, aber nicht mit einem Proton. Würde ich ein Proton mit einem imaginären Messer in zwei Teile schneiden, dann würde jede Region wieder die ursprüngliche Größe einnehmen, und eine von ihnen würde vielleicht zu einem Proton werden. Die andere würde ein Pion werden. Oder eine von ihnen würde ein Neutron werden, die andere ein Pion oder ein Rho-Meson. Aber das Proton und das Rho-Meson oder das Proton und das Pion – sie alle hätten die ursprüngliche Größe. In gewisser Weise stellen also diese 0,7 fermi eine Mindestquantengröße der hadronischen Physik dar. Es gibt Abweichungen davon, es handelt sich um eine Größenordnung, etwa 0,7 fermi. Daher muss jede Theorie, mit der man versucht, hadronische Physik zu erklären, diese Eigenschaft beinhalten. Anderenfalls hat man Bestandteile, die mit dem, was wir bisher beobachtet haben, nicht übereinstimmen. Ist das unvorstellbar, ist das eine stimmige Vorstellung – eine bestimmte Art von Materie mit vielen inneren Freiheitsgraden, und doch gibt es eine Mindestgröße, die man nicht unterschreiten darf? Die Antwort lautet ja, das ist überhaupt nicht seltsam. Wenn man ein System mit unbegrenzten Freiheitsgraden hat, die eng aneinander gekoppelt sind, dann ist es sehr einfach, wenn nicht sogar die natürlichste Sache der Welt, dass das Element Strahlenanregungen aufweist, die von endlicher Größe sind und für die eine endliche Mindestgrößenordnung gilt. Das ist allerdings ein äußerst kompliziertes mathematisches Thema, mit dessen Untersuchung wir erst begonnen haben. Doch Ideen wie diese machen vielen der praktizierenden Hochenergiephysiker große Freude. Und wir hoffen, dass wir langsam lernen werden, damit umzugehen und die Struktur des Protons besser zu verstehen. Vielen Dank. Beifall

Chen Yang (1973)

The Structure of the Proton

Chen Yang (1973)

The Structure of the Proton

Comment

When Chen Ning Yang and Tsung-Dao Lee received the 1957 Nobel Prize in Physics for their theoretical prediction of parity violation, they were still in their thirties and could look forward to long careers as theoretical physicists. They were both invited to Lindau for the physics meeting in 1959, but none of them accepted the invitation. When Yang gave the present lecture in 1973, it was his first visit to a Lindau Meeting and Lee didn’t lecture in Lindau until 1994. So for many generations of students and young researchers participating in the Lindau Meetings, Yang and Lee were only names on the long list of Nobel Laureates that did not accept the Lindau invitations, like Erwin Schrödinger, Richard Feynman and several others. So when Yang actually came in 1973, it was an event worth noting down. His lecture on the structure of the proton could also be given an alternative title, e.g., scattering theoretical description of proton-proton collisions. In the audience was Robert Hofstadter, who had received a Nobel Prize in Physics 1961 for his studies of electron scattering on atomic nuclei. Hofstadter had discovered that the proton has a charge distribution with Gaussian tails and this is the starting point for Yang in the first part of his lecture which describes results from experiments studying elastic scattering of high-energy protons on protons at Brookhaven and CERN. In particular the results from the Intersecting Storage Rings at CERN are referred to repeatedly. In 1973, the quark structure of the proton had not been accepted, but experiments that would eventually lead to the acceptance (and a Nobel Prize in Physics 1990 to Jerome Friedman, Henry Kendall and Richard Taylor) were ongoing. Yang shows himself as a master theoretician in managing to describe almost all aspects of proton-proton collisons in a general physical approximation which circumvents the need for massive detailed field-theoretical calculations.Anders Bárány

Cite


Specify width: px

Share

COPYRIGHT

Cite


Specify width: px

Share

COPYRIGHT


Related Content