Douglas Osheroff (2008) - How Advances in Science are Made

How advances in science are made, and how they may come to benefit mankind at large are complex issues

Well, I hope this talk will give some good advice to the students in the audience but I think it has advice which is probably useful for all of us. I illustrate my talk with some of my own photographs, this of course is San Francisco and the Golden Gate Bridge. The first of 3 messages that I want to discuss is that those discoveries that most changed the way we think about nature cannot be anticipated, how then are such discoveries made and are there research strategies that can substantially increase one’s chances of making such a discovery. And this is part of the Grand Canyon at sun set. So I will illustrate this idea with a link chain of discoveries and inventions starting with this man here, Heike Kamerlingh Onnes, Kamerlingh Onnes was in a competition with Dewar to see who would first liquefy the lightest and most inert of the atmosphere gases. And it looked like Dewar had won near the turn of the last century, 1890 something when he succeeded in liquefying hydrogen. But eventually Kamerlingh Onnes was able to acquire enough helium, I believe it was the gas that would fill a small party balloon, that he could attempt to liquefy it and succeeded in doing so in 1908. And then he did with the liquid helium exactly what Dewar had done with the hydrogen, he pumped on the vapour above the liquid, causing the liquid to further cool, looking for the temperature where helium solidified. And this was a fairly simple task for Dewar. He started at 21 Kelvin at 1 atmosphere and found that hydrogen solidified at 14 Kelvin under its own vapour pressure. But Kamerlingh Onnes after 2 years was unable to make helium solidify. Now I indeed have cooled liquid helium to 1/10,000 of a Kelvin and it still remains very happily in a liquid state. The reason has to do with quantum mechanics and the Heisenberg uncertainty principle, which I won’t describe but in fact it’s something that I think all of you understand but at that time quantum mechanics was just being developed. So after failing in what he felt was his main mission over a 2 year period, Kamerlingh Onnes didn’t give up, he instead looked around for some interesting question of the day that he could perhaps answer with his new refrigeration device. And there was an argument as to what would happen to the conductivity of metals as they were cooled towards absolute zero. One argument was that if the metal was very pure that as you cooled it you eliminated the lattice vibrations. And keep in mind this is really happening not very many years after the discovery of the electron. So it’s quite a remarkable thing that these arguments were even possible to be made. Anyway the idea was then that the electrical resistance would go slowly to zero as you eliminated these thermal vibrations of the lattice. But the other school of thought was that the conduction electrons in the metal would re-condense on the ions from which they had come. The system would become completely neutral and electrical conductivity would cease. So Kamerlingh Onnes acquired a very pure sample of mercury and gave it to his graduate student and asked him to measure the electrical resistance to very low temperatures. I put the students name up here, Gilles Holst, I dare say back in those days Kamerlingh Onnes for instance was not of a mind to put his student’s names on the papers. So I’m very lucky that I was not born during this time. The data shown here as the green dots and this is the resistance as a function of temperature and you can see that in fact the resistance was dropping slowly towards zero as the temperature cooled. But then there was a discontinuous drop in the resistance, to a value which was less than 10 to the minus 5 Ohms. That being the resolution of their instrument. So it took Gilles Holst a while to convince his mentor that this wasn’t simply due to an electrical lead falling off of the sample but ultimately of course these were reproducible measurements and this was the first evidence for super conductivity which I would guess has been studied every year since that time. But for the next 15 years if you wanted to study super conductivity you had to come to Leiden, to Kamerlingh Onnes’s laboratory, he was the only one that could reach these very low temperatures. So for 15 years he probably cooled his liquid cryogenic helium 4 down through the temperature of 2.17 Kelvin, probably hundreds of times. Never noticing, never realising that the liquid helium itself was undergoing a phase transition to a super fluid state which is almost as remarkable as the super conducting state itself. By the way his Nobel lecture was on super conductivity or at least these very unusual measurements that they had made. So in fact Kamerlingh Onnes had written in his lab book at some point that the helium appeared to stop boiling at 2 Kelvin but he never actually tried to figure out why this was the case. But let’s look at the research strategies that allowed this discovery to occur. First of all use the best instrumentation available, in this case I’m really talking about the liquefaction facilities that Kamerlingh Onnes developed which really allowed him to look at, into an unexplored part of the physical landscape. He didn’t reinvent those technologies that he could borrow however and Dewar had invented the Dewar flask and Kamerlingh Onnes was very happy to borrow that even though these 2 were rather staunch competitors with one another. Now this is a really useful one I think, that after trying for 2 years to determine where helium solidified, Kamerlingh Onnes gave up on that experiment but he did not give up, as Dewar had done, in studies at low temperatures. So he looked around for something new and I would say that in general failure may well be an invitation to try something new, do not think of it as an invitation to get out of the field. And finally beware of subtle unexplained behaviour, don’t dismiss it. I mean frequently nature does not knock with a very loud sound but rather a very soft whisper and you have to be aware of subtle behaviour which may be in fact a sign that there’s interesting physics to be had. Well no one received the Nobel Prize for discovering the super fluid transition of helium 4. The person that came close was this person here, the transition was known about, one didn’t really understand what was going on. Pyotr Kapitsa in the bleak winter of 1957, in 1937, pardon me, in Moscow determined that the viscosity of liquid helium 4 below this temperature was less than 1 nano poise and for that he shared the 1978 Nobel prize for physics with 2 people whose research field had really very little to do with his own and those were Penzias and Wilson. Arnold Penzias having been my boss’s, boss’s boss for many years at AT and T Bell Laboratories. So Penzias and Wilson were the benefactors of the fact that AT and T had been doing experiments on satellite telecommunications. And they were given a piece of very high tech equipment by AT and T and allowed to use that to study radio noise in astrophysics. This is that very high tech piece of equipment now. This is a hornet antenna which actually has many advantages, it doesn’t see signals coming from the ground. But what was really interesting was what was inside here, there was in fact a very special, very low noise amplifier. Thanks to this gentleman here, this is Charles Townes who invented the maser, this is actually maser number 2, ammonia maser number 2 actually at Columbia University, in order to do very high resolution molecular spectroscopy. But very soon after that in fact Charles Townes realised that one could use this maser action to amplify weak microwave signals. And inside that shed was in fact a ruby rod which was cooled to a temperature of 4.2 Kelvin that would amplify microwave signals without adding substantial amounts of noise to it, in fact this entire system, the antenna plus the amplifiers had an integrated noise signal of 19 Kelvin. So that was actually very good value at that time. This is the first data, now I have to explain what this is. This is called a strip chart recorder paper. I don’t think students know what that is anymore. So the idea is that the paper moves past the pen which moves horizontally back and forth and here they’re recording the signal coming from the antenna. And then they actually put in a switch, a microwave switch which allowed them to then compare that signal to the signal coming from a black body radiating at a temperature of 4.2 Kelvin. So that’s the signal here. And then they do some calibrations and their conclusion was that there was excess noise in the system, apparently coming in from the antenna, although the point of the antenna in a position in space where there were known to be no radio sources. The excess noise was about 3 Kelvin. So they then went back and looked at their apparatus. And what they found was in fact that the pigeons had been roosting inside the antenna. So they said ah, so they cleaned out the pigeon nests and mopped up the pigeon droppings and soldered a few corroded copper plates back in place but nothing that they could do would make this excess noise go away and moreover the noise wasn’t just in this particular place in the sky but in fact wherever they moved their antenna they saw the same noise. So particular Arnold Penzias was very vexed by this and one day he was having a conversation with a Professor Burke up at MIT and Burke suggested that Penzias should call up Professor Robert Dicke at Princeton because Dicke had someone in his group, a Professor Peoples, who had a theory that suggested that as the universe expanded after the big bang that the radiation present would separate from the matter once the matter became neutral. That is when electrons and protons combine to form neutral hydrogen. And so they were in fact looking for this remnant magnetisation. Now I of course at this time, this was 1964, I was a freshman at Caltech but later I was fortunate to be on, serve on a committee with David Wilkinson who was one of the members of Dicke’s group and he was present when that phone call came through. And he described it to me, how Dicke kept asking if Penzias and Wilson had tried this and tried that and what were the circumstances. And eventually he agreed that his group would go up to Crawford Hill to look at Penzias and Wilson’s data. Then he hung up the phone and turned to a few members of his group that were in his office and said: "Gentlemen, we have been scooped." Because in fact Dicke was looking for this but Dicke’s receiver system was based on conventional tube amplifiers and it had an integrated noise temperature of 2,000 Kelvin. So let’s look at the research strategies that allowed this serendipitous discovery as far as Penzias and Wilson were concerned to occur. First use the best technology available and most of that was provided by AT and T so in fact they borrowed a lot of the equipment that they needed. However they added this one key feature which allowed them to make absolute noise measurement, the first absolute radio noise measurements coming from extra terrestrial sources that had ever been seen. Looking at the region of parameter space that is unexplored and again they were the first people to make such absolute measurements. And finally, and this is very important for experimentalists, understand what your instrumentation is measuring. If you do not have confidence in what your instrumentation is measuring and you see some subtle variation from what you expected, you will probably attribute it to your ignorance in understanding your equipment. And you are very likely to miss something, again nature doesn’t knock loudly, she whispers very softly. So since that time of course we’ve had the Kobe Satellite project and this, the intensity of that radiation is the function of wave length, establishing its temperature at 2.725 Kelvin. I think more interestingly perhaps is the fact that if you look at the variation in temperature of that radiation over the sky, these again are plotted in galactic coordinates. You find that in one direction, the direction that you are moving through the local universe, that that radiation is Doppler shifted to a higher temperature and in the opposite direction to a lower temperature. So it’s easy to remove that dipolar effect and then what you see is the plain of the Milky Way galaxy. And I think it’s harder to remove that but if you do that you’re still left with these fluctuations which I think are typically a few millionth’s of a degree, they’re very small things. but in fact the people that had designed this project and looked at these, realised that these signals which were reproducible even when they were very, very small, were evidence for fluctuations in the temperature which was really due to fluctuations in the density of the universe at the point where matter and radiation decouple from one another. So this in fact is a very active area of research and it allows us to study the nature of the universe just 400,000 years after the big bang. A more recent satellite was WMAP, the W is for David Wilkinson who regrettably died before this project got in orbit, that’s one of the problems with doing a project that has a long time line. But now you see very detailed structure in that radiation and one can do a multiple moment expansion of that positional spectrum and find that in fact those, the fluctuations actually agree very well with models including inflation. So for that work, that is the Kobe Satellite work, John Mather and George Smoot who of course you’ve already heard talk here, shared the 2006 Nobel Prize for physics. Well now comes the second of my 3 messages and that is the process of advancing science often leads to inventions or technologies that directly benefit mankind, however it is impossible to tell from where an advance will come that might solve the problem facing mankind. That is the inverse problem. That is to say you may have a technology and not know where it goes but in fact if you have a need it’s very difficult to tell where the technology will come from. Consider just one example NMR which is quite a remarkable, this by the way is part of the Iguazu Falls which is also a remarkable thing to visit if you have the chance, its at the border between Brazil and Paraguay, Argentina, sorry. So in fact NMR was invented in 1946 by these 2 gentlemen, Felix Bloch who was at Stanford University and Ed Purcell who was at Harvard. Ironically I knew Ed Purcell but I did not ever know Felix Bloch. Well when they got the prize they went to Stockholm, 6 years after the invention of NMR, I am sure that they were asked what is NMR going to be good for, because people ask me what super fluid helium 3 was likely to be good for, some 20 years after it was discovered. And from people that I’ve talked to at Stanford, they claim that when asked what NMR might be good for, Felix Bloch replied damn little. To Felix what they had done was they were studying the distribution of charge in atomic nuclei that had nothing to do with solving problems for mankind. Ed Purcell being a bit more thoughtful said perhaps you could use NMR to calibrate magnetic fields. So lets see what's happened to NMR, eventually people could make very uniform magnetic fields and then when they looked at protons in some organic solvent for instance they found that the protons didn’t all resonate at the same frequencies, there were triplets and quadruplets. And these were due to chemical and spin shifts in these molecules. And at this point, once this was realised NMR became an essential tool of organic chemists all over the world. Richard Ernst ported Fourier transform spectroscopy which I think had been developed by Erwin Hahn at UC Berkeley to NMR. And he working with Kurt Wüthrich were able to actually do what they called 2 dimensional NMR but these are frequency dimensions where they would tip one spin and then see how that changed the frequency of another spin. That allows you to determine something about the bond length. And as a result of that work Richard Ernst was awarded the Nobel Prize, not in physics but in chemistry in 1991. Kurt Wüthrich continued working however and ultimately he was able to determine the 3 dimensional conformation of even small proteins in aqueous solution, this is the bovine pancreatic trypsin inhibitor which is regarded as the protein structure is best known. And in 2002 Kurt Wüthrich was awarded his own Nobel Prize in chemistry for his work. However we’re not done because back starting in the early ‘70’s people began to realise that if you applied not a very uniform magnetic field but one with a gradient, that is to say that it was larger lets say at the bottom than the top or something like that, one would encrypt information about the position of the various nuclei that were contributing to the NMR signal and if you do that in 3 dimensions you can get these beautiful medical images showing MRI. Now I personally have had both of my knees MRI’d and this is a very healthy knee but mine are not. And for that work Paul Lauterbur and Peter Mansfield shared the Nobel Prize for physiology or medicine just one year after Kurt Wüthrich was awarded the Nobel Prize in chemistry. I should tell you, well I’ll tell you about that later. I think it’s a possibility that there will be a fifth Nobel prize for NMR because in the early ‘90’s Seiji Ogawa working in the biophysics department at AT and T Bell laboratories, and this was a serendipitous discovery, he was looking at rat brains and finding that if he had pulse sequences that were sensitive to the rate, that the protons returned along the magnetic field, that you could image those places in the brain that were processing information because they were sensitive to the oxygenation state of the haemoglobin. And FMRI as its called, functional MRI is really taking psychology and making it from a social science into a natural science which is quite an amazing thing. I want to talk the rest of the time about my own discovery because I think I understand a little bit better and I can make it look like as it was, a completely serendipitous discovery, one in which we hadn’t a clue what it was that we had discovered when we discovered it. And I think that’s frequently the way these things go. The history of helium 3 is rather interesting, it doesn’t exist in sufficient abundance for one to actually create a pure sample, however it was in 1948, working at Los Alamos National Laboratory that Ed Hammel first liquefied helium 3 and measured vapour pressure above the liquid. Now Ed Hammel was in a group that was working on the hydrogen bomb they had lots of tritium around and of course the tritium decays into helium 3. So throughout the 1950’s and even ‘60’s low temperature physicists all over the world studied the properties of liquid helium 3. The reason it’s interesting is helium 3 atoms have a net spin of one ½, so they are Fermi particles like conduction electrons and metals. And you see a lot of the same behaviour. In 1957 Bardeen Cooper and Schrieffer published their theory of super conductivity and very soon it became clear to some theorists such as Philip Anderson, a good friend of mine that this theory might be modified to suggest that other very, fluids of Fermi particles at low temperatures might exhibit similar behaviour. And the first paper was published in 1959 suggested a transition temperature to a super fluid state of 80 mili degrees. Within about 2/3 of a decade people had reached temperatures as low as 2,000th of a degree, did not see any super fluidity. I became a graduate student in 1967 and at that time the conventional wisdom was that BCS super fluidity in helium 3 was a pipe dream by the theorists. Now I don’t know if you guys know what a pipe dream means but that means you’re smoking something that you shouldn’t be smoking. So however when I came to Cornel in fact there were new refrigeration technologies being developed such as the helium 3, helium 4 dilution refrigerator and I felt that would give me a promise of being able to look at nature in a new and very different realm. And that is why I became a member of the low temperature group. But the thing that really sealed it for me was the talk by Bob Richardson who may or may not be in this audience right now, Bob, ok, and that was based on a speculation by Isaac Pomeranchuk who was a member of the Landau school. Made in 1950 just one year after the publication of the results by Ed Hammel’s group. He realised that in the solid, the nuclear spins would be very weakly interacting and so in fact that system would have an entropy of r log 2, just 2 states available to very low temperatures. Whereas the liquid entropy would drop much more rapidly if it were a degenerate Fermi fluid, it would drop linearly as we know it does in metals for the conduction electrons. And below the temperature where these 2 curves crossed, the liquid would be more highly ordered and solid, it’s a very unusual system. So one could then actually calculate very easily that the latent heat of solification was negative. And so if you started with liquid helium 3 and increased the pressure by decreasing the volume, you’d reach the melting curve and then you’d travel along the melting curve to lower and lower temperatures, eventually coming off at some very low temperature. The cooling you get is about 1 mili degree for every percent of the liquid that you convert to solid. So this is in fact what really hooked me on doing low temperature physics and it was actually in my second year graduate study, actually while I was still in the hospital bed recovering from knee surgery on my right knee that I developed this cell, which is the Pomeranchuk cell that I used in the discovery of super fluidity in helium 3. Helium 3 is kind of expensive so I show it as gold here. And the idea is to solidify it you must decrease the volume of this container so we push a metal bellows in side. We measure the temperature by looking at the polarisation of platinum nuclei along the weak magnetic field using NMR and then we measure the melting pressure independently of that. So this is the data that I obtained, I was actually doing an experiment that was completely, it would never have worked. I won’t explain that here, we don’t have the time but this is, I'm plotting now capacitance but the pressure is increasing vertically and the time is increasing to the right. So in fact the system is cooling because of the negli slope melting curve. I rebalanced the bridge and it keeps cooling and then at this point that I later labelled as A, we saw a very dramatic decrease in the rate of cooling. I was not very happy to see that, I assumed that the metal bellows had started pushing on solid helium 3 causing irreversible processes. But I had started this at 22 mili degrees and I realised that if I pre-cooled the liquid helium 3 sample over this long weekend, it was the Thanksgiving weekend, that I could start the next Monday at 15 mili degrees, the base temperature of my helium 3, helium 4 dilution refrigerator. And so here I tried that experiment again and you see exactly the same curve. But the starting conditions were very different, it seemed to me extremely unlikely that this pressure which had reproduced itself to about a part in a 100,000 could in fact possibly be a random heating event, it was far more likely it was the signature of some completely unexpected phase transition inside this mixture of liquid and solid helium 3. Then I continued letting this thing cool at a temperature which we now know is about 1.6 mili Kelvin, in fact I saw a very tiny drop in pressure. And this in fact was the signature of a second transition. So the question is were these transitions in the liquid or the solid. Eventually I developed a very early form of magnetic resonance imaging. Here I apply a magnetic field gradient, so the field was larger at the bottom than the top. And then if applied a single RF frequency to my NMR coil, in fact I would only get a thin resonant layer where the magnetic field had the right value for the frequency. And then if I swept the frequency upward this resonant layer would move downward etc. So this is a CW version of one dimensional MRI. I asked Paul Lauterbur when he visited Bell laboratories if he’d read my paper and he said yes, indeed he read it in 1972, the year it came out. Now I didn’t ask him the obvious question, did this have any effect on his decision to pursue MRI but in fact he started doing his work in 1973. Unfortunately he’s dead now so I can’t ask him. Here’s some of the data that we got out, so now everything is different, time is increasing to the left and pressure is increasing downward, because I’ve actually turned the data upside down. You like to think of NMR as resonances that go up but they actually go down. So this is low frequency to high frequency, high frequency to low frequency, low frequency to high frequency. And you can see these big peaks or solid peaks but there was a liquid signal in between these. So we could differentiate these 2 signals. Now at the B transition which is shown here, all the solid peaks would drop by a couple of percent, 1 to 2 percent. And it wasn’t for several days, this was taken at April 17th, it was April 20th when I was re-analysing this data that I noticed in fact that the liquid signal had dropped, not by 2% but by 50%. And so it was at that moment that I wrote in my lab book, you notice the time, 2.40 a.m., it’s a wonderful time to do physics. Very quiet, there are no distractions, less electrical noise, less vibrations, it’s a wonderful time. Have discovered the BCS transition in liquid helium 3. Now in fact I only reached that conclusion because I didn’t understand the BCS theory very well. These are really very unconventional BCS states, the first that had ever been seen. That was in April 20th, in early June in fact Dave Lee, we still thought that the A transition was in the solid, the B transition was clearly in the liquid. So we felt that we removed this magnetic field gradient and now we’re plotting things as a function of frequency. Trying to see if the solid signal shifted as we cooled down. But what we found instead was that the liquid signal shifted. This was completely unexpected. And really not understood at all. When we published the paper, we published the results but we did not call it a BCS state. It wasn’t until Tony Legget did his work which actually happened remarkably fast, Tony then shared the Nobel Prize in 2003. So I think you’re telling me I have 5 minute left. Ok we’re just about done, strategies, view nature from a new perspective or a different realm. Its really a way to find interesting physics and you know I told you that I’d been doing this completely hopeless experiment, failure may be an invitation to try something new, and I did, spent a little time doing something different. Curiosity driven research is fun and it can be rewarding and generally it doesn’t take all that much time. And this is if you’re a graduate student, avoid too many commitments, if I had been taking ballroom dancing, actually more likely I would have been taking a course in conversational Chinese since my wife is Chinese, I would guess when they took away the equipment that forced me to do the experiment that I hadn’t planned on doing, I would have probably been behind and I would have been catching up on my Chinese (speaking in Chinese) or something like that. But the point is in fact the demands of good research do not adhere to a schedule and if you’re a graduate student, this is the opportunity of a lifetime for you, don’t blow it. And finally and this is for everyone, I think back off from what you’re doing occasionally to gain a better perspective on the task at hand. We become myopic and often we focus too tightly on our work. Just about done, here I am getting the Nobel Prize, I have a problem with Nobel Prizes, you look at that and you say Osheroff did it, well actually to be more technically correct, it was Osheroff, Richardson and Lee did that, but in fact that’s really not correct at all. Because I now show the cell of mine again and I put the names of those people who contributed insights or technologies that were essential for our making this discovery and there are about 14 up there but I could probably put up 24 just as likely. Advances in science are not made by individuals alone, they result from progress of the scientific community world wide asking questions, developing new technologies to answer those questions and sharing their results and their ideas with others. To have rapid progress and I want the DOE and NSF people to listen to this, one must support scientific research broadly and encourage scientists to interact with one another and to spend a bit of their time satisfying their own curiosities. This is how advances in science are made. Thank you.

Ich hoffe, dieser Vortrag enthält interessante Anregungen für die Studenten im Publikum, glaube aber, dass er nützliche Informationen für uns alle bietet. Ich werde während meines Vortrags einige Fotos zur Veranschaulichung heranziehen – hier sehen Sie zum Beispiel die Golden Gate Bridge in San Francisco. Zunächst möchte ich die erste meiner drei Thesen erörtern: Die Entdeckungen, die unsere Sichtweise auf die Natur am deutlichsten verändert haben, sind nicht vorhersehbar. Wie werden diese Entdeckungen überhaupt gemacht und gibt es geeignete Forschungsstrategien, die die Chancen auf eine Entdeckung wesentlich erhöhen? Und hier sehen Sie einen Teil des Grand Canyons bei Sonnenuntergang. Diese These werde ich anhand einer Reihe miteinander verbundener Entdeckungen und Erfindungen erläutern und beginne mit diesem Herrn: Heike Kamerlingh Onnes. Kamerlingh Onnes wetteiferte mit Dewar darum, wer als erster das leichteste und trägste Gas der atmosphärischen Gase verflüssigt. Vor Beginn des 20. Jahrhunderts, d.h. so um 1890 schien Dewar mit der Verflüssigung von Wasserstoff diesen Wettkampf gewonnen zu haben. Schließlich aber gelang es Kamerlingh Onnes, eine ausreichende Menge von Helium – so ungefähr einen kleinen Luftballon voll – zu erlangen und diese 1908 zu verflüssigen. Anschließend ging er mit dem flüssigen Helium genauso vor wie Dewar zuvor mit dem Wasserstoff, er pumpte den Dampf über der Flüssigkeit ab, die dadurch noch weiter abkühlte und untersuchte, bei welcher Temperatur sich Helium verfestigt. Bei Dewar war diese Aufgabe noch recht einfach. Er begann bei 21 Grad Kelvin und einem Druck von einer Atmosphäre und stellte fest, dass Wasserstoff sich bei 14 Kelvin unter dem eigenen Dampfdruck verfestigt. Kamerlingh Onnes hingegen war auch nach zwei Jahren noch nicht in der Lage, Helium zu verfestigen. Ich selbst habe Flüssighelium auf 1/10.000 Kelvin abgekühlt und es befand sich nach wie vor in einem recht flüssigen Aggregatzustand. Der Grund hierfür ist in der Quantenmechanik und der Heisenbergschen Unschärferelation zu finden. Hierauf will ich jetzt nicht näher eingehen, da Ihnen allen die Zusammenhänge sicherlich bekannt sind – nur damals befand sich die Quantenphysik gerade in ihren Anfängen. Nachdem es Kamerlingh Onnes nun über zwei Jahre nicht gelungen war, die für ihn wichtigste Aufgabe umzusetzen, gab er aber nicht auf. Vielmehr hielt er nun Ausschau nach einem interessanten aktuellen Problem, für das er mit seinem neuen Tiefkühlsystem eine Lösung finden könnte. Es wurde zu der Zeit debattiert, inwieweit die Leitfähigkeit von Metallen verändert wird, wenn diese auf Temperaturen nahe dem absoluten Nullpunkt heruntergekühlt werden. Zum einen wurde argumentiert, dass bei sehr reinem Metall beim Kühlen die Gitterschwingungen eliminiert werden. Und dabei muss man sich vor Augen führen, dass dies nur wenige Jahre nach der Entdeckung der Elektronen war. Es ist schon erstaunlich, dass zu diesem Zeitpunkt solche Diskussionen überhaupt möglich waren. Nun hatte man die Vorstellung, dass der elektrische Widerstand durch die Aufhebung der thermischen Gitterschwankungen langsam gegen Null gehen würde. Es gab jedoch auch eine andere Denkrichtung, nach der die Leitungselektronen im Metall wieder auf den Ionen kondensieren, von denen sie abgegeben wurden. Das System würde somit komplett neutralisiert und die elektrische Leitfähigkeit wäre aufgehoben. Kamerlingh Onnes gab nun seinem Doktoranden eine sehr reine Quecksilberprobe und forderte ihn auf, deren elektrischen Widerstand bei sehr tiefen Temperaturen zu messen. Ich habe hier an dieser Stelle auch den Namen des betreffenden Studenten aufgeführt, er hieß Gilles Holst. Ich könnte mir denken, dass es zu den Zeiten von Kamerlingh Onnes nicht unbedingt die Regel war, den Namen seiner Studenten in seinen Schriften zu nennen. Vor dem Hintergrund bin ich froh, dass ich nicht in dieser Zeit geboren wurde. Die hier als grüne Punkte dargestellten Werte entsprechen dem Widerstand in Abhängigkeit von der Temperatur. Wie Sie sehen, verringerte sich der Widerstand bei sinkender Temperatur langsam gegen Null. Dann aber gab es ein plötzliches Absinken des Widerstands auf einen Wert von unter 10 hoch -5 Ohm. Hierbei handelte es sich um die Auflösung ihres Instruments. Gilles Holst war eine Weile damit beschäftigt, seinen Mentor davon zu überzeugen, dass dies nicht einfach auf ein gelöstes Kabel zurückzuführen war. Natürlich wurden die Messungen wiederholt und dies war dann letztendlich der erste Nachweis der Supraleitung, die seit dieser Zeit wohl in jedem Jahr weiter untersucht wurde. In den darauffolgenden 15 Jahren jedoch musste jeder, der die Supraleitung erforschen wollte, das Labor von Kamerlingh Onnes in Leiden aufsuchen, da nur dort diese außerordentlich niedrigen Temperaturen erreicht werden konnten. sein flüssiges kryogenes Helium 4 auf eine Temperatur von 2,17 Kelvin, ohne zu erkennen bzw. zu realisieren, dass das flüssige Helium selbst eine Übergangsphase in den suprafluiden Zustand durchlief, die ebenso außergewöhnlich war wie der supraleitende Zustand an sich. Übrigens war das Thema seines Nobelvortrags die Supraleitung oder zumindest die außerordentlich ungewöhnlichen Messungen, die sie durchgeführt hatten. Kamerlingh Onnes hatte in seinem Laborberichten zwar erwähnt, dass das Helium an einem bestimmten Punkt bei 2 Kelvin aufhörte zu sieden, tatsächlich hat er aber niemals untersucht, woran das eigentlich lag. Schauen wir uns aber einmal an, welche Forschungsstrategien diese Entdeckung überhaupt ermöglicht haben. Da war zunächst der Einsatz der besten verfügbaren technischen Ausrüstung. In diesem Fall also die von Kamerlingh Onnes entwickelte Verflüssigungsanlage, die es ihm ermöglichte, einen bisher unerforschten Bereich der Physik näher zu untersuchen. Die bereits verfügbaren technischen Einrichtungen erfand er aber nicht neu, sondern lieh sich das von Dewar erfundene Dewargefäß für diesen Zweck aus. Kamerlingh Onnes konnte sich glücklich schätzen, dass er dies Gefäß leihen konnte, obwohl er mit Dewar in intensivem Wettbewerb stand. Für mich ist der wirklich entscheidende Punkt, dass Kamerlingh Onnes zwar nach zwei Jahren seinen Versuch, die Verfestigungstemperatur von Helium zu bestimmen, aufgab, sich aber anders als Dewar weiterhin mit Untersuchungen im Tieftemperaturbereich beschäftigte. Er suchte einfach nach einer neuen Aufgabenstellung – und ich bin überzeugt, dass Niederlagen allgemein sehr wohl als Aufforderung zu verstehen sind, einen neuen Ansatz zu finden. Lassen Sie sich von Niederlagen also auf keinem Fall ganz und gar vom Weg abbringen. Und achten Sie besonders auf die feinen und ungeklärten Reaktionen, nehmen Sie diese ernst. Denn häufig klopft die Natur nicht laut und vernehmlich an, sondern flüstert vielmehr ganz leise. Und wenn Sie diese zarten Zeichen entdecken, dann können sich dahinter interessante physikalische Phänomene verbergen. Nun, keiner erhielt den Nobelpreis für die Entdeckung des Phasenübergangs von Helium 4 in den suprafluiden Zustand. Man wusste bereits um den Phasenübergang an sich, konnte aber nicht genau nachvollziehen, wie dieser eigentlich vor sich ging. Der Lösung am nächsten kam dieser Herr – Pjotr Kapiza, der im rauen Winter Moskaus im Jahr 1957, Verzeihung es war 1937, feststellte, dass die Viskosität von flüssigem Helium 4 unterhalb dieser Temperatur weniger als 1 Nanopoise betrugt. Hierfür erhielt er gemeinsam mit zwei Wissenschaftlern, deren Forschungsgebiet wirklich nur wenig mit seinem zu tun hatte – und zwar Penzias und Wilson – 1978 den Nobelpreis für Physik. Arnold Penzias war übrigens über viele Jahre der Chef vom Chef meines Chefs bei AT and T Bell Laboratories. Penzias und Wilson profitierten von der Tatsache, dass AT and T im Bereich der Nachrichtensatelliten Experimente durchführte. Dadurch erhielten sie von AT and T ein High-Tech-System, das sie dafür einsetzten, Radiosignale aus dem All zu untersuchen. Und hier sehen Sie dieses High-Tech-System. Es handelt sich um eine Hornantenne, die tatsächlich viele Vorteile bietet. Sie erfasst keine Signale, die vom Boden kommen. Wirklich interessant jedoch war der darin befindliche, ganz spezielle rauscharme Verstärker. Diesen haben wir folgendem Herrn zu verdanken – Charles Townes, dem Erfinder des Masers. Dies hier ist der zweite Maser, genauer gesagt eine Ammoniak-Maser für hochauflösende molekulare Spektroskopie in der Columbia University. Nur kurze Zeit später entdeckte Charles Townes dann, dass die Wirkung dieses Masers auch zum Verstärken von schwachen Mikrowellensignalen eingesetzt werden kann. In diesem Schuppen hier befand sich ein Rubinstab, der auf eine Temperatur von 4,2 Kelvin gekühlt wurde und die Mikrowellensignale verstärkte, ohne dadurch in wesentlichem Maße zusätzliche Geräusche zu erzeugen. Das gesamte System, d. h. die Antenne mit den Verstärkern wies ein integriertes Rauschsignal von 19 Kelvin auf. Dies war zur damaligen Zeit ein ausgezeichneter Wert. Hier sind die ersten Daten, die ich Ihnen erst einmal genauer erläutern muss. Es handelt sich hierbei um einen Papierstreifen von einem Streifenschreiber. Die heutigen Studenten kennen diesen wahrscheinlich gar nicht mehr. Nun, beim Streifenschreiber läuft der Papierstreifen unter einem Stift entlang, der sich in horizontaler Richtung hin und her bewegt und somit in diesem Fall die von der Antenne ausgehenden Signale aufzeichnet. Dann bauten sie einen Schalter ein, und zwar einen Mikrowellenschalter, der es ihnen ermöglichte, dieses Signal mit dem Signal der Strahlung eines schwarzen Körpers bei einer Temperatur von 4,2 Kelvin zu vergleichen. Das entspricht dann diesem Signal hier. Sie nahmen dann noch einige Einstellungen vor und kamen zu der Schlussfolgerung, dass das System noch Rauschsignale aufwies, die offensichtlich von der Antenne kamen – und dies obwohl die Antennenspitze sich in einer Position im All befand, in der es bekanntermaßen keine Radioquellen gab. Das Rauschen lag bei 3 Kelvin. Daraufhin gingen sie noch einmal zurück, untersuchten ihre Apparatur und fanden heraus, dass innerhalb der Antenne Tauben nisteten. Nun schien für sie alles klar, sie entfernten das Taubennest und den Vogelmist und tauschten einige korrodierte Kupferplatten aus, die sie wieder in ihrer ursprünglichen Position festlöteten. Aber der gewünschte Erfolg blieb aus, das Rauschen war immer noch vorhanden. Darüber hinaus war es nicht auf besondere Positionen im All beschränkt – wie auch immer sie die Antenne ausrichteten, die Rauschsignale blieben unverändert. Dies irritierte insbesondere Arnold Penzias und in einem Gespräch mit Professor Burke am MIT schlug dieser ihm vor, Kontakt mit Professor Robert Dicke an der Princeton University aufzunehmen. Zu dessen Team gehörte ein gewisser Professor Peebles, der eine Theorie aufgestellt hatte, nach der sich bei der Expansion des Universums in Folge des Urknalls die Strahlung von der Materie trennt, sobald diese neutralisiert ist, d.h. wenn die Elektronen und Protonen sich zu neutralem Wasserstoff verbinden. So suchten sie nach genau dieser magnetischen Remanenz. Zu diesem Zeitpunkt, d.h. 1964 war ich ein Neuling bei Caltech. Später jedoch hatte ich das Glück, mit im Boot zu sein, d.h. mit David Wilkinson im Ausschuss. David Wilkinson war Mitglied des Teams um Dicke und er war anwesend, als der Anruf von Penzias durchgestellt wurde. Später beschrieb er mir dann, wie Dicke nachfragte, ob Penzias und Wilson dieses und jenes versucht hätten und wie die genauen Bedingungen aussahen. Schließlich erklärte er, dass seine Gruppe nach Crawford Hill kommen würde, um sich die Daten von Penzias und Dicke anzusehen. Dann legte er auf, wandte sich an einige Mitglieder seines Teams, die sich in seinem Büro aufhielten, und sagte zu Ihnen „meine Herren, da ist uns jemand zuvorgekommen“. Dicke forschte nämlich genau in derselben Richtung, nur basierte sein Empfängersystem auf einer konventionellen Verstärkerröhre und wies eine integrierte Rauschtemperatur von 2.000 Kelvin auf. Schauen wir uns nun einmal die Forschungsstrategien an, die zu dieser für Penzias und Wilson zufälligen Entdeckung führten. Da ist zunächst wieder der Einsatz der besten verfügbaren Technik, die von AT and T zur Verfügung gestellt wurde, d.h. ein wesentlicher Teil der erforderlichen Ausrüstung war geliehen. Dann aber kombinierten sie diese Ausrüstung mit einer entscheidenden Komponente, die es ihnen ermöglichte, absolute Rauschmessungen durchzuführen, die ersten absoluten Messungen von Radiosignalen überhaupt, die von einer außerirdischen Quelle stammten. Betrachtet man nun den Bereich des unerforschten Parameterraums, so waren sie auch hier die ersten, die derartige absolute Messungen durchführten. Schließlich – und das ist für Wissenschaftler in der Forschung von entscheidender Bedeutung – muss man verstehen, was genau die Messgeräte messen. Wenn Sie kein Vertrauen in die Messergebnisse ihrer Ausrüstung haben und eine noch so geringe Abweichung von dem erwarteten Ergebnis beobachten, dann werden Sie diese vermutlich darauf zurückführen, dass Sie Ihre Messgeräte nicht richtig verstanden haben. In diesem Fall ist die Gefahr groß, dass Ihnen etwas entgeht – wie gesagt, die Natur klopft nicht laut an, sie flüstert nur ganz leise. Nun, in der Zwischenzeit gab es natürlich das Satellitenprojekt COBE – das zu diesen Daten führte, d.h. die Intensität der Strahlung in Abhängigkeit von der Wellenlänge bei einer Temperatur von 2,725 Kelvin. Noch interessanter sind meiner Meinung nach die Temperaturvariationen der Strahlung in Abhängigkeit von der Position am Himmel, die hier über galaktische Koordinaten eingetragen sind. In der einen Richtung, d.h. in der Bewegungsrichtung durch das lokale Universum ist eine Dopplerverschiebung der Strahlung zu einer höheren Temperatur und in entgegengesetzter Richtung zu einer niedrigeren Temperatur zu beobachten. Diesen bipolaren Effekt kann man einfach eliminieren und dann sieht man die Ebene der Milchstraßengalaxie. Die ist etwas schwerer zu eliminieren, danach aber bleiben diese Schwankungen, die typischerweise in einer Größenordnung von ein paar millionstel Grad liegen, d.h. es sind sehr niedrige Werte. Die Menschen, die dieses Projekt entwickelt haben und diese Schwankungen betrachteten, erkannten, dass diese reproduzierbaren Signale – so winzig sie auch sein mochten – ein Beweis für Temperaturschwankungen waren. Diese wiederum waren zurückzuführen auf Dichteschwankungen im Universum an dem Punkt, an dem sich Materie und Strahlung voneinander trennen. Dies ist also in der Tat ein äußerst aktives Forschungsgebiet, das es uns ermöglicht, die Natur des Universums 400.000 Jahre nach dem Urknall zu untersuchen. Es folgte dann der WMAP-Satellit, wobei das W für David Wilkinson steht, der bedauerlicherweise verstarb, bevor der Satellit in den Orbit geschickt wurde. Dies ist eines der vielen Probleme bei solch langfristig angelegten Projekten. Diese Strahlung weist eine sehr detaillierte Struktur auf und über eine Multipolentwicklung des Positionsspektrums ist dann festzustellen, dass die Fluktuationen mit vielen Modellen, einschließlich des Inflationsmodells, übereinstimmen. Für diese Arbeit im Rahmen des COBE-Satellitenprojekts erhielten John Mather und George Smoot, deren Beiträge Sie ja hier bereits hören konnten, 2006 den Nobelpreis für Physik. Und nun kommen wir zur zweiten meiner drei Thesen, d.h. dass der Fortschritt in der Wissenschaft häufig zu Erfindungen oder Technologien führt, die einen direkten Nutzen für die Menschheit haben. Es ist jedoch unmöglich vorauszusehen, wo genau ein Fortschritt zu einer Lösung von Problemen, mit denen die Menschheit konfrontiert ist, zu erwarten ist. Das ist das umgekehrte Problem. Man kann z.B. eine Technologie entwickelt haben und nicht wissen, wohin diese führt. Wenn man aber spezifische Anforderungen hat, ist es außerordentlich schwer zu sagen, woraus diese Technologie hervorgehen wird. Nimmt man einmal das sehr bemerkenswerte Beispiel der Kernspinresonanz (NMR) – hier sehen Sie übrigens die Iguazú-Wasserfälle, die sich an der Grenze zwischen Brasilien und Paraguay – nein Verzeihung – zwischen Brasilien und Argentinien befinden, die sind ebenfalls sehr bemerkenswert. Die sollten Sie sich unbedingt ansehen, wenn Sie die Gelegenheit dazu haben. Also die NMR wurde 1946 durch diese beiden Herren erfunden: Felix Bloch von der Stanford University und Ed Purcell von der Harvard University. Während ich Ed Purcell persönlich kannte, habe ich Felix Bloch nie gesehen. Nun, als die beiden sechs Jahre nach der Erfindung von NMR für die Preisverleihung nach Stockholm gereist sind, hat man sie sicherlich gefragt, wofür die NMR nützlich sein wird – ich selbst bin nämlich gut 20 Jahre nach der Entdeckung von suprafluidem Helium 3 ebenfalls von vielen gefragt worden, wozu dieses denn gut sei. Ich habe in Stanford mit Menschen gesprochen, die mir versichert haben, dass Felix Bloch auf die Frage, wozu NMR gut sei, geantwortet habe „für herzlich wenig“. Für Felix hatten die von ihnen durchgeführten Untersuchungen zur Ladungsverteilung in Atomkernen überhaupt nichts mit der Lösung von Problemen der Menschheit zu tun. Ed Purcell war da etwas überlegter und meinte, man könne die NMR vielleicht zur Kalibrierung von Magnetfeldern verwenden. Schauen wir uns einmal an, wie es mit der NMR weiterging – schließlich konnte man damit sehr homogene Magnetfelder erzeugen. Bei der Untersuchung der Protonen in einem organischen Lösungsmittel stellte man dann fest, dass die Protonen nicht alle mit derselben Frequenz schwangen, es gab Tripletts und Quartetts. Diese waren auf chemische Verschiebungen und Spinverschiebungen in den Molekülen zurückzuführen. Die NMR wurde somit zu einem wichtigen Werkzeug für organische Chemiker in der ganzen Welt. Richard Ernst kombinierte die von Erwin Hahn an der University of California, Berkeley entwickelte Fourier-Transform-Infrarotspektrographie mit der NMR. In Zusammenarbeit mit Kurt Wüthrich war er dann in der Lage, die sogenannte zweidimensionale NMR durchzuführen. Hier ging es dann aber um Frequenzdimensionen, d.h. man kippte einen Spin und untersuchte dann, wie dieser die Frequenz eines anderen Spins beeinflusste. Somit erhält man Informationen über die Bindungslänge. Für diese Arbeit wurde Richard Ernst 1991 der Nobelpreis verliehen– und zwar nicht für Physik sondern für Chemie. Kurt Wüthrich setzt diese Forschungsarbeiten fort und konnte dann schließlich die dreidimensionale Konformation selbst der kleinsten Proteine in einer wässrigen Lösung nachweisen. Hier sehen Sie den Trypsin-Inhibitor aus der Bauchspeicheldrüse des Rindes – die wohl bekannteste Proteinstruktur. Für sein Werk erhielt Kurt Wüthrich 2002 den Nobelpreis für Chemie. Aber wir sind noch lange nicht am Ende – in den frühen 70ern stellten Wissenschaftler fest, dass man Informationen zu der Position der einzelnen Kerne, die zum NMR-Signal beitragen, erhält, wenn man kein sehr homogenes Magnetfeld, sondern eines mit einem Gradienten anlegt, d.h. das Magnetfeld ist beispielsweise unten breiter als oben. Wenn man dies nun über drei Dimensionen durchführt, erhält man solche schönen MRT-Aufnahmen. Nun, ich selbst habe MRT-Aufnahmen von meinen beiden Knien machen lassen – meine sehen aber nicht so gut aus wie dieses gesunde Knie hier. Hierfür teilten sich Paul Lauterbur und Peter Mansfield den Nobelpreis für Physiologie oder Medizin nur ein Jahr nachdem Kurt Wüthrich mit dem Nobelpreis in Chemie ausgezeichnet worden war. Ich sollte Ihnen noch erzählen – aber nein, dazu kommen wir später. Ich halte es für möglich, dass noch ein fünfter Nobelpreis für die NMR verliehen wird – in den frühen 90ern hat der in der Abteilung für Biophysik bei AT and T Bell Laboratories tätige Seiji Ogawa nämlich eine völlig unerwartete Entdeckung gemacht. Bei der Untersuchung des Gehirns von Ratten stellte er fest, dass bei Impulsfolgen, die von der Geschwindigkeit der Protonen bei der Bewegung entlang des magnetischen Felds abhängig sind, die Hirnareale, in denen Informationen verarbeitet werden, abgebildet werden können, da diese vom Blutsauerstoffgehalt beeinflusst werden. Diese funktionelle MRT – auch fMRT genannt – gewinnt zunehmende Bedeutung in der Psychologie und wandelt somit eine Sozialwissenschaft in eine Naturwissenschaft – ein wirklich erstaunliches Phänomen. Ich möchte mich jetzt in der verbleibenden Zeit auf meine eigenen Entdeckungen konzentrieren, da ich davon etwas mehr verstehe. Ich möchte aufzeigen, wie es wirklich war, dass wir keinen blassen Schimmer hatten, was wir überhaupt entdeckten, als wir es entdeckten. Und ich glaube, dass es häufig genau nach diesem Schema abläuft. Die Geschichte von Helium 3 ist sehr interessant, es liegt nicht ausreichenden Mengen vor, um eine reine Probe zu erhalten. Im Jahr 1948 verflüssigte der im Los Alamos National Laboratory tätige Ed Hammel als erster Helium 3 und maß den Dampfdruck über der Flüssigkeit. Ed Hammel gehörte einem Team an, das an der Wasserstoffbombe arbeitete und somit über Mengen an Tritium verfügte. Tritium zerfällt bekanntlich zu Helium 3. In den 1950ern und auch noch in den 1960er Jahren untersuchten dann die Tieftemperaturphysiker weltweit die Eigenschaften von flüssigem Helium 3. Das Thema war deshalb interessant, weil die Helium-3-Atome einen Nettospin von ½ haben, d.h. sie sind Fermi-Teilchen wie Leitungselektronen in Metallen. Das Verhalten ist weitgehend identisch. Im Jahr 1957 veröffentlichten Bardeen, Cooper und Schrieffer ihre Supraleitungstheorie und schon bald erkannten einige Theoretiker, wie z.B. Philip Anderson – ein guter Freund von mir – dass diese Theorie dahingehend modifiziert werden müsse, dass andere Fermi-Flüssigkeiten bei niedrigen Temperaturen ein ähnliches Verhalten aufweisen können. In der 1959 als erste veröffentlichten Studie wurde eine Übergangstemperatur in den suprafluiden Zustand von 80 Milligrad angegeben. Innerhalb von sechs bis sieben Jahren hatten Wissenschaftler niedrige Temperaturen von bis zu 1/2000 Grad erreicht und konnten keine Suprafluidität erkennen. laut Lehrmeinung als reine Fata Morgana – wie Erscheinungen nach dem Rauchen von Stoffen, die man lieber nicht rauchen sollte. Nun, als ich dann nach Cornel kam, wurden dort neue Tiefkühltechnologien entwickelt wie z.B. die 3He/4He-Mischungskühlung, die ich als vielversprechende Grundlage für einen neuen Ansatz zur Betrachtung der Natur in einem anderen Kontext ansah. Aus diesem Grund schloss ich mich der Gruppe der Tieftemperaturphysiker an. Diese Entscheidung wurde dann besiegelt durch einen Vortrag von Bob Richardson, der vielleicht sogar hier im Publikum sitzt…? Also der Vortrag ging um eine These von Isaac Pomeranchuk, einem Mitglied der Landau School, die er 1950 aufstellte, d.h. ein Jahr nach der Veröffentlichung der Ergebnisse von Ed Hammels Team. Er hatte eine geringe Wechselwirkung zwischen Kernspins in der festen Phase beobachtet und festgestellt, dass das System eine Entropie von r log 2 aufwies, d.h. nur 2 verfügbare Zustände bis zu einer sehr tiefen Temperatur. Im flüssigen Zustand würde die Entropie schneller sinken, bei einer zerfallenden Fermi-Flüssigkeit verliefe die Abnahme dann wie bei den Leitungselektronen in Metallen linear. Unterhalb einer Temperatur, bei der sich diese beiden Kurven schneiden, würde die Flüssigkeit dann eine geordnete Struktur aufweisen und fest sein – das war ein sehr ungewöhnliches System. Man konnte somit einfach berechnen, dass die latente Erstarrungswärme negativ sein musste. Wenn man nun mit flüssigem Helium 3 begann und den Druck durch Verringerung des Volumens erhöhte, kam an die Schmelzkurve und verringerte entlang der Schmelzkurve schrittweise die Temperatur auf immer niedrigere Werte, bis man schließlich eine sehr tiefe Temperatur erreichte. Hierbei ergibt sich eine Kühlung von 1 Milligrad für jedes Prozent an Flüssigkeit, das in die feste Phase überführt wurde. Genau das hat mich an der Tieftemperaturphysik fasziniert – und im zweiten Jahr meines Aufbaustudiums habe ich dann nach meiner Operation am rechten Knie während der Rekonvaleszenz im Krankenhaus die folgende Zelle entwickelt – das ist die Pomeranchuk-Zelle, die ich bei der Entdeckung der Suprafluidität von Helium 3 verwendet habe. Da Helium 3 sehr teuer ist, habe ich es hier in Gold dargestellt. Um eine Verfestigung zu erreichen, muss man nun das Volumen dieses Behälters reduzieren, zu diesem Zweck wird der Metallfaltenbalg im Innern verschoben. Zur Messung der Temperatur beobachteten wir die Polarisation von Platinkernen entlang des schwachen Magnetfelds mit Hilfe der NMR und maßen gleichzeitig unabhängig davon den Schmelzdruck. Das hier sind die Daten, die ich erhielt – es handelte sich um ein Experiment, das komplett – also, das eigentlich gar nicht funktionieren konnte. Das kann ich an dieser Stelle leider nicht näher erläutern, da es den Zeitrahmen sprengen würde. Hier ist die Kapazität dargestellt, der Druckanstieg wird in vertikaler Richtung entlang der y-Achse abgebildet, während die Zeit nach rechts entlang der x-Achse verläuft. Tatsächlich kühlt das System, da die Schmelzkurve eine negative Steigung aufweist. Ich habe das System dann ausgeglichen und die Kühlung blieb – an dem Punkt, den ich später mit A bezeichnet habe, erkannte man dann einen drastischen Rückgang in der Abkühlgeschwindigkeit. Darüber war ich nicht sehr glücklich und vermutete, dass der Metallfaltenbalg gegen festes Helium 3 drückte und somit irreversible Prozesse auslöste. Ich hatte den Versuch bei 22 Milligrad begonnen und mir wurde klar, dass, wenn ich die flüssige Helium-3-Probe über das lange Wochenende vorkühlte – es war Thanksgiving – ich am darauffolgenden Montag bei 15 Milligrad starten konnte. Dies entsprach der Basistemperatur meines 3He/4He-Mischungskühlers. Ich führte das Experiment dann noch einmal durch und erhielt eine völlig identische Kurve. Angesichts der unterschiedlichen Ausgangsbedingungen erschien es mir sehr unwahrscheinlich, dass der sich zu 1/100.000 wieder einstellende Druck das Ergebnis zufälliger Erwärmung war, sondern vielmehr, dass er ein Anzeichen für einen völlig unerwarteten Phasenübergang innerhalb der Mischung von Helium 3 in flüssiger und fester Form war. Ich ließ die Probe dann weiter abkühlen bis auf eine Temperatur von 1,6 Millikelvin – das wissen wir heute – und beobachtete dabei in der Tat einen winzigen Druckabfall. Dieser wiederum deutete auf einen zweiten Übergang hin. Es stellte sich nun die Frage, ob der Übergang in der flüssigen oder der festen Phase erfolgte. Schließlich entwickelte ich eine sehr frühe Version der Kernspinresonanztomographie. Hier habe ich einen Magnetfeldgradienten angelegt, d.h. das Feld war unten breiter als oben. Als ich dann eine einfache Radiofrequenz an die NMR-Folie anlegte, erhielt ich nur eine dünne Resonanzschicht mit einem Magnetfeld, das den zur Frequenz passenden Wert aufwies. Erhöhte ich dann die Frequenz, bewegte sich die Resonanzschicht nach unten, usw. Dies ist eine CW-Version eines eindimensionalen MRTs. Ich habe Paul Lauterbur bei seinem Besuch in den Bell Laboratories gefragt, ob er meine Studien gelesen hat. Er bestätigte, dass er sie 1972, d.h. in dem Jahr, als sie veröffentlich wurden, gelesen hatte. Nun, ich habe ihm dann nicht die naheliegende Frage gestellt, ob dieser Umstand seine Entscheidung, die Arbeit im Bereich MRT fortzusetzen, beeinflusst hat. Tatsächlich hat er sie aber 1973 wieder aufgenommen. Leider ist er in der Zwischenzeit verstorben, sodass ich ihn nicht mehr fragen kann. Hier sind einige Daten, die wir erfasst haben – in diesem Fall ist der Zeitverlauf auf der x-Achse nach links dargestellt und der Druckanstieg auf der y-Achse nach unten, da ich die Daten umgedreht habe. Man kann sich NMR als Resonanzen nach oben vorstellen, eigentlich aber gehen sie nach unten. Hier geht es also von der Niederfrequenz zur Hochfrequenz, von der Hochfrequenz zur Niederfrequenz und von der Niederfrequenz zur Hochfrequenz. Und da sehen Sie auch die großen Spitzen, d.h. Festphasenspitzen, aber dazwischen erscheint auch ein Flüssigsignal. Wir konnten also diese beiden Signale unterscheiden. Am Übergangspunkt B, der hier dargestellt ist, fielen alle Festphasenspitzen um ein paar Prozent ab, d.h. um 1 bis 2 Prozent. Erst einige Tage später – die Daten wurden am 17. April erfasst – analysierte ich diese dann am 20. April noch einmal und stellte fest, dass das Flüssigsignal nicht um 2% sondern um 50% gefallen war. Zu dem Zeitpunkt, d.h. nachts um 2.40 Uhr, habe ich dann in meinem Laborberichtsbuch vermerkt, dass es eine wundervolle Zeit für Physik sei. Sehr ruhig, keinerlei Ablenkung, weniger Elektrorauschen, weniger Vibrationen – also einfach eine wundervolle Zeit. Habe den BCS-Übergang im flüssigen Helium 3 entdeckt. Nun, eigentlich war ich nur zu dieser Schlussfolgerung gekommen, weil ich die BCS-Theorie nicht so richtig verstanden hatte. Dies hier sind außerordentlich unübliche BCS-Zustände, die ersten, die je erkannt wurden. Das war am 20. April – im frühen Juni, da dachten Dave Lee und ich noch immer, dass der A-Übergang in der Festphase und der B-Übergang eindeutig in der Flüssigphase erfolgte. Wir haben dann den Magnetfeldgradienten eliminiert und die Daten in Abhängigkeit von der Frequenz abgebildet. Wir wollten sehen, ob das Festphasensignal sich beim Abkühlen verschiebt. Wir stellten aber fest, dass sich das Flüssigsignal verschob, was für uns völlig unerwartet und nicht nachvollziehbar war. Bei der Veröffentlichung der Studie veröffentlichten wir dann die Ergebnisse, bezeichneten diese aber nicht als einen BCS-Zustand. Erst als Tony Leggett seine Arbeiten durchgeführt hatte, was in der Tat bemerkenswert schnell ging – Tony teilte sich dann mit anderen den Nobelpreis im Jahr 2003. Nun, Sie wollen mir sicherlich sagen, dass ich nur noch fünf Minuten habe. Wir sind auch fast durch – Strategien – Natur aus einer anderen Perspektive oder in einem anderen Kontext betrachten. Da ist wirklich ein Weg, um interessante physikalische Phänomene zu entdecken. Und Sie erinnern sich, dass ich eines meiner Experimente als vollständig hoffnungslos bezeichnet habe – aber gerade Niederlagen können eine Aufforderung dazu sein, etwas Neues zu versuchen. Und genau das habe ich getan, ich habe ein wenig Zeit auf andere Arbeiten verwendet. Forschung, die aus Neugier betrieben wird, macht Spaß, sie zahlt sich aus und erfordert nicht einmal so furchtbar viel Zeit. Und wenn Sie sich noch im Studium befinden, gehen Sie nicht zu viele Verpflichtungen ein. Hätte ich Kurse in Gesellschaftstanz genommen, – obwohl ich eher chinesische Konversation gewählt hätte, da meine Frau Chinesin ist – dann wäre ich ohne die Ausrüstung, die mich dazu zwang, Experimente durchzuführen, die ich nie geplant hatte, ins Hintertreffen geraten. Dann wäre ich mit meinen chinesischen Sprachkenntnissen aber sicherlich weiter gekommen. Entscheidend ist, dass erfolgreiche Forschung nicht einem bestimmten Zeitplan folgt Zu guter Letzt – und das gilt für alle – nehmen Sie von Zeit zu Zeit etwas Abstand von Ihrer Arbeit, um die zu lösende Aufgabe aus einer anderen Perspektive zu betrachten. Man wird betriebsblind und häufig fokussiert man die Arbeit zu stark. So, jetzt sind wir am Ende. Auf diesem Bild erhalte ich den Nobelpreis – ich habe ein Problem mit Nobelpreisen. Man schaut sie an und denkt „das war Osheroff“. Um korrekt zu sein, müsste man sagen es waren Osheroff, Richardson und Lee – und auch das stimmt nicht. Hier sehen Sie noch einmal unseren Zirkel mit den Namen aller Beteiligten, d.h. der Menschen, die mit entscheidenden Informationen oder Technologien unsere Entdeckung überhaupt möglich gemacht haben – es handelt sich hier um 14 Personen und ich hätte auch genauso gut 24 nennen können. Fortschritte in der Wissenschaft werden nicht durch den Einzelnen erreicht, sondern sind das Ergebnis von Entwicklungen der Wissenschaftsgemeinde in der ganzen Welt, die Fragen stellt und neue Technologien erarbeitet, um diese Fragen zu beantworten und ihre Ergebnisse und Vorstellungen mit anderen teilt. Um einen schnellen Fortschritt zu ermöglichen muss die Forschung auf breiter Ebene gefördert werden und Wissenschaftler müssen dazu aufgefordert werden, sich miteinander auszutauschen und etwas Zeit zusammen zu verbringen, um ihre Neugier zu befriedigen. Und das ist genau der Weg zum Fortschritt in der Wissenschaft! Ich danke Ihnen für Ihre Aufmerksamkeit.

Douglas Osheroff (2008)

How Advances in Science are Made

Douglas Osheroff (2008)

How Advances in Science are Made

Abstract

How advances in science are made, and how they may come to benefit mankind at large are complex issues. The discoveries that most influence the way we think about nature seldom can be anticipated, and frequently the applications for new technologies developed to probe a specific characteristic of nature are also seldom clear, even to the inventors of these technologies. One thing is most clear: Seldom are such advances made by individuals alone. Rather, they result from the progress of the scientific community; asking questions, developing new technologies to answer those questions, and sharing their results and their ideas with others. However, there are indeed research strategies that can substantially increase the probability of one's making a discovery, and the speaker will illustrate some of these strategies in the context of a number of well known discoveries, including the work he did as a graduate student, for which he shared the Nobel Prize for Physics in 1996.

Cite


Specify width: px

Share

COPYRIGHT

Cite


Specify width: px

Share

COPYRIGHT


Related Content