Quantum Mechanics

by Anders Bárány

 

1. Quantum Mechanics and Nobel Prizes 1901-2014

On June 29 year 1900 the Nobel Foundation was born, by its Statutes being accepted by the ”King”, i.e. the Swedish Government. The five Nobel Committees could start their work by sending out invitations to nominate for the first Nobel Prizes. On December 14 the same year, the German theoretical physicist Max Planck gave a talk, at a meeting of the German Physical Society, in which he presented the idea that electromagnetic energy could only be emitted in quantized form. This idea is usually looked upon as the fundament of what later was called Quantum Mechanics, born on December 14 year 1900.

After a long and dramatic series of events, Planck finally received the 1918 Nobel Prize in Physics ”in recognition of the services he rendered to the advancement of Physics by his discovery of energy quanta”. The decision was taken in the autumn of 1919 and Planck was invited to Stockholm to receive his prize on June 1, 1920. By then many interesting developments had taken place in quantum physics, some of which would soon also be recognized with Nobel Prizes.

Planck had used the idea of energy quanta as a way to derive a certain mathematical expression, the so-called Planck radiation formula, which he had invented earlier by fitting experimental data. He did not really believe in the existence of quanta, but a young patent clerk, Albert Einstein, took up the idea and used it 1905 to explain some curious facts found in experiments where electrons are emitted from metal surfaces shined on by electromagnetic radiation of different wavelengths. We all know Einstein mostly from his two theories of relativity, but when he received the 1921 Nobel Prize in Physics it was “for his services to Theoretical Physics, and especially for his discovery of the law of the photoelectric effect”.

The decision about Einstein’s Nobel Prize was taken in 1922 and at the same meeting of the Royal Swedish Academy of Sciences, Niels Bohr was named as the recipient of the 1922 prize “for his services in the investigation of the structure of atoms and of the radiation emanating from them”. Bohr had continued taking quanta seriously and been able to explain many properties of atoms using a planetary model. In this model, the electrons can only move in certain allowed orbits around the nucleus and can jump from one orbit to another emitting or absorbing quanta of electromagnetic radiation.

During the 1920’s, the atomic theory was developed further by a rather large set of theoretical physicists, often in close collaboration with experimentalists. Prince Louis-Victor Pierre Ramond de Broglie introduced an idea that could be used as a kind of explanation of the existence of allowed electron orbits in atoms: The electron was associated with a wave motion and an allowed orbit was an orbit with a whole number of wavelengths. For his work, de Broglie was awarded the 1929 Nobel Prize in Physics “for his discovery of the wave nature of electrons”.

But even before 1929, two young men and one somewhat older had brought the ideas of Bohr and de Broglie into the theory that we today call Quantum Mechanics. One of the young men, Werner Heisenberg, had been fed up with the more and more detailed models of atoms and had decided to construct a theory built only on observable quantities. These quantities typically were wavelengths and intensities of emitted light, studied in the laboratory using spectroscopy. Heisenberg received the 1932 Nobel Prize in Physics “for the creation of quantum mechanics, …”. The decision was taken in the autumn of 1933 and at the same meeting of the RSAS, the other young man, Paul Dirac, and the somewhat older Erwin Schrödinger jointly received the 1933 Nobel Prize in Physics “for the discovery of new productive forms of atomic theory”. Schrödinger had developed the wave idea of de Broglie into a theory named wave mechanics, in which the main theoretical tool is what we call the Schrödinger wave equation. From the solutions of this equation follows the behaviour not only of electrons in atoms, but also of atomic particles colliding with each other. Besides introducing Einstein’s relativity into the theory, Dirac had shown that the theories of Heisenberg and Schrödinger were but two representations of a more general way of formulating quantum mechanics in mathematical terms. The three theoretical physicists travelled together to Stockholm and arrived in the morning of December 9. There is a famous photograph from the Central Station, on which each Nobel Laureate is accompanied by a woman. The older Schrödinger by his wife, but the two younger men by their respective mothers, since they were still both unmarried!

After 1933 followed a series of Nobel Prizes in Physics for laboratory discoveries and developments. But in 1945, Wolfgang Pauli was awarded the Nobel Prize in Physics “for the discovery of the Exclusion Principle, also called the Pauli Principle”. This principle, which forbids two electrons (or other so-called fermions) to have the same set of quantum numbers, had already been in use since many years to explain the spectra from atoms and molecules. Another similar “old” contribution that was rewarded much later was done by Max Born, who had been Heisenberg’s mentor and collaborator, but who only received his prize in 1954 “for his fundamental research in quantum mechanics, especially for his statistical interpretation of the wave-function”. With this Nobel Prize, the main pioneers of Quantum Mechanics had been rewarded. Various extensions and applications have, of course, been made and many of them have duly been rewarded with Nobel Prizes by the RSAS.

2. Lindau lectures on Quantum Mechanics 1951-2014

Quantum physics has been the dominating field of activity during the whole 20th Century and continues well into the 21st. That someone who is working in quantum physics is interested in quantum mechanics and might choose it as his lecture topic is understandable. As seen by the Lindau lectures, there is actually a dominance of experimental physicists trying to explain quantum mechanics to the students and young scientists in the audience. But before going back to the audio recordings of the historic lectures, listen to David Gross, who received the 2004 Nobel Prize in Physics together with two other theoreticians “for the discovery of asymptotic freedom in the theory of the strong interaction”. In 2012, Gross gave a lecture entitled “A Century of Quantum Mechanics”. The lecture was inspired by a famous series of conferences in Brussels, named Solvay Conferences after a Belgian industrialist and donator who was contemporary with Alfred Nobel.

David Gross (2012) - A Century of Quantum Mechanics

Good morning everyone. I am going to talk, the title of my talk is the century of quantum mechanics. And it is based on a talk I gave at the opening of the 100th anniversary Solvay conference last year in Brussels. Now you might ask: After all when did it begin? Well quantum mechanics began perhaps with Planck in 1900 when he first quantised the energy of radiating oscillators. But even Planck didn't realise what he had done. Quantum mechanics perhaps really began in the modern form in 1925 when Heisenberg formulated the principles of matrix mechanics. Followed shortly by Schrödinger, Born, Jordan and Dirac's formulation of quantum mechanics. As we essentially know it today. So on the average quantum mechanics began almost precisely 100 years ago. And I thought it might be amusing to survey as I did in October where quantum mechanics stands. Where we stand in this basic conceptual framework that was developed 100 years ago for understanding the nature of physical reality. The first Solvay conference began 100 years, almost a little more than 100 years ago in October of 1911. And it was the first international meeting of that kind where physicists got together to discuss fundamental problems in their field. And these conferences played a very unique role in the development of 20th century physics. Most notably in the area of quantum, in the quantum revolution whose birth, indeed overlapped the initiation of these meetings. This is the famous photo from that first conference. Which you probably have all seen. Quite illustrious group of 20th century physicists, including 8 Nobel Prize winners who had won the Nobel Prize or would win the Nobel Prize in the next few years among the 24 physicists gathered in this room. Here you see many of them, whose faces you recognise. And much attention has been paid to this picture of Einstein here. Which shows the young Einstein, he was 33 years old, 32 years old. And people have tried to explain what he was symbolising with this signal. Some people have interpreted it as a Buddhist message. I actually think he's holding a little cigarillo. I'll comment on this conference shortly. But the following 5 conferences, first 5 Solvay conferences were largely devoted to the ongoing revolution in the quantum theory, atomic theory. The application of quantum mechanics to the structure of matter. These dominated the Solvay conferences culminating in the most famous of all in 1927. Where the meaning of quantum reality was heatedly debated between the pioneers and the revolutionaries of quantum mechanics. This is the famous photo of that conference. You see again many of our heroes, including now even more Nobel laureates past and future. And once again Einstein, now in the centre is sending some message. The first Solvay conference 101 years ago addressed the central problem of physics at that time. They recognised this problem and stated it quite openly. Was the quantum structure of nature truly unavoidable. Lorentz's opening addresses at the first Solvay conference reverberates with anguish. Anguish that this master of classical physics felt at the first glimpses of the quantum world. He said: of smaller particles of matter and the connection between these particles and the phenomena that occur in the ether". It was 1911 and he still believed in the ether! that with the kinetic theory of gases gradually extended to fluids and electron systems, physicists could give an answer in 10 or 20 years. Instead we now feel that we have reached an impasse. The old theories have been shown to be powerless, to pierce the darkness surrounding us on all sides". Well 100 years later we face no such crisis. Quantum mechanics is the most successful of all the frameworks that we have discovered to describe physical reality. It works, it makes sense and it is hard to modify. The order of this list of successes is the order of importance that most physicists demand of a physical theory, it works first of all, it agrees with observation, it makes sense. It's logically, mathematically, philosophically consistent and it's hard to modify. You can't simply change it easily. Let me start however with a second point. That quantum mechanics does indeed make sense. The transition 100 years ago from classical to quantum reality was not easy. It took a long time to move from phase space to Hilbert space. Some of the boldest pioneers of quantum mechanics, notably Einstein, resisted the replacement of classical determinism with a theory that can often only make probabilistic predictions. And even harder to get used to was the idea that in quantum mechanics one can describe a system in many incompatible different ways. There is no unique exhaustive description. The freedom that one has to choose among different incompatible frameworks does not influence reality. One gets the same answers for the same questions no matter which framework we use. And that's why we can simply follow Feynman's dictum and "shut up and calculate". And most of us do that most of the time. But different incompatible aspects cannot both enter a single description and if one errs by mixing incompatible descriptions or histories reproduce paradoxes. For most of us there are no problems in applying quantum mechanics as we do every day to the real world. Nevertheless there are dissenting views and experimentalists continue to test the predictions of quantum theory. And some theorists continue to question its foundations. I'm not sure I find most of this very interesting, but what I do find fascinating is the growing understanding of how the classical framework emerges from quantum mechanics. Especially as our experimental friends continue to astonish us with their ability to control and manipulate quantum systems while preserving their essential quantum coherence. More importantly for physicists quantum mechanics works and it works in a spectacular fashion. It works not just for simple systems such as single atoms and molecules for which it was originally developed but also for collections of 10^23 atoms, sometimes strongly interacting over an enormous range of energies and distances. It explained not just the anomalies in the classical description of black body radiation and the specific heats of solids at low temperatures that stimulated early developments. But the detailed properties of ordinary matter, conductors, insulators, semi-conductors and more exotic materials. Many-body theory which describes many atoms and the quantum theory of fields which describe in principle an infinite number of degrees of freedom, share many features. Indeed they are essentially the same thing. And thus the critical developments in condensed matter physics and in elementary particle physics towards the end of the 20th century shared common features, solved similar problems and have had an incredibly fruitful cross fertilisation. One of the most important discoveries in quantum phenomena of the 20th century - that of superconductivity - was announced and discovered in 1911 and announced at the first Solvay conference. Parenthetically Rutherford who had in 1911, acting as a theorist, discovered the nucleus of atoms based on his students use of the first particle accelerator to probe the structure of the interior of atoms, did not report or say anything about the discovery of the nucleus at the first Solvay conference, which he attended. Not one word, amazing. But anyway Onnes did talk about superconductivity. And remarkably it took 50 years or more until BCS came up with a full understanding of this first example of the spontaneous breaking of a local symmetry, which later played such a fundamental role in our understanding of the weak nuclear force. To so called Higgs mechanism. The final confirmation of which we are anxiously awaiting from the LHC. Even today unconventional superconductors, high temperature superconductors are still a great mystery at the frontiers of the understanding of the nature of the quantum states of matter. It appears now that there are new kinds of materials, new forms of matter labelled not just by symmetry but by topology, new kinds of quantum phase transitions which can occur at zero temperature. And the important question, what are the quantum phases of matter, still remains wide open. Although there is little doubt that quantum mechanics is totally sufficient to explain all phases of matter. Quantum mechanics is more powerful and richer than classical mechanics for after all classical physics is just a limiting special case of quantum physics. And in recent years we have become aware of the increasing computational power of quantum mechanical states. Entanglement, a strange new feature of quantum states can be efficiently used to amplify computation. And has motivated an intense effort to develop a quantum computer. A goal that probably will take decades to realise. But has provided enormous stimulation to both atomic and condensed matter physics. Quantum mechanics works. It works now as we know from experiment at distances that expand a billion times smaller than the size of the atom, well within the nucleus and its constituent quarks. It works for energies that are a trillion times larger than atomic energies. From the beginning it was clear that quantum mechanics fit together seamlessly with special relativity and with Maxwell's theory of the electromagnetic field. With some small technical difficulties that took some time to resolve. The quantum theory of fields resolved the perplexing duality of particles and waves in what I regard as one of the most amazing successes of theoretical physics, predicted anti matter. The first examples of which were soon discovered. Quantum field theory, the solid framework on which present understanding of physical reality is based, is tested with extraordinary precision. Much of the incredible precision that physics is able to achieve is in fact due to the quantum nature of matter. The identity of indistinguishable particles, the existence of discrete sharp states. I can't refrain from showing one of the most amazing of these precision tests, that of the measurement of the anomalous magnetic moment of the electron, a test of QED to 1 part in 10^12, sensitive to all components of the standard model, but especially QED. And the other remarkable facet of this theory that physics now produced in the 20th century is the range of its applicability. We use in a reductionist sense quantum field theory to describe the universe as a whole. And we have tested the framework to distances of a nano-nanocentimetre. And we have no reason to expect a breakdown until perhaps we reach the Planck length. Quantum mechanics provides the explanation not just of the structure of atoms and molecules but the structure of the nucleus as well. The strong and weak forces that operate inside the nucleus. And in a reductionist sense the standard model of elementary particles where 3 families of quarks and leptons charged under 3 gauge groups, generalised electromagnetism, that generate the 3 forces that act within the atom. It is an amazing framework, flexible enough to encompass all the known forces that act on the known particles of nature that we have observed on earth at least. The exceptions of course are right handed part of the neutrino, which fits in rather easily, dark matter still a mystery. And of course the Higgs sector which we will soon hear about. But this final confirmation of the standard model is so much not a surprise in a sense that not finding the Higgs would be truly somewhat revolutionary. Now Nature asked some of us last year, about a year ago, in anticipation of the LHC results, And then plotted the results on a curve. And there are many people from Nature around and they like to ask such questions. So Tom Kibble said, I think that was not a scientific statement. Steven Weinberg, "There are other possibilities". So they put them on the 50/50 list. Shelly Glashow said, "If not in 2 years then never". Lisa Randall "hopefully". John Ellis, "As a fully paid supersymmetrist, I have to say yes". Frank Wilczek, "I remain optimistic". Anyway, I made the mistake of giving them a one word answer with then 2 paragraphs of explanation and they published the one word, So I was very pleased 6 months ago when as far as I could see, the Higgs was discovered and if we put - or if Philip Gibbs put, unofficially collected all the data, one had a 4 sigma observation of a 125 GeV Higgs. Well we're going to learn tomorrow and Nature can pole the audience, but at 11 o'clock tomorrow there is a press conference from Cern and we have arranged with the management of Lindau to have that press conference televised live in this room at the coffee break. So those of you who want to hear it, 11 o'clock, right, ok. Applause. Now we know but have not yet measured directly physics beyond the standard model. But we have observations and experiments that tell us that there must be physics beyond the standard model to explain dark matter, to explain the neutrino mass spectrum, to explain the baryon-matter asymmetry of the universe. And then of course there is the greatest mystery of all, the value of the cosmological constant. From a theoretical point of view, we know in our bones that these forces of nature which look so similar, have the same kind of origin and fit together so neatly should be unified. We have disparities of scales that need explanation. We have various parameters, 19 or so of the standard model, flavours, flavour masses mixings, the existence of 3 families of quarks. Which we would of course like to explain. And we have many cosmological deep questions to understand. Luckily we're in a situation where some of these issues we think point to the TeV energy scale as the place where new physics will occur. Which of course happens to be the LHC energy scale. So we can be optimistic. The most appealing to me of the new physics envisaged is supersymmetry. A profound new spacetime symmetry, invariance of the laws of physics under rotations in large spacetime with anticommuting dimensions. That symmetry, if of course is broken as is the electro weak symmetry and if the scale once again is a TeV, we can test that at the LHC. There are many clues to that, this hierarchy of scales, the unification of the forces and dark matter. Supersymmetry itself is beautiful, predictive, if we just make, add that symmetry to the standard model there are no new parameters. Unfortunately supersymmetry is broken, the dynamics of its breaking is rather arbitrary without theoretical insight, correct guesses which we don't know or experiment. And supersymmetric models are not so beautiful and full of arbitrary parameters. What we have learned so far from LHC is that the simplest of all models don't work and the simplest to observe of supersymmetric particles, the ones that couple to colour, to coloured quarks are not around the corner. But supersymmetry may easily be around the corner and that's the most exciting, in my opinion, prospect for the LHC. Back to quantum mechanics for a moment. Quantum mechanics is hard to modify. People for a variety of reasons, just for the fun of it or because they were disturbed by its principles tried to modify quantum mechanics in many ways for the last century, totally unsuccessfully. Our present framework in which, in a reductionist sense all of physics rests, quantum field theory, is under no threat from observation or experiment. It seems completely adequate for both macroscopic and microscopic physics. From the edge of the universe to the nano-nanometre scale. Very difficult to construct alternatives to this incredibly well tested framework that agree with observation. But we know as scientists and certainly as physicists based on our history of 400 years, that no framework and no theory is likely to survive untouched forever. So where might our present quantum mechanical framework break down and how? And where can we get hints as to how that might happen? The hints we can get are few and far between. They come from thought experiments. Theorists try to extend their understanding to new regimes and new questions, such as the unification of forces or the quantum nature of spacetime, quantum gravity. Or the perplexing issues of quantum cosmology. To that end we have, we were led 44 years ago now, to a theory called string theory. Originally an attempt to understand the strong forces, to explain mesons as string-like objects with quarks at the end. Much as what we now know is a correct large scale description of QCD, where we can calculate the structure of QCD flux tubes between quarks and antiquarks. And it turned out that that theory automatically contained gravity, since open strings could be closed and closed strings in fact behaved exactly, were gravitons. So string theory provided a framework in which one could discuss unification and gravity. And I don't really have time to discuss its status and its problems and its prospects. But the most interesting thing we've realised in the recent years is that string theory is not that revolutionary. And it is not really different than quantum field theory. Quantum field theory and string theory are really 2 sides of a much bigger framework that contains both particles and strings and extended objects of all kinds, branes. String theory always contains dynamical spacetime gravity. But it can be equivalent to quantum field theory with no gravity. And indeed spacetime or parts of spacetime can be an emergent phenomena from the dynamics of ordinary quantum fields. A close cousin of QCD endowed with extra supersymmetry is, we are convinced, identical to string theory and anti-deSitter space. A tool which has now become a tool to study the quark-gluon plasma enrich, and quantum critical points of interest to condensed matter physics by solving Einstein's equation. This is one of the most remarkable developments of string theory. But what it really tells us is that these 2 theories or frameworks which appear to be different are really identical. And we have truly no idea what the total, how rich and large the total framework is. And then as far as theories goes, as opposed to theoretical frameworks, we don't really know what fixes the dynamics. To describe nature we need more than just the framework of quantum mechanics of quantum field theory or quantum string field theory. We need a particular dynamical principle, a Hamiltonian that determines the time development. And in the context of unification we have no idea what that is. Quantum field theory offers little guide except principles of symmetry. String theory in which all the parameters appear to be dynamical, seem to offer that hope but so far we don't know how to realise it. And most difficultly since we now are challenged to unify the forces with gravity. Our extrapolation of the standard model leads to the same scale as quantum gravity. We need to know something about the quantum state of the universe. What determines the initial state. According to Einstein if you are doing cosmology which in a unified theory you must, the nature of the question is to determine the state of the universe, that's a full spacetime history, the beginning, whatever happens at a boundary if there are boundaries and the end. And this is a question physics has never had to deal with. And has no idea how to deal with. Has no idea even what the rules are. And finally for those of us who indulge in such speculations, there are indications that once again we may be forced to modify our most fundamental of physical concepts. That of space and time. All of the classical aspects of spacetime are threatened by quantum gravity and certainly by string theory. The existence of a smooth manifold with a fixed number of dimensions. Or with a definite topology, all are concepts which don't apply in string, in this larger framework. And many of us believe that all of spacetime, certainly all of space is probably best viewed as an emergent large scale description of nature. But what replaces it? This is a subject that one of the main foci of current speculation. That realisation, if that were to happen it would, perhaps not challenge in the trivial sense quantum mechanics but it would certainly change our formulation of quantum mechanics. The situation today is more analogous to 1891 than it is to 1911. In 1891 with all the successes of classical physics, mechanics, electrodynamics, kinetic theory and statistical mechanics. Physics appeared to be in great shape. But it must have been clear to thoughtful physicists that there were almost no clues and no good ideas that could explain the nature of matter or the structure of the universe. And a quantum revolution was just around the corner. So to the young scientists here what I have to say is that you are lucky. You are living in very exciting times. And even though there's been amazing progress over the last 100 years in the quantum domain. There remain so many more amazing questions to answer. And so many amazing phenomena to explore. And so many Nobel prizes to win. Thank you. Applause.

Meine Damen und Herren, guten Morgen. Der Titel meines Vortrags lautet: Das Jahrhundert der Quantenmechanik. Er beruht auf einem Vortrag, den ich im vergangenen Jahr bei der Eröffnung zum hundertsten Jahrestag der Solvay-Konferenz in Brüssel gehalten habe. Jetzt fragen Sie sich vielleicht: "Ist die Quantenmechanik wirklich schon hundert Jahre alt?" Nun, wann hat sie denn begonnen? Vielleicht begann die Quantenmechanik mit Planck, als er im Jahr 1900 zum ersten Mal die Energie strahlender Oszillatoren quantisierte. Doch selbst Planck erkannte nicht, was er getan hatte. In ihrer modernen Form begann die Quantenmechanik vielleicht im Jahr 1925, als Heisenberg die Grundsätze der Matrizenmechanik formulierte, kurz darauf gefolgt von der Formulierung der Quantenmechanik durch Schrödinger, Born, Jordan und Dirac, wie sie uns heute im Wesentlichen bekannt ist. Im Durchschnitt also begann die Quantenmechanik vor fast genau einhundert Jahren. Ich dachte mir, es könnte sich lohnen, sich einen Überblick darüber zu verschaffen, wo die Quantenmechanik steht - was ich im Oktober getan habe. Wo stehen wir in diesem grundlegenden konzeptuellen Rahmen, der vor hundert Jahren zum Verständnis des Wesens physikalischer Realität entwickelt wurde? Die erste Solvay-Konferenz fand vor hundert Jahren, vor etwas mehr als hundert Jahren im Oktober 1911 statt. Es handelte sich um die erste internationale Tagung dieser Art; Physiker kamen zusammen, um fundamentale Probleme ihres Fachbereichs zu erörtern. Diese Konferenzen spielten für die Entwicklung der Physik des 20. Jahrhunderts eine ganz besondere Rolle - vor allem für die Quantenrevolution, deren Geburtsstunde mit dem Beginn der Konferenzen zusammenfiel. Hier ist das berühmte Foto von der ersten Konferenz, das Sie wahrscheinlich alle schon einmal gesehen haben. Eine ziemlich illustre Schar von Physikern des 20. Jahrhunderts. Unter den 24 Physikern, die sich in diesem Raum befanden, waren acht Nobelpreisträger, die den Nobelpreis bereits erhalten hatten oder in naher Zukunft erhalten würden. Viele von ihnen werden Sie erkennen. Große Aufmerksamkeit wurde dem Bild von Einstein zuteil; es zeigt den jungen Einstein im Alter von 33 Jahren... von 32 Jahren. Und man versuchte dahinterzukommen, was er mit diesem Zeichen symbolisieren wollte. Einige interpretierten es als buddhistische Botschaft. Ich glaube allerdings, er hält einen Zigarillo in der Hand. Zu dieser Konferenz werde ich gleich noch etwas sagen. Doch die nächsten fünf Konferenzen, die ersten fünf Solvay-Konferenzen, waren hauptsächlich der gerade stattfindenden Revolution in der Quantentheorie gewidmet, der Atomtheorie. Der Anwendung der Quantenmechanik auf die Struktur der Materie. Diese Themen dominierten die Solvay-Konferenzen, die in der berühmtesten von allen, der von 1927, ihren Höhepunkt fanden, als es zu einer hitzigen Debatte zwischen den Pionieren und den Revolutionären der Quantenmechanik über die Bedeutung der Quantenrealität kam. Hier ist das berühmte Foto von dieser Konferenz. Wieder sehen Sie viele unserer Helden, darunter noch mehr Nobelpreisträger vergangener und künftiger Jahre. Und Einstein, diesmal in der Bildmitte, sendet wieder eine Botschaft. Die erste Solvay-Konferenz befasste sich vor 101 Jahren mit dem zu jener Zeit zentralen Problem der Physik. Man erkannte dieses Problem und benannte es offen beim Namen. War die Quantenstruktur der Natur wirklich unvermeidbar? Der Eröffnungsvortrag, den Lorentz bei der ersten Solvay-Konferenz hielt, ist erfüllt von Angst - Angst, die dieser Meister der klassischen Physik beim ersten Blick in die Quantenwelt spürte. Er sagte: "Die moderne Forschung stieß bei dem Versuch, die Bewegung atomarer, kleinerer Materieteilchen und den Zusammenhang zwischen diesen Teilchen und den im Äther auftretenden Phänomenen darzustellen, immer häufiger auf ernsthafte Probleme." Man schrieb das Jahr 1911, und er glaubte immer noch an den Äther! die schrittweise auf Flüssigkeiten und Elektronensysteme erweitert wurde, Physiker erst in zehn oder zwanzig Jahren eine Antwort geben könnten. Stattdessen haben wir das Gefühl, dass wir in eine Sackgasse geraten sind. Die alten Theorien haben sich als zu schwach erwiesen, um die uns überall umgebende Dunkelheit zu durchstoßen." Hundert Jahre später sind wir von einer solchen Krise weit entfernt. Die Quantenmechanik ist das erfolgreichste aller Systeme, die wir zur Beschreibung der physischen Realität entdeckt haben: Sie funktioniert, sie ergibt Sinn, und sie ist schwer zu modifizieren. Die Reihenfolge dieser Liste von Erfolgen entspricht der Reihenfolge ihrer Bedeutung im Hinblick darauf, was die meisten Physiker von einer physikalischen Theorie verlangen: Vor allem anderen funktioniert sie, sie stimmt mit der Beobachtung überein, sie ergibt einen Sinn. Sie ist logisch, mathematisch, philosophisch konsistent, und sie ist schwer zu modifizieren. Man kann sie nicht ohne weiteres ändern. Lassen Sie mich dennoch mit dem zweiten Punkt beginnen - dass die Quantenmechanik tatsächlich einen Sinn ergibt. Vor über hundert Jahren war der Übergang von der klassischen Realität zur Quantenrealität nicht einfach. Es dauerte lange, vom Phasenraum zum Hilbertraum überzugehen. Einige der kühnsten Pioniere der Quantenmechanik, besonders Einstein, widersetzten sich der Ablösung des klassischen Determinismus durch eine Theorie, die häufig nur probabilistische Vorhersagen treffen kann. Noch schwerer gewöhnte man sich an die Vorstellung, dass sich in der Quantenmechanik ein System auf viele verschiedene, nicht miteinander vereinbare Arten beschreiben lässt. Es gibt nicht nur eine einzige, erschöpfende Beschreibung. Die Freiheit bei der Wahl zwischen verschiedenen, miteinander unvereinbaren Systemen hat keinen Einfluss auf die Realität. Man erhält dieselben Antworten auf dieselben Fragen, unabhängig davon, welches System wir verwenden. Aus diesem Grund können wir einfach Feynmans Maxime folgen: "Halt den Mund und rechne!" Und die meisten von uns tun das auch die meiste Zeit. Doch verschiedene, miteinander unvereinbare Gesichtspunkte können nicht beide in eine einzige Beschreibung eingehen, und wenn man den Fehler macht, unvereinbare Beschreibungen oder Darstellungen miteinander zu vermengen, produziert man Paradoxa. Die meisten von uns haben kein Problem damit, die Quantenmechanik, wie wir das tagtäglich tun, auf die reale Welt anzuwenden. Dennoch gibt es abweichende Meinungen; die Vorhersagen der Quantentheorie werden weiterhin experimentell getestet. Und einige Theoretiker stellen noch immer ihre Grundlagen in Frage. Das meiste davon finde ich nicht besonders interessant. Was ich allerdings faszinierend finde, ist das wachsende Verständnis darüber, wie das klassische System aus der Quantenmechanik hervorgeht. Und zwar besonders deshalb, weil uns unsere experimentierfreudigen Kollegen mit ihrer Fähigkeit, Quantensysteme zu kontrollieren und zu manipulieren und dabei deren Quantenkohärenz im Wesentlichen zu erhalten, immer wieder aufs Neue erstaunen. Für Physiker ist es noch wichtiger, dass die Quantenmechanik funktioniert, und sie funktioniert auf spektakuläre Art und Weise. Sie funktioniert nicht nur bei einfachen Systemen wie einzelnen Atomen und Molekülen, für die sie ursprünglich entwickelt wurde, sondern auch bei Ansammlungen von 10^23 Atomen, die manchmal über eine enorme Bandbreite von Energien und Entfernungen in Wechselwirkung treten. Sie erklärte nicht nur die Anomalien in der klassischen Beschreibung der Schwarzkörperstrahlung und der spezifischen Wärme von Festkörpern bei niedrigen Temperaturen, durch welche die frühzeitlichen Entwicklungen in Gang gesetzt wurden, sondern auch die genauen Eigenschaften der gewöhnlichen Materie, von Leitern, Isolatoren, Halbleitern und exotischeren Stoffen. Die Vielteilchentheorie, die viele Atome beschreibt, und die Quantenfeldtheorie, die grundsätzlich eine unendliche Zahl von Freiheitsgraden beschreibt, haben zahlreiche Eigenschaften gemeinsam. Eigentlich handelt es sich im Wesentlichen um ein und dasselbe. Deshalb hatten die entscheidenden Entwicklungen in der Physik der kondensierten Materie und in der Elementarteilchenphysik gegen Ende des 20. Jahrhunderts einiges gemeinsam; sie lösten ähnliche Probleme und befruchteten sich gegenseitig mit unglaublichem Ertrag. Eine der bedeutendsten Entdeckungen des 20. Jahrhunderts auf dem Gebiet der Quantenphänomene - die der Supraleitung - stammt aus dem Jahr 1911 und wurde bei der ersten Solvay-Konferenz bekanntgegeben. Nebenbei: Rutherford, der im Jahr 1911 als Theoretiker tätig war und beim Einsatz des ersten Teilchenbeschleunigers zur Erforschung der Struktur des Inneren von Atomen durch seine Studenten den Atomkern entdeckt hatte, hielt es nicht für nötig, bei der ersten Solvay-Konferenz, an der er teilnahm, über die Entdeckung des Kerns zu berichten. Er verlor darüber kein Wort, was schon erstaunlich ist. Onnes aber sprach über die Supraleitung. Und bemerkenswerterweise dauerte es 50 Jahre oder noch länger, bis BCS dieses erste Beispiel für den spontanen Bruch einer lokalen Symmetrie, der später für unser Verständnis der schwachen Kernkraft - des so genannten Higgs-Mechanismus, auf dessen endgültige Bestätigung durch den LHC wir sehnsüchtig warten - eine fundamentale Rolle spielte, in vollem Umfang erfassten. Selbst heute noch bilden unkonventionelle Supraleiter - Hochtemperatur-Supraleiter - ein großes Rätsel an den Grenzen des Verständnisses von der Natur der Quantenzustände der Materie. So, wie es jetzt aussieht, gibt es neue Arten von Stoffen, neue Formen von nicht nur durch Symmetrie, sondern auch durch Topologie gekennzeichneter Materie, neue Arten von Quantenphasenübergängen, die sich bei Nulltemperatur ereignen können. Und die wichtige Frage nach den Quantenphasen der Materie ist noch immer weit von einer Beantwortung entfernt, obwohl es kaum einen Zweifel daran gibt, dass die Quantenmechanik zur Erklärung aller Phasen der Materie auf jeden Fall ausreicht. Die Quantenmechanik ist leistungsstärker und reichhaltiger als die klassische Mechanik, denn im Grunde ist die klassische Physik nur ein eng begrenzter Spezialfall der Quantenphysik. Und in den letzten Jahren erkannten wir die zunehmende Rechenleistung der quantenmechanischen Zustände. Die Verschränkung, eine seltsame neue Eigenschaft von Quantenzuständen, lässt sich wirkungsvoll zur Verstärkung der Rechenleistung einsetzen - ein Ziel, das wahrscheinlich erst in Jahrzehnten erreicht wird, das aber sowohl der Atomphysik als auch der Physik der kondensierten Materie enormen Auftrieb gegeben hat. Die Quantenmechanik funktioniert. Wie wir aus Experimenten wissen, funktioniert sie bei Entfernungen, die eine Milliarde mal geringer sind als die Größe des Atoms, tief im Inneren des Kerns und der Quarks, aus denen er besteht. Sie funktioniert bei Energien, die eine Billion mal größer sind als atomare Energien. Von Anfang war klar, dass die Quantenmechanik nahtlos zur speziellen Relativitätstheorie und zu Maxwells Theorie des elektromagnetischen Feldes passt, mit einigen kleinen technischen Problemen, deren Lösung eine gewisse Zeit in Anspruch nahm. Die Quantenfeldtheorie löste die verwirrende Dualität von Teilchen und Wellen auf, was ich für einen der erstaunlichsten Erfolge der theoretischen Physik halte. Sie sagte die Antimaterie voraus, für die schon bald die ersten Beispiele entdeckt wurden. Die Quantenfeldtheorie - der solide Rahmen, auf dem das derzeitige Verständnis physikalischer Realität beruht - wird mit außerordentlicher Genauigkeit getestet. Viel von der unglaublichen Präzision, die sich in der Physik erreichen lässt, ist der Quantennatur der Materie geschuldet - die Identität ununterscheidbarer Teilchen, die Existenz diskreter angeregter Zustände. Ich kann nicht umhin, ihnen einen der erstaunlichsten dieser Genauigkeitstests vorzustellen, nämlich den der Messung des anomalen magnetischen Moments des Elektrons. Es handelt sich um einen Test der Quantenelektrodynamik (QED) eines von 10^12 Teilen, der auf alle Bestandteile des Standardmodells anspricht, besonders aber auf QED. Die andere bemerkenswerte Eigenschaft dieser von der Physik im 20. Jahrhundert hervorgebrachten Theorie besteht in der Bandbreite ihrer Anwendungsmöglichkeiten. Streng genommen verwenden wir die Quantenfeldtheorie zur Darstellung des Universums als Ganzem. Wir haben die Theorie aber auch bei Entfernungen von Nano-Nanozentimetern getestet. Und ein Ende ist vielleicht erst dann in Sicht, wenn wir die Planck-Länge erreichen. Die Quantenmechanik liefert nicht nur die Erklärung für die Struktur von Atomen und Molekülen, sondern auch für die Struktur des Atomkerns - für die starken und schwachen Kräfte, die im Inneren des Kerns am Werk sind. Das Standardmodell der Elementarteilchen, bei dem die drei unter drei Eichgruppen geladenen Familien von Quarks und Leptonen die drei im Atom wirkenden Kräfte erzeugen, vereinheitlichte streng genommen den Elektromagnetismus. Es handelt sich um eine verblüffende Theorie. Sie ist flexibel genug, um all die bekannten Kräfte zu umfassen, die auf die bekannten Teilchen der Natur einwirken - jedenfalls auf die, die wir auf der Erde vorgefunden haben. Es gibt natürlich Ausnahmen - das Neutrino fügt sich ziemlich gut ein; die dunkle Materie ist immer noch ein Rätsel. Und natürlich den Higgs-Abschnitt, von dem wir bald hören werden. Doch diese endgültige Bestätigung des Standardmodells ist insoweit keine Überraschung, als es wirklich schon revolutionär wäre, wenn das Higgs nicht gefunden würde. Im vergangenen Jahr, ungefähr vor einem Jahr, wurden einige von uns im Vorgriff auf die LHC-Resultate von Nature gefragt: Dann wurden die Ergebnisse der Umfrage auf einer Kurve aufgetragen. Nature hat viele Mitarbeiter, und sie stellen gerne solche Fragen. Tom Kibble sagte: "In gewisser Weise wäre es mir lieber, dass es nicht gefunden wird." Ich halte das nicht für eine wissenschaftliche Aussage. Steven Weinberg sagte: "Es gibt noch zwei andere Möglichkeiten." Sie setzten ihn also auf die Fünfzig-zu-fünfzig-Liste. Shelly Glashow sagte: "Wenn es in zwei Jahren nicht geschieht, geschieht es niemals." Lisa Randall: "Hoffentlich." John Ellis: "Als Vollzeit-Supersymmetriker muss ich ja sagen." Frank Wilczek: "Ich bleibe optimistisch." Wie auch immer - ich beging den Fehler, dass ich eine aus einem Wort bestehende Antwort gab, die ich dann in zwei Absätzen erläuterte. Veröffentlicht wurde das eine Wort: "Unbedingt!" Vor sechs Monaten war ich also sehr erfreut, als das Higgs - soweit ich das beurteilen konnte - entdeckt wurde. Philipp Gibbs führte eine inoffizielle Erhebung aller Daten durch, und man gelangte zu einer 4-Sigma-Wahrscheinlichkeit für ein 125 GeV-Higgs. Nun, morgen erfahren wir mehr. Nature kann das Publikum befragen, aber morgen um elf Uhr gibt es im CERN eine Pressekonferenz, die in Absprache mit der Lindauer Leitung während der Kaffeepause live in diesen Raum übertragen wird. Wenn Sie also dabei sein wollen: elf Uhr. Alles klar? OK. Wir kennen auch eine Physik jenseits des Standardmodells; allerdings haben wir sie noch nicht direkt gemessen. Aus Beobachtungen und Experimenten wissen wir aber, dass es eine Physik jenseits des Standardmodells geben muss - zur Erklärung der dunklen Materie, zur Erklärung des Neutrino-Massenspektrums, zur Erklärung der Baryonenasymmetrie des Universums. Und dann gibt es natürlich noch das größte aller Rätsel - den Wert der kosmologischen Konstante. Aus theoretischer Sicht wissen wir tief im Inneren, dass diese Kräfte der Natur, die sich so ähnlich sehen, die aus gleichartigen Quellen stammen und so gut zueinander passen, vereinigt werden sollten. Wir haben Größenunterschiede, die einer Erklärung bedürfen. Wir haben verschiedene Parameter, etwa 19 im Standardmodell, Flavours, die Vermischung von Massen der Flavours, die Existenz dreier Familien von Quarks - all das würden wir natürlich gerne erklären. Und es gibt noch viele unbeantwortete tiefgründige kosmologische Fragen. Glücklicherweise befinden wir uns in einer Situation, in der einige dieser Probleme, so glauben wir, auf die TeV-Energieskala als den Ort hinweisen, an dem die neue Physik stattfinden wird. Wobei es sich natürlich um die LHC-Energieskala handelt. Wir haben also Grund zum Optimismus. Das, was mich an der ins Auge gefassten neuen Physik am meisten anspricht, ist die Supersymmetrie. Eine grundlegend neue Raum-Zeit-Symmetrie, Invarianz der physikalischen Gesetze bei Rotationen in großer Raumzeit mit antikommutativen Ausmaßen. Diese Symmetrie ist natürlich ebenso wie die elektroschwache Symmetrie gebrochen, und wir können das am LHC testen, wenn es sich bei der Skala wieder um eine TeV-Skala handelt. Darauf deutet Vieles hin - die Hierarchie der Skalen, die Vereinigung der Kräfte und die dunkle Materie. Die Supersymmetrie selbst ist elegant und prädiktiv; wenn wir diese Symmetrie dem Standardmodell einfach hinzufügen, gibt es keine neuen Parameter. Leider ist die Supersymmetrie gebrochen. Die Dynamik des Bruchs ist ohne theoretische Durchdringung ziemlich willkürlich - korrekte Vermutungen, von denen wir nichts wissen und die wir nicht experimentell überprüfen. Supersymmetriemodelle sind weniger elegant und voller willkürlicher Parameter. Vom LHC haben wir bisher gelernt, dass die einfachsten aller Modelle nicht funktionieren und dass die am einfachsten zu beobachtenden supersymmetrischen Teilchen, jene, die sich an farbige Quarks binden, nicht gerade um die Ecke liegen. Doch die Supersymmetrie könnte sehr wohl um die Ecke liegen, und das ist meiner Ansicht nach die aufregendste Aussicht für den LHC. Kehren wir für einen Moment zur Quantenmechanik zurück. Die Quantenmechanik ist schwer zu modifizieren. Aus verschiedenen Gründen - einfach aus Spaß oder weil man sich durch ihre Prinzipien beunruhigt fühlte - versuchte man im vergangenen Jahrhundert immer wieder, die Quantenmechanik in vielerlei Hinsicht zu modifizieren. Ohne den geringsten Erfolg. Unser gegenwärtiges System, auf dem streng genommen die gesamte Physik beruht, die Quantenfeldtheorie, ist keiner Bedrohung durch Beobachtung oder Experiment ausgesetzt. Sie erscheint sowohl für die makroskopische als auch für die mikroskopische Physik vollkommen ausreichend. Vom Rand des Universums zum Nano-Nanometer-Bereich. Es ist sehr schwer, Alternativen zu diesem unglaublich gut überprüften, mit der Beobachtung übereinstimmenden System zu konstruieren. Doch als Wissenschaftler, ganz besonders als Physiker angesichts unserer 400-jährigen Geschichte, wissen wir, dass kein System, keine Theorie für immer unangetastet bleiben dürfte. Wo und wie könnte also unser derzeitiges quantenmechanisches System zusammenbrechen? Und wo erhalten wir Hinweise darauf, wie das geschehen könnte? Wir erhalten nur wenige spärliche Hinweise. Sie stammen aus Gedankenexperimenten. Theoretiker versuchen, ihre Erkenntnisse auf neue Systeme und neue Fragen auszuweiten, etwa auf die Vereinheitlichung der Kräfte, die Quantennatur der Raumzeit, die Quantengravitation oder die verwirrenden Probleme der Quantenkosmologie. Dieses Ziel führte uns vor jetzt 44 Jahren zu einer Theorie namens Stringtheorie. Ursprünglich handelte es sich dabei um einen Versuch, die starken Kräfte zu verstehen, Mesonen als stringartige Objekte mit Quarks am Ende zu erklären. Wie wir heute wissen, ist Vieles davon eine korrekte Beschreibung der Quantenchromodynamik (QCD), mittels derer wir die Struktur von QCD-Flussröhren zwischen Quarks und Antiquarks berechnen können. Und es zeigte sich, dass diese Theorie automatisch Gravitation enthielt, denn offene Strings konnten geschlossen werden und geschlossene Strings verhielten sich tatsächlich genauso wie... es waren Gravitonen. Die Stringtheorie stellte also einen Rahmen zur Verfügung, innerhalb dessen man Vereinheitlichung und Gravitation diskutieren konnte. Ich habe leider keine Zeit, auf den derzeitigen Stand der Theorie, ihre Probleme und Aussichten einzugehen. Das Interessanteste aber, was wir in den letzten Jahren festgestellt haben, ist die Tatsache, dass die Stringtheorie gar nicht so revolutionär ist. Und sie unterscheidet sich eigentlich nicht von der Quantenfeldtheorie. Die Quantenfeldtheorie und die Stringtheorie sind in Wahrheit zwei Seiten eines viel größeren Systems, dass sowohl Teilchen als auch Strings und sonstige Objekte aller Art enthält, Branen. Die Stringtheorie enthält stets dynamische Raumzeit-Gravitation. Doch sie kann so etwas sein wie die Quantenfeldtheorie ohne Gravitation. Und in der Tat kann die Raumzeit oder können Teile der Raumzeit ein aus der Dynamik gewöhnlicher Quantenfelder herrührendes Phänomen darstellen. Ein enger, mit einer Extraportion Supersymmetrie ausgestatteter Verwandter der QCD ist nach unserer Überzeugung mit der Stringtheorie und dem Anti-de-Sitter-Raum identisch. Ein Werkzeug, aus dem mittlerweile ein Instrument zur Untersuchung der Anreicherung mit Quark-Gluon-Plasma geworden ist - und zur Untersuchung quantenkritischer Themen von Interesse für die Physik der kondensierten Materie durch die Lösung von Einsteins Gleichung. Das ist eine der bemerkenswertesten Entwicklungen der Stringtheorie. Doch was wir eigentlich aus ihr lernen, ist die Tatsache, dass diese beiden Theorien oder Systeme, die so verschieden erscheinen, in Wahrheit identisch sind. Und wir haben nicht die geringste Ahnung, wie reichhaltig und groß das gesamte System ist. Und was Theorien betrifft: Im Gegensatz zu theoretischen Systemen wissen wir nicht, wodurch die Dynamik festgelegt wird. Um die Natur beschreiben zu können, brauchen wir mehr als nur das System der Quantenmechanik oder der Quantenfeldtheorie oder der Quantenstring-Feldtheorie. Wir benötigen ein ganz besonderes dynamisches Prinzip, einen Hamiltonoperator, der die Zeitentwicklung festlegt. Im Kontext der Vereinheitlichung haben wir keine Ahnung, was das ist. Abgesehen von den Prinzipien der Symmetrie bietet die Quantenfeldtheorie wenig Anhaltspunkte. Die Stringtheorie, in der anscheinend alle Parameter dynamisch sind, scheint ein Hoffnungsschimmer zu sein, doch bisher wissen wir nicht, wie sie umzusetzen ist. Und das Schwierigste ist: Da wir heute vor der Aufgabe stehen, die Kräfte mit der Gravitation zu vereinigen, führt unsere Extrapolation des Standardmodells zur gleichen Skala wie die Quantengravitation. Wir müssen etwas über den Quantenzustand des Universums in Erfahrung bringen, darüber, was den Ausgangszustand festlegt. Wenn man sich mit Kosmologie beschäftigt - was in einer vereinheitlichten Theorie unausweichlich ist - liegt die Natur des Problems nach Einstein darin, den Zustand des Universums zu bestimmen. Wir sprechen von einer vollständigen Geschichte der Raumzeit: Vom Anfang, von den Vorgängen an den Grenzen, falls es Grenzen gibt, und vom Ende. Das ist eine Frage, mit der sich die Physik noch nie beschäftigen musste. Und sie hat keine Ahnung, wie damit umzugehen ist. Sie hat nicht einmal eine Vorstellung davon, wie die Regeln lauten. Und schließlich gibt es für jene von uns, die sich solchen Spekulationen hingeben, Hinweise darauf, dass wir wieder einmal gezwungen sein könnten, unser fundamentalstes physikalisches Konzept zu modifizieren. Nämlich das von Raum und Zeit. Alle klassischen Aspekte der Raumzeit werden von der Quantengravitation in Frage gestellt, und erst recht von der Stringtheorie. Die Existenz einer glatten Mannigfaltigkeit mit einer festen Anzahl von Dimensionen. Oder mit einer eindeutigen Topologie. All diese Konzepte gelten nicht in der Stringtheorie, in diesem größeren System. Und viele von uns sind der Meinung, dass man die gesamte Raumzeit, jedenfalls den gesamten Raum, wahrscheinlich am ehesten als eine emergente Beschreibung der Natur im großen Maßstab betrachten sollte. Aber was wird dadurch ersetzt? Das ist ein Thema, einer der Schwerpunkte der gegenwärtigen Spekulation. Sollte die oben angesprochene Umsetzung der Stringtheorie gelingen, würde das die Quantenmechanik vielleicht nicht im trivialen Sinn in Frage stellen, aber es würde mit Sicherheit unsere Formulierung der Quantenmechanik verändern. Die heutige Situation entspricht eher der von 1891 als der von 1911. Im Jahr 1891, nach all den Erfolgen der klassischen Physik - der Mechanik, der Elektrodynamik, der kinetischen Theorie und der statistischen Mechanik - präsentierte sich die Physik in einer hervorragenden Verfassung. Doch nachdenklichen Physikern muss es klar gewesen sein, dass es fast keine Anhaltspunkte und keine guten Ideen für die Erklärung der Natur von Materie oder der Struktur des Universums gab. Und eine Quantenrevolution stand kurz bevor. Den hier versammelten jungen Wissenschaftlern kann ich Eines mit auf den Weg geben: Sie haben großes Glück. Sie leben in ungemein aufregenden Zeiten. Und auch wenn auf dem Gebiet der Quanten in den letzten hundert Jahren erstaunliche Fortschritte zu verzeichnen waren, sind noch viele merkwürdige Fragen zu beantworten, viele verblüffende Phänomene zu erforschen und viele Nobelpreise zu erringen. Vielen Dank.

David Gross on quantum mechanics
(00:06:39 - 00:11:08)

Some of the Lindau lectures are rather technical descriptions of the work of the Nobel Laureate giving it. But not so the 1973 lecture of Nobel Laureate Alfred Kastler, who received his prize in 1966 “for the discovery and development of optical methods for studying Hertzian resonances in atoms”. Instead he chose to give a talk about Max Planck and how Planck arrived at the quantum energy condition. Kastler gives his talk in German and it is entitled “Wie kam Max Planck dazu E = hv zu setzen?”.

Alfred  Kastler (1973) - What led Max Planck to write E = h . ν? (German Presentation)

I have nothing new to present to my esteemed colleagues. In selecting my topic, I was thinking more of the students who are now also participating in large numbers. You are the ones who, so to speak, learned the quantum theory at your mother's knee. You know very well what the laws of the photoelectric effect are, and those of the Compton Effect, where the light quanta become almost palpably visible. And perhaps it is hard for you to understand how difficult it was, back when the laws of the photoelectric effect were not yet known, and the Compton Effect was unheard of, to find these quanta in blackbody radiation, where they are much more hidden, and what a mighty deed Planck achieved when he found these quanta in just this blackbody radiation. It was, as he said himself in his memoirs, a tortuous path. And I would like to show you how this path can be understood, at least psychologically. In Planck's scientific development, two different periods can be discerned, a very long period in which he was a thermodynamicist and followed in the footsteps of Rudolf Clausius, Rudolf Clausius who introduced the concept of entropy to physics in 1850, and then, very much at the end, a short period where he had turned to the Boltzmann way of thinking and attempted to transfer the concept of probability to blackbody radiation. Perhaps we would like to see this, in order to save time, by viewing slides. So, we start with thermodynamics and view a system's internal energy as a function of the entropy S and the volume W. We now know that all of these three variables are so-called extensive quantities, so that the property of a total system is the additive combination of the properties of the subsystems. The differential of the entropy or the increase of energy, we can view, as we know, as an increase of heat and an increase of work. And then, we express the second principle, the Carnot Principle by, like Clausius, setting dQ = TdS, where dS is the total differential of the entropy. And so we see that the absolute temperature T appears as the partial differential of the energy with respect to the entropy. T = dU/dS, partial differential taken at a constant volume. Now we will specialize by moving from the energy and entropy of the total system to a sub-system, for a unit volume because then we can introduce the entropy densities. The small s is the entropy density, which is the entropy for the unit volume, and the small u is the energy density, the energy for the unit volume. And then we can write this same formula, we can also invert it, dS/du (W) = T - 1, with small letters we write s/du = T - 1. But we can specialize even more by now also, just as Planck did, applying this formula to blackbody radiation and then also we can spectrally decompose the energy and the entropy of the blackbody radiation. And then we consider the unit of the frequency interval. And in this way then introduce sNu, the spectral density per frequency interval, and uNu, the spectral energy density per frequency interval, and then we can also write dSNu/duNu always = T - 1. But we can specialize even more, as the second picture will show. We know that in the year 1900, early in the year 1900, Lord Rayleigh showed how to count the standing waves in a cavity. You know that it is very easy for a cavity with a cube shape, you have done this as an exercise, and then Lord Rayleigh could show that for the unit volume, and also for the unit frequency interval, the number of standing waves in the cavity is given by the value g = 8Pi*Nu^2 - Nu is the frequency - divided by c^3 - c is the speed of light. And then we can also introduce an average energy for each standing wave in the cavity, which we call u1, and an average entropy for each of these waves. And then we can write uNu = gu1 and SNu = g*S1, and can now again write the fundamental formula for the average entropy and the average energy of such a standing wave dS1/du1 = T - 1. And so, Max Planck was not in the habit of operating with the standing waves in the cavity, instead he introduced the so-called Planck oscillator in that, based on the Kirchhoff Law, he knew that the thermal balance of the blackbody radiation does not depend on the nature of the walls, but instead only on the temperature. So he introduced very simple walls that were covered with harmonic oscillators of various frequencies Nu, and he could then show that these equations were not only the same for the standing waves in the cavity itself, but also for each harmonic oscillator in the wall, meaning with the same g, so that the average energy of such a harmonic oscillator is equal to the average energy of a Rayleigh standing wave. This shows us, incidentally, that we can treat these standing waves of the vacuum as linear oscillators. And then we can, and I want to do this, write this fundamental expression on the board, dS1/du1 or dS1/dE Or what we can also write is dS1 = T - 1 dE. And now, what was characteristic of Planck's considerations, was that he now attempted to calculate the entropy of the radiation, not as a function of the temperature, but instead as a function of the average energy of the oscillator, or what amounts to the same thing, the average energy of the standing wave in the cavity. And now the next picture shows how he worked from Wien's Displacement Law, which Wien established in the year 1894, where he was able to show that the average energy, that the energy density of the blackbody radiation must have this form. As we know, he discovered this by applying the Doppler principle to the cavity, or that u1 or E would have to = Nu, multiplied by a certain function of Nu/T. Now, we can invert this and say Nu/T must be a function of E/Nu. Nu/T a function of E/Nu. And if we now write this fundamental equation again, dS1 = T - 1 dE, here we can multiply by Nu by dividing Nu/T here by Nu, we have this expression, and because Nu/T must be a function of E/Nu, we see that the entropy S1 must be a function of only the variable E/Nu. Consequently S1 must have the form of some function of E/Nu, and I also want to write this on the board: S1 must be a function of E/Nu. I would also like to write the value of g on the board, which is the number of standing waves per frequency interval and per unit volume. Now we come to the next picture. In the year 1896 Wien specialised his law and proposed to represent the blackbody radiation by such a function, an exponential function. And we know that this was very well confirmed by the measurements in the visible range and in the ultraviolet range. So we can then write for E and u1 in this form: Alpha(prime) Nu exponential, always from this expression, where Alpha(prime) must be = Alpha * c^3 = 8 Pi. And if we now again apply the fundamental formula here, dS1/dE = T - 1, we can write 1/T, if we here explicitly calculate the 1/T by taking the logarithm, Excuse me, that is of course a natural logarithm. In France we are in the habit of writing it so, not "ln". Now we can differentiate these relationships and obtain the second differential d2S1/dE2 = -1/Beta Nu1/E, or its reciprocal value, which Planck called "R", which is a linear function of the average energy of the oscillator if or when Wien's law is valid. Now it was just in the year 1900 that newer measurements by Rubens and Kurlbaum with residual rays in the far infrared showed that these measurements did not correspond to Wien's Law. And that it was more the case that the average density, the radiation density, could not be represented by an exponential function in a function of 1/T, but instead simply increased linearly with the absolute temperature T. This was shown by the work of Rubens and Kurlbaum. But at the same time, as the next picture shows, Rayleigh had shown, also early in 1900, by taking the equipartition theorem, by carrying Boltzmann's classic equipartition theorem over to radiation, that it should be that E = kT and in this case, if we now again set 1/T = k/E = dS1/dE and calculate the second differential, we see that there, where the Rayleigh-Jeans Law is valid for small frequencies, this expression must depend quadratically on the energy, and not linearly. We want to look at this together again in the next picture. So for large frequencies or small wavelengths, there where the energy of the radiation is small, this law is valid. And for the large wavelengths, there where the energy of the radiation is large, as this picture shows, this law is valid. Now Planck's approach was in attempting to combine the two laws. This means to find a law that results in Wien's Law for small wavelengths, as a limiting law, and in the Rayleigh-Jeans Law for large wavelengths. And in order to do this, he added, his approach was to start with this reciprocal value, in that he added the two terms, the linear term and the quadratic term. But at that time, that was a mathematical trick for him. Not until much later, ten years later, was Einstein able to clarify and show the physical meaning of this expression, that this expression has a physical meaning of the fluctuation of the radiation field, namely the first term is caused by the quantum nature and the second term by the wave nature of light. Now, this can also be written as 1/BetaNu multiplied by the difference of these two fractions, and then one can attempt to integrate it, which we will then do in the next picture. So, we have this function. And for Planck the integration resulted in just the logarithms, the natural logarithms, of E = kBetaNu, and an integration constant log Gamma, that had to be determined. Now, this can be written like this. And this, dS1/dE, now again has to be, according to the fundamental formula, Planck's formula here, = 1/T. And then one can now calculate this from here from E as a function of Nu and of T. And Planck stopped with this formula, which already looks very slightly like Planck's formula. Now we have only three constants, the Gamma, the integration constant the k, and the Beta. Now, in order to determine these constants, Planck used the two limiting laws. The next picture shows this. For a small Nu/T, this law must result in the Rayleigh Law, the Rayleigh Limiting Law, and that can only be possible, the exponent Epsilon then becomes = 1 + Epsilon, and that can only be possible if the Gamma is made = 1 or the log Gamma = 0. And at the other end of the spectral range for large Nu/T we must obtain Wien's law, excuse me, there is a Nu missing here, Alpha(prime) Nu exponential. And in order to obtain this, it appears that kBeta must be = Alpha(prime). One can consequently then replace the Beta with Alpha(prime)/k and finally obtain for the average energy of the oscillator or of the standing wave in the cavity this Plank's law, or then for the average energy, by multiplying by the g factor, this here, and this is Planck's law, which was then confirmed by all measurements over time. But Planck's work was not done yet, because his objective after all was always to find an expression for the entropy S1. And now the next picture shows this. Starting with this relationship, which was just up on the screen, but where we now set log Gamma = 0 and replace the Beta with k/Alpha (prime), this will now be integrated a second time and now reflects the average energy per oscillator by this function, where now again an integration constant comes into play, but that can be determined now because after all we know, it is up here on the board again, that the S1 must be a function only of E/mu. And that determines here then the integration constant and Planck entered this value for S1, where we see that S1 really must be a function of E/Nu or, better, of E/Alpha(prime) Nu. And this is the formula that Planck obtained from thermodynamics. But he was not at all satisfied with this derivation, because he himself said, "That interpolation was a lucky guess." And now he tried to capture the physical meaning of this formula. And then he turned to Boltzmann's way of thinking, which he had before always viewed very sceptically, or dismissively, because he wanted to understand entropy as a rigorous quantity and not as a probability quantity. But now he applied Boltzmann's way of thinking. And the next picture shows you his problem. Boltzmann had shown how one can calculate the probability of a distribution, namely that then one must deal with a content and a container, one must deal with a content and with a container. For Boltzmann, the content was a gas and the container was Maxwell's velocity space. And for Boltzmann, this velocity space had a continuous structure, but for him the gas was composed of molecules. But in his time this was not so obvious, because we know that Boltzmann had to fight a difficult battle against Ostwald and against Ernst Mach, who did not want to believe in molecules. But for Boltzmann, the gas was already composed of molecules, which means that the content had a quantum structure, but the container did not. And what did Boltzmann do now? In order to bring about a distribution, he also had to divide the container into elements of finite dimensions of the velocity space, meaning small elements, but finite elements. And these elements he called the cells, the cells of the velocity space. And then he was able to calculate a number of complexions, meaning a probability. But we do not want to look closer at Boltzmann's problems, and instead we turn now to Planck's problem. For Planck, the content was the radiation energy and preliminarily it had a continuous structure. And the container for him was the cavity. And Rayleigh had shown that the cavity oscillations consist of the standing waves and had shown how one can count these standing waves, how one can determine the g. And so for Planck, this cavity already had a discrete structure. And in order now also to be able to produce a distribution of radiation energy over these modes of the standing waves or the oscillators, he first had to do the opposite of Boltzmann. He had to make the content discrete. And so he introduced what he called "the radiation energy element", which he called Epsilon. And the next picture now shows, if we see the unit volume and the unit of frequency interval like this, we have the energy uNu, and this must be = g times the average energy of the oscillators or of the standing waves. But if we give the energy a quantum structure and the Epsilon, the units that are the elements of this radiation energy, we can also write uNu = N * Epsilon - N quanta of energy particles -, so that we have the relationship N/g = g/Epsilon = n. And now Planck searched for a formula that reflected the probability of this distribution and he was aware that these energy elements of the radiation are indistinguishable. So he did not turn to the Boltzmann formula, but instead took from combination analysis this formula, that we know today as the formula of Bose-Einstein statistics. But this formula is found in the paper from Planck from the year 1900. Working from this formula, and because N and g are large numbers, he could use Stirling's Approximation and write log WNu of the probability = g1 + n log 1+n-1, so that is now very familiar to you due to Bose statistics, and then use the Boltzmann postulate, namely the bridge between thermodynamics and probability considerations, in that he, following Boltzmann, set the logarithm of the probability proportional to the thermodynamic entropy. And actually Planck was the first to write out this formula, as he himself mentioned, Boltzmann never wrote it, and this Boltzmann constant k was introduced by Planck in this way. If sNu is the entropy of the unit volume, S1 is the entropy of the oscillator or of the standing wave, here we must divide by g, by the number of standing waves in the unit volume, and then finally obtain in this way the formula for the entropy of the radiation: S1 = k. And if one now compares the two formulas - the next picture please - the formula that resulted from thermodynamics was this one here, the formula that resulted from the Boltzmann probability considerations is this one. If we now replace the n by Epsilon and if one now, as Planck now compared these two formulas, he saw that the element of the radiation energy Epsilon had to be proportional to the frequency. Consequently Epsilon = Alpha(prime) Nu, and from now on he named the Alpha(prime) by the letter h, and that was then the famous Planck's action quantum, that one always views perhaps as erg*seconds or perhaps to be more precise, erg per unit of the frequency interval, erg per Hertz. And with the available measurement results, Planck was then able to calculate these numerical values for the h, that really comes out finite, small, but finite, and also for the k. And what is remarkable is that one not only obtains information in this way through the study of blackbody radiation alone, obtains information about the quantum structure of radiation energy, but also about the quantum structure of matter. One obtains not only the h, but also the k and from the k value, which is equal to the gas constant R divided by Loschmidt's number, Planck was able also to calculate Loschmidt's number and then also the elementary electrical charge. And he was very satisfied when a few years later, Rutherford obtained the same value for the elementary charge by counting the alpha rays. And at that time, those were the most precise values that were known at that time. We know that since then that has changed somewhat. I would now like to conclude, we can say the first formula, the formula from thermodynamics that is above, that Planck reported it, I believe it was on 19 October 1900. And then, on 14 December 1900, he announced this formula and this is where he introduced the elementary quantum. Traditionally, it is said that Planck is the father of quantum theory, and the child was born on the 14th of December. I would like to change this just a bit, without diminishing the great merit of Planck, but I think that every child should have a father and a mother. I would like to say that one hundred years ago, when Boltzmann introduced the cells of the velocity space, there he accomplished a quantum act. This was already a quantification. However, at that time he could not anticipate that the actual physical meaning of the cells was not the cells of the velocity space, but instead of the phase space, the phase space was first introduced by Gibbs, and that these cells of the phase space had very particular dimensions that are determined by Planck's action quantum. I would consequently like to say that Boltzmann contributed to the quantum theory with a very small spermatozoid. And I would like to say that Planck was the mother who then gave birth to the child on 14 December 1900. Perhaps you will allow me to show three portraits in conclusion: Here the grandfather Clausius, the father Boltzmann, with a fine beard, and Max Planck. Thank you.

Ich werde den werten Herren Kollegen nichts Neues bringen. Ich habe bei der Wahl des Themas eher an die Herren und Damen Studenten gedacht, die jetzt auch zahlreich teilnehmen. Sie sind ja, Sie haben ja sozusagen die Quantentheorie mit der Muttermilch eingesogen. Sie wissen es sehr gut, was die Gesetze des Photoelektrischen Effektes sind und des Compton-Effektes, wo ja da die Lichtquanten fast handgreiflich zur Sicht kommen. Und es ist Ihnen vielleicht schwer zu verstehen, wie, als man die Gesetze des Photoelektrischen Effektes noch nicht kannte und noch nichts vom Compton-Effekt wusste, wie schwierig es war, in der schwarzen Strahlung diese Quanten zu finden, wo sie viel versteckter vorhanden sind und welche Großtat es war von Planck, eben in dieser schwarzen Strahlung diese Quanten zu finden. Es war, wie er selbst sagt in seinen Erinnerungen, ein verschlungener Weg. Und ich möchte Ihnen zeigen doch, wie man diesen Weg wenigstens psychologisch verstehen kann. Man kann in Plancks wissenschaftlichem Werdegang zwei Perioden unterscheiden, eine sehr lange Periode, wo er Thermodynamiker war und den Fußstapfen von Rudolf Clausius folgte, Rudolf Clausius, der 1850 in die Physik den Begriff der Entropie hineingebracht hatte, und dann ganz am Ende eine kurze Periode, wo er sich an Boltzmann'sche Gedankengänge wandte und versuchte, den Begriff der Wahrscheinlichkeit auf die schwarze Strahlung zu übertragen. Vielleicht möchten wir das sehen, damit wir Zeit sparen, an Hand von Lichtbildern. Also, wir gehen von der Thermodynamik aus und sehen die innere Energieuhr eines Systems an als eine Funktion der Entropie S und des Volumens W. Wir wissen nun, dass alle diese drei Variablen so genannte extensive Größen sind, also dass die Größe eines Gesamtsystems sich additiv zusammensetzt aus den Größen der Teilsysteme. Das Differential der Entropie, also der Zuwachs der Energie, können wir, wie wir wissen, ansehen als einen Zuwachs von Wärme und ein Zuwachs von Arbeit. Und dann, wir sprechen das zweite Prinzip, das Carnotsche Prinzip, aus, indem wir eben mit Clausius dQ = TdS setzen, und dass ds das totale Differential der Entropie ist. Also sehen wir, dass die absolute Temperatur T erscheint als das partielle Differential der Energie nach der Entropie. T = dU zu dS, partielles Differential genommen bei konstantem Volumen. Nun werden wir spezialisieren, indem wir von der Energie und der Entropie des Gesamtsystems übergehen zu einem Teilsystem, zur Volumeneinheit, denn wir können dann die Dichten der Entropie einführen. Das s ist die Entropiedichte, also die Entropie für die Volumeneinheit und das u die Energiedichte, die Energie für die Volumeneinheit. Und dann können wir diese selbe Formel, wir können sie auch umkehren, dS zu du, w = T - 1 schreiben, mit den kleinen Buchstaben schreiben wir S zu du = T - 1. Aber wir können noch mehr spezialisieren, indem wir auch jetzt, wie es Planck eben tat, diese Formel auf die schwarze Strahlung anwenden und dann jetzt die Energie und die Entropie der schwarzen Strahlung auch spektral zerlegen. Und dann die Einheit des Frequenzintervalls in die Augen fassen. Und auf diese Weise dann das sMy, also spektrale Dichte pro Frequenzintervall und das uMy, die spektrale Dichte der Energie pro Frequenzintervall einführen und dann können wir auch schreiben dSMy zu duMy immer = T - 1. Aber wir können noch mehr spezialisieren, wie das zweite Bild zeigen wird. Wir wissen, dass im Jahre 1900, also im Frühjahr 1900 Lord Rayleigh gezeigt hat, wie man in einem Hohlraum die stehenden Wellen abzählen kann. Sie wissen, dass es sehr leicht ist, für einen Hohlraum von Würfelform, das haben Sie als Exerzitium gemacht, und dann konnte Lord Rayleigh zeigen, dass für die Volumeneinheit und auch für die Einheit des Frequenzintervalls die Anzahl der stehenden Wellen im Hohlraum durch das G gegebenen Wert = 8p My hoch 2 Und dann können wir auch einführen eine mittlere Energie für jede stehende Welle im Hohlraum, die wir u1 nennen, und eine mittlere Entropie für jede dieser Wellen. Und können dann eben schreiben uMy = gu1 und SMy = gS1, und können jetzt wieder die fundamentale Formel schreiben für die mittlere Entropie und die mittlere Energie einer solchen stehenden Welle. dS1 zu du1 = T - 1. Und nun, Max Planck hatte nicht die Gewohnheit, mit den stehenden Wellen im Hohlraum zu operieren, sondern er hatte den so genannten Max Planckschen Oszillator eingeführt, indem er eben, auf dem Kirchhoffschen Gesetz fußend, wusste, dass das thermische Gleichgewicht der schwarzen Strahlung nicht von der Natur der Wände abhängt, sondern nur von der Temperatur. So hat er eben ganz einfache Wände eingeführt, die mit harmonischen Oszillatoren verschiedener Frequenzen My gepflastert waren und er konnte dann zeigen, dass diese Gleichungen nicht nur für die stehenden Wellen im Hohlraum selbst, sondern auch zu jedwedem harmonischen Oszillator in der Wand dieselben sind, also mit demselben G, dass also die mittlere Energie eines solchen harmonischen Oszillators gleich ist der mittleren Energie einer Rayleighschen stehenden Welle. Das zeigt uns übrigens, dass man diese stehenden Wellen des Vakuums als lineare Oszillatoren behandeln kann. Und dann können wir, und das möchte ich doch, diesen fundamentalen Ausdruck an die Tafel schreiben, dS1 zu du1 oder noch dS1 zu dE - wo E die mittlere Energie des Planckschen Oszillators ist - = T - 1. Oder was wir noch schreiben können dS1 = T - 1 dE. Und nun, das Charakteristische an Plancks Erwägungen war, dass er jetzt versuchte, die Entropie der Strahlung zu berechnen, nicht als Funktion der Temperatur, sondern als Funktion der mittleren Energie des Oszillators oder, was auf dasselbe herauskommt, der mittleren Energie der stehenden Welle im Hohlraum. Und das nächste Bild zeigt nun, wie er ausging vom Wienschen Verschiebungsgesetz, das Wien aufgestellt hatte im Jahre 1894, wo er zeigen konnte, dass die mittlere Energie, dass die Energiedichte der schwarzen Strahlung diese Form haben musste. Wie wir wissen, fand er dass, indem er das Doppler-Prinzip auf den Hohlraum anwandte, oder dass u1 oder E = My, multipliziert mit einer gewissen Funktion von My zu T sein musste. Nun, dies können wir umkehren und sagen My zu T muss eine Funktion von E zu My sein. My zu t eine Funktion von e zu My. Und wenn wir jetzt diese fundamentale Gleichung wieder schreiben, dS1 = T - 1 dE, können wir hier mit My multiplizieren, indem wir My zu t hier durch My dividieren, bekommen wir diesen Ausdruck und da My zu t eine Funktion von E zu My sein muss, sehen wir, dass die Entropie s1 eine reine Funktion der Variable E zu My sein muss. Also s1 muss von der Form sein, irgendeine Funktion von E zu My und das möchte ich auch an die Tafel schreiben: s1 muss eine Funktion sein von E zu My. Ich möchte auch den Wert des G an die Tafel schreiben, also die Anzahl der stehenden Wellen pro Frequenzintervall und pro Volumeneinheit. Nun kommen wir zum nächsten Bild. Im Jahre 1896 hatte Wien sein Gesetz spezialisiert und vorgeschlagen, die schwarze Strahlung durch eine solche Funktion, eine Exponentialfunktion darzustellen. Und wir wissen, dass das durch die Messungen im sichtbaren Gebiet und im ultravioletten Gebiet sehr gut bestätigt wurde. Also, das können wir dann für E und u1 in dieser Form schreiben: Alpha prim My exponential, immer von diesem Ausdruck, wo Alpha prim = Alpha multipliziert mit c3 = 8Pi sein muss. Und wenn wir jetzt wieder die fundamentale Formel hier anwenden, dS1 zu dE = T - 1, so können wir schreiben 1 zu T, wenn wir explizit hier das 1 zu T darüber ausrechnen, indem wir den Logarithmus nehmen, Ich entschuldige mich, das ist natürlich ein natürlicher Logarithmus. In Frankreich haben wir die Gewohnheit, das so zu schreiben, nicht "ln". Nun kann man dann diese Beziehungen differenzieren und erhält das zweite Differential, d2S1 zu dE2 = -1 zu Beta My1 zu E, oder sein reziproker Wert, das was Planck "R" nannte, ist eine lineare Funktion von der mittleren Energie des Oszillators, wenn oder da, wo Wiens Gesetz gültig ist. Nun, gerade eben im Jahre 1900, zeigten neuere Messungen von Rubens und Kurlbaum mit Reststrahlen im fernen Infrarot, dass diese Messungen und Wiens Gesetz nicht übereinstimmten. Und dass es da eher so war, dass die mittlere Dichte, die Strahlungsdichte, nicht durch eine Exponentialfunktion in Funktion von 1 zu T dargestellt werden konnte, sondern einfach linear zur absoluten Temperatur T anstieg. Das zeigten die Arbeiten von Rubens und Kurlbaum. Aber zu gleicher Zeit, wie das nächste Bild zeigt, hatte Rayleigh gezeigt, auch im Frühjahr 1900, indem er das Äquipartitionstheorem, das klassische Äquipartitionstheorem Boltzmanns auf die Strahlung übertrug, dass eben das E = kT sein sollte und in diesem Falle, wenn man jetzt wieder 1 zu T = k zu E = dS1 zu dE setzt und das zweite Differential ausrechnet, dann sieht man, dass da, wo das Rayleigh-Jeans-Gesetz also für kleine Frequenzen gültig ist, da muss dieser Ausdruck quadratisch von der Energie abhängen und nicht linear. Wir wollen das noch mal dann zusammen sehen im nächsten Bild. Also, für die großen Frequenzen oder die kleinen Wellenlängen, da wo die Energie der Strahlung klein ist, gilt dieses Gesetz. Und für die großen Wellenlängen, da wie die Energie der Strahlung groß ist, wie dieses Bild zeigt, gilt dieses Gesetz. Nun Plancks Ansatz bestand darin, zu versuchen, beide Gesetze zu verbinden. Das heißt, ein Gesetz zu finden, das für kleine Wellenlängen das Wiensche Gesetz ergibt, als Grenzgesetz, und für große Wellenlängen das Rayleigh-Jeans-Gesetz. Und um dies zu tun, addierte er, machte er den Ansatz, indem er von diesem reziproken Wert ausging, indem er eben beide Glieder addierte, das lineare Glied und das quadratische Glied. Nur das war damals für ihn ein mathematischer Kunstgriff. Erst viel später, zehn Jahre später, konnte Einstein die physikalische Bedeutung dieses Ausdrucks darlegen und zeigen, dass dieser Ausdruck die physikalische Bedeutung der Fluktuation des Strahlungsfeldes hat, und zwar das erste Glied wird durch die Quantennatur und das zweite Glied durch die Wellennatur des Lichts hervorgerufen. Nun, dies kann man auch so schreiben: 1 zu BetaMy multipliziert mit der Differenz dieser beiden Brüche, und dann kann man versuchen, es zu integrieren, was wir im nächsten Bild dann tun werden. Also, wir haben diese Funktion. Und die Integration ergab nun für Planck eben die Logarithmen, die natürlichen Logarithmen von E = kBetaMy, und eine Integrationskonstante log Gamma, die musste bestimmt werden. Nun, dies kann so geschrieben werden. Und dies, dS1 zu dE, muss nun wieder nach der fundamentalen Formel, Planckschen Formel hier, = 1 zu T sein. Und dann kann man jetzt dies von hier aus das E berechnen als eine Funktion von My und von T. Und Planck hielt an diese Formel, die ja schon sehr leicht wie die Plancksche Formel aussieht. Nur haben wir jetzt nur drei Konstanten, das Gamma, die Integrationskonstante, das k und das Beta. Nun, um diese Konstanten zu bestimmen, benutzte eben Planck die beiden Grenzgesetze. Das nächste Bild zeigt das. Für kleine My zu T muss dieses Gesetz mit dem Rayleighschen Gesetz, das Rayleighsche Grenzgesetz ergeben und das kann nur möglich sein, der Exponent Epsilon wird dann = 1 + Epsilon und das kann nur möglich sein, wenn das Gamma eben = 1 gemacht wird oder der log Gamma = 0. Und am anderen Ende des Spektralbereiches für große My zu T müssen wir das Wiensche Gesetz erhalten, entschuldigen Sie, hier fehlt ein My, Alpha prim My exponential. Und um dies zu erhalten, zeigt sich, dass kBeta = Alpha prim sein muss. Man kann also dann das Beta ersetzen durch Alpha prim zu k und erhält schließlich für die mittlere Energie des Oszillators oder der stehenden Welle im Hohlraum dieses Plancksche Gesetz, oder dann für die mittlere Energie, indem man mit dem G-Faktor multipliziert, dieses da, und dies ist Plancks Gesetz, das dann durch alle Messungen im Verlauf bestätigt wurde. Aber Plancks Arbeit war nicht fertig, denn sein Ziel war ja immer, einen Ausdruck für die Entropie s1 zu finden. Und das zeigt nun das nächste Bild. Ausgehend von dieser Beziehung, die eben vorher am Schirm war, aber wo wir jetzt log Gamma = 0 gesetzt haben und das Beta durch k durch Alpha prim ersetzt haben, das wird jetzt ein zweites Mal integriert und gibt jetzt die mittlere Energie pro Oszillator durch diese Funktion wider, wo jetzt wieder eine Integrationskonstante herein kommt, aber die kann jetzt bestimmt werden, denn wir wissen ja, das steht hier wieder an der Tafel, dass das S1 eine reine Funktion von E zu My sein muss. Und das bestimmt hier dann die Integrationskonstante und da gab Planck für s1 diesen Wert an, wo wir sehen, dass S1 wirklich eine Funktion von E zu My oder besser von E zu Alpha prim My sein muss. Also, das ist die Formel, die Planck aus der Thermodynamik erhielt. Nun war er aber mit dieser Ableitung gar nicht zufrieden, denn wie er selbst sagt: Und jetzt wandte er sich an Boltzmanns Gedankengänge, denen er bis jetzt immer sehr skeptisch, ablehnend gegenüber gestanden war, denn er wollte die Entropie als eine rigorose Größe auffassen und nicht als eine Wahrscheinlichkeitsgröße. Aber jetzt ging er doch in Boltzmanns Gedankengänge ein. Und das nächste Bild zeigt Ihnen nun sein Problem. Also Boltzmann hatte gezeigt, wie man die Wahrscheinlichkeit einer Verteilung berechnen kann, und zwar hat man dann über einen Inhalt und einen Behälter, man hat es mit einem Inhalt zu tun und mit einem Behälter. Für Boltzmann war der Inhalt ein Gas und der Behälter war Maxwells Geschwindigkeitsraum. Und für Boltzmann hatte eben dieser Geschwindigkeitsraum eine kontinuierliche Struktur, aber das Gas bestand für ihn aus Molekeln. Das war aber gar nicht zu seiner Zeit so augenfällig, denn wir wussten, dass Boltzmann einen schweren Kampf zu führen hatte gegen Ostwald und gegen Ernst Mach, die nicht an die Molekeln glauben wollten. Aber für Boltzmann bestand das Gas schon aus Molekeln, das heißt, der Inhalt hatte eine quantenhafte Struktur, aber der Behälter nicht. Und was tat nun Boltzmann? Um eine Verteilung zustande zu bringen, musste er den Behälter auch einteilen in Elemente endlicher Ausdehnung des Geschwindigkeitsraums, also kleine Elemente, aber endliche Elemente. Und diese Elemente nannte er die Zellen, die Zellen des Geschwindigkeitsraums. Und dann konnte er eine Anzahl von Komplexionen, also eine Wahrscheinlichkeit berechnen. Wir wollen aber auf Boltzmanns Probleme nicht weiter eingehen, sondern uns jetzt an Plancks Problem wenden. Für Planck war der Inhalt die Strahlungsenergie und die hatte vorläufig eine kontinuierliche Struktur. Und der Behälter war für ihn eben der Hohlraum. Und Rayleigh hatte gezeigt, dass eben die Hohlraumschwingungen aus den stehenden Wellen bestanden und hatte gezeigt, wie man diese stehenden Wellen abzählen kann, wie man das G bestimmen kann. Also dieser Hohlraum hatte für Planck schon eine diskontinuierliche Struktur. Und um jetzt auch eine Verteilung von Strahlungsenergie über diese Moden der stehenden Wellen oder die Oszillatoren herstellen zu können, musste er zuerst das Umgekehrte tun wie Boltzmann. Er musste den Inhalt diskontinuierlich machen. Und so führte er ein, was er nannte: "Die Elemente der Strahlungsenergie", die er Epsilon nannte. Und das nächste Bild zeigt nun, also wenn wir sehen die Volumeneinheit und die Einheit des Frequenzintervalls so haben wir die Energie uMy, und die muss eben = G mal der mittleren Energie der Oszillatoren oder stehenden Wellen sein. Aber wenn wir der Energie eine quantenhafte Struktur geben und das Epsilon die Einheit, die Elemente dieser Strahlungsenergie sind, so können wir auch schreiben uMy = N mal Epsilon Und nun suchte Planck nach einer Formel, die die Wahrscheinlichkeit dieser Verteilung wiedergab und war sich bewusst, dass diese Energieelemente der Strahlung ununterscheidbar sind. Also er ging nicht zur Boltzmannschen Formel, sondern entnahm der Kombinationsanalyse diese Formel, die uns ja bekannt ist als die Formel der Bose-Einstein-Statistik. Aber diese Formel steht in der Abhandlung von Planck vom Jahre 1900. Er ging von dieser Formel aus und da N und G große Zahlen sind, konnte er die Sterlingsche Approximation anwenden und schreiben log wMy der Wahrscheinlichkeit = G1 + n log 1+n-1, also das ist Ihnen durch die Bose-Statistik jetzt ganz geläufig, und dann das Boltzmannsche Postulat anwenden, eben die Brücke zwischen Thermodynamik und Wahrscheinlichkeitserwägungen, indem er eben nach Boltzmann den Logarithmus der Wahrscheinlichkeit proportional setzte der thermodynamischen Entropie. Und eigentlich war Planck der erste, der diese Formel ausschrieb, wie er selbst erwähnt hat, hat sie Boltzmann nie geschrieben, und diese Boltzmannsche Konstante K wurde von Planck auf diese Weise eingeführt. Also wenn sMy die Entropie der Volumeneinheit ist, so ist s1 die Entropie des Oszillators oder der stehenden Welle, da müssen wir durch G dividieren, durch die Anzahl der stehenden Wellen in der Volumeneinheit, und erhalten dann schließlich auf diese Weise für die Entropie der Strahlung diese Formel: s1 = K. Und wenn man jetzt die beiden Formeln vergleicht - das nächste Bild bitte - die Formel, die sich durch die Thermodynamik ergab war diese da, die Formel, die sich durch die Boltzmannschen Wahrscheinlichkeitserwägungen ergab, ist diese. Wenn wir das n durch E durch Epsilon, ersetzen und wenn man jetzt, als nun Planck diese beiden Formeln verglich, so sah er, dass das Element der Strahlungsenergie Epsilon der Frequenz proportional sein musste. Also Epsilon = Alpha prim My, und von nun an benannte er eben das Alphaprim durch den Buchstaben h, und das wurde dann das berühmte Plancksche Wirkungsquantum, das man immer vielleicht als erg mal Sekunde ansieht, also vielleicht besser gesagt erg pro Einheit des Frequenzintervalls, erg pro Hertz. Und mit den verfügbaren Messungsresultaten konnte dann Planck diese numerischen Werte ausrechnen für das h, das also wirklich endlich herauskommt, klein, aber endlich und auch für das K. Und das Bemerkenswerte eben ist, dass man nicht nur auf diese Weise Aufschluss erhält durch das Studium der schwarzen Strahlung allein, Aufschluss erhält über die quantenhafte Struktur der Strahlungsenergie, sondern auch über die quantenhafte Struktur der Materie. Man bekommt nicht nur das h, sondern auch das K und aus dem K-Wert, der ja gleich der Gaskonstante R dividiert durch Loschmidtsche Zahl ist, konnte Planck auch die Loschmidtsche Zahl berechnen und dann auch eben die elektrische Elementarladung. Und er war sehr befriedigt, als einige Jahre später Rutherford durch die Abzählung der Alphastrahlen für die Elementarladung denselben Wert erhielt. Und das waren damals die genauesten Werte, die man damals kannte. Wir wissen ja, dass sich das seither etwas abgeändert hat. Ich möchte nun schließen, wir können ja sagen, die erste Formel, die Formel von der Thermodynamik, die oben steht, die gab Planck bekannt, ich glaube, es war am 19. Oktober 1900. Und dann, am 14. Dezember 1900 gab er diese Formel bekannt und da führte er das Elementarquantum ein. Man sagt ja traditionell, Planck ist der Vater der Quantentheorie und das Kind wurde am 14. Dezember geboren. Ich möchte das ein klein wenig abändern, ohne das große Verdienst von Planck zu schmälern, aber ich denke, zu einem Kind gehört immer ein Vater und eine Mutter. Ich möchte doch sagen, dass, als vor hundert Jahren Boltzmann die Zellen des Geschwindigkeitsraumes einführte, da vollbrachte er schon eine Quantentat. Das war schon eine Quantifizierung. Allerdings konnte er damals nicht vorahnen, dass die wirklich physikalische Bedeutung der Zellen nicht die Zellen des Geschwindigkeitsraumes waren, sondern des Phasenraumes, der Phasenraum wurde ja erst von Gibbs eingeführt, und dass diese Zellen des Phasenraums eine ganz bestimmte Ausdehnung hatten, die eben durch das Plancksche Wirkungsquantum bestimmt werden. Ich möchte also sagen, dass doch Boltzmann zur Quantentheorie mit einem ganz kleinen Spermatozoid beigetragen hat. Und ich möchte sagen, dass Planck die Mutter war, die dann das Kind am 14. Dezember 1900 zur Welt brachte. Vielleicht darf ich Ihnen noch zum Schluss dann die drei Portraits zeigen: Also, der Großvater Clausius, der Vater Boltzmann, mit einem schönen Bart, und Max Planck. Ich danke Ihnen.

Alfred Kastler on Max Planck
(00:04:48 - 00:09:40)

Max Planck himself might have come to Lindau in the beginning of the 1950’s if he had not passed away already in 1947, almost 90 years old. The war had killed his sons and destroyed his home (including the Nobel Diploma), so the one who gave birth to quantum mechanics must have had many sad things to think about at the end. Albert Einstein, who took up Planck’s quantum idea, had disappeared to the US before the war. He was certainly invited to Lindau, but never returned to Europe before he passed away in 1955. But Niels Bohr, who developed the first quantum model of atoms, was around and was invited a couple of times before he finally accepted the invitation and participated in the 1962 meeting with a lecture entitled “Atomic Physics and Human Knowledge”. Bohr was known to speak both English and German with a heavy dialect that was difficult to understand, but his 1962 lecture has been transcribed and the text can be read during the lecture. Sadly enough, Bohr received a stroke after having given the lecture and passed away in the autumn of the same year. So the Lindau lecture became his last public appearance.

Niels  Bohr (1962) - Atomic Physics and Human Knowledge

Ladies and gentlemen, It is a wonderful opportunity to a scientist who have had the good fortune to be occupied with studies and have moderately succeeded in giving some contributions to the common human inheritance of knowledge,to be able to come together with, and especially to meet, young people who helped to bring new blood into the work. Now I will say that everything in science, every contribution, is a large one. We live on the contributions of previous generations, and the work is to be compared with the bringing together of stones. But the interest, the pleasure, is to see how the whole edifice rises by the common contributions. Now, it seems, for the talk I have to give, that there is nothing new to most of you, but we will only assume there's some line in what we have learned in atomic physics and what helped the field to look into other things. I shall like to just say a few words about what of course everybody knows, that the idea of the limited divisibility of matter goes back to Antiquity. It was introduced by the atomists in order to try to the order that exists in nature, in spite of the very varied, immense variability of the physical phenomena. To take the very simple example of conservation, we think of a substance like water and the wonderful experience that the state of this system can be changed. By heating it up, the water may evaporate ? form steam or gas. And if it is cooled, it may form a rigid property, may form ice, which even, as we know, will form beautiful snow crystals on a beautiful summer day at the lake here. But the point is, that without any superstition, like witchcraft, it would be still more difficult to understand that the steam can be condensed, and like the ice that made it, form exactly the same water with the old properties. But, of course, if we assume that the water molecules just remain unaltered during the process, then we can explain these very properties by the ever-present particles being removed from each other, and with ice there is a possibility due to the smaller motions of the more regular order and that is then again changed by the melting of the ice. Now these are only too simple matters to speak about. The interesting thing is that for a long time people thought that the coarseness of our senses was too great to allow the actual observations of the individual atoms. Now we know that that was underrating our possibilities, that by the marvelous development of the technique or the art of experimentation, especially of wonderful quantification devices, it is possible to see effects of individual atoms. But this very fact we must admire: the caution which the old wisdom held and applied with regard to ideas and pictures used for the communication of all the experience in the new field, based on the experience. We also know that in this new field there are other laws ? it is not possible to keep to the older physical laws, which we call classical physics, and we have actually to go very much further. Now this is getting too long, but the point is that in the development of classical physics, there it was possible. The development of mechanics after the work of Galilei was completed with this wonderful genius of Newton, to describe the working even of the planets around our sun. A continuous chain of events described the state of the system by its position and power and the motion of its parts, and it was assumed that these different chains were uniquely connected in a so-called ? not a precise description ? relation method through the laws of conservation of energy and momentum. Now it was found that the same kind of description was possible also in the field of the electric and magnetic phenomena. We know how Maxwell was able, on the basis of the discovery of Faraday, to develop a description of such a kind. It was necessary, though, not only to describe an electromagnetic system ? the position of the electrified and magnetized bodies ? but also to keep account of the duration and tendency of the magnetic and electric fields at any point of space. Now I have come to something which has also become known to everybody. I might just say a few words about the development in the theory of relativity, which developed by the observation that it was impossible to find any change in the velocity of light dependent on the motion of the earth around the sun. That led, as we all know, Einstein to recognise not only that different observers moving relative to each other use different velocities, but in the arrangements of the phenomena it was even so that one had to use a different time, that two events which for one observer seemed to happen simultaneously might for another happen before and after each other. Or, to speak about relativity, or to say a few remarks. As we all know, then it was possible for Einstein not to introduce this as a complication, but as a way to find general laws of physics, common to all observers, and one is, of course, the relationship between energy and mass. To do this one has to introduce – one way to do it ? is to introduce mathematical abstractions as fundamental non-Euclidean geometry. But now it is essential, and that also applies to all the other things I'm speaking about, that mathematics is not something similar to science to be developed by getting new evidence by experimentation. Mathematics is a development of language and it is even so that these mathematical abstractions ? the mathematical definitions and their operations ? have to be described in the common language. Otherwise nobody could learn it, for it is a very practical tendency of language which makes it possible simply to describe relations in ordinary language. Now it is very drastic, that as regard the description in relativity theory, every observer distinguishes sharply between space and time. If that was not connected with the formalism, then, of course, it was not possible to speak about and say anything. Another point in relativity theory is that it assumes that the number of atoms in the world is very large, so large that we can make instruments that allow us to measure. Unless it was for those two reasons, of course, there was not the slightest physical content in the theory of relativity. Further it is the simplicity that, just like in the classical mechanics, we can order the phenomena in a prescription in which we reckon with cause and effect in the ordinary way. In all these ways, then, the theory of relativity is a wonderful generalization of classical physics. But now, the great change that we have been leading up to came with the discovery of the universal quantum of action in the first year of this century by Planck. This discovery revealed a feature of wholeness, of a duality in the atomic processes, which went far beyond the old doctrine of the limited divisibility of matter. It meant that the ordinary theories of classical physics were generalisations, which could only be applied in cases of phenomena on such a scale that the action involved in all points was so large compared with the quantum that it can be neglected. This was outside the ordinary experience. But when it comes to atomic forces we have new regulations, of a kind for which we cannot give simple pictures, but which, nevertheless, are responsible for the stability of atomic systems, on which the properties of all matter ? and of which our tools and all the bodies are made ? depend. Now just let me say that the difficulties of picturing such phenomena were brought, in a very serious way, to the forefront by Einstein, who really, at the time of the discovery, tried to explain the individual photoeffect by assuming that actually we had to do with what we call a transfer of a light quantum. But that was a very odd situation because there could be no question after returning to the corpuscular description of light, that the great picture of electromagnetic theory accounted for all the interference phenomena. And thereby we had two features which had to be used in what we will now call a complementary manner. That was the first time that such things came to the knowledge of physics. Now I shall not go on in that way. It was found to be possible ? by leaning on the ideas of Einstein and making use of the knowledge we got from the discovery of the atomic nucleus ? to account for their bringing order in certain fields of experience. But that was of a very unsatisfactory nature, because one could not get logical consistency before one had a harmonius generalisation of classical physics in such a way that all our definitions of the world we take from classical physics, and unless we have a harmonious generalisation, we cannot apply that in a consistent manner. I shall not try to speak about how this came about. You see here many of those people who contributed most decisively to this thinking ? Heisenberg, Born, Dirac and the others. I think I will only say that, had they gathered like this, we would have missed Schrödinger, whose death a few years ago was such a loss to science. Now, but the point is that the development has taught us something about what we may call objective description of atomic physics. Now what do we mean by objective description? That is all so philosophical. We simply mean to describe in a way which do not depend on subjective judgement. And now if you speak quite simply about it, it means that the answers to the questions we encounter in our experience must be given in ordinary human English, just refined by the terminology of classical physics. Now that is actually what we do in all experimentation, in all human experimentation, in all the fields. Then how do we go about it? We use in measurements bodies that are large enough and heavy enough so that we actually can tell their relative positions, relative motions, without taking into account any common feature which is involved in their constitution and their stability. Now, the observations, they are just recordings, permanent recordings, of such measurements. Measurements are of many kinds ? diagrams, sensors and photographic plates. The marks put on these ? like just this spot which can be developed on a photographic plate and set by an electron. Now there is a point that these recordings involve complicated irreversible processes. But that is no difficulty whatsoever in interpreting the research, because it just reminds us and stresses the irreversibility which is in the concept of observation itself. That's a point which is only spoken about in the classical theory, but actually it is what one learns. We say that the moon goes around the earth, and we see it sometimes and so on. But can we purely for psychological reasons – philosophical reasons ? say it has been there between that times that we have observed it? But the point is that surely classical mechanics is so to be understood. So that actually, the very steps in a phenomenon are really carried out and completed, but now in quantum physics, there we have just this limited divisibility of the phenomena. Therefore, now in the classical physics we just assume that generally in observations we can account for the interaction of the instruments and the objects in the observations or at any rate compensate for them. But in quantum phenomena this interaction forms an integral part of the phenomena for which no separate account is possible ? it is logically impossible ? if the instrument shall serve the purpose of defining the experimental arrangement. Now let me remind you of a few main points. When we specify conditions, then we may observe in quantum physics under one and the same fine experimental arrangement, as far as we can define it at all ? we have to define it ? different attributes corresponding to different individual quantum processes. Therefore, a statistical account is simply imperative, is indispensible. Another point is, that if you have a phenomenon observed under different experimental arrangements, it cannot be brought together in one and the same classical picture. Then we say that however much at first sight such phenomena contrast with each other, they have to be adapted as complementary in the sense that they together exhaust all the information which can be obtained and defined about the objects. Now the great thing in the development of the mathematical methods of quantum physics is that such simple considerations can never involve any logical contradiction, just due to the mathematical consistency of the quantum mechanical formalism. This formalism serves to predict or to develop the statistical laws holding for the observations at given experimental conditions. Actually, over a very large part of all our experience, nothing is finished; we will have to learn of the problem which Heisenberg spoke of the last day, about the kind of further departures from pictorial description, if it comes to phenomena where we may say that they take place within very small extensions of space. But that doesn’t mean that the description we have in the other fields can ever be changed. But new further things have a possibility to come in just because of the way of defining the things, by experimental arrangements just to use if we can make something very much smaller than in atomic physics. Now I do not feel how well I've done it ? I have tried to be as free as possible. But I would like to say that this complementary description to which we are referred in quantum physics means first of all that in order to really define what we understand, it will help to be reminded of the essential part of the experimental arrangement ? that it has to do with conditions of experimenting and the definition of research. Now such a situation is new in physics, but not in other fields of human interest, where in a very familiar way, we use language which implicitly or explicitly refer to the situations under which experience is obtained. Now I will just add something about these problems, as regards our attitude to various fields. First of all I would say a few words about the psychical experience, psychological experience. That is certainly very, very far from physics, and it is a field where it is not so simple to speak about objective description. That is, in the description of such experience ? communication of such experience ? we use words like thought and sentiment which refer to mutually exclusive situations, like the different experimental arrangement in atomic physics. For we cannot at the same time have a feeling of volition and ponder about the motives for our actions. Such words are used in a typical complementary manner since the very origin of human language. Now we say that that is how it is with objective description. In the objective description in physics, or atomic physics, we never refer to the observing subject. Sometimes one speaks as we do, but that is absolutely not necessary and disturb the actual meaning, because we need not say who has put up the instruments, and the actual observations are absolutely independent of how many, or how few, look at them. The actual effective content is never to be referred to the subject. When we speak about the scientific sphere, we say ‘I’ ? ‘I think’ or ‘I mean’ or so, and now, how does that actually correspond? It corresponds in the way that we in atomic physics must tell how and under what condition experience is obtained. Now this seems all so philosophical, maybe so unclear. I want just to refer to a story in Danish literature, very briefly. Poul Møller a hundred years ago wrote a book which is very much beloved among Danish students today, called ‘Adventures of a Danish Student’. The writer speaks about connections between young people, discussions among them and so on, and of different situations. And what I want to refer to is especially a talk between two cousins, one a very practical one, very efficient, one of those who students in Denmark used to call philistines. I don’t know what the word is in Germany ? ‘Spitzburgher’? And the other was a man who was very apt to philosophical meditation, but to a great disturbance for his form of life. Now the situation is that the former ? this is very funny ? tries to help the latter get his things better arranged so he can get some sensible occupation, to have a job as one especially say in America. And he arranges all things for him, but he does not respond at all. Then he says how can that be, and then this poor Licenciate ? he is called Licenciate ? says, It is very easy for you to speak of me, but I must think of that ‘I’, which controls what you call ‘me’. But as soon as I start thinking, it’s getting much worse. Because then it is clear that I am really thinking of an ‘I’, which think of that ‘I’ which control what you call ‘me’, and then I get a whole series of ‘I’s, in between one another who shall determine, and then they say that they try very hard to get order in my ‘I’s, but I must give it up and get a terrible headache.” Now this is told with very fine humour, which I have not been able to produce with these short words. But the point is, that’s a very true description of the position of every one of us. It is a position which we are in, where children learn from their parents, or from playing with each other, how to use the language in a way which is not too impractical. It also helps us learn that one has to get a good deal of humour into it, as there also is in children’s play. The point is that it is the possibility of so to say changing the separation between subject and object that gives the possibility for describing the rich conscious life. Similarly, the new widened framework of complementarity allows us in physics to account for regularities of very much finer character in a very much more varied way than anything that could at all be defined within the framework of classical physics. It also forms the view when one speaks about mysticism and pragmatism and so on ? they are all parts of what normally one can be interested in, and gives room for the art, poetry, pictorial art, or music, to play on all strings of our sentiments. But, I should like to say a few more words, maybe about the social relations. There we come to the so-called ethical problems. And now it is a new point I want to make, how we speak about it nowadays; we then ask, what are the words we use? The words in such fields are essentially “justice” and “charity”. And all societies try to combine these two things. To be clearer, you can not have some orderly society without some kind of fair play, regulated by judiciary rules. But it’s also clear that life would be very poor if we cannot use words like friendship or love. But the point is, in a situation where we have unambiguous applicability of judiciary rules, then what do to? Then there is no room for applied world charity. But conversely ? the great poets in Greece wrote on the subject ? compassion and goodwill can bring any one of us in absolute conflict with any judiciary rule. So there we have two words again which are used in a complementary manner. It’s very interesting that just such simple matters can be described in analogy with space and time description, conservation of energy?momentum, yet that these things have to be treated differently if you go to the fine details. So it is also that the finer issues of human life strongly present in the old Chinese philosophy, a long time ago, thousand years ago, looking for harmony in life, involved that we are ourselves both the actors as well as the spectators. When we compare different cultures, compare the behaviour in different societies, everything is often very different. One might say this is analogous to the theory of relativity because there we know how differently different observers may describe one and the same experience. But the situation is very different from that, because in relativity theory it is possible by means of a common principle, common terminology, for each observer to know how any other in a different frame of reference will arrange descriptions; that is what gives the value to the theory's general laws. But the traditions on which nations are based are of a very historical origin, and it is not such a simple thing to appreciate traditions of that kind on the basis of tradition alone. You may even say that it is hardly possible to appreciate the prejudices of one nation in terms of the prejudices of another. So therefore we might sometimes say that these cultures are complementary to each other, but that is very, very rough, because the complementary description in atomic physics and in psychology is simply unavoidable, but nations can by contact exchange, to a certain degree, traditions, and there can arise new cultures which contain valuable elements of the cultures of others. Now, this is all so very simple, and I only want to say that it is most essential actually to be aware of the common human basis in life. And this is especially so now, due to the development of atomic physics, which is meant for no other thing than augmenting knowledge of that nature of which we are part. Then, of course, at the same time, the human position is bound up with the means of destruction which have come into human hands. And unless we get some kind of cooperation between the nations, it may threaten human survival. Now this is a new situation. It has no precedence in history, and it is therefore something which must occupy everyone. And it’s a very, very difficult situation. But one must try to see how can one increase confidence between nations. And I would just end by saying that one of the greatest elements of having taken part in scientific cooperation is the possibility, in the common service for truth, to establish friendship and understanding between scientists of different nations, quite independently of traditions of other kinds. And I think that that is one ? we hope it works quickly ? of the ways by which some basis for confidence can be created, I think especially when we are together with the young people who will have to see that such a development is promoted and realised in the future. There is therefore hope that such a kind of cooperation, which I told of today ? which we have learnt just from pure science? will evolve in many kinds of human relationships, and I hope that it may contribute something to the great task now before us. Applause

Bohr on atomic physics and human knowledge
(00:06:05 - 00:08:12)

Of the three men who got off the train in Stockholm on December 9, 1933, Schrödinger never accepted the invitations to lecture at the Lindau meetings, even though he lived through the first three physics meetings and didn’t pass away until 1961. But both Heisenberg and Dirac fell in love with the meetings (and in meeting each other) and came back repeatedly. Heisenberg lectured mostly on his new theory of elementary particle reactions, but Dirac had a more varied menu and three of his lectures concern quantum mechanics as such. So far the recording of his first lecture has not been found, which is a pity. It was given at the first physics meeting in 1953 and was entitled “Quantum Mechanics and the Ether”. (Someone who is strongly interested in this lecture can dig out a German translation published in the journal Naturwissenschaftliche Rundschau in 1953, vol. 6, page 441.) Dirac’s second lecture on this theme, “The Foundations of Quantum Mechanics”, was given in 1965 and his third, in 1968, was entitled “How far will Quantum Mechanics go?”. Among the many contributions that Dirac gave, and that were rewarded with a Nobel Prize in 1933, was combining the theories of Heisenberg and Schrödinger with Einstein’s special theory of relativity. Some quite strange phenomena seemed to appear in the combined theory, but were resolved when the anti-electron, the positron, was discovered. It then turned out that the so-called Dirac equation described the behaviour of both electrons and positrons.

Paul Dirac on the foundations of quantum mechanics
(00:00:20 - 00:04:01)

Both Wolfgang Pauli and Max Born participated in Lindau Meetings. While Pauli didn’t give any lecture, Born lectured a couple of times but strangely enough not on quantum mechanics. As the father of the statistical interpretation of the wave function, one would have expected him to talk on some of the epistemological questions connected with this interpretation. Instead some of these aspects were taken up by Leon Cooper, who received the 1972 Nobel Prize in Physics with two others “for their jointly developed theory of superconductivity, usually called the BCS-theory”. When Cooper lectured in 1976, the title was “How Possible becomes Actual in the Quantum Theory”.

Leon Cooper on epistemological questions
(00:33:09 - 00:37:00)

Another theoretical physicist with an interest in similar questions was Eugene Wigner, who received one of the two Nobel Prizes in Physics given in 1963 “for his contributions to the theory of the atomic nucleus and the elementary particles, particularly through the discovery and application of fundamental symmetry principles”. Wigner had become interested in the so-called quantum mechanical measuring process. If one applies quantum theory consistently, without any other hypothesis, the use of a macroscopical apparatus to make a measurement on a microscopical quantum system leads to the so-called problem of collapse of the wave function, which is needed to make the apparatus show a definite result. This problem is addressed in the 2013 lecture of Serge Haroche below. The title of Wigner’s lecture, given in German, is “Die Quantenmechanische Bedeutung des Begriffs Realität”, in translation “The Quantum Mechanical Meaning of the Concept of Reality”.

In 1955, the experimentalist Willis Lamb received the Nobel Prize in Physics “for his discoveries concerning the fine structure of the hydrogen spectrum”. This discovery started a rapid development, in which, among others, Sin-Itiro Tomonaga, Julian Schwinger and Richard Feynman developed what is called quantum electrodynamics. This theory can be used to describe not only electrons and positrons, but also the photons that are the quantized particles of the electromagnetic field. For this development the three received the 1965 Nobel Prize in Physics. Lamb came many times to the Lindau Meetings and since he understood what many of the students and young scientists in the audience wanted to hear, he gave a set of no less than eight lectures on quantum mechanics 1968-2001. His 1985 lecture is entitled “Schrödinger’s Cat” and it is concerned with a classical thought experiment of a cat that can be both dead and alive at the same time. It is interesting to note that in 2013, the experimental technique had been developed so far that the cat again appears. It does so in David Wineland’s lecture, not as a thought experiment but as a real one (see below)!

Lamb on Schrödinger's cat

(00:18:04 - 00:20:22)

During the second part of the 20th Century, the understanding of quantum mechanics and the experimental techniques in quantum physics had reached the level where one could call the physicists “quantum engineers”. Good examples of such “engineers” can in particular be found working of in the field of semiconductors, starting with the invention of the transistor and the integrated circuit. Leo Esaki received one of the 1973 Nobel Prizes jointly with Ivar Giaever “for their experimental discoveries regarding tunnelling phenomena in semiconductors and superconductors, respectively”. Giaever has repeatedly lectured at the Lindau Meetings, but most of the time on his (interesting) activities in biophysics (cf. the Topic Cluster on Cancer). Esaki has so far given two lectures that are relevant here. In 1997, he lectured on “Quantum Mechanics and Semiconductor Science”. 

Leo Esaki on semiconductors
(00:07:52 - 00:10:35)

In 2012 the Nobel Prize in Physics was given jointly to two excellent “atomic engineers”, Serge Haroche and David Wineland, “for ground-breaking experimental methods that enable measuring and manipulation of individual quantum systems”. As for all Nobel Laureates in Physics, Chemistry and Physiology or Medicine, they were invited to the Lindau Meeting of the year following their Nobel Prize, irrespective of the topic of this meeting. So in 2013, a meeting year for chemistry, both Haroche and Wineland came to Lindau and gave lectures on experiments that most of the founding fathers of quantum mechanics would have thought impossible. Wineland’s lecture is entitled “Superposition, Entanglement and Raising Schrödinger’s Cat”, while Haroche lectured on “Controlling Photons in a Box and Exploring the Quantum to Classical Boundary”. I happened to be present at these lectures and looking out on the audience, I thought I could see Einstein and Schrödinger, who both didn’t believe that this kind of experiments would ever be possible, looking flabbergasted, while Niels Bohr, who took a more pragmatic stand, nodded and sucked on his (unlit) pipe, mumbling “It is hard to make predictions, in particular concerning the future”.

David Wineland (2013) - Superposition, Entanglement, and Raising Schroedinger's Cat

It’s a great pleasure to be here of course and I’m looking forward to meeting with the students. Obviously it was a great thrill to receive the Nobel Prize with Serge Haroche. And what I’m going to tell you about here is maybe completely on the other end of the spectrum of what you heard from Brian Kobilka this morning. Here we’re dealing with extremely simple systems but we’re trying to control them with high precision. So I can start maybe with this example of Schrödinger’s cat. And one of the interesting things to me is that Schrödinger, one of the inventors of quantum mechanics, in thinking about the consequences he became uncomfortable with the theory because basically the theory by itself just describes continuous evolutions of systems. And the way he expressed his discomfort with this is that in principle although we can really only apply, in practice apply quantum mechanics to relatively small simple systems. In principle it should apply to very large systems. So his way of expressing his discomfort was this idea of this example he posed where a cat is inside of a sealed box so it can’t interact with the rest of the world. And also in the box is, say, a single radioactive particle. And if the radioactive particle decays it will trigger some mechanism which releases poison and kills the cat. And basically in principle you could write down equations, the quantum-mechanic equations, that describe this situation. And all quantum theory tells us is that after one half-life of the particle the cat is neither dead nor alive, it’s dead and alive at the same time. And of course this is a very strange situation. But anyway this case of these simultaneous existences of states is commonly called superposition. So there’s actually a simple analogue which I like which gives the flavour of superposition. And from this... If you look at this image of a cube, sometimes you’ll see this face here be in the foreground. Or you might see this face be in the foreground. And this is very similar to superposition in the sense that as you tend to see either one situation or the other. But in some sense it has both, possesses both properties at the same time. And I think this is a good analogy to superposition that it’s neither one nor the other. It’s both when you see them in that perspective there. The other interesting thing about this example I think is that it exhibits in a nice way the idea of quantum measurement. That is where we learn in our quantum mechanics classes then when we measure a system we project or collapse a superposition state in one configuration or the other. So when you tend to see one of these 2 perspectives, that’s very much like measurement and quantum mechanics. And coming back to Schrödinger’s example. So, quantum mechanics would predict this superposition state. And this is... It was dubbed a tangled superposition in that the state of the cat is correlated with the state of the particle being un-decayed or decayed. And this was given this name of entanglement where you get these correlations or these systems. And one thing that’s interesting at least on the small scale is that we can show that these correlations exist even when the constituents are separated by large distances where they can’t communicate in a relevant time scale. But that’s a little bit aside from what I’m going to talk about here. One of the ways that Schrödinger was bothered by the consequences if you scale quantum mechanics to large scale. And in the ‘50s he posed one way out of this. And at that time he could say: “Well, we never really experiment with just one electron or atom or molecule. And we do in thought experiments.” So as these thought experiments extended from small systems up to the macroscopic world like cats. But maybe basically I think that what he’s saying here is maybe we’re leading ourselves astray by thinking about the simple system because if we scale it up, it leads to these ridiculous consequences. But of course we’re now able to enter this world where at least with small systems we can play these games of superposition and entanglement. And as I say we’re only able to do this with very small systems. But eventually maybe we can go to much larger systems. And what I’m going to describe here is just kind of a very narrow perspective. I’m going to talk about the work at our institute, the National Institute of Standards and Technology. But certainly this is the work of many other groups around the world. And you’ll hear a different perspective from Serge Haroche on some very similar application of these ideas. So let me... I won’t have time to describe all the techniques we use. But let me give you an idea of what we can do. In our experiments we use typically singly ionised atoms. And one example is beryllium. And we put it in a trap, an electromagnetic trap. And what you can think of is just like a marble in a bowl. And one situation we can realise is where we... for different internal states of the beryllium ion which we can just assign these labels. They do have magnetic moments so we can talk about a spin. So we can associate at some instant of time where this atomic marble... It can be, say, on the left side of the bowl correlated with the internal state being in one position and then simultaneously on the right side of the bowl correlated with some other internal state. And so we can actually realise these situations. And what we want to say is: Obviously it’s not very, it’s not really macroscopic. In fact it’s very small. And these experiments... The wave packet size of that describes the position of the beryllium atom as in the order of 7 nanometres in this experiment. And with these separate parts of the wave function were only separated by about 10 times the size of the wave packet. And you might argue: Well, this isn’t really Schrödinger’s cat. It’s just too small. But one of the interesting things about quantum mechanics, if you say, you know, this is too small to be called macroscopic classical, where do you make that dividing line? And this is something we continue to struggle with. At this point there’s no way to find this classical and quantum barrier. So in some... even though it’s very small, we would say it has very similar properties, analogues properties to Schrödinger’s cat. And I’ll come back to that in just a little bit. So as I mentioned in the abstract a couple of applications of these ideas of superposition might be in clocks. And I’ll say a little bit about quantum computers. For the clock application what you can think about is that for example if we have an electric dipole transition in an atom and if we put the atom in a superposition state, -this would be a ground S state and a P, excited P orbital- then we get a wave function that we can write down as I’ve indicated there. Now in fact this... What this describes then is an oscillating dipole. What I’ve written here or shown here in this view is a plot of the electron density versus time oscillates back and forth. So it’s very much like a pendulum clock. And we can utilise this property in fact to make a clock which I’ll say a little bit now here. So in fact the practical mode of operation when we make an atomic clock is that in this example here we would start the atom in the ground S state. And then we would apply radiation at a frequency. Say, this would be a laser transition where it’s very close to this transition frequency here. And then what we do is we would measure after applying this radiation. We would measure the probability that the atom has gone from this ground state to this excited state. And so this is closer to what we do in practice. We follow this protocol here. And when the laser frequency in this example is equal to this transition frequency which is given by the energy difference divided by Planck’s constant, when that transition probability is maximised, then we know that the laser frequency is in synchronism with the natural frequency of the atom. And I’ll come back... I just want to keep on this theme of superposition. Before we do the measurement, in general the atom is in some superposition of its ground and excited state. So why atomic clocks? And there’s some simple reasons that convince you why that’s interesting. Basically all atoms are given ions... aluminium ions, or beryllium ions, magnesium ions, any of the given species are exactly identical. So if we can agree on a transition to make an atomic clock, in principle they should run at the same rate independent of a comparison. Now of course in the experimental challenges that we’re always stuck trying to... with environmental effects that we have to calibrate out. So that’s the real challenge. And the other thing of course as opposed to pendulum clocks: Atoms don’t wear out. They can be used over and over again without hurting their properties. So these days what we’re focusing on is using optical transition and one example here is for aluminium where the transition frequency is about 10^15th Hz. And the reason the high frequency is interesting is basically: With the higher tick rate you can define any time interval into finer and finer steps. And so you get higher time resolution that way. And the other thing is interesting is that some transitions including aluminium... the lifetime of the excited state is about 20 seconds. And we can get resolutions down to about 1/10 Hz which defines very precisely then this condition where the laser is tuned... laser frequency is tuned to the atomic transition frequency. So I’ll give you another example here. We started out in our lab working on mercury ions. That has a similar transition that could be used as a clock. The way we detect these transitions is actually very simple. We’ll find some other transition in the atom. In this case this is one that can... we can scatter a lot of photons. And the basic idea is after applying this clock radiation, if we’re off resonance and the atom remains in the ground state, and then we see fluorescence. On the other hand if we’ve promoted it to the excited state, then there’s no state for the laser photons to scatter off of. And so this is nice because even with a single atom we can easily discriminate when the atom has made a transition when it’s dark. When we don’t see fluorescence that means it’s promoted to the excited D state in this case. And when we see fluorescence that means it hasn’t made the transition. And of course as I say we can use this then as a reference in the clock. So an example from our lab is the following. Jim Bergquist who... we started this project in 1981. And we’re still working on it. Just some of the advantages of using ions. I haven’t described at all. But we do... First of all just the fact that we’re holding the ions in one location means that on average the velocity goes to 0. So one measurement effect we have to worry about is the so-called first-order Doppler effect, the usual Doppler effect you’re thinking about. And since the average velocity is 0 that tends to go to 0. And I haven’t described laser cooling as a technique. And a lot of atomic physics experiments where we can use radiation pressure from lasers to cool the temperature of the ions down. And the reason that’s important is because of the consequences of Einstein’s theory of relativity for moving objects, time moves slower. And this has a small effect on any scale we’re used to. But we’re at such high precisions now that we do have to worry about that effect. And by doing this laser cooling we can suppress that time relationship. There’s many other things we have to worry about. And I won’t go into that. But anyway the result of this work was that in around 2006 the standard that defines the second is a hyper fine transition in caesium. And of course it kept getting better over the years. So it was a moving target. At this time then finally we could get to a systematic uncertainty of about 7 parts in 10^17 which was better than the existing caesium standards. So, these days most standards labs are thinking in terms of these optical transitions where you can get very high precisions and very high accuracies. And as I mentioned this is an example from our lab. There’s other ions people are thinking about. This article here summarises that work. And of course at the same time there’s many experiments using neutral atoms, trapped neutral atoms. So there’s a huge number of labs around the world working on these atomic clocks based on atoms or in this case atomic ions. So let me say a little bit about this idea of quantum computing. The basic... again relies on superposition. As opposed to a classical bit which can exist in one state or the other we’re going to play on this idea that in this case a quantum bit which we’re changing the labels here... these could be energy levels in the atom that we can... in some sense it can be both in the 0 and the 1 state at the same time. That is both pieces of information at the same time. And where that might be interesting then is in this... is if you think how it scales. So for example if we have 3 qubits in a classical register that could hold 1 number. But in the superposition sense we can hold all 8 numbers at once for these 3 qubits, quantum bits. So that’s 2^3. And of course you see this has exponential scaling. And kind of an interesting example: If we had 300 bits and that might store line of a text in a classical computer but in this superposition stance it will store 2^300 or about 10^90 decimal numbers simultaneously. And if we had to make a memory that would hold that much information, a classical memory, it would take more matter than there exists in the universe to do that. So that sounds pretty good. The other thing is that if we make a superposition state, the operations that we perform, they act on all these numbers simultaneously. So in some sense we have this massive parallel processing. That sounds pretty good too. Now the catch is that coming back to the example of the box and the different perspective. When we measure a quantum system... For example if we measure the superposition of 3 bits. When we measure the system it collapses down just to one of these configurations. So we have to design... a useful algorithm is one where we want to make most of these coefficients before we do the measurement and after the computation. We want to collapse down the state to at least a very number of possibilities. And so one example where that might be possible is Shor’s factoring algorithm. I’m not telling you the history. There’s a lot of interesting history behind these ideas of quantum computation. But the thing that really set it off was an algorithm that Peter Shor came up with to factorise large numbers. And the reason that’s important, because it affects encryption. So you can imagine all the government agencies are interested in that. So let me give you an idea. Just to give you some comparison with classical computing. Although it may not be the most efficient way. In principle you could construct a universal classical computer just composed of 2 gates. And there’s other combinations. But those would be 2 examples. In the quantum world it’s also true. We need 2 operations as opposed to just a bit flip. We need something more general. So for the chemists here... you think of NMR, where you’re able to rotate the spins by various angles. These are the kind of operations we’re talking about here. You also need some sort of non-trivial logic gate. In this case here where if we act on Eigenstates of the system... Of course we could reproduce this classically with a classical electronic chip. But in this case remember that we’re thinking of this working on superpositions. So actually Peter Shor’s algorithm is very involved. It’s very interesting. But it takes a long time to describe. But nevertheless the basic feature, the way it could be implemented is basically you have some input register. And you actually start out with the superposition of all possible numbers up to the number you’re trying to factorise. And then you would perform a series of these rotations in these 2 cubic gates. At least this is one form of how you could do computing. And then at the end you have some superposition here. But what you can think about this is... it’s kind of like a complicated interference experiment where all these possible states that the atoms might be, they interfere in such a way that you still end up with a finite number of states not much smaller than 2^N. But you still end up with a very large number of states. But the state that you measure could be used in a classical algorithm to extract the factors of a number. So this is the basic idea. And of course just even to factorise 150 digit decimal number which probably isn’t interesting to the coding people these days, you have to at least to get to there. But it would require a huge number of operations and tens of thousands of qubits. And we’re not anywhere close to that right now. But one thing to say at this is, coming back to this idea of Schrödinger’s cat. At some intermediate time in these operations you could say just single out the ‘i’ bit. And in this case then it looks very much like Schrödinger’s cat. Because all this collection of the other bits would be in substantially different states much like Schrödinger’s cat. So this is kind of why we talk about raising Schrödinger’s cat. This is the kind of thing we’re aiming for. So in the circumstance of atomic ions the way we could think about making such a device was put forth by Peter Zoller and Ignacio Cirac, 2 theorists well known in the quantum optics field. And their idea was: We have some electrode structure and we can arrange things so that the ions form a linear array. The basic idea is this is 3 dimensional harmonic well and the Coulomb repulsion holds them apart into some regular array. And you can... This is the closest I’ll get to most of the chemists here. This is like a pseudo molecule that we can manipulate. And it turns out that we can using laser cooling techniques, we can freeze out the motion. We can put all the vibration modes of this pseudo molecule into the ground state. And so their idea was that if we have... in general the qubits are going to be based on some internal states in each of the ions. And their idea for the tricky part is to make a gate between 2 ions. And their idea was the following where we... if we focus a laser beam on this ion here, we can do a mapping. We map this internal state of that ion on to the ground and first excited motional state of this pseudo molecule. And the thing we’re playing on here is that all the motion of any particularly mode in general is shared with all the ions so all the ions see this motional mode. And then if we can somehow make a gate between the motional mode then and say this ion here, then we’ve effectively made a gate between the 2 ions. So let me give you an idea how that works. So, this first step of mapping the internal state onto the motional mode is... If we think about... If we have our internal states of the ion and then we dress those with harmonic or the ladder of states associated with this vibrational mode.... So I’ve said ideally we put the ions in the motional mode ground state. And then it turns out if we just turn a laser on for a duration such that it takes this component of the wave function and maps it into this level down here, then basically we’ve made this mapping from the internal state onto the motional mode. And then the idea is that if we can make a logic gate between the motional mode and the internal state of the second selected qubit... And the idea there is that... This is a bit simple but it gives the basic idea. Suppose we call the motional mode the control bit. And the target bit is the internal state of the second ion. In this example here if we... In general that second ion we selected has... it sees the superposition, the motion and the internal states. And so the idea is that if the control bit, the motion mode, is in the first excited state, then we can drive this transition which means we flip the internal state bit. And on the other hand if it’s in the lowest state there’s no level up here for it to go to. So that invokes this logic. Now this is a bit of a cheat. This one doesn’t work exatly. You know it is not universal. But it gives this idea that selective dynamics can construct these logic gates. Anyway in our group we were able to implement this basic idea of Cirac and Zoller. This is Chris Monroe who is a member of our group from ’92 to 2000. And we could make that logic gate that they talked about. But what I want to say is that this gives you an idea. These are just the groups around the world using atomic ions to play with these ideas of quantum information processing. And so there’s about 35 by my count now. So it’s a huge operation that we’re dealing with. Just to give you an idea where the experiments go. There’s this idealised structure that I showed in the cartoon form earlier. And it turns out we’d like to make these devices small with all other conditions being the same. The gate speeds go with the motional frequencies and those scales. So we’ve started to think over the last decade or so now about how to shrink things down. And one thing we can do is use lithographic techniques to pattern electrodes. In this case it was alumina electrodes that we made slots in. And if we overlay these electrodes on here you get the idea of how we would make a structure, a small structure like this. This shows some real pictures. In this case we have several regions where the ions could sit. But it gives you kind of an idea of the things we’re dealing with. And there’s a picture of 6 ions that are located in a zone indicated there. And these days we’re even going further where we can pattern electrodes into a surface using well established micro-electronic techniques. And then the atoms are suspended above the surface. And each one... In this example each one of these little tiny squares is a zone where we can hold the ions. So this is the idea of how we might scale up. So let me just give you an idea. So these chips, these multi zone chips, that we’re able to store the ions we put in a vacuum system. And I think all these labs, often in atomic physics, we’re just consumed by lasers. All the students and postdocs, this is where they spend their lives. And of course the computer occupies a very tiny space over in a corner of the room. So I think I mentioned this idea of factoring. And in fact it was important to get the field stimulated. But one of the things we’re hoping for comes from Richard Feynman who was thinking about some ideas early on. You know, how the quantum computing might be important. And his idea was to get one quantum system to mimic another system. And I won’t have time. There’s a lot of work going on in this. I just want to... I’m highlighting 2 of the characters from our lab working on these ideas. Rainer Blatt our host here. He actually, his group they have the lowest error gates. And they’ve done the most in this area of quantum simulation. And although at this point the simulations we can do, that is the ion traverses a hole, are not really... We can simulate on a classical computer. We’re hoping that maybe in the next decade or so we’ll actually do a problem on a quantum simulator that we haven’t been able to do on a classical computer. And just this very, very small sample of what work is going on. There’s many other groups. So I’d like to thank my colleagues at NIST. I’ve been blessed to work with that group of people. We have some younger guys now. But Jim Bergquist, Bob Drullinger and Wayne Itano and I have basically been together for our whole careers. And we have some good young guys now coming up. And this gives you an idea of the size of our group now. And I can’t properly acknowledge everybody. The other thing I want to say is that it was really a pleasure to share this last year’s award with Serge Haroche. He’s been... Well, I’ve known his work for 35 years and got to know him personally 25 years ago and our wives have become friends. So it was certainly a great, you know, pleasure to be able to share with him. And he’s going to tell you about his work now, thanks. Applause.

Es ist mir eine große Freude, hier bei Ihnen zu sein, und ich freue mich schon darauf, die Studentinnen und Studenten kennenzulernen. Natürlich war es großartig, gemeinsam mit Serge Haroche den Nobelpreis zu bekommen. Das Thema meines heutigen Vortrags liegt ganz am anderen Ende des Spektrums dessen, was Sie heute Vormittag von Brian Kobilka gehört haben. Wir haben es hier mit extrem einfachen Systemen zu tun, aber wir versuchen, sie mit hoher Präzision zu steuern. Vielleicht beginne ich mit dem Beispiel von Schrödingers Katze. Ich finde es bemerkenswert, dass Schrödinger, einer der Erfinder der Quantenmechanik, beim Nachdenken über deren Konsequenzen ein ungutes Gefühl bekam, da die Theorie, für sich genommen, im Grunde nichts anderes beschreibt als die kontinuierliche Entwicklung von Systemen. Sein Unbehagen äußerte er so: Obwohl wir die Quantenmechanik in der Praxis nur auf relativ kleine, einfache Systeme anwenden können, sollte sie grundsätzlich für sehr große Systeme gelten. Er brachte sein Unbehagen mit diesem Beispiel zum Ausdruck Außerdem befindet sich in der Kiste, sagen wir, ein einzelnes radioaktives Teilchen. Und wenn das radioaktive Teilchen zerfällt, setzt es einen Mechanismus in Gang, der Gift freisetzt und die Katze tötet. Grundsätzlich kann man Gleichungen aufstellen, quantenmechanische Gleichungen, die diese Situation beschreiben. Und die Quantentheorie sagt uns nur, dass die Katze nach einer Halbwertszeit des Teilchens weder tot noch lebendig ist, sie ist zur gleichen Zeit tot und lebendig. Das ist natürlich eine sehr seltsame Situation. Jedenfalls aber nennt man diesen Fall der gleichzeitigen Existenz von Zuständen im Allgemeinen Superposition oder Überlagerung. Eine einfache Analogie, die mir gut gefällt, vermittelt uns ein Gefühl von dieser Überlagerung. Wenn Sie sich dieses Bild eines Würfels ansehen, sehen Sie manchmal die eine Seite hier im Vordergrund. Oder Sie sehen vielleicht diese Seite im Vordergrund. Das ist der Überlagerung sehr ähnlich in dem Sinn, dass man dazu neigt, entweder eine Situation oder die andere zu sehen. Doch in gewissem Sinn haben wir hier beide Eigenschaften gleichzeitig. Ich denke, das ist eine gute Analogie zur Überlagerung – es ist weder das eine noch das andere. Aus diesem Blickwinkel gesehen, ist es beides. An diesem Beispiel ist noch etwas interessant: Es bringt auf sehr schöne Art und Weise die Idee der Quantenmessung zum Ausdruck. Wir lernen in unseren Quantenmechanik-Kursen, dass wir dann, wenn wir ein System messen, einen Überlagerungszustand in einer Konfiguration oder in einer anderen projizieren oder kollabieren lassen. Wenn Sie also dazu neigen, einen dieser beiden Blickwinkel einzunehmen, ist das etwas ganz Ähnliches wie die Messung in der Quantenmechanik. Kommen wir zurück zu Schrödingers Beispiel. Die Quantenmechanik sagt also diesen Überlagerungszustand voraus. Und das ist... man nennt das insofern eine verschränkte Überlagerung, als der Zustand der Katze mit dem Zustand des Teilchens – nicht zerfallen oder zerfallen – korreliert. Das nennt man Verschränkung – wenn man diese Korrelationen bzw. diese Systeme erhält. Zumindest in kleinem Maßstab interessant ist folgende Tatsache: Wir können zeigen, dass diese Korrelationen selbst dann existieren, wenn die Einzelteile durch große Entfernungen getrennt sind, über die sie in der maßgeblichen Zeit nicht kommunizieren können. Doch ich schweife ein bisschen von meinem eigentlichen Thema ab. Schrödinger war beunruhigt über die Konsequenzen einer Anwendung der Quantenmechanik auf große Maßstäbe. Und in den Fünfzigern hatte er noch einen Ausweg. Zu jener Zeit konnte er sagen: „Nun, wir führen niemals richtige Experimente mit nur einem Elektron oder Atom oder Molekül durch. Das machen wir nur in Gedankenexperimenten.” Und diese Gedankenexperimente wurden von kleinen Systemen auf die makroskopische Welt wie etwa Katzen ausgedehnt. Ich glaube, was er hier sagt, ist im Grunde Folgendes: Vielleicht führen wir uns selbst in die Irre, wenn wir über das einfache System nachdenken, denn wenn wir es vergrößern, führt es zu diesen lächerlichen Konsequenzen. Heute sind wir natürlich in der Lage, diese Welt zu betreten, in der wir zumindest mit kleinen Systemen diese Spiele mit Überlagerung und Verschränkung spielen können. Wie gesagt: Das können wir nur mit sehr kleinen Systemen. Aber irgendwann kommen wir vielleicht zu viel größeren Systemen. Heute werde ich Ihnen etwas aus meiner eigenen, sehr beschränkten Welt vorstellen. Ich werde über die Arbeit an meinem Institut sprechen, dem National Institute of Standards and Technology. Natürlich beschäftigen sich auch viele andere Gruppen auf der ganzen Welt mit demselben Thema. Und von Serge Haroche werden Sie über eine ganz ähnliche Anwendung dieser Ideen ganz andere Ansichten hören. Lassen Sie mich also... Ich habe nicht die Zeit, alle von uns genutzten Techniken zu beschreiben. Aber lassen Sie mich Ihnen eine Vorstellung davon geben, wozu wir in der Lage sind. In unseren Experimenten verwenden wir normalerweise einfach ionisierte Atome; ein Beispiel dafür ist Beryllium. Wir geben es in eine Falle, in eine elektromagnetische Falle. Sie können sich das so vorstellen wie eine Murmel in einer Schüssel. Eine Situation, die wir realisieren können, ist die, in der wir… für verschiedene interne Zustände des Beryllium-Ions, die wir mit diesen Bezeichnungen versehen können. Sie haben magnetische Momente; wir können also von einem Spin sprechen. Und so können wir in Verbindung damit zu einem bestimmten Zeitpunkt sagen, wo diese atomare Murmel… sie kann, sagen wir, auf der linken Seite der Schüssel sein, korreliert damit, dass sich der interne Zustand in einer Position befindet, und gleichzeitig kann sie auf der rechten Seite der Schüssel sein, korreliert mit einem anderen internen Zustand. Diese Situationen können wir also tatsächlich realisieren. Man muss sagen, dass das natürlich nicht sehr… nicht wirklich makroskopisch ist. In der Tat ist es sehr klein. In diesen Experimenten beschreibt die Wellenpaketgröße die Position des Beryllium-Atoms in der Größenordnung von sieben Nanometern. Und die Einzelteile der Wellenfunktion waren nur um etwa zehnmal die Größe des Wellenpakets voneinander getrennt. Man könnte sagen: Das ist nicht wirklich Schrödingers Katze. Es ist einfach zu klein. Doch das ist einer der interessanten Aspekte der Quantenmechanik: Wenn man sagt, das ist zu klein, um im klassischen Sinn makroskopisch genannt zu werden, wo zieht man die Trennlinie? Damit haben wir immer noch zu kämpfen. Zum jetzigen Zeitpunkt gibt es keine Möglichkeit, diese Grenze zwischen klassisch und Quantenmechanik zu finden. Auch wenn das also sehr klein ist, würden wir sagen, es hat sehr ähnliche Eigenschaften wie Schrödingers Katze, analoge Eigenschaften. Darauf werde ich gleich zurückkommen. Wie in der Zusammenfassung erwähnt, könnten sich einige Anwendungen dieser Vorstellungen von Überlagerung in Uhren befinden. Und ich werde ein paar Worte über Quantencomputer verlieren. Was die Anwendung in Uhren betrifft, können Sie sich das so vorstellen: Wenn wir zum Beispiel einen elektrischen Dipolübergang in einem Atom haben und das Atom in einen Überlagerungszustand versetzen die wir so wie hier dargestellt aufschreiben können. Was hier beschrieben wird, ist ein oszillierender Dipol. Was ich hier geschrieben bzw. in dieser Darstellung gezeigt habe, ist ein Diagramm der Elektronendichte im Vergleich zur Zeit; sie oszilliert hin und her. Das ähnelt stark einer Pendeluhr. Und diese Eigenschaft können wir tatsächlich zur Herstellung einer Uhr nutzen, worüber ich jetzt ein paar Dinge sagen möchte. Die praktische Arbeitsweise bei der Herstellung einer Atomuhr sieht so aus, dass wir in diesem Beispiel hier das Atom im Grundzustand S beginnen lassen würden. Danach würden wir in einer bestimmten Frequenz Strahlung anwenden. Sagen wir, es wäre ein Laserübergang, was dieser Übergangsfrequenz hier sehr nahe käme. Und dann, nach dem Einsatz der Strahlung, würden wir messen. Wir würden die Wahrscheinlichkeit messen, mit der das Atom aus diesem Grundzustand in diesen angeregten Zustand übergegangen ist. Das kommt dem, was wir in der Praxis tun, sehr nahe. Wir halten uns an dieses Protokoll. Wenn die Laserfrequenz in diesem Beispiel der durch die Energiedifferenz dividiert durch Plancks Konstante vorgegeben Übergangsfrequenz entspricht, dann wissen wir, wenn diese Übergangswahrscheinlichkeit am größten ist, dass sich die Laserfrequenz mit der natürlichen Frequenz des Atoms im Gleichlauf befindet. Ich komme zurück auf… ich bleibe noch beim Thema Überlagerung. Bevor wir die Messung vornehmen, befindet sich das Atom im Allgemeinen in einem Übergang von seinem Grundzustand in den angeregten Zustand. Doch warum Atomuhren? Hierfür gibt es ein paar einfache Gründe, die sie davon überzeugen werden, warum das interessant ist. Im Grunde sind alle Atome bestimmte Ionen… Aluminium-Ionen oder Beryllium-Ionen, Magnesium-Ionen, alle diese bestimmten Arten sind genau identisch. Wenn wir uns also zur Herstellung einer Uhr auf einen Übergang einigen können, müsste im Grunde jede Uhr unabhängig von einem Vergleich im selben Tempo laufen. Natürlich gibt es im Experiment immer Schwierigkeiten… Umwelteinflüsse, die wir herauskalibrieren müssen. Das ist die echte Herausforderung. Und noch etwas: Im Gegensatz zu Pendeluhren nutzen sich Atome nicht ab. Sie können immer und immer wieder verwendet werden, ohne dass ihre Eigenschaften darunter leiden würden. Derzeit beschäftigen wir uns mit der Nutzung optischer Übergänge. Ein Beispiel hierfür ist Aluminium mit einer Übergangsfrequenz von etwa 10^15Hz. Der Grund dafür, warum die hohe Frequenz interessant ist, liegt in Folgendem: Mit der höheren Tickrate kann man jedes Zeitintervall in immer kleineren Stufen definieren. Auf diese Weise erhält man eine höhere Zeitauflösung. Interessant ist auch, dass bei einigen Übergängen, etwa dem von Aluminium, die Lebenszeit des angeregten Zustand etwa 20 Sekunden beträgt. Und wir erhalten Auflösungen bis zu etwa 1/10 Hz, was sehr präzise den Zustand beschreibt, in dem der Laser… die Laserfrequenz an die atomare Übergangsfrequenz angepasst wird. Ich gebe Ihnen noch ein Beispiel. In unserem Labor haben wir damit begonnen, an Quecksilber-Ionen zu arbeiten. Hier haben wir einen ähnlichen Übergang, der als Uhr genutzt werden könnte. Die Art und Weise, wie wir diese Übergänge entdecken, ist ziemlich einfach. Wir finden einen anderen Übergang in dem Atom. In diesem Fall ist es einer, der… wir können eine Menge Photonen streuen. Und die Grundidee ist: Wenn wir uns nach dem Einsatz der Uhrenstrahlung außerhalb der Resonanz befinden und das Atom im Grundzustand verbleibt, dann sehen wir Fluoreszenz. Wenn wir es dagegen in den angeregten Zustand versetzt haben, gibt es für die Laserphotonen keinen Zustand, von dem aus sie streuen könnten. Das ist sehr schön, denn selbst mit einem einzelnen Atom können wir, wenn es dunkel ist, ganz einfach feststellen, wann das Atom einen Übergang vollzogen hat. Sehen wir keine Fluoreszenz, bedeutet das in diesem Fall, dass es in den angeregten Zustand D übergegangen ist. Wenn wir Fluoreszenz sehen, bedeutet das, dass es keinen Übergang vollzogen hat. Und wie ich schon sagte, können wir das in der Uhr als Referenz verwenden. Ein Beispiel aus unserem Labor: Jim Bergquist, der... wir starteten dieses Projekt im Jahr 1981. Und wir arbeiten immer noch daran. Auf ein paar Vorteile der Verwendung von Ionen bin ich noch gar nicht zu sprechen gekommen. Doch wir… zunächst einmal: Allein die Tatsache, dass wir die Ionen an einem Ort festhalten, führt dazu, dass die Durchschnittsgeschwindigkeit gegen null geht. Ein Messeffekt, über den wir uns Gedanken machen müssen, ist der sogenannte Dopplereffekt erster Ordnung, der gewöhnliche, allseits bekannte Dopplereffekt. Und da die Durchschnittsgeschwindigkeit null ist, tendiert er ebenfalls gegen null. Die Technik der Laserkühlung habe ich auch noch nicht dargestellt – zahlreiche Atomphysikexperimente, bei denen wir den Strahlungsdruck von Lasern zur Senkung der Ionentemperatur verwenden. Das ist deshalb wichtig, weil die Zeit aufgrund der Konsequenzen aus Einsteins Relativitätstheorie für bewegte Objekte langsamer vergeht. In jedem uns vertrauten Maßstab hat das nur geringfügige Auswirkungen. Doch die Präzision ist mittlerweile dermaßen hoch, dass wir uns über diesen Effekt tatsächlich Gedanken machen müssen. Mittels Laserkühlung können wir diese zeitliche Beziehung unterdrücken. Es gibt noch viele andere Dinge, die wir berücksichtigen müssen, aber darauf werde ich jetzt nicht eingehen. Jedenfalls aber ist um 2006 herum das Resultat dieser Arbeit, der Standard, der die Sekunde definiert, ein extrem feiner Übergang in Cäsium. Und natürlich wurde es im Lauf der Jahre immer besser; unser Ziel war nicht festgelegt. Zu jener Zeit erreichten wir schließlich eine systematische Unsicherheit von ungefähr sieben in 10^17 Teilen, was besser war als der existierende Cäsium-Standard. Heutzutage geht es in den meisten Laboren, die sich mit Standards befassen, um die optischen Übergänge, mit denen man eine sehr hohe Präzision und Genauigkeit erreichen kann. Wie gesagt, das ist ein Beispiel aus unserem Labor. Es gibt andere Ionen, über die man sich den Kopf zerbricht. Dieser Beitrag hier fasst diese Arbeit zusammen. Gleichzeitig gibt es natürlich viele Experimente, bei denen neutrale Atome verwendet werden, eingefangene neutrale Atome. Es gibt also eine enorme Anzahl von Laboren auf der ganzen Welt, die an diesen Atomuhren arbeiten Lassen Sie mich etwas zur Idee der Quantencomputer sagen. Die Grundlage… ist auch hier die Überlagerung. Im Gegensatz zum klassischen Bit, das in dem einen Zustand oder in dem anderen existieren kann, spielen wir mit der Idee, dass in diesem Fall ein Quantenbit… wir ändern hier die Bezeichnungen; das könnten Energiestufen in einem Atom sein, die wir… in einem gewissen Sinn kann es sich gleichzeitig im Zustand 0 und im Zustand 1 befinden, also beide Informationen gleichzeitig. Wo könnte das interessant sein - stellen Sie sich die Skalierung vor. Nehmen wir zum Beispiel 3 Qubits in einem klassischen Register, das eine Zahl aufnehmen könnte. Doch mit Überlagerung können wir alle acht Zahlen für diese 3 Qubits – Quantenbits – gleichzeitig aufnehmen. Das macht 2^3. Und natürlich ist die Skalierung, wie Sie sehen, exponentiell. Ein interessantes Beispiel: Wenn wir 300 Bits haben, speichert ein klassischer Computer damit eine Textzeile. Doch mit der Überlagerung speichert er 2^300 oder etwa 10^90 Dezimalzahlen gleichzeitig. Wenn wir einen Speicher, einen klassischen Speicher für derart viele Daten herstellen müssten, bräuchten wir dafür mehr Materie als im Universum vorhanden ist. Das klingt doch ziemlich gut. Noch etwas kommt hinzu: Wenn wir einen Überlagerungszustand erzeugen, werden die Operationen, die wir durchführen, an all diesen Zahlen gleichzeitig ausgeführt. Das klingt nach einer gigantischen Parallelverarbeitung. Auch das hört sich ziemlich gut an. Der Witz an der Sache ist… kommen wir zurück zu dem Beispiel von der Kiste und den verschiedenen Blickwinkeln. Wenn wir ein Quantensystem messen… zum Beispiel, wenn wir die Überlagerung von 3 Bits messen. Wenn wir das System messen, kollabiert es zu nur einer dieser Konfigurationen. Was wir also entwickeln müssen... hilfreich ist ein Algorithmus, bei dem wir die meisten dieser Koeffizienten vor Durchführung der Messung und nach dem Rechenvorgang erzeugen. Wir wollen den Zustand wenigstens zu einer sehr kleinen Zahl von Möglichkeiten kollabieren lassen. Ein Beispiel, bei dem das möglich sein könnte, ist der Shor-Algorithmus. Ich erzähle Ihnen jetzt nicht die ganze Historie, obwohl es eine Menge interessanter Geschichten hinter dieser Idee des Quantencomputing gibt. Doch der eigentliche Auslöser war ein Algorithmus zur Faktorisierung großer Zahlen, den Peter Shor vorstellte. Wichtig ist das deshalb, weil es Auswirkungen auf die Verschlüsselung hat. Sie können sich also denken, dass alle Regierungsbehörden daran interessiert sind. Um Ihnen eine Vorstellung von all dem zu geben, ziehen wir einen Vergleich mit dem klassischen Computer. Auch wenn das vielleicht nicht die effizienteste Art und Weise ist, könnte man grundsätzlich einen universellen klassischen Computer konstruieren, der aus nur zwei Gates besteht. Es gibt noch andere Kombinationen, aber das wären dann schon 2 Beispiele. Für die Quantenwelt gilt das genauso, nur dass wir zwei Arbeitsgänge statt eines einzelnen Bit-Flips benötigen. Wir brauchen etwas Allgemeineres. An die Chemiker unter uns gerichtet: Denken Sie an NMR; damit sind Sie in der Lage, die Spins um verschiedene Winkel zu drehen. Das ist die Art von Operation, von der wir hier reden. Wir brauchen außerdem eine Art von nicht-trivialem Logikgatter. In diesem Fall, wenn wir mit Eigenzuständen des Systems agieren… natürlich könnten wir das auf klassische Weise mit einem klassischen Elektronik-Chip reproduzieren. Aber denken Sie daran: In diesem Fall stellen wir uns vor, dass mit Überlagerungen gearbeitet wird. Peter Shors Algorithmus spielt also eine große Rolle. Er ist sehr interessant, aber es dauert lange, ihn zu beschreiben. Die grundlegende Voraussetzung jedoch, die Art und Weise, wie er umgesetzt werden könnte, besteht darin, dass man über ein Eingangsregister verfügt. Man beginnt mit der Überlagerung aller möglichen Zahlen bis zu der Zahl, die man faktorisieren möchte. Und dann führt man eine Abfolge der Drehungen in diesen zwei kubischen Gates durch; jedenfalls ist das eine Form, wie man rechnen könnte. Am Ende hat man dann hier eine Art von Überlagerung. Wie soll man sich das vorstellen… es ist so etwas wie ein kompliziertes Interferenz-Experiment, bei dem alle möglichen Zustände, die die Atome annehmen können, in der Weise miteinander in Wechselwirkung treten, dass man am Ende eine endliche Zahl von Zuständen hat, die nicht viel kleiner ist als 2^N. Das ist immer noch eine sehr große Zahl von Zuständen, doch der Zustand, den man misst, könnte in einem klassischen Algorithmus zur Extrahierung des Faktors einer Zahl verwendet werden. Das ist also die Grundidee. Schon um eine 150-stellige Dezimalzahl zu faktorisieren, was für die Verschlüsselungsleute heutzutage wahrscheinlich nicht interessant ist, muss man mindestens so weit kommen. Doch das würde eine enorme Menge von Arbeitsgängen und Zehntausende von Qubits erfordern. Davon sind wir derzeit noch weit entfernt. Aber eines lässt sich dazu sagen… kommen wir noch einmal auf Schrödingers Katze zurück. Zu einem zwischen diesen Arbeitsvorgängen liegenden Zeitpunkt könnte man nur das “i”-Bit herausgreifen lassen. Und das sieht in diesem Fall Schrödingers Katze sehr ähnlich, denn die gesamte Kollektion der anderen Bits befände in wesentlich anderen Zuständen, ganz so wie Schrödingers Katze. Deshalb sprechen wir davon, dass wir Schrödingers Katze großziehen. Das ist unser Ziel. Im Umfeld atomarer Ionen wurde die Idee, wie ein solches Gerät hergestellt werden könnte, von Peter Zoller und Ignacio Cirac, zwei auf dem Gebiet der Quantenoptik sehr bekannten Theoretikern, vorgebracht. Ihr Gedanke war: Wir haben eine Elektrodenstruktur, und wir können die Dinge so arrangieren, dass die Ionen eine lineare Anordnung bilden. Die Grundidee lautet: Das ist ein dreidimensionaler harmonischer Oszillator, und die Coulombsche Abstoßung hält alles in einer regelmäßigen Anordnung auseinander. Und man kann… weiter kann ich mich den Chemikern hier nicht annähern… es ist wie ein Pseudomolekül, das wir manipulieren können. Es erweist sich, dass wir Laserkühltechniken verwenden können, wir können die Bewegung einfrieren. Wir können alle Vibrationszustände dieses Pseudomoleküls in den Grundzustand versetzen. Ihre Idee war nun, dass wir… im Allgemeinen werden die Qubits auf internen Zuständen in jedem der Ionen basieren. Für den schwierigen Teil verfielen sie auf den Gedanken, zwischen zwei Ionen ein Gatter herzustellen. Ihre Vorstellung war: Wenn wir einen Laserstrahl auf dieses Ion hier richten, können wir eine Kartierung vornehmen. Wir kartieren den internen Zustand dieses Ions auf den Grundzustand und den ersten angeregten Bewegungszustand dieses Pseudomoleküls. Das Spiel, das wir hier spielen, beruht darauf, dass die gesamte Bewegung eines jeden bestimmten Zustands im Allgemeinen mit allen Ionen geteilt wird, so dass alle Ionen diesen Bewegungszustand wahrnehmen. Und wenn wir jetzt irgendwie ein Gatter zwischen dem Bewegungszustand und, sagen wir, diesem Ion hier errichten können, dann haben wir praktisch ein Gatter zwischen zwei Ionen hergestellt. Ich will Ihnen eine Vorstellung davon geben, wie das funktioniert. Der erste Schritt: Kartierung des internen Zustands auf den Bewegungszustand. Wenn wir die internen Zustände des Ions kennen und sie mit harmonischen… bzw. der mit diesem Vibrationszustand verbundenen Zustandsleiter ausstatten.... wie gesagt, versetzen wir die Ionen idealerweise in den Bewegungsgrundzustand. Und wenn wir jetzt einen Laser so lange einschalten, wie er benötigt, um diese Komponente der Wellenfunktion auf diese Ebene hier zu kartieren, dann haben wir im Grunde die Kartierung vom internen Zustand auf den Bewegungszustand durchgeführt. Dahinter steht folgende Idee: Wenn wir zwischen dem Bewegungszustand und dem internen Zustand des zweiten ausgewählten Qubits ein Logikgatter errichten können… die Idee dabei ist... das ist ein bisschen simpel, aber die Grundidee wird deutlich. Nennen wir den Bewegungszustand das Kontrollbit. Das Zielbit ist der interne Zustand des zweiten Ions. Wenn wir in diesem Beispiel… im Allgemeinen hat das zweite Ion, das wir ausgewählt haben… es nimmt die Überlagerung wahr, die Bewegung und die internen Zustände. Die Vorstellung ist also: Wenn sich das Kontrollbit, also der Bewegungszustand, im ersten angeregten Zustand befindet, dann können wir diesen Übergang anstoßen, was bedeutet, dass wir das Bit des internen Zustands invertieren. Wenn es sich andererseits hier im niedrigsten Zustand befindet, gibt es hier keine höhere Ebene, auf die es gelangen könnte. Das folgt aus dieser Logik. Hier wird allerdings ein bisschen geschummelt. Das hier funktioniert nicht exakt. Sie wissen, es ist nicht universell. Aber es vermittelt die Vorstellung, dass selektive Dynamiken dieses Logikgatter konstruieren können. Jedenfalls konnten wir in unserer Gruppe diese Grundidee von Cirac und Zoller umsetzen. Das ist Chris Monroe, der von 1992 bis 2000 zu unserer Gruppe gehörte. Wir konnten dieses Logikgatter, über das sie gesprochen haben, herstellen. Das hier gibt Ihnen eine Vorstellung von den Gruppen auf der ganzen Welt, die atomare Ionen für das Spiel mit diesen Ideen der Quanten-Informationsverarbeitung verwenden. Nach meiner Zählung sind es mittlerweile 35. Wir haben es also mit einer gewaltigen Aktivität zu tun. Nur, um Ihnen eine Vorstellung davon zu geben, wohin die Experimente führen Es zeigt sich, dass wir diese Geräte gerne klein machen würden, unter sonst unveränderten Bedingungen. Die Gattergeschwindigkeiten entsprechen den Bewegungsfrequenzen und diesen Ausmaßen, 1:Dimension^2 Im letzten Jahrzehnt haben wir darüber nachgedacht, wie wir die Dinge schrumpfen lassen könnten. Eine Möglichkeit besteht darin, lithographische Techniken zur Nachbildung von Elektroden zu verwenden. In diesem Fall handelte es sich um Tonelektroden, die wir mit Schlitzen versahen. Und wenn wir diese Elektroden hier übereinander legen, können Sie sich vorstellen, wie wir ein Gebilde, ein kleines Gebilde wie dieses herstellen würden. Das sind jetzt reale Bilder; in diesem Fall gibt es mehrere Regionen, in denen sich das Ion befinden könnte. Aber es gibt Ihnen eine Vorstellung von den Dingen, mit denen wir zu tun haben. Dieses Bild zeigt sechs Ionen, die sich in der dort angegebenen Zone befinden. Heutzutage gehen wir sogar noch weiter: Mit bewährten mikroelektronischen Techniken können wir Elektroden in einer Oberfläche nachbilden; dann werden die Atome über der Oberfläche aufgehängt. Und jedes... in diesem Beispiel ist jedes dieser winzigen Quadrate eine Zone, in der wir die Ionen festhalten können. Das ist die Idee, wie wir vielleicht größer werden könnten. Um Ihnen eine Vorstellung zu geben: Diese Chips, diese Multizonen-Chips, in denen wir die Ionen speichern konnten, gaben wir in ein Vakuumsystem. Ich glaube, all diese Labore, vor allem der Fachrichtung Atomphysik, wurden von Lasern buchstäblich aufgezehrt. All die Studenten und Doktoranden – hier verbringen sie ihr Dasein. Und natürlich belegt der Computer nur einen winzigen Platz in einer Ecke des Raumes. Ich glaube, ich habe die Idee der Faktorisierung schon erwähnt. Sie war tatsächlich wichtig, um dem Fachgebiet Impulse zu verleihen. Ein Aspekt, der uns Hoffnung macht, stammt von Richard Feynman, der sich schon früher über einige Ideen Gedanken gemacht hat. Sie wissen schon: welche Bedeutung der Quantencomputer haben könnte. Seine Idee war, ein Quantensystem dazu zu veranlassen, ein anderes zu imitieren. Ich habe keine Zeit mehr… daran wird viel gearbeitet. Ich möchte nur… ich möchte zwei Personen aus unserem Labor, die an diesen Ideen arbeiten, besonders hervorheben. Rainer Blatt, unser Gastgeber. Seine Gruppe hat die niedrigste Fehlerquote, und sie haben auf diesem Gebiet der Quantensimulation am meisten geleistet. Und obwohl die Simulationen, die wir durchführen können – das Ion geht über ein Loch –, sind nicht wirklich… wir können die Simulationen auch auf einem klassischen Computer durchführen. Wir hoffen, dass wir im nächsten Jahrzehnt auf einem Quantensimulator ein Problem lösen können, das wir auf einem klassischen Computer noch nicht lösen konnten. Hier noch ein sehr, sehr unbedeutendes Beispiel dafür, woran gearbeitet wird. Es gibt noch viele andere Gruppen. Ich möchte mich bei meinen Kollegen am NIST bedanken; es war eine Ehre, mit den Menschen dort arbeiten zu dürfen. Jetzt sind ein paar Jüngere nachgekommen. Doch Jim Bergquist, Bob Drullinger, Wayne Itano und ich selbst, wir waren im Grunde unser ganzes Berufsleben zusammen. Und ein paar gute Junge rücken jetzt nach. Das gibt Ihnen eine Vorstellung davon, wie groß unsere Gruppe heute ist. Ich kann leider nicht jeden angemessen würdigen. Eines möchte ich noch sagen: Es war mir ein Vergnügen, den Preis im letzten Jahr mit Serge Haroche zu teilen. Er war... nun, ich kenne seine Arbeit seit 35 Jahren. Vor 25 Jahren haben wir uns persönlich kennengelernt, und auch unsere Frauen haben sich angefreundet. Es war wirklich eine große Freude, den Preis mit ihm zu teilen. Und jetzt wird er Ihnen jetzt etwas über seine Arbeit erzählen. Vielen Dank. Beifall.

David Windeland on raising Schrödinger's cat
(00:00:50 - 00:06:03)

 

Serge  Haroche (2013) - Controlling Photons in a Box and Exploring the Quantum to Classical Boundary

So it's a pleasure to be here and to talk after my friend Dave Wineland. As you know I am a physicist too, so nobody is perfect. It's the session which is devoted to chemistry but I think we were invited because we are the latest Nobel prizes in physics. And so I found it was appropriate to give to this talk the title I gave to my Nobel lecture. And I would like to symbolise these experiments with this picture, showing 2 hands juggling with balls between mirrors. In fact, the balls we are talking about here are photons, particles of light. And we try to keep them bouncing as long as possible between the mirrors, and to manipulate this light field and to prepare this state, these photons, into non-classical quantum states of the same kind as the ones which were discussed by Dave in his talk with atoms. But in half an hour it's very difficult to give you in detail...describe in detail the experiments we are performing. And I will try instead to relay this kind of physics more generally to quantum physics at large. And to try to tell you what this kind of physics, working with microscopic system, can lead to. And what kind of information it can give us which we don't have from the knowledge of quantum physics, which has accumulated over almost a century. I'd like to talk about the power and the strangeness of quantum physics to oppose these 2 notions. Of course we know that quantum theory is very powerful. It has opened to us a microscopic world of particles, of atoms and photons. And from this knowledge it has given us the keys of modern technologies. Dave has talked about the future of quantum computer but even a classical computer is based on quantum laws through the properties and the characteristics of transistors. So this is the power of the quantum. But at the same time it is a theory whose logic challenges our classical intuition about the microscopic world. There are strange effects like this superposition principle, and these effects occur at the particle level. But when you look at large systems which are made of a huge number of particles, this quantum-ness is veiled at the macroscopic level and we have to understand why. As Dave said, recent experiments which we can now carry on with single particles make us believe that one day we'll be able to harness the strangeness of quantum physics for real applications in the field of communication, computing or measurement. So I would like to recall these features very briefly. On this picture you see something which is of use to all of us. Quantum physics is important to understand the structure of atoms and nuclei, very simple systems. It's also essential for chemistry, to understand how atoms bind into molecules. It is also important to understand the global properties of solids. You see here a picture of a small superconducting piece of material levitating through the Meissner effect which is a quantum effect above another piece of metal. And also at the other end of the scale, if you look at the universe as a whole, cosmologists tell us that in the early universe you had quantum fluctuations which were amplified by the phenomenon of inflation and gave rise to all the structure of the galaxies and the structures that we see today. And the kind of picture you see on the right side of this slide which shows the tiny fluctuations of the blackbody radiation background, revealing these early cosmological effects. And so you see that quantum physics is in fact very, very interesting. And if you look at the size of the strings which are supposed to be elementary to the size of the universe, we have more than 60 orders of magnitude. And you need quantum physics to understand what happens at the 60 orders of magnitude in size. And you have also 60 orders of magnitude or something like that in terms of energies. So this of course is fundamental physics but it has also lead to applications: computers are made of transistors which you could not build without understanding quantum physics; lasers would have been impossible if one had not understood the basic interactions of atoms with photons. So this is also something which comes from the knowledge of basic physics. Looking at computers, I think it's interesting to look at the orders of magnitude. You see on this picture a very old computer, an ENIAC machine which was made of thousands of vacuum tubes connected by kilometres of cables. And you needed an army of engineers to work these machines which were not reliable at all. And now you have a Pentium chip here which can pack billions of elementary transistors and which is more powerful and more reliable than this machine. And of course, as Dave said in his talk, at the end of the story you will have to pack the information into a single atom, and then in principle you have smaller and faster systems. If you talk about smaller it means faster. And you have here an illustration of Moore's law which shows that by packing more and more elements and smaller elements you increase the memory and the power of computers by a factor of 2 every 18 months. It is the exponential Moore's law; and as we all know an exponential law cannot last forever. When you reach the point where a single information will be packed into an atom, it will be the end of it, classically speaking. But if you can use the quantum nature of said superposition, then you could go further, and this is one hope of modern technology. Another example is atomic clocks, and Dave alluded to atomic clocks during this talk. You see here a caesium clock, it's a fountain clock which is made of cold atoms. The atoms are cooled by laser beams here. Then they are pushed upwards and they make up an atomic fountain which is interrogated here by a radiofrequency coil. In this way you can lock this radiofrequency to the atomic transition frequency with fantastic precision. Dave told you about modern versions in the optical domain, but even these standard clocks can keep the time with the precision of about 1 part in 10^15 or something like that, which is absolutely extraordinary. And by putting such atomic clocks in an ensemble of satellites orbiting the earth, one has been able to realise the GPS system which allows you to localise yourself within 1 metre anywhere on the surface of the earth. And when you use this kind of apparatus - anyone is using that, taxi drivers everywhere in the world - I am sure they don't realise that they are using quantum physics. And not only are they using quantum physics but they are using relativity too. Because if you don't take into account the relativistic correction due to the motion of these satellites and also due to the fact that there are different altitudes in the earth's gravitational field, one would be off by kilometres or by tens of kilometres on the surface of the earth. So it's really basic physics used for applications. I talked about the power and now I have to talk a little bit about the strangeness, of course. And the strangeness is based, as we have seen, on the superposition principle, and even more deeply than that on the wave-particle dualism. You know that light which is considered a wave, an electromagnetic wave, is made of an ensemble of particles which are the photons. This has been described by Einstein in one of his famous 1905 papers. And on the other hand atoms, which are supposed to be particles, are also matter waves, and this has been discovered by de Broglie in 1923. So depending upon the perspective, depending upon the kind of experiment that you do, you will see the systems either as coherent waves giving rise to interference effects, or as discrete particles. And this ambigram is shown here to describe this ambiguity and this complementarity, the fact that which picture emerges depends upon the kind of experiment that you are doing. This idea of complementarity was described, of course, since the early days of quantum physics. And I show you here an example: a particle going through 2 slits. According to the superposition principle, it will be in a state which will be a superposition of it, going on through 1 slit or the other. An atom which can be in 2 energy levels, corresponding to different electronic orbits, can be at the same time in a superposition of the 2 states. And this gives rise to quantum interference effects. You have to associate an amplitude to each of the states. And these amplitudes add up and they can either add or subtract, depending upon their sign - in fact they are complex numbers. And this gives rise to probabilities which can become smaller than they would be classically speaking. Because the probabilities can cancel each other in the quantum world, whereas this cannot happen classically where probabilities are positive numbers which always add up. So this is really the big difference between quantum in the classical world. Another difference is that if you try to find out in which term of this superposition you are, if you perform a measurement then nature will give you a result; for instance, if you have a particle which is in superposition of 2 states. If you want to find out through which slit it went, you have to look; and in order to look you have to send photons. And the photons will disturb the particle. And in the end you will find a random result. You will find the particle either on the left or on the right. And a very important feature too is that this result will be random. You cannot predict before the experiment which result you will find. Einstein said that God is playing dice with quantum physics and he didn't like that, but this is the way nature works. And in fact, you don't need even to have a conscious observer. Very often what happens is that the environment which surrounds the system that you want to observe is playing the role of the observer. The environment spies on the quantum systems. And by spying on them it leaks information into the environment, which forces the system to choose. This is called decoherence. And this happens faster and faster when the size of the system increases. The fathers of quantum physics discussed these ideas in thought experiments - at that time it was impossible to perform the experiment. For instance, you see here a drawing, a picture which was made by Bohr to illustrate a discussion he had with Einstein at the Solvay meeting of 1927. The idea was to send particles one by one through a young double-slit interferometer - and look at the fringes on the screen. And Einstein had the idea to try to eavesdrop on the system: to find out through which slit the particle went without stopping the particle, and hoping that one would see the fringes still. So the idea of Einstein was in order to find the path you have to have one of the slits very light on a movable contraption; and if the particle goes through the upper slit it would kick this slit and put it in motion. So to find the path you just have to detect the momentum transfer to this movable slit. And Bohr answered, 'If you want to do that this requires to define the slit's initial momentum with very high precision, with a very small Delta p. And hence Delta x will be large according to the Heisenberg uncertainty relation. Delta x, Delta p has to be larger than Planck's constant. And if delta X is large it means that the position of the slit will be blurred, and the path difference will be blurred, and you will not see the fringes.' So this is an illustration of complementarity which shows that, indeed, internally quantum physics is consistent. If you try to find out the path, the rules of quantum physics tell you that you won't see the interference, the wave nature of the phenomenon. In fact what I want to stress is that this very simple experiment, described in 1927, contains already the concept of entanglement. You see the particle is in superposition of 2 states: either it goes through the upper slit or it goes...AND it goes through the lower slit at once. If the particle goes through the upper slit, the upper slit will move. And if the particle crosses the lower slit, the upper slit does not move. And if you look at this formula it's exactly the same formula that Dave showed you before, except that I am talking about Bohr's slit and not Schrödinger's cat. And of course it's much...it's dramatic. To talk about Bohr's slit would have bored everyone to death, whereas talking about Schrödinger's cat has raised a lot of attention; but it is basically the same idea. So this already looks like a Schrödinger cat. And in fact I will be very fast on this slide, because it's the same idea discussed by Dave - Schrödinger's cat is exactly the same idea. You have an atom in a superposition of 2 states. In one state nothing happens to the cat. In the other state it triggers a contraption which kills the cat. And so you have a superposition, an entanglement, which is exactly the same kind as the one I showed before. For interacting systems the superposition principle leads to entanglement. And if one of the systems at least is large, this raises the issue of the quantum to classical boundary. Why don't we see the interference effect as associated to large superpositions? And this is related to decoherence. So all these were thought experiments. And these thought experiments had become possible recently, I would say during the last 20 years. These experiments have become real due to new quantum technologies. The most important one is the discovery of tuneable lasers. You have seen on one of Dave's slides this table with 100s of lasers controlled everywhere. This is a very important effect. Lasers have invaded our everyday life. But they have also invaded the life of researchers at a deeper level, and they have been essential for all these experiments. Another important feature are fast computers. You need computers to store the data in real time if you want to control the system which evolves very fast. Another important point is that for some experiments, like to build the mirror that we need to keep our photons in, you need super conducting materials. And this is also a quantum technology. I want to stress the fact that there is a kind of virtuous circle here. You start from quantum ideas, which give you technologies. And using these technologies you can now illustrate directly these quantum ideas at work at the microscopic level and realise experiments that the founding fathers considered impossible, as Dave has said. So I will just present now very briefly the Boulder and Paris experiment to show the complementarity. As Dave has described in his case and the case of all ion trappers, you use electrodes to trap ions. And you use lasers to manipulate these ions and to get information on them by the light they scatter. You see here an example of 5 beryllium ions in Dave's lab in the year 2000, and here 14 calcium ions. I knew that Rainer would be the chairman of this session, so I choose this picture. Which is not a joke, this is really a fantastic system in which you can control the quantum state of a large number of particles. And as Dave said, there's a number of states you can address. It's 2 to the number of the particles - so here you have 2^14 quantum states. And this can be considered as a kind of atomic abacus for quantum information processing. Dave discussed that and I won't give more details about that. What we do is the opposite. We trap the photons, and we use beams of atoms crossing the cavity to get information about the photons. And the atoms we use are Rydberg atoms. These are very large atoms in which an electron is going around the core at a very large distance. For a chemist it's a joke of an atom. It's a system you don't need quantum physics for. It's just a planetary atom: an electron going around. This is in fact the atom which Niels Bohr described exactly 100 years ago in his old quantum mechanic theory of the atom. When he introduced for the first time the notion of quantisation, Planck's constant in the atomic physics, he described the Rydberg atoms that we are using in our experiments. We use these atoms because they are very big and very sensitive to microwaves, and so they are very good detectors of microwave feeds. I don't have time to describe how we detect these atoms and how we use the detection really to get information about the photons. I will just show you 1 or 2 examples. Here you will see in real time scale what happens when you detect the atoms one by one, and you detect them in one state or the other. And what you find is this kind of trace. If you find the atom in the state G, it means that the cavity has no photon inside. If you find the atom in the red state E it means that you have 1 photon inside. And so you see immediately from this kind of experimental trace that you can determine the exact time when a photon appears inside the cavity, a quantum jump of the field. This photon is produced by thermal fluctuations, just because our cavity walls are the finite temperature - very low temperature but still nonzero. According to Planck's law the atoms in the walls of the cavity sometime emit a photon. This photon stays for a while and then disappears. And you see here a photon which has stayed half a second in our cavity. You see that hundreds of atoms see the same photon. And this is really something which is quite different from what we are used to. In the real world, when you see photons, the photons are dead. They disappear on your retina and the atoms form into something else. Here the photons are still there, and atoms can still come in and see the same photon again and again, and you can manipulate it. And since you heard about quantum gates in the previous talk: this is also a quantum gate. You can consider the photon in the zero or one state as a qubit which controls the state of the atom which you find in the state E or G. And you can perform entanglement and superposition state with this system, as you can do in the ion trap physic experiment discussed by Dave. On these traces you see how the photons escape from the box one by one. In the early days of quantum physics, Einstein and Bohr discussed another experiment which was called the photon box experiment, in which the idea was to try to find out exactly when a photon escaped from a box. And you see here how it happens. On the upper trace you have 5 photons whose decay is going to fall to 3 to 2 to 1 to 0. On the lower traces you have a state which has 4 photons which decays to vacuum. Classically you would not expect that. A classical engineer will tell you that if you put electromagnetic energy in a box it decays exponentially. But quantum physics tells you otherwise. If you look at what happens, it's a staircase evolution with random steps. And you recover the classical decay by making an average of a large number of such single trajectories. From these trajectories you can observe that the process is random. And if you make statistical analysis of a large number of such traces, you find that the state with n photon decays with a time constant which is proportional to 1 over n. That is: the higher the quantum state, the faster it decays. This is in some way another expression of decoherence. If you try to bring quantum particles in states which have a large energy, they become more and more fragile, and it becomes more and more difficult to keep them. So why is it important to be able to manipulate single quantum particles? Of course, the main answer that I can give - and I think Dave is giving it too - is curiosity. It's a challenge: Is it possible? How does nature behave at this level? We know from the principle, but we have to check that. And as Dave said this was not of use. Schrödinger believed that these experiments would be always impossible and would lead to ridiculous consequences. I don't know exactly what he meant by that, but for me and for Dave the consequences are not ridiculous. Since we are here, it shows that maybe something useful will come out from that. Another deeper reason that small systems react faster and pack more information per unit volume, leading to more powerful devices. So you have to go to small systems and ultimately to quantum systems if you want to do that. And moreover quantum physics makes a wide range of new state accessible for possible application. And this was also discussed by Dave. I will give you one example of Schrödinger's cat. I cannot explain how we did the experiment but this is a kind of map, a kind of radiography of a field in a cavity, which is in superposition of 2 states. You have 2 bumps, 2 Gaussian peaks, which represents so to speak the live and the dead cat. There are 2 fields which have opposite phases in technical terms. And in between you see fringes taking positive and negative values, which shows that it's a quantum superposition. And you can study how this quantum superposition vanishes in time due to decoherence. The theory of decoherence was developed by, among other people, by Wojciech Zurek. And he wrote a seminal paper in Physics Today, that I urge you to read, about 20 years ago, which really triggered us into this field, because we realised that we could do the experiments. And in fact you will see that we can take pictures of this Schrödinger cat at increasing times. And you will see that after about 20 milliseconds the fringes are washed out. And so you can see here in real time how a quantum system evolves into a statistical mixture with no longer interferences. I will stop the movie after about 20 milliseconds. You see now that the fringes have vanished. Of course there is some noise, but by analysing a large number of such experiments you can really observe decoherence. And you observe an important feature: the rate at which this decoherence occurs increases with the cat size. If instead of having a handful of photons you have billions of photons as in a laser beam, decoherence would be instantaneous. If you take a cat, to take another example, which has 10^27 molecules in it. And if you apply this getting low - decoherence time is a lifetime divided by the number of quantum states - then you find a femtosecond. And I challenge you to kill a cat in less than a femtosecond. So in fact it means that the superposition of dead and live cat has no meaning. And this is maybe what Schrödinger meant when he said 'ridiculous' - it's ridiculous for very large systems. So it could lead to more powerful computers and simulators, to quantum logic - as Dave described. So some people are thinking about more secret communication; it's called quantum cryptography. Other people are thinking about more precise measurements, for instance for atomic clocks; it's called quantum metrology. And there is of course a big issue of quantum computing. So this is my version, a computer which is in superposition of different states. And the idea is, will it be possible to factor large numbers with this? So quantum computers, as Dave said, would exploit state superposition and entanglement in ensemble of real or artificial atoms in order to compute more efficiently. I insist upon the fact that decoherence is a big challenge. We have some ways to correct for decoherence. In our lab we are working on quantum feedback methods which correct for decoherence processes. There are other experiments about their correction. Proofs of principle are underway with small ensembles of atoms; as Dave said we are very far from the use for computer. Quantum simulation is more at hand. I show you here an array of atoms which are kept into what is known as an optical lattice. You put laser beams and you make an interference with these laser beams. You provide optical forces which keep the atoms at a well-defined location, and you realise something which looks like a crystal, but at a different scale. And you can control everything in theses crystals' interaction between the atoms, the size and so on. And this is called simulation instead of computation. And you can simulate situations which occur in solid state structures. For instance, maybe one could understand high-Tc superconductivity by making simulation of this kind. So if you ask me, what would be the future? I can...this sentence has been attributed to a lot of people, from baseball players in the United States to Niels Bohr: It is hard to make predictions, especially about the future. But one thing is sure, and I hope I convinced you, that without basic research novel technologies cannot be invented. And the past teaches us that wonderful applications emerge from blue sky research in unexpected ways. I will give you 2 examples. First the laser: when the laser was invented, nobody knew what it would be useful for. Then, about 10 years later, highly transparent optical fibres were discovered. And powerful computers were at hand. And so if you merge with these 3 independent advances, you find the internet - and the people who invented the lasers would not have dreamt about the internet. And now we are thinking about the quantum internet, using the quantum properties as I discussed earlier, but I am not sure if this will happen. Another example which is maybe closer to chemistry is magnetic resonance imaging. You start from magnetic resonance which studies the dance of spins of magnetic moments in atoms and molecules, which is so useful in biology and in chemistry. But you use it now in medicine. For that you have to put the body into a high magnet, which is another quantum technology, and you have to use fast computers to reconstruct images from the signals. And you get the MRI imaging technique which is now giving us information about the way brain works. But if you had told Bloch or Purcell in 1946, 'I want to do MRI', they would not have understood what you are talking about, because it had to be the convergence of these technologies. So I will conclude by saying that novel technologies often come in unexpected ways from blue sky research. And blue sky research needs 2 priceless ingredients, time and trust. You need to have time to develop this over a long period. Dave said that he had started 35 years ago, it's the same for my group. And we have to work in an environment where the people who decide trust you and give you the support over a long time, without asking you, what are your milestones for next year? What will you produce in 6 months or in 1 year from now? So research is fully successful where and when these 2 ingredients - of course you need money too - but I said time and trust, because it's 2 'T's and money doesn't come with a 'T'. And I want to add that this is not really favoured by the laws of the global market, which emphasise speed and fast obtained marketable results. And I will end by telling you about a place, where research driven by pure curiosity has thrived over the last 50 years. It is my lab, the Kastler Brossel lab at the École Normale Supérieure which was founded by Kastler and Brossel, the inventors of optical pumping, which was the first method to manipulate atoms with light. And the picture you see here was taken 47 years ago, I was a graduate student in this lab. And you see here 3 Nobel Prize winners on the same picture: Claude Cohen-Tannoudji was my physics advisor, who got the Nobel Prize in '97. Kastler who invented optical pumping, got it in 1966. And you see how I was as a student and I was already amazed to have just fallen into a lab where a Nobel Prize was announced. And you see on the right Jean Brossel - and I never understood why Brossel did not share the Nobel Prize with Alfred Kastler. It happened 47 years ago. So I think in 3 years from now, I will be able to look in the archives of the Nobel Prize to find out the answer to this interesting question. And I show you now also my team today. This picture was taken in the same room as the previous one, but last fall. I want to stress that nothing would have been possible without this team, and in particular without Jean-Michel Raimond and Michel Brune, who had been my students and whom I was happy to keep with me over all these years. And there are a lot of very young and very dedicated people also. But I don't have time to give more details. So I thank you for your attention. Applause.

Ich freue mich, hier sein zu können und meinen Vortrag nach dem meines Freundes Dave Wineland halten zu können. Wie Sie wissen, bin auch ich Physiker - niemand ist perfekt. Die Tagung ist der Chemie gewidmet. Aber ich glaube, wir wurden eingeladen, weil wir die letzten Nobelpreisträger für Physik waren. Und deshalb hielt ich es für angemessen, diesen Vortrag unter denselben Titel zu stellen wie meinen Nobelvortrag. Ich möchte die Experimente mit diesem Bild symbolisieren. Das sind zwei Hände, die zwischen Spiegeln mit Bällen jonglieren. Die Bälle, über die wir hier reden, sind Photonen, Lichtteilchen. Und wir versuchen dafür zu sorgen, dass sie sich möglichst lange zwischen den Spiegeln hin und her bewegen; wir wollen dieses Lichtfeld manipulieren und diese Photonen in nicht-klassische Quantenzustände derselben Art versetzen wie diejenigen, die Dave in seinem Vortrag über Atome beschrieben hat. Aber es ist kaum möglich, die Experimente, die wir durchführen, in einer halben Stunde detailliert zu beschreiben. Ich werde deshalb versuchen, diese Art von Physik in einem allgemeineren Sinn auf die Quantenphysik insgesamt zu übertragen. Und ich möchte Ihnen vermitteln, wohin diese Art von Physik, die Arbeit mit dem mikroskopischen System, führen kann und welche Informationen sie uns liefern kann, die wir nicht aus dem über fast ein Jahrhundert aufgebauten Wissen der Quantenphysik beziehen können. Ich möchte über die Wirkmacht und die Eigenartigkeit der Quantenphysik reden und diese beiden Vorstellungen einander gegenüber stellen. Natürlich wissen wir, dass die Quantentheorie sehr machtvoll ist. Sie hat uns die mikroskopische Welt von Teilchen, Atomen und Photonen eröffnet. Und ausgehend von diesem Wissen hat sie uns die Schlüssel zu modernen Technologien geliefert. Dave hat über die Zukunft des Quantencomputers gesprochen. Aber selbst ein traditioneller Computer basiert - über die Eigenschaften und Merkmale von Transistoren - auf Quantengesetzen. Das Quantum hat also diese Wirkmacht. Gleichzeitig stellt aber die Logik dieser Theorie unsere klassische Intuition über die mikroskopische Welt vor eine Herausforderung. Es gibt merkwürdige Effekte, wie dieses Superpositionsprinzip, die sich auf Teilchenebene vollziehen. Wenn man aber riesige Systeme untersucht, die aus einer sehr hohen Anzahl von Teilchen bestehen, bleibt diese Quantenbeschaffenheit auf makroskopischer Ebene verborgen. Wir wollen verstehen, warum das so ist. Wie Dave sagte, lassen kürzlich durchgeführte Experimente, die wir jetzt mit einzelnen Teilchen durchführen können, vermuten, dass wir irgendwann in der Lage sein werden, die Merkwürdigkeit der Quantenphysik für reale Anwendungen auf dem Gebiet der Kommunikation, EDV oder Messtechnik zu nutzen. Ich möchte diese Merkmale kurz in Erinnerung rufen. Auf diesem Bild sehen Sie etwas, was für uns alle nützlich ist. Die Quantenphysik ist von Bedeutung, um die Struktur von Atomen und Zellkernen, sehr einfachen Systemen, zu verstehen. Sie ist auch wesentlich für die Chemie, um nachzuvollziehen, wie sich Atome an Moleküle binden. Sie ist zudem wichtig, um die globalen Eigenschaften von Festkörpern zu verstehen. Sie sehen hier das Bild eines kleinen, supraleitenden Materialteils, das aufgrund des Meissner-Effektes, eines Quanteneffekts, über einem anderen Metallteil schwebt. Und auch am anderen Ende der Skala, wenn wir das Universum als Ganzes betrachten, erzählen uns Kosmologen, dass es im Frühuniversum Quantenfluktuationen gegeben hat, die durch das Inflationsphänomen verstärkt wurden und die gesamte Struktur der heute beobachtbaren Galaxien und Strukturen hervorgebracht haben. Und das rechts auf der Folie zu sehende Bild, das die winzigen Fluktuationen der Schwarzkörperhintergrundstrahlung zeigt, zeigt diese frühen kosmologischen Effekte. Die Quantenphysik ist in der Tat ein sehr interessantes Feld. Und wenn man die Größe der als elementar geltenden Strings - einige Menschen halten sie für die Grundelemente von allem - im Verhältnis zur Größe des Universums betrachtet, geht es um eine über 60-fache Größenordnung. Und man braucht die Quantenphysik, um zu verstehen, was in 60-facher Größenordnung geschieht. Und auch bei den Energien geht es ungefähr um die 60-fache Größenordnung. Das ist natürlich Grundlagenphysik, aber sie führt auch zu Anwendungen: Computer enthalten Transistoren, die man ohne Kenntnisse der Quantenphysik nicht bauen könnte. Laser wären unmöglich, wenn man nicht die grundlegenden Interaktionen von Atomen mit Photonen verstanden hätte. Das ist also etwas, das aus dem Wissen der fundamentalen Physik stammt. Was Computer betrifft, ist die Betrachtung der Größenordnungen interessant. Sie sehen hier einen sehr alten Computer, einen ENIAC-Rechner, der aus Tausenden von Vakuumröhren hergestellt wurde, die mit kilometerlangen Kabeln verbunden waren. Und für den Betrieb dieser Maschinen, die überhaupt nicht zuverlässig waren, benötigte man eine ganze Armee von Ingenieuren. Ein moderner Pentium-Chip kann heute Milliarden von elementaren Transistoren aufnehmen und ist leistungsstärker und zuverlässiger als diese Maschine. Und natürlich wird man, wie Dave in seinem Vortrag sagte, die Informationen letztendlich in ein einziges Atom packen müssen und erhält dann grundsätzlich kleinere und schnellere Systeme. Wenn man über kleiner spricht, bedeutet das schneller. Hier sehen Sie eine Darstellung des Mooreschen Gesetzes, das zeigt, dass man, durch Bestückung mit mehr und mehr Elementen und kleineren Elementen, den Speicher und die Leistungsstärke von Computern alle 18 Monate um einen Faktor von 2 steigert. Das ist das exponentielle Mooresche Gesetz. Und wie wir alle wissen, kann ein exponentielles Gesetz nicht unendlich andauern. Wenn der Punkt erreicht ist, indem eine einzelne Information in ein Atom gepackt wird, ist das im klassischen Sinne das Ende. Aber wenn man die erwähnte Quantenbeschaffenheit der Überlagerung nutzen könnte, könnte man weiter gehen. Darauf setzt die moderne Technologie. Ein weiteres Beispiel sind Atomuhren. Dave hat während seines Vortrags auf Atomuhren hingewiesen. Hier sehen Sie eine Cäsium-Uhr, das ist eine Fontänenuhr, die aus kalten Atomen besteht. Die Atome werden hier mit Laserstrahlen heruntergekühlt. Dann werden sie nach oben gedrückt und erzeugen eine Atomfontäne, die über eine Hochfrequenzspule erfasst wird. So kann diese Hochfrequenz mit phantastischer Präzision auf der atomaren Übergangsfrequenz gehalten werden. Dave hat Ihnen etwas über moderne Versionen auf dem Gebiet der Optik erzählt. Aber selbst diese Standarduhren können die Zeit mit einer Genauigkeit von ungefähr 1 zu 10^15 halten, was absolut hervorragend ist. Und indem man solche Atomuhren in ein Ensemble von Satelliten eingebracht hat, die die Erde umkreisen, konnte man das GPS-System realisieren. Und damit kann jeder überall auf der Erde mit einer Genauigkeit von einem Meter lokalisiert werden. Und wer solche Vorrichtungen benutzt - jeder macht das, jeder Taxifahrer auf der Welt -, weiß wohl nicht, dass sie auf Quantenphysik basieren. Dieses System verwendet nicht nur die Quantenphysik, sondern auch die Relativität. Würde man die aufgrund der Bewegung dieser Satelliten und der unterschiedlichen Gravitationsfeldhöhen der Erde erforderlichen Relativitätskorrekturen nicht berücksichtigen, läge man Kilometer oder zig Kilometer daneben. Für solche Anwendungen wird also tatsächlich Grundlagenphysik eingesetzt. Ich habe jetzt über die Wirkmacht geredet und muss noch etwas zur Eigenartigkeit sagen. Die Eigenartigkeit basiert, wie wir gesehen haben, auf dem Überlagerungsprinzip und noch intensiver auf dem Welle-Teilchen-Dualismus. Sie wissen, dass Licht, das als eine elektromagnetische Welle betrachtet wird, aus einer Gruppe von Teilchen besteht, den Photonen. Das wurde von Einstein in einem seiner berühmten Aufsätze aus dem Jahr 1905 beschrieben. Andererseits sind Atome, die als Teilchen angesehen werden, auch Materiewellen und das wurde von Broglie 1923 entdeckt. Abhängig von der Perspektive, abhängig von der Art des durchgeführten Experiments betrachtet man die Systeme entweder als kohärente Wellen, die Interferenzeffekte auslösen, oder als diskrete Teilchen. Und dieses Ambigramm beschreibt diese Ambiguität und diese Komplementarität, die Tatsache also, dass die Frage, welches Bild auftaucht, von der Art des durchgeführten Experiments abhängt. Diese Vorstellung von der Komplementarität wurde natürlich seit den Anfängen der Quantenphysik beschrieben. Ich zeige Ihnen hier ein Beispiel: Ein Teilchen, das sich durch zwei Spalten bewegt. Entsprechend dem Überlagerungsprinzip befindet es sich in einem Zustand, der eine Überlagerung ist, und tritt durch den einen oder den anderen Spalt hindurch. Ein Atom, das sich entsprechend unterschiedlicher elektronischer Umlaufbahnen in zwei Energieebenen befinden kann, kann gleichzeitig eine Überlagerung der beiden Zustände annehmen. Und das löst Quanteninterferenzeffekte aus. Mit jedem Zustand muss eine Amplitude assoziiert werden. Und diese Amplituden addieren sich auf und können, abhängig von ihrem Vorzeichen, entweder addiert oder subtrahiert werden - tatsächlich sind sie komplexe Zahlen. Und das ergibt Wahrscheinlichkeiten, die geringer sein können, als dies klassischerweise der Fall wäre. Denn in der Quantenwelt können sich Wahrscheinlichkeiten gegenseitig aufheben, während dies normalerweise nicht passieren kann. Wahrscheinlichkeiten sind normalerweise positive Zahlen, die sich immer addieren. Und das ist tatsächlich der große Unterschied zwischen Quanten- und klassischer Welt. Ein weiterer Unterschied: Wenn man versucht herauszufinden, in welchem Überlagerungsmodus man sich befindet, also eine Messung durchführt, gibt die Natur die Antwort. Hat man beispielsweise ein Teilchen, das sich in einer Überlagerung von zwei Zuständen befindet, und will herausfinden, durch welchen Spalt es sich bewegt hat, muss man das beobachten. Und wenn man das beobachten will, muss man Photonen senden. Und die Photonen stören das Teilchen. Und schließlich erhält man ein Zufallsergebnis. Das Photon befindet sich entweder auf der linken oder auf der rechten Seite. Ein wichtiges Merkmal ist auch, dass das Ergebnis ein Zufallsergebnis ist. Vor dem Experiment kann man nicht vorhersagen, welches Ergebnis man erhalten wird. Einstein meinte, dass Gott mit der Quantenphysik würfelt. Das gefiel ihm nicht, aber so funktioniert die Natur nun mal. Und eigentlich braucht es nicht einmal einen bewussten Beobachter. Sehr oft passiert es, dass das Umfeld des Systems, das man beobachten möchte, die Rolle des Beobachters übernimmt. Das Umfeld "bespitzelt" die Quantensysteme. Und durch diese Bespitzelung sickern Informationen in das Umfeld, die das System zwingen, Entscheidungen zu treffen. Das wird als Dekohärenz bezeichnet. Und dies geschieht mit zunehmender Größe des Systems immer schneller. Die Väter der Quantenphysik haben diese Vorstellungen in Gedankenexperimenten diskutiert - damals war es unmöglich, das Experiment durchzuführen. Hier sehen Sie beispielsweise eine von Bohr angefertigte Zeichnung, die ein Gespräch illustriert, das er beim Solvay-Treffen 1927 mit Einstein führte. Die Idee war, Teilchen nacheinander durch ein junges, zweispaltiges Interferometer zu senden und die Interferenzmuster auf dem Bildschirm zu beobachten. Einstein hatte die Idee, das System auszuspähen, um herauszufinden, durch welchen Spalt sich das Teilchen bewegt hat, ohne das Teilchen anzuhalten. Und er hoffte, das Interferenzmuster dennoch erkennen zu können. Einstein verfolgte also die Idee, bei der Suche nach dem Weg eine der Spalten auf einer beweglichen Vorrichtung anzubringen. Wenn das Teilchen den oberen Spalt nimmt, würde es diesen Spalt anstoßen und in Bewegung setzen. Um den Weg zu identifizieren, müsste man also einfach die Impulsübertragung dieses beweglichen Spalts erfassen. Und natürlich entgegnete Bohr: Wenn Sie das machen wollen, müssen Sie den Anfangsimpuls des Spalts mit höchster Präzision bei einem sehr kleinen Delta p festlegen. Und deswegen wird Delta x aufgrund der Unschärferelation von Heisenberg groß sein - Delta x, Delta p muss größer als die Plancksche Konstante sein. Und wenn Delta x groß ist, bedeutet das eine Verwischung der Spaltposition. Der Gangunterschied wird unscharf und man kann das Interferenzmuster nicht erkennen. Das ist eine Darstellung der Komplementarität. Sie zeigt, dass die Quantenphysik intern durchaus konsistent ist. Wenn man versucht, den Weg zu identifizieren, so die Regeln der Quantenphysik, kann man die Interferenz, die Wellennatur des Phänomens nicht erkennen. Ich will ausdrücklich darauf hinweisen, dass dieses sehr einfache, 1927 beschriebene Experiment bereits das Konzept der Verschränktheit beinhaltet. Man sieht, dass das Teilchen in einer Überlagerung von zwei Zuständen existiert: Entweder geht es durch den oberen Spalt oder es geht ... UND es bewegt sich gleichzeitig durch den unteren Spalt. Wenn das Teilchen durch den oberen Spalt geht, bewegt sich der obere Spalt. Und wenn das Teilchen durch den unteren Spalt geht, bewegt sich der obere Spalt nicht. Diese Formel hier ist exakt die gleiche Formel, die Dave Ihnen auch gezeigt hat, mit dem Unterschied, das ich über den Bohr-Spalt rede und nicht über Schrödingers Katze. Und natürlich ist das viel ... das ist dramatisch. Über den Bohr-Spalt zu reden, hätte alle zu Tode gelangweilt. Über Schrödingers Katze zu reden, hat eine Menge Aufmerksamkeit erweckt. Aber letztendlich ist es im Grunde dieselbe Idee. Das hier sieht also schon aus wie ein Exemplar von Schrödingers Katze. Und ich werde diese Folie sehr schnell abhandeln, weil Dave bereits das gleiche Konzept vorgestellt hat: Schrödingers Katze ist genau die gleiche Idee. Man hat ein Atom in einer Überlagerung von zwei Zuständen. Und in einem Zustand passiert nichts mit der Katze. Im anderen Zustand wird eine Apparatur ausgelöst, die die Katze tötet. Und so kommt es zu einer Überlagerung, einer Verschränkung, die exakt der entspricht, die ich vorher gezeigt habe. Bei interagierenden Systemen führt das Überlagerungsprinzip zur Verschränkung. Und wenn mindestens eines der Systeme groß ist, stößt die Quantenfrage an eine klassische Grenze. Warum können wir den Interferenzeffekt nicht beobachten, wenn es um große Überlagerungen geht? Das hängt mit der Dekohärenz zusammen. Das alles waren Gedankenexperimente. Und diese Gedankenexperimente sind in letzter Zeit - ich würde sagen, in den letzten 20 Jahren - möglich geworden. Aufgrund neuer Quantentechnologien sind diese Experimente real geworden. Das wichtigste ist die Entdeckung von abstimmbaren Lasern. Sie haben auf einer von Daves Folien die Tabelle mit hunderten von kontrollierten Lasern gesehen. Das ist ein sehr wichtiger Effekt. Laser haben Einzug in unser Alltagsleben gefunden, aber auch auf einer tieferen Ebene in das Leben der Forscher und sie waren für all diese Experimente entscheidend. Ein weiteres wichtiges Merkmal sind schnelle Computer. Man muss die Daten in Echtzeit speichern können, wenn man das sich sehr schnell entwickelnde System kontrollieren will. Wichtig ist auch, dass man für einige Experimente - etwa für den Bau des Spiegels, den man zur Führung der Photonen braucht - supraleitfähige Materialien benötigt. Und auch das ist Quantentechnologie. Ich möchte betonen, dass hier eine Art von Circulus virtuosus vorliegt. Der Anfang sind Quantenideen, die zu Technologien führen. Und mit dem Einsatz dieser Technologien kann man diese Ideen heute direkt während der Arbeit auf mikroskopischer Ebene darstellen und Experimente durchführen, die die Gründungsväter für unmöglich hielten, wie Dave sagte. Ich möchte hier ganz kurz das Boulder- und Paris-Experiment präsentieren, um die Komplementarität aufzuzeigen. Wie Dave für seinen Fall und den Fall aller Ionenfänger beschrieben hat, werden zum Einfangen von Ionen Elektroden verwendet. Diese Ionen werden mit Lasern manipuliert, um durch die Lichtstreuung Informationen über sie zu erhalten. Hier sehen Sie zum Beispiel fünf Beryllium-Ionen in Daves Labor aus dem Jahr 2000 und hier 14 Calcium-Ionen. Ich wusste, dass Rainer der Vorsitzende dieser Veranstaltung ist und deshalb habe ich dieses Bild gewählt - das ist kein Scherz. Es ist ein wirklich phantastisches System, in dem man den Quantenzustand einer riesigen Anzahl von Teilchen steuern kann. Und wie Dave sagte, können zahlreiche Zustände berücksichtigt werden. Man spricht von 2 hoch die Zahl der Teilchen - hier also 2^14 Quantenzuständen. Und das kann man als eine Art atomaren Abakus für die Quanteninformationsverarbeitung betrachten. Dave hat darauf Bezug genommen und deshalb werde ich hier nicht weiter darauf eingehen. Wir machen genau das Gegenteil. Wir fangen die Photonen ein und wir nutzen Strahlen von Atomen, die den Hohlraumresonator (Kavität) durchqueren, um Informationen über die Photonen zu erhalten. Wir verwenden Rydberg-Atome. Das sind sehr große Atome, bei denen sich ein Elektron in sehr großem Abstand um den Kern bewegt. Für einen Chemiker ist dieses Atom ein Witz. Es ist ein System, für das man keine Quantenphysik braucht. Es ist einfach ein Planetenatom: Ein Elektron, das sich im Kreis bewegt. Es ist eigentlich das Atom, das Niels Bohr exakt vor 100 Jahren in seiner alten Quantenmechaniktheorie des Atoms beschrieben hat. Er stellte damals erstmalig das Quantisierungskonzept vor, die Plancksche Konstante in der Atomphysik, und beschrieb die Rydberg-Atome, die wir in unseren Experimenten verwenden. Wir verwenden diese Atome, weil sie sehr groß sind und äußerst empfindlich auf Mikrowellen reagieren. Deshalb gelten sie als sehr gute Detektoren von Mikrowellenspeisungen. Ich kann hier aus Zeitgründen nicht darauf eingehen, wie wir diese Atome entdecken und wie wir die Erkennung nutzen, um Informationen über die Photonen zu erhalten. Ich möchte nur ein, zwei Beispiele zeigen. Hier sehen Sie im realen Zeitmaßstab, was passiert, wenn man die Atome einzeln sichtbar macht und sie in dem einen oder dem anderen Zustand erfasst. Dann erhält man eine solche Spur. Erfasst man das Atom im Zustand G, bedeutet das, dass sich kein Photon in der Kavität befindet. Findet man das Atom im roten Zustand E vor, bedeutet dass, das sich ein Photon im Innern befindet. Aus so einer experimentellen Spur lässt sich direkt der exakte Zeitpunkt ermitteln, an dem ein Photon im Innern der Kavität, ein Quantensprung im Feld, auftritt. Dieses Photon wird durch Temperaturschwankungen produziert, da unsere Kavitätswände endliche Temperaturen aufweisen - sehr niedrige Temperaturen, aber noch ungleich null. Nach dem Planckschen Gesetz geben die Atome in den Wänden der Kavität manchmal ein Photon ab. Dieses Photon verweilt eine Zeitlang und verschwindet dann wieder. Hier sehen Sie ein Photon, das eine halbe Sekunde in unserem Hohlraumresonator blieb. Und Sie sehen, dass hunderte Atome dasselbe Photon sehen. Und das ist wirklich etwas ganz anderes, als wir gewohnt sind. In der realen Welt sind die Photonen, die man sieht, tot. Sie verschwinden auf unserer Netzhaut und die Atome formen sich zu etwas anderem um. Hier sind die Photonen noch vorhanden, und es können immer noch Atome ankommen und immer wieder dasselbe Photon sehen. Man kann das manipulieren. Und da Sie im vorherigen Vortrag schon etwas über Quantentore gehört haben: Das hier ist ebenfalls ein Quantentor. Sie können sich das Photon im Null- oder Eins-Zustand als Quantenbit vorstellen, das den Zustand des Atoms kontrolliert, das Sie im Zustand E oder G vorfinden. Und man kann mit diesem System den Verschränkungs- und Überlagerungszustand durchführen, wie es in dem von Dave besprochenen physikalischen Ionenfänger-Experiment möglich ist. An diesen Spuren sieht man, wie die Photonen nacheinander aus der Box verschwinden. In den frühen Tagen der Quantenphysik haben Einstein und Bohr ein weiteres Experiment diskutiert, das als Photonen-Box-Experiment bezeichnet wurde. Damit wollte man genau herausfinden, wann ein Photon aus der Box entwischt. Und hier sehen Sie, wie das geschieht. Auf der oberen Spur sind fünf Photonen, deren Zerfall von 4 zu 3 zu 2 zu 1 zu 0 verläuft. Bei den unteren Spuren ist ein Zustand mit vier Photonen zu sehen, der zum Vakuum zerfällt. Im klassischen Sinne würde man das nicht erwarten. Ein klassischer Ingenieur wird sagen, dass elektromagnetische Energie in einer Box exponentiell zerfällt. Aber die Quantenphysik erzählt etwas anderes. Betrachtet man das Geschehen, sieht man eine stufenartig aufgebaute Entwicklung mit Zufallsschritten. Und man stellt den klassischen Zerfall wieder her, indem man eine große Anzahl solcher einzelnen Trajektorien erzeugt. Aus diesen Trajektorien wird ersichtlich, dass der Prozess zufällig verläuft. Wenn man eine riesige Anzahl solcher Spuren statistisch analysiert, findet man heraus, dass der Zustand mit n Photonen in einer Zeitkonstante zerfällt, die proportional zu 1 durch n ist. Das heißt: Je höher der Quantenzustand, desto schneller zerfällt er. Das ist in gewisser Weise ein anderer Ausdruck der Dekohärenz. Wenn man versucht, Quantenteilchen in Zustände mit höherer Energie zu versetzen, werden sie zunehmend fragiler und lassen sie sich zunehmend schwerer halten. Warum ist es wichtig, einzelne Quantenteilchen manipulieren zu können? Natürlich lautet die wichtigste Antwort, die ich - und ich glaube auch Dave - geben würde: die Neugier. Es ist eine Herausforderung. Ist das möglich? Wie verhält sich die Natur auf dieser Ebene? Wir wissen das vom Prinzip her, aber wir müssen das überprüfen. Und wie Dave sagte, war das nicht von Nutzen. Schrödinger glaubte, dass diese Experimente immer unmöglich bleiben würden und lächerliche Folgen hätten. Ich weiß nicht genau, was er damit meinte. Aber für mich und Dave waren die Folgen nicht lächerlich. Dass wir hier sind, zeigt doch, dass daraus möglicherweise etwas Sinnvolles entstehen kann. Ein weiterer tieferer Grund dafür ist der, dass kleine Systeme schneller reagieren und mehr Informationen je Einheitsvolumen zusammenpacken. Das führt zu leistungsfähigeren Bausteinen. Wenn man das will, muss man sich mit kleinen Systemen und letztendlich mit Quantensystemen beschäftigen. Und darüber hinaus macht die Quantenphysik ein breites Spektrum an neuen Zuständen für mögliche Anwendungen zugänglich. Darauf ist Dave ja auch eingegangen. Ich möchte Ihnen ein Beispiel für Schrödingers Katze geben. Ich kann Ihnen hier nicht erklären, wie wir das Experiment durchführen. Aber das hier ist eine Art Karte, eine Art von Röntgenaufnahme eines Feldes in einer Kavität, das sich in einer Überlagerung von zwei Zuständen befindet. Es gibt zwei Erhebungen, zwei Gaußsche Peak-Werte, die sozusagen die lebendige und die tote Katze repräsentieren. Es gibt zwei Felder, die im technischen Sinne entgegengesetzte Phasen repräsentieren. Und dazwischen sind Interferenzmuster mit positiven und negativen Werten zu sehen. Das zeigt, dass dies eine Quantenüberlagerung ist. Und man kann untersuchen, wie diese Quantenüberlagerung im Laufe der Zeit aufgrund der Dekohärenz verschwindet. Die Theorie der Dekohärenz wurde unter anderem von Wojciech Zurek entwickelt. Er veröffentlichte vor 20 Jahren einen bahnbrechenden Artikel in Physics Today, den Sie unbedingt lesen sollten. Das hat wirklich die Zuwendung zu diesem Gebiet ausgelöst. Denn wir realisierten, dass wir die Experimente durchführen können. Und tatsächlich können wir in der Tat immer öfter Bilder dieser Schrödinger-Katze aufnehmen. Und Sie werden sehen, dass das Interferenzmuster nach rund 20 Millisekunden verschwunden ist. Hier ist also in Echtzeit zu sehen, wie sich ein Quantensystem zu einer statistischen Mischung entwickelt, die keine Interferenzen mehr aufweist. Ich halte das Video nach ungefähr 20 Millisekunden an. Sie sehen, dass das Interferenzmuster verschwunden ist. Es gibt noch ein gewisses Rauschen. Aber wenn man eine riesige Anzahl solcher Experimente analysiert, kann man tatsächlich Dekohärenz beobachten. Und man erkennt ein wichtiges Merkmal: Die Geschwindigkeit, mit der diese Dekohärenz eintritt, nimmt mit der Katzengröße zu. Wenn man statt einer Handvoll Photonen Milliarden Photonen wie in einem Laserstrahl hat, wäre augenblicklich Dekohärenz gegeben. Wenn man eine Katze nimmt, um ein anderes Beispiel zu erläutern, die aus 10^27 Moleküle besteht, und das abnehmend anwendet landet man bei einer Femtosekunde. Und ich bezweifle, dass Sie eine Katze in weniger als einer Femtosekunde töten können. Tatsächlich heißt das, dass die Überlagerung von toter und lebender Katze keine Bedeutung hat. Und das ist möglicherweise auch das, was Schrödinger als "lächerlich" bezeichnet hat - es ist lächerlich für sehr große Systeme. Das könnte zu leistungsstärkeren Computern und Simulatoren führen, zur Quantenlogik - wie Dave beschrieben hat. Einige Menschen denken über eine geheimere Kommunikation nach. Sie wird als Quantenkryptographie bezeichnet. Andere denken über präzisere Messungen nach, beispielsweise mit Atomuhren. Das wird als Quantenmetrologie bezeichnet. Und dann gibt es selbstverständlich noch das große Thema Quantum Computing. Das ist meine Version, ein Computer, bei dem sich mehrere Zustände überlagern. Und die zugrunde liegende Idee ist, dass es möglich sein wird, damit große Zahlen zu berücksichtigen. Quantencomputer würden, wie Dave sagte, die Zustandsüberlagerung und -verschränkung in Gruppen aus echten oder künstlichen Atomen nutzen, um effizienter rechnen zu können. Es ist mir wichtig zu betonen, dass die Dekohärenz eine Riesenherausforderung ist. Wir haben einige Möglichkeiten, die Dekohärenz zu korrigieren. In unserem Labor arbeiten wir an Quantenfeedbackmethoden, die die Effekte von Dekohärenzprozessen korrigieren. Und es gibt weitere Korrekturexperimente. Derzeit werden Machbarkeitsstudien mit kleinen Atom-Ensembles durchgeführt. Wie Dave bereits sagte, sind wir noch weit von der Nutzung für Computer entfernt. Die Quantensimulation liegt eher auf der Hand. Ich zeige Ihnen hier einen Array von Atomen, die in einem sogenannten optischen Gitter gehalten werden. Mit Laserstrahlen sorgt man für eine Interferenz. Optische Kräfte halten die Atome an einer genau definierten Stelle fest. So erreicht man etwas, das wie ein Kristall aussieht, aber in einer anderen Größenordnung. Und man kann in der Interaktion dieser Kristalle zwischen den Atomen alles, beispielsweise die Größe usw., steuern. Dies wird Simulation statt Berechnung genannt. Und man kann Situationen simulieren, die in Festkörperstrukturen ablaufen. Beispielsweise könnte man die Hoch-Tc-Supraleitung durch eine derartige Simulation aufklären. Und wenn Sie mich jetzt nach der Zukunft fragen, kann ich... Dieser Satz wurde bereits vielen Menschen zugeschrieben, Baseballspielern in den USA ebenso wie Niels Bohr: Aber eines ist sicher und ich hoffe, davon konnte ich Sie überzeugen: Ohne Grundlagenforschung können keine neuen Technologien erfunden werden. Und die Vergangenheit lehrt uns, dass aus rein wissenschaftlich motivierter Blue Sky-Forschung völlig unerwartete, wunderbare Anwendungen hervorgehen können. Zwei Beispiele dazu. Erstens der Laser: Als der Laser erfunden wurde, wusste niemand, wofür der nützlich sein könnte. Rund zehn Jahre später wurden dann hochtransparente Lichtleiter entdeckt. Und es standen leistungsstarke Computer zur Verfügung. Und durch Verschmelzung dieser drei voneinander unabhängigen, fortschrittlichen Konzepte kam es zum Internet - und die Menschen, die die Lasertechnik erfunden haben, ahnten noch nichts vom Internet. Und jetzt denken wir über das Quanten-Internet nach, das die Quantenmerkmale verwendet, die ich beschrieben habe. Aber ich weiß nicht, ob sich das tatsächlich umsetzen lässt. Ein weiteres Beispiel, das möglicherweise etwas näher an der Chemie liegt, ist die Kernspintomographie. Begonnen hat es mit der Magnetresonanz, die den Tanz der Drehungen magnetischer Momente in Atomen und Molekülen untersucht und so wertvoll für die Biologie und die Chemie ist. Aber heute wird diese Technik in der Medizin eingesetzt. Dafür wird der Körper in ein starkes Magnetfeld geschoben - einer weiteren Quantentechnologie - und man braucht schnelle Computer, um aus den Signalen Bilder zu rekonstruieren. Und daraus entsteht dann die Magnetresonanztomographie, die uns heute Informationen darüber liefert, wie das Gehirn funktioniert. Hätte man Bloch oder Purcell aber 1946 gesagt, dass man die MRT-Technik entwickeln möchte, hätten sie nicht verstanden, worüber man redet, denn erst die Konvergenz dieser Technologien führt zum Ergebnis. Ich möchte abschließend sagen, dass neuartige Technologien oft ein unerwartetes Ergebnis von rein wissenschaftlich motivierter Blue Sky-Forschung sind. Und die braucht zwei unbezahlbare Zutaten: Zeit und Vertrauen. Man braucht Zeit, um so etwas über einen langen Zeitraum zu entwickeln - Dave erzählte, dass er vor 35 Jahren begonnen hat. Das Gleiche gilt für meine Gruppe. Und wir haben in einem Umfeld gearbeitet, in dem die Entscheider uns über lange Zeit vertraut und unterstützt haben, ohne uns zu fragen, wie unsere Meilensteine für das nächste Jahr aussehen oder was wir in sechs Monaten oder in einem Jahr erreichen. Forschung ist also wirklich erfolgreich, wenn diese beiden Zutaten - und natürlich braucht man auch noch Geld - vorhanden sind. Aber ich habe von Time (Zeit) und Trust (Vertrauen) gesprochen, weil beide mit T beginnen und Money (Geld) nicht. Und ich möchte ergänzen, dass diese Faktoren von den Gesetzen des globalen Marktes nicht wirklich unterstützt werden. Dort liegt die Betonung auf Geschwindigkeit und schnell erzielten, vermarktbaren Ergebnissen. Ich möchte enden, indem ich Ihnen über einen Ort erzähle, an dem eine durch reine Neugier getriebene Forschung in den vergangenen 50 Jahren gediehen ist. Es ist mein Labor, das Kastler Brossel Labor an der École Normale Supérieure, das von Kastler und Brossel gegründet wurde, den Erfindern des optischen Pumpprozesses, der ersten Methode zur Manipulation von Atomen mit Licht. Dieses Foto ist vor 47 Jahren entstanden, als ich Doktorand in diesem Labor war. Sie sehen hier drei Nobelpreisträger auf einem Bild: Claude Cohen-Tannoudji, meinen Physikmentor, der 1997 den Nobelpreis erhielt. Kastler, der den optischen Pumpprozess erfand, erhielt den Nobelpreis 1966. Und Sie sehen mich als Studenten, und ich war höchst verblüfft, an ein Labor geraten zu sein, an das ein Nobelpreis vergegeben wurde. Rechts sehen Sie Jean Brossel - ich habe nie verstanden, warum Brossel den Nobelpreis nicht gemeinsam mit Alfred Kastler erhalten hat. Das war vor 47 Jahren. Ich werde also in drei Jahren die Möglichkeit haben, in den Nobelpreis-Archiven die Antwort auf diese interessante Frage zu finden. Und ich möchte Ihnen auch noch mein heutiges Team zeigen. Dieses Bild wurde im gleichen Raum aufgenommen wie das vorherige, allerdings im letzten Herbst. Ich möchte sagen, dass ohne dieses Team nichts möglich gewesen wäre - insbesondere nicht ohne Jean-Michel Raimond und Michel Brune, die als Studenten zu mir kamen und über all die Jahre geblieben sind. Und es gibt viele weitere junge und engagierte Menschen. Aber es bleibt jetzt keine Zeit mehr, darauf einzugehen. Vielen Dank für Ihre Aufmerksamkeit.

Serge Haroche on the quantum to classical boundary
(00:20:52 - 00:26:36)

 

Additional Mediatheque Lectures on Quantum Mechanics:


 


Cite


Specify width: px

Share

Share