Carbon

by David Siegel

Carbon – An Essential Ingredient of Life
Every form of life that we know of requires carbon. Our body stores its genome using DNA, a carbon based biopolymer. Our proteins, molecular machines used to gather energy from nutrients, to fight infections or create new biological structures are carbon based. And, last but not least, the food we consume is full of carbon. A kilogram of sugar contains 400 grams carbon, a kilogram of olive oil about 750 grams. We require this carbon to build DNA, proteins and other biomolecules, but it is also our primary source of energy. Our body converts energy-rich, carbon-based molecules like sugars or fatty acids to energy-poor, stable molecules, most of all carbon dioxide. This is done by a strictly controlled biochemical form of combustion, which requires oxygen to proceed.

One of the first experiments that pointed towards this insight was done in 1772 by Joseph Priestley. Priestley put a living mouse and a burning candle under something that resembled a cheese dome. He waited a while – and observed not only that the candle vanished at a certain point, but also that the mouse died in that very instant. The combustion of the carbon in the candle wax consumed all the oxygen in the cheese dome… thus halting the biochemical carbon combustion that the mouse’s body – like any mammalian body – required for survival. However, Priestley could not know this yet and how the mammalian biochemical carbon combustion worked in detail remained unknown until the first half of the 20th century. Only then began a cascade of outstanding scientific achievements, which led to the level of knowledge we have today. Many of its contributors were honoured with a Nobel Prize in Physiology/Medicine or Chemistry.

From Glucose to Carbon Dioxide - Glycolysis and the Citric Acid Cycle
In 1922, Archibald Hill and Otto Meyerhof shared a Nobel Prize in Physiology or Medicine for their discoveries relating to the workings of muscles. Amongst other things, Hill and Meyerhof could show that muscles required oxygen to produce heat. Continuing his work with muscle cells, Meyerhof later played a key role in the elucidation of one of the biochemical mechanisms explaining this observation: glycolysis. Almost all organisms use the glycolysis pathway for the biochemical combustion of carbon originating from sugars. In a multi-step reaction involving a range of enzymes, a glucose molecule (containing six carbon atoms) is “burnt” to yield two pyruvate molecules (containing three carbon atoms each) and energy in the form of ATP. The produced pyruvate is subsequently used in a variety of different metabolic pathways, for instance in the synthesis of fatty acids. Besides Meyerhof, the Nobel Laureates Hans von Euler-Chelpin (Nobel Prize in Chemistry 1929), Otto Warburg (Nobel Prize in Physiology or Medicine 1931), as well as the married couple Carl and Gerty Cori (Nobel Prize in Physiology or Medicine 1947) contributed to the elucidation of glycolysis. Euler-Chelpin and the Coris received their Nobel Prizes for work relating to glycolysis in particular.

Still, although the carbon atoms of glucose are oxidized during glycolysis, the oxidation is not complete. Pyruvate can be broken down further and more energy can be obtained before the biochemical machinery eventually arrives at carbon dioxide as a final waste product. The latter is the most stable form of carbon in the presence of oxygen. It is thus impossible to obtain further energy from it.

The major biochemical pathway achieving the complete degradation of pyruvate to carbon dioxide is the citric acid or Krebs-cycle. Its namesake, Hans Krebs, received a 1953 Nobel Prize in Physiology or Medicine for his work. It was based on some previous observations of the Hungarian biochemist and 1937 Nobel Laureate in Physiology or Medicine Albert Szent-Györgyi. Szent-Györgyi`s group had confirmed individual reactions of the Krebs cycle working with a model system based on minced pigeon breast muscles.

In the course of the Krebs cycle, energy is gained via the biochemical combustion of the two carbon atoms of an acetate molecule. Acetate is biochemically derived from pyruvate (the end product of glycolysis) by decarboxylation, i.e. the release of one molecule carbon dioxide. It is shuttled into the cycle attached to a coenzyme A molecule. Coenzyme A activates acetate, allowing the subsequent reactions to proceed at a much higher rate. This is of utmost importance, as it ensures an energy supply, which is sufficiently fast to sustain rapid muscular movement, for example. The discoverer of coenzyme A, Fritz Lipmann, shared the 1953 Nobel Prize in Physiology or Medicine with Krebs.

Overall, the Krebs cycle “burns” acetate to two molecules of carbon dioxide - thus completing the biochemical combustion process. As much as two thirds of the carbon combustion in most cells is done via this pathway. The Krebs cycle can hence be considered the major route of biochemical carbon combustion. It further delivers carbon building blocks for many important biomolecules, such as amino acids, which are used to construct proteins, for instance. This implies that not all the carbon entering the cycle is emitted as carbon dioxide, but that organisms extract some of it for constructive biochemical reactions. Carbon indeed has an intriguing twofold function for life on earth: it is both fuel and building stock.

Sir Hans Krebs was a regular attendant of the Lindau Nobel Laureate Meetings. On July the 1st of 1981, only five months before his death, Krebs gave a review on “the evolution of the citric acid cycle and other metabolic pathways” in Lindau. In his talk, he followed up on the question, why the Krebs cycle is a cycle and not a linear pathway. Here is what he had to say:

Sir Hans Krebs (1981) - The Evolution of the Citric Acid Cycle and other Metabolic Pathways

Ladies and gentlemen, ever since it was recognised in the 1930s that some metabolic pathways are cyclic in their arrangement, for example the citric acid cycle, I have often asked myself why metabolic cycles have arisen over the course of evolution. I had not been able to answer this question until recently. As you know, acetate - acetic acid - is oxidised in the citric acid cycle into carbonic acid and water. And I discussed the question of why acetate is not oxidised directly in a paper in 1947. which then changes to glyoxalate , then via formaldehyde to carbonic acid bicarbonate, into carbonic acid. That looks much simpler at first glance. However, at the time in 1947, as well as afterwards up to about a year ago, I was unable to provide an answer to this question of why the citric acid cycle is favoured. I discussed this problem in March of the previous year with my colleague Jack Baldwin, professor of organic chemistry at Oxford, and in the course of the conversation, he developed a grand idea that might lead to answering this question. It was based on the theory of evolution through natural selection. This principle applies to competition between viable members of a species. And in this competition, viable members that are more capable and efficient multiply at the expense of viable members that are less so. And after a time, only the more capable and efficient viable members of the species survive. And this principle leads to the question of whether combustion of acetic acid via the citric acid cycle holds an advantage over other metabolic pathways. The biological purpose of combustion in living cells is decidedly not, as you know, the oxidation of the substrate, but instead the utilisation of the energy released for the synthesis ATP. And the most advantageous mechanism of oxidising acetic acid is hence the one that provides the most ATP. The maximum yield of ATP can be calculated. The yield is not directly connected to the oxidation of the acetic acid, but instead, as you have just heard in the lecture from Professor Lipmann, instead with the transport of hydrogen atoms via the chain of cellular respiration reactions to molecular oxygen. The requirement for ATP synthesis is therefore the dehydrogenation of the substrate. And therefore, the question arises of whether the direct oxidation of the acetic acid to glycolate, as is shown in this slide, has just as great a utility in terms of the synthesis of ATP as the citric acid cycle does. And the answer to this question is no, because it is impossible to dehydrogenate acetic acid using the coenzymes of the cellular respiration chain. The first step is not dehydrogenation - that is impossible. Dehydrogenation, that means the transport of hydrogen atoms to the coenzymes of the cellular respiration chain. The methyl group is namely unable to release two hydrogen atoms simultaneously. It is therefore impossible, precisely because no double bonds can be formed to remove two hydrogen atoms from this methyl group. This means then that dehydrogenation, in the sense of transferring hydrogen atoms, or a transfer to the coenzymes, either in this pyridine nucleotide or to a flavoprotein, is not possible. Now, methyl groups can nevertheless be oxidised, just as those of acetic acid in living cells can be, but only via molecular oxygen, in contrast to dehydrogenation. The enzyme (may I have the next slide please?) that achieves this reaction is a hydroxylase or monooxygenase - also called a multi-function oxydase. This enzyme is not located in the mitochondria where the energy transformation takes place, but instead in the microsomal portion. This enzyme, the monooxygenase, catalyses the insertion of an oxygen atom of molecular oxygen into the organic substrate. From this two-atom oxygen molecule, one goes here between the carbon and the hydrogen, as shown, CH2OH. Meanwhile, the second oxygen atom, the molecular oxygen-H2 atom, an acceptor must be present for the second oxygen atom, and this acceptor is NADPH2 in most cases, so that NADP and water result. And this is the general expression of the oxygenase reaction, where the RCH3 is a methyl group that cannot be dehydrogenated because of the properties of R, which is a radical. R can therefore be not just acetic acid, but instead methane (CH4) for example, which can be oxidised by microorganisms. It can also be a side chain of benzene rings, like toluene or xylene, and there is a whole series of methyl groups that can participate in similar reactions. Now, the oxidation of acetic acid to glycolic acid is not only therefore worthless from the standpoint of ATP synthesis, since it does not provide any ATP, but moreover, because the consumption of one molecule of NADPH2 for the reaction of two oxygen atoms, of the oxygen molecule, prevents the synthesis of 3 additional ATP molecules. As a result, the fact that this NADPH cannot be transformed into NADH and enters the cellular respiration chain, eliminates the opportunity of synthesising 3 more ATPs. The quantitative details of the squandered energy are now as follows: when acetic acid is oxidised via the citric acid cycle, the final yield is ten pyrophosphate bonds of ATP. Twelve are formed in connection with the reactions in the cycle, but two pyrophosphate bonds are necessary for the formation of acetyl coenzyme A from acetic acid. Now if the acetate were to be oxidised directly via glycolic acid, then only 5 or 6 ATP molecules fewer would be formed, because the oxygenase reaction cannot be connected with synthesis of an ATP and because one molecule of NADPH is consumed as a co-substrate of this oxygenase. If acetate were catabolised by the direct pathway, the ATP yield would therefore only be half as much in comparison to the ATP yield via the citric acid cycle. And the relationships are similar if carbohydrates and fatty acids are the sources of the acetyl coenzyme A rather than free acetate as the source, which generally is present in the diet only in small quantities. What I have therefore discussed so far explains not only why direct oxidation of acetate cannot compete with the citric acid cycle in relation to utility, it also provides an explanation of why the alternative to the "direct" catabolic pathway must be a cycle. to a second substance having a lower molecular weight, that is acetate to oxaloacetate, then this second lower-molecular-weight substrate must be regenerated if the primary metabolic process has taken place, which in the case of citric acid is the citric acid cycle, the combustion of the acetic acid. This is necessary, this regeneration of the second substance, the oxaloacetate, because precisely this second substance, the oxaloacetate, must be available again. It has to come from somewhere. Where is it supposed to come from? Cyclical regeneration is the only conceivable physiologically efficient mechanism. If this were not the case, then it would lead namely to the absurd consequence of a by-product from the acetic acid oxidation initially forming in stoichiometric proportions, which would be completely ridiculous. For example, an adult taking in 2,000 kilocalories per day would produce 800 grams of oxalic acid and in addition, would also require 800 grams of oxalic acid. That is all ridiculous, of course, and therefore a cycle is the sole rational and economical mechanism for organising certain metabolic functions. This permits us therefore to predict that effective utilisation of the acetate as an energy source requires bonding of the acetate to a further substance that is regenerated by a cycle. However, the question still remains now, why exactly the citric acid cycle and not other conceivable cycles arose over the course of evolution, and why acetate takes the form of acetyl coenzyme A in reactions? In this regard, it can be pointed out that the components of the cycle, including those of acetyl coenzyme A and the synthesis of the citrate from acetyl coenzyme A and oxaloacetate, and in addition, the transformation of citrate into oxoglutaric acid, already existed in life forms long before molecular oxygen was present in the atmosphere in significant quantities, therefore when life was still anaerobic. These are substances and metabolic pathways that were generally assume to already be present in the atmosphere. The atmosphere was, after all, originally anaerobic and oxygen was only introduced into the atmosphere through the assimilation of carbon dioxide by photosynthesis, and these reactions, about which I need not go into in detail, were already present because they led namely to the synthesis of important substances. This should not be glutaric acid, but rather glutamate, that is, glutamic acid is formed in this manner and in addition, the porphyrins, which include chlorophyll and cytochrome, are synthesised from oxoglutaric acid via succinyl coenzyme A. That means, then, that living organisms have drawn on reaction sequences during the evolution of the citric acid cycle which already existed in connection with other biochemical functions, such as the synthesis of amino acids and that of chlorophyll. Multiple use of available material is now a general principle of evolution and I would like to illustrate this through several examples. (The next slide, please.) Amino acids, as you know, are components of all proteins, but they have many other functions in addition. I would like to go into this very briefly: glycol, or glycine, is a precursor of creatine, of bile or choleric acid, and the porphyrins, glutathione, hippuric acid; serine becomes substances that occur in phospholipids; cystine is a precursor of taurine; arginine is a precursor of creatine. (The next slide, please). Some further examples: aspartic acid is a precursor of nucleic acid, alanine functions as a nitrogen transporter between tissues, etc. Tyrosine is the precursor of hormones, adrenaline or thyroxine, etc. I could also mention, for example, that the ATP not only plays a large role in energy transformation, but also functions as a precursor, a component of pyridine nucleotides and nucleic acids. And underlying this is the general principle of natural selection, that the circumstances in the environment are optimally utilised. Now the principle that a cyclical metabolic pathway is more efficient than conceivable linear pathways applies to all of the other cycles that I have analysed up to now, for example the ornithine cycle in urea synthesis, the Calvin cycle in photosynthesis, and the pentose phosphate pathway that produces the reduced coenzyme NADPH2. However, due to lack of time, I am unable to go into this further. The principle is always that the substance is unable to react directly, for example ammonia in urea synthesis. In a test tube under abnormal conditions, if you work in an alkaline environment and at high temperatures, then you can likewise get urea from ammonium carbonate. But under the conditions for which life is possible, neutral pH and normal temperature, here it is necessary for the molecule to take up another molecule. Just as acetate takes up oxalic acid, carbonic acid and ammonia take up ornithine. However, what I still would like to discuss, namely the details of other cycles, I cannot go into. But what I would indeed like to discuss still is the general application of the question To what extent are they superior to other theoretically conceivable pathways?" Such questions can be approached from the standpoint of modern knowledge of organic chemical reaction mechanisms, and based on this knowledge, we can predict which reactions are possible at all, and which ones are difficult or impossible. For example, and this concerns linear reactions now, why are fatty acids catabolised by Beta-Oxidation? Why not Alpha-Oxidation or Gamma-Oxidation or Omega-Oxidation? The answer is, again I cannot go into detail due to lack of time, that would be a long story: Beta-Oxidation produces more ATP, much more ATP. Alpha-Oxidation and Omega-Oxidation can occur under particular circumstances. But the oxidizing agent is not a pyridine nucleotide or a flavoprotein, but instead molecular oxygen, and the enzyme is a monooxygenase, because dehydrogenation by a flavoprotein or pyridine nucleotide is impossible for Alpha-Oxidation and Beta-Oxidation. We have to accept this, as I said, I cannot go into detail. This also explains why fatty acids do not react when they are free, but instead as thioesters of coenzyme A and also why fatty acids must be bound to a sulphur atom and not just any element. George Wald has already made this clear some time ago. This has to do with particular atomic properties of sulphur. Phosphate would be another possibility. That is also used biologically on occasion. There is also acetyl phosphate, as Fritz Lipmann has discovered, but that is only a precursor in the energy turnover of acetyl coenzyme A. And it is also clear, of course - chemistry teaches us this - just why free fatty acids cannot react. I now believe that applying modern knowledge of reaction mechanisms to the problems of metabolic pathways will be a fruitful area for future research and that developing this area will lead to a deeper understanding of the organisation of substances in life forms. I find it very satisfying that from now on we will be able to answer the question raised of why metabolic cycles have arisen over the course of evolution, a question that has been directed toward me quite frequently by students. In retrospect, the answer appears extraordinarily simple: based on evolution through natural selection. There are definitely circumstances in which a cyclical mechanism can be much more efficient than a non-cyclical mechanism. It involves the fittest in the fight for existence, survival of the fittest. As you may know, this expression 'survival of the fittest' has been criticised as a tautology. It has been said that it means nothing more than the survival of the survivor. However, this kind of criticism fails to address the arguments in relation to biochemical evolution, because, namely, the fittest can be expressed quantitatively in chemical form by the yield of ATP from combustion of organic substances, as I have discussed in the case of the citric acid cycle for example. And now, another general observation in closing: The analysis of reactions that produce energy, and one can even say the deeper study of living organisms, makes it clear that life has attained optimal organisational efficiency in the course of several billion years. This insight is very important for physicians' daily practice. Highly effective modern medicinal products, almost all of these medicines have side effects, quite disruptive and sometimes even fatal side effects, because they disturb the optimum efficiency of the living cell. The result is iatrogenic illnesses, the illnesses that arise through medical intervention. I would like to quote the extent of these iatrogenic illnesses: recently, American physicians in Boston determined that 36% of 815 patients had iatrogenic diseases, at the time they were examined when admitted to hospital; 9% of the cases were serious, and in 2% of the cases, the iatrogenic illness was probably a contributing factor to a fatal outcome. These are shocking figures. I believe that the best doctor is the one who is familiar with the fundamental principles of general biology and has an appreciation of the delicate and closely adapted, optimally matched, optimised organisation of cells. This physician utilises medicines very, very cautiously. These cases of poisoning by medicinal products can in part be traced back to the ill pressuring the doctor to prescribe medicine, since many patients incorrectly consider the doctor who most often prescribes to be the best doctor. Finally, I would like to mention that overmedication has been a problem for centuries - a problem that is very difficult to eliminate. Indeed even in Boston, where American doctors recently - in March 1981 - published these statistical data, right where we fight especially effectively - one would think - against overmedication, but success has been very limited so far. I would like to provide two quotes that show this to be an age-old problem. German physicist and philosopher Georg Christoph Lichtenberg, who lived from 1742 to 1799, once wrote, And a contemporary of his, Castello, wrote a pair of verses portraying a conversation between doctor and patient. The patient says, "Oh, dear doctor, how do you manage to remain so hearty and happy at such an advanced age?" And the doctor replies: "Simple, my dear child, I prescribe medicines for others, but I certainly never take them myself". And I hope doctors and physiologists acquire wisdom by studying the wonderfully optimised adaptation of living organisms to the environment and by studying general biology in the broadest sense. This is really the deeper reason, because we expect physicians to first thoroughly study the fundamental subjects, applied to the special case of Homo sapiens, before they get near a patient. I thank you.

Meine Damen und Herren, seitdem es in den Dreißigerjahren erkannt wurde, dass manche Stoffwechselwege zyklisch angeordnet sind, zum Beispiel der Zitronensäurezyklus, habe ich mich oft gefragt, warum Stoffwechselzyklen im Laufe der Evolution des Lebens entstanden sind. Bis vor kurzem konnte ich keine Antwort auf diese Frage geben. Wie Sie wissen, wird im Zitronensäurezyklus Acetat, Essigsäure, zur Kohlensäure und Wasser oxidiert. Und ich habe im Jahre 1947 in einer Arbeit mal die Frage erörtert, warum Acetat nicht direkt oxidiert wird. und das weiter zu Glyoxalat geht und dann über Formaldehyd zu Kohlensäure-Bikarbonat, zu Kohlensäure geht. Das sieht auf den ersten Blick viel einfacher aus. Aber ich konnte damals 1947 und auch später bis vor etwa einem Jahr keine Antwort darauf geben, warum der Zitronensäurezyklus bevorzugt ist. Im März vorigen Jahres erörterte ich dieses Problem mit meinem Oxforder Kollegen Jack Baldwin, Professor der organischen Chemie, und im Laufe der Unterhaltung entwickelte er eine großartige Idee, die zu der Beantwortung des Problems führte und zwar auf Grundlage der Theorie der Evolution durch natürliche Auslese. Dieses Prinzip betrifft den Wettbewerb zwischen Replikatoren. Und in diesem Wettbewerb vermehren sich die funktionstüchtigeren Replikatoren auf Kosten der weniger tüchtigen Replikatoren. Und nach einiger Zeit überleben dann nur die tüchtigeren Replikatoren. Und dieses Prinzip führt zu der Frage, ob die Verbrennung der Essigsäure durch den Zitronensäurezyklus einen Vorteil gegenüber anderen Stoffwechselwegen besitzt. Der biologische Zweck der Verbrennung in lebenden Zellen ist nun nicht, wie Sie wissen, die Oxidation der Substrate, sondern die Ausnützung der frei werdenden Energie für die Synthese des ATP. Und der vorteilhafteste Mechanismus der Essigsäureoxidation ist daher derjenige, der am meisten ATP liefert. Die maximale Ausbeute von ATP lässt sich berechnen. Sie ist nicht direkt mit der Oxidation der Essigsäure verknüpft, sondern wie Sie eben in dem Vortrag von Herrn Professor Lipmann gehört haben, sondern mit dem Transport von Wasserstoffatomen über die Atmungskette zu molekularem Sauerstoff. Voraussetzung für die ATP-Synthese ist daher die Dehydrogenierung der Substrate. Und so ergibt sich die Frage, ob die direkte Oxidation der Essigsäure über Glykolat, wie Sie auf diesem Diapositiv angegeben ist, in Bezug auf die Synthese von ATP einen ebenso großen Nutzeffekt hat wie der Zitronensäurezyklus. Und die Antwort auf diese Frage ist Nein, weil es unmöglich ist, Essigsäure durch die Coenzyme der Atmungskette zu dehydrogenieren. Die erste Stufe ist keine Dehydrogenierung – das ist unmöglich. Dehydrogenierung, das heißt Übertragung von Wasserstoffatomen auf die Coenzyme der Atmungskette. Die Methylgruppe kann nämlich nicht zwei Wasserstoffatome gleichzeitig abgeben. Es ist also nicht möglich, weil eben keine Doppelbindung entstehen kann, zwei Wasserstoffatome von dieser Methylgruppe zu entfernen, das bedeutet also, dass eine Dehydrogenierung im Sinne einer Übertragung von Wasserstoffatomen oder auf die Coenzyme entweder in diesem Pyridinnukleotid oder ein Flavoprotein nicht möglich ist. Nun können aber Methylgruppen, wie die der Essigsäuren in lebenden Zellen oxidiert werden, aber nur durch molekularen Sauerstoff im Gegensatz zu der Dehydrierung. Das Enzym (darf ich um das nächste Bild bitten?), das diese Reaktion zustande bringt, ist eine Hydroxylase oder Monooxygenase – auch mischfunktionelle Oxydase genannt. Das ist ein Enzym, das nicht in den Mitochondrien lokalisiert wird, wo die Energieumwandlungen stattfinden, sondern in der mikrosomalen Fraktion. Dieses Enzym, die Monooxygenase, katalysiert die Einfügung eines Sauerstoffatoms des molekularen Sauerstoffs in das organische Substrat. Von diesem Zwei-Atomen-Sauerstoffmolekül geht eines hier zwischen den Kohlenstoff und den Wasserstoff, wie es hier angegeben ist, CH2OH, und während das zweite Sauerstoffatom, das molekulare Sauerstoff H2-Atom, für das zweite Sauerstoffatom muss ein Akzeptor vorhanden sein, und dieser Akzeptor ist in den meisten Fällen in NADPH2, sodass dann also NADP und Wasser entstehen. Und dies ist die allgemeine Gleichung der Oxygenase-Reaktion, wo das RCH3 eine Methylgruppe ist, die wegen der Eigenschaften von R, dem radikalen R, nicht dehydrogeniert werden kann. R kann also nicht nur Essigsäure sein, sondern zum Beispiel Methan, das von Mikroorganismen oxidiert werden kann, CH4, es kann auch eine Seitenkette des Benzolrings sein, wie Toluol oder Xylol. Und es gibt eine ganze Reihe von Methylgruppen, die an ähnlichen Reaktionen teilnehmen. Nun ist die Oxidation der Essigsäure zu Glykolsäure nicht nur deshalb vom Standpunkt der ATP-Synthese wertlos, weil sie kein ATP liefert, sondern außerdem noch darum, weil der Verbrauch von einem Molekül NADPH2 für die Reaktion des zweien Sauerstoffatoms, des Sauerstoffmoleküls, die Synthese von 3 weiteren ATP-Molekülen verhindert. Dadurch, dass dieses NADPH nicht in NADH umgewandelt werden kann und in die Atmungskette hineingeht, geht die Möglichkeit für 3 weitere ATP-Synthesen verloren. Die quantitativen Einzelheiten der Energievergeudung sind nun folgendermaßen: Wenn Essigsäure durch den Zitronensäurezyklus oxidiert wird, dann ist der Nettogewinn 10 Pyrophosphat-Bindungen des ATP, 12 entstehen an sich im Zusammenhang mit den Reaktionen des Zyklus, aber 2 Pyrophosphat-Bindungen sind für die Bildung von Acetyl-Coenzym A aus Essigsäure nötig. Wenn nun Acetat direkt über Glykolat oxidiert werden würde, dann würden nur 5 oder 6 ATP-Moleküle weniger entstehen, weil eben die Oxygenasereaktion nicht mit einer ATP-Synthese verknüpft sein kann und weil ein Molekül NADPH als Cosubstrat dieser Oxygenase verbraucht wird. Die Ausbeute an ATP wäre daher nur die Hälfte, wenn Acetat auf dem direkten Weg abgebaut würde im Vergleich mit der ATP-Ausbeute durch den Zitronensäurezyklus. Und ähnlich liegen die Verhältnisse, wenn nicht freies Acetat, was an sich im Allgemeinen in der Nahrung nur in geringen Mengen vorkommt, wenn Kohlehydrat und Fettsäuren die Quellen des Acetyl-Coenzyms A sind. Was ich also bisher erörtert habe, erklärt nicht nur, warum eine direkte Oxidation des Acetats im Bezug auf den Nutzeffekt nicht mit dem Zitronensäurezyklus konkurrieren kann, es ergibt sich auch eine Erklärung dafür, warum die Alternative des „direkten“ Abbauwegs ein Zyklus sein muss. Wenn nämlich eine Reaktionsfolge direkter Art einen geringeren Nutzeffekt hat als eine Reaktionsfolge, die eine primäre Bindung des Substrats an eine zweite niedrigmolekulare Substanz benötigt, also Acetat an Oxalacetat. Dann muss diese zweite niedrigmolekulare Substanz regeneriert werden. Wenn der primäre Stoffwechselprozess, das heißt also im Fall der Zitronensäure, der Zitronensäurezyklus, die Verbrennung zur Essigsäure stattgefunden hat. Das ist notwendig, diese Regenerierung der zweiten Substanz des Oxalacetats, weil eben diese zweite Substanz das Oxalacetat wieder zur Verfügung stehen muss. Sie muss irgendwoher kommen, woher sollte sie denn nun kommen? Nur eine zyklische Regeneration ist denkbar als ein physiologisch nützlicher Mechanismus. Wäre das nun nicht der Fall, dann würde das nämlich zu der unsinnigen Konsequenz führen, dass erstens ein Nebenprodukt der Essigsäureoxidation in stöchiometrischen Proportionen entstehen würde, was ganz unsinnig wäre. Zum Beispiel würde ein erwachsener Mensch mit einer Kalorienaufnahme von 2.000 Kilokalorien pro Tag Das ist natürlich alles unsinnig. Und daher ist ein Zyklus der einzig rationelle und ökonomische Mechanismus für die Organisation gewisser Stoffwechselvorgänge. Es lässt sich somit vorhersagen, dass eine wirksame Ausnutzung des Acetats als Energiequelle eine Verbindung des Acetats mit einer weiteren Substanz benötigt, die dann durch einen Zyklus regeneriert wird. Aber nun bleibt noch die Frage offen, warum gerade der Zitronensäurezyklus und nicht andere denkbare Zyklen im Laufe der Evolution entstanden sind, und warum Acetat in der Form auf Acetyl-Coenzym A reagiert? Dazu lässt sich sagen, dass die Komponenten des Zyklus einschließlich des Acetyl-Coenzyms A und der Synthese des Citrats aus Acetyl-Coenzym A und Oxalacetat und ferner die Umwandlung von Citrat zu Oxoglutarat schon in der lebenden Welt existierten, lange bevor molekularer Sauerstoff in der Atmosphäre in signifikanten Mengen vorhanden war, als also das Leben noch anaerob war. Dieses sind Substanzen und Stoffwechselwege, von denen man allgemein annimmt, dass sie schon in der Atmosphäre vorhanden waren, die Atmosphäre war ja ursprünglich anaerob und erst durch Kohlensäureassimilation durch die Photosynthese wurde Sauerstoff dann in die Atmosphäre hineingebracht, dass also schon vorher diese Reaktionen, auf die ich nicht im Einzelnen einzugehen brauche, vorhanden waren, weil sie nämlich zu der Synthese von wichtigen Substanzen führten. Dies sollte nicht Glutarat, sondern Glutamat heißen, also Glutaminsäure wird auf diese Weise gebildet und außerdem von Oxoglutarat über Succinyl-Coenzym A werden die Porphyrine, dazu gehört das Chlorophyll und Cytochrom synthetisiert. Das heißt also, dass in der Evolution des Zitronensäurezyklus lebende Organismen Reaktionsfolgen herangezogen haben, die schon in Verbindung mit anderen biochemischen Funktionen der Synthese von Aminosäuren zum Beispiel und des Chlorophylls existierten. Es ist nun ein allgemeines Prinzip der Evolution, dass vielfacher Gebrauch von gegebenem Material gemacht wird. Und ich möchte das durch einige Beispiele illustrieren. Aminosäuren, wie Sie wissen, sind Bausteine aller Eiweißkörper, aber außerdem haben sie noch viele andere Funktionen. Nur ganz kurz möchte ich darauf eingehen: Glykokoll, Glycin, ist eine Vorstufe des Kreatins, der Gallensäure und der Porphyrine, Glutathion, die Hippursäure, Serin wird zu Substanzen, die in Phosphorlipiden vorkommen, Cystein ist die Vorstufe des Taurins, Arginin ist eine Vorstufe des Kreatins. Noch weitere Beispiele: Asparaginsäure ist eine Vorstufe von Nukleinsäure, Alanin hat die Funktion als Stickstofftransporter zwischen Geweben usw. Tyrosin ist die Vorstufe von Hormonen, das Adrenalin oder Thyroxin usw. Das ist das letzte Diapositiv.) Ich könnte auch noch erwähnen zum Beispiel, dass das ATP nicht nur eine große Rolle in der Energieumwandlung spielt, sondern auch eine Vorstufe, ein Baustein der Pyridinnukleotide und der Nukleinsäuren ist. Und dahinter steckt eben das allgemeine Prinzip durch natürliche Auslese, dass die Gegebenheiten der Umwelt optimal ausgenützt werden. Nun das Prinzip, dass ein zyklischer Stoffwechselweg effizienter ist, als denkbare lineare Wege, gilt nun für alle anderen Zyklen, die ich bisher analysiert habe, zum Beispiel den Ornithinzyklus der Harnstoffsynthese oder dem Calvinzyklus der Photosynthese oder dem Pentosephosphatzyklus, der reduziertes Coenzym NADPH2 liefert. Aber darauf kann ich aus Zeitmangel nicht weiter eingehen. Das Prinzip ist immer, dass die Substanz, zum Beispiel das Ammoniak in der Harnstoffsynthese, nicht direkt reagieren kann in einem Reagenzglas unter den abnormen Bedingungen, wenn man bei alkalischem Milieu und mit hohen Temperaturen arbeitet, dann kann man aus Ammoniumkarbonat auch Harnstoff bekommen. Aber unter den Bedingungen, unter denen Leben möglich ist, das neutrale pH und normale Temperatur, da ist es nötig, dass sich das Molekül an ein anderes Molekül anlagert, so wie das Acetat an Oxalessigsäure, lagert sich die Kohlensäure und das Ammoniak an Ornithin an. Was ich aber noch erörtern möchte, also auf die Einzelheiten anderer Zyklen kann ich nicht eingehen, aber was ich doch noch erörtern möchte, ist die allgemeine Anwendung der Fragestellung Inwiefern sind sie anderen theoretisch denkbaren Wegen überlegen?“ Man kann solche Fragen vom Standpunkt der modernen Kenntnisse der organisch-chemischen Reaktionsmechanismen angehen und aufgrund dieser Kenntnisse kann man voraussagen, welche Reaktionen überhaupt möglich sind und welche Reaktionen sehr schwierig sind oder unmöglich sind. Zum Beispiel, und dies bezieht sich jetzt auf lineare Reaktionen, warum werden Fettsäuren durch Beta-Oxidation abgebaut? Warum nicht Alpha-Oxidation oder Gamma-Oxidation oder Omega-Oxidation? Die Antwort ist, wiederum aus Zeitmangel kann ich darauf nicht eingehen, das wäre eine längere Geschichte: Beta-Oxidation liefert mehr ATP, viel mehr ATP. Alpha-Oxidation und Omega-Oxidation kommen unter besonderen Umständen vor, aber das Oxidationsmittel ist nicht ein Pyridinnukleotid oder ein Flavoprotein, sondern wiederum molekularer Sauerstoff und das Enzym ist eine Monooxygenase. Denn Dehydrogenierung durch ein Flavoprotein oder Pyridinnukleotid ist nicht möglich für Alpha-Oxidation und Beta-Oxidation. Wir müssen das akzeptieren, wie gesagt, darauf kann ich nicht eingehen. Man kann auch erklären, warum Fettsäuren nicht als freie Fettsäuren reagieren, sondern als Thioester des Coenzyms A und auch warum Fettsäuren an ein Schwefelatom und nicht an irgendein beliebiges Element gebunden sein muss, das hat George Wald schon vor längeren Zeit klar gemacht. Das hat besonderen atomaren Eigenschaften des Schwefels zu tun. Phosphat wäre eine andere Möglichkeit, das wird auch biologisch gelegentlich gebraucht, es gibt auch, was Fritz Lipmann entdeckt hat, Acetylphosphat, aber das ist nur eine Vorstufe im Energieumsatz von Acetyl-Coenzym A. Und es ist natürlich auch klar, die Chemie lehrt uns das, warum eben freie Fettsäuren nicht reagieren können. Ich glaube nun, dass die Anwendung der modernen Kenntnisse der Reaktionsmechanismen auf die Probleme der Stoffwechselwege ein fruchtbares Gebiet für zukünftige Forschung sein wird, und dass die Erschließung dieses Gebietes zu einem tieferen Verständnis der Organisation der lebendigen Substanz führen wird. Ich finde es sehr befriedigend, dass man nunmehr die Frage beantworten kann, eine Frage, die besonders häufig von Studenten an mich gerichtet worden ist und aufgeworfen wird, warum Stoffwechselzyklen im Laufe der Evolution entstanden sind? Im Rückblick erscheint die Antwort außerordentlich einfach: auf der Grundlage der Evolution durch natürliche Auswahl. Es gibt eben Umstände, wo ein zyklischer Mechanismus viel effizienter sein kann, als ein nichtzyklischer Mechanismus. Es handelt sich also um das Bestangepasste im Kampf ums Dasein, um ein Überleben des Bestangepassten. Man hat, wie Sie vielleicht wissen, diese Redewendung des Überlebens des Bestangepassten als Tautologie kritisiert. Man hat gesagt, dass es nichts weiter bedeutet, als das Überleben des Überlebenden. Aber diese Art von Kritik betrifft nicht die Argumente in Bezug auf die biochemische Evolution. Weil nämlich das Bestangepasste quantitativ in chemischer Form ausgedrückt werden kann, zum Beispiel, wie ich es erörtert habe, im Falle des Zitronensäurezyklus durch die ATP-Ausbeute bei der Verbrennung organischer Substanzen. Und nun noch eine allgemeine Schlussbemerkung: Die Analyse der Energie lieferenden Reaktionen und überhaupt kann man wohl sagen, dass tiefere Studium lebender Organismen macht es klar, dass das Leben im Laufe von einigen tausendmillionen Jahren eine optimale Effizienz der Organisation erreicht hat. Diese Erkenntnis ist von großer Bedeutung für die tagtägliche ärztliche Praxis. Die hochwirksamen modernen Arzneimittel, fast alle diese Arzneimittel haben Nebenwirkungen, sehr störende, manchmal sogar fatale Nebenwirkungen, weil sie die optimale Effizienz der lebenden Zelle stören. Das Ergebnis sind die iatrogenen Krankheiten, die Krankheiten, die durch ärztliches Zutun entstehen. Über den Umfang dieser iatrogenen Krankheiten möchte ich zitieren, dass kürzlich amerikanische Ärzte in Boston fanden, dass 36% von 815 Patienten iatrogene Krankheiten hatten, also wenn sie bei der Aufnahme ins Krankenhaus untersucht wurden, und in 9% der Fälle waren es ernsthafte und in 2% der Fälle waren sie wahrscheinlich ein beitragender Faktor zum tödlichen Ausgang. Das sind erschütternde Zahlen. Ich glaube, der beste Arzt ist derjenige, der mit den Grundprinzipien der allgemeinen Biologie vertraut ist und Verständnis für die delikate und eng angepasste optimale Organisation der Zellen hat. Er geht mit den Arzneimitteln sehr, sehr vorsichtig um. Zum Teil sind diese Arzneimittelvergiftungen darauf zurückzuführen, dass die Kranken den Arzt drängen, Rezepte zu verschreiben, denn viele Patienten halten fälschlicherweise den Arzt, der am meisten verschreibt, für den besten Arzt. Zum Schluss möchte ich erwähnen, dass diese Übermedikation schon seit Jahrhunderten ein Problem ist. Ein Problem, das sehr schwierig auszurotten ist. Gerade in Boston, wo die amerikanischen Ärzte kürzlich – im März 1981 – diese statistischen Daten veröffentlichten, dort kämpft man besonders wirkungsvoll – würde man denken – gegen diese Übermedikation, aber bisher ist der Erfolg gering. Dass das nun ein uraltes Problem ist, möchte ich durch zwei Zitate belegen. Der deutsche Physiker und Philosoph Georg Christoph Lichtenberg, der von 1742 bis 1799 lebte, schrieb einmal Und ein Zeitgenosse von ihm, Castello, schrieb ein paar Verse, die eine Unterhaltung zwischen Arzt und Patienten darstellen. Der Kranke sagt „Ach lieber Arzt, wie machen Sie es doch, dass Sie in diesem hohen Alter noch so kerngesund und fröhlich sind? Und der Arzt antwortet: Das ist ganz leicht, mein liebes Kind, ich schreibe anderen Arzneien, doch nehm ich sie nie selber ein“. Und zu dieser Weisheit kommt, hoffe ich, der Mediziner und Physiologe durch das Studium der wunderbaren optimalen Angepasstheit lebender Organismen an die Umwelt und durch das Studium der allgemeinen Biologie, im weitesten Sinne, – und dies ist wirklich der tiefere Grund, weil wir von den Medizinern erwarten, dass sie sich zunächst, bevor sie an einen Kranken herankommen, gründlich mit den Grundlagenfächern, studiert am speziellen Fall von Homo sapiens, befassen sollen. Ich danke Ihnen.

Sir Hans Krebs on the Citric Acid Cycle (in German)
(00:01:57 - 00:04:49)

A Global Perspective
As illustrated by Joseph Priestley’s cheese dome experiment, carbon is burnt not only biochemically, for example by glycolysis or the citric acid cycle, but also by direct combustion of carbon-based materials like candle wax, wood, natural gas, oil or the fuel derived thereof. Still, regardless of the method of combustion, the end product, carbon dioxide, is the same. Most of it is emitted to the atmosphere. If our earth was identical to Priestley’s cheese dome, the consequences of these emissions would be fatal. Fortunately, the earth has a biosphere. Certain plants therein (the so-called autotrophs) have the ability to convert atmospheric carbon dioxide into biomass. They may do so via a process called the Calvin cycle, discovered by a team around Melvin Calvin, who received the 1961 Nobel Prize in Chemistry for his achievement.

Autotrophic plants may, yet again, be consumed by other organisms and their carbonaceous biomass burnt to carbon dioxide. What ensues is the so-called carbon cycle, which refers to the constant recycling of carbon throughout atmosphere, biosphere, geosphere and hydrosphere.

While atmospheric carbon dioxide is an integral aspect of the carbon cycle and required for life as we know it, there has been increasing concern with regards to a man-made increase in atmospheric carbon dioxide levels, potentially leading to a greenhouse effect and climate change. This issue is as popular as it is controversial. Also at Lindau. At the 2012 Lindau Meeting, two Laureates used their talks to take completely opposite sides on the subject. We will leave it to the reader to draw the appropriate conclusions.

Mario Molina (2012) - The Science and Policy of Climate Change

Thank you very much. I very much appreciate the opportunity to be able to talk to you today. Let me start by...I’m going to copy my colleague Paul Crutzen and copy as well many of you young people here in the front. Guess what, just by taking off my coat because it's much more pleasant this way. But more seriously, I do want to say a few words admiring my colleague Paul from whom I’ve learned a lot over the years. You know, Paul is not really a chemist. When he started worrying about the atmosphere he did not know much chemistry. But he did get the Nobel Prize in chemistry after all. So he shows how efficiently one can do that. I should also mention in passing that we share the Nobel Prize also with Sherry Rowland, my mentor from whom I also learned a great deal over the years. And as most of you know he passed away just a few months ago. So I will be talking about climate change. There’s been a little bit of overlap with some of the ideas that Paul presented. But what I want to do is start just reviewing briefly the science of climate change. What I’m going to try to add, two pieces of information which are: Is there something we can do about it and how difficult is that? And the second one perhaps I can address this question of the authenticity of climate change science. Again most of you know that it is being questioned, particularly by many politicians and particularly so in the United States. The United States congress dominated by the Republican Party really considers climate change not to be valid. So that’s a very worrisome situation. Also it’s not only politicians. I’ll try to set the stage up to ask a few questions about: Why is this happening and maybe is there a way we can understand it? But I’ll start with this photograph of our planet. As you know we’re not in the Holocene anymore, we are in the Anthropocene as Paul has really very nicely explained. But the problem we have is that our planet has limited natural resources and we are doing all sorts of things to deplete those resources. In principle that can be done sustainably but that’s not what we’re doing. And Paul’s lecture was just a very good description of all that. Now, the atmosphere is one of those limited resources. Not that we’re doing away with the atmosphere but we are somehow rather challenging, stressing the natural capacity of the atmosphere to deal with the unwanted side products of human activities. Now the atmosphere is actually very thin. It’s like a skin of an apple. And that’s why we can understand how mankind’s activities have as a consequence all sorts of problems including global problems. And one way to further understand that is if there are some emissions of certain compounds in the atmosphere that are reasonably long lived, we know in a matter of months they mix very well within each hemisphere. And it takes maybe about a year or two to mix in the entire planet. So species like carbon dioxide, CFCs, others that Paul mentioned it’s clear it doesn’t matter where they are emitted, they affect the entire atmosphere. And those are truly global issues then the ones we’re dealing with. So let me start with climate change again. Just to stress that the atmosphere, you know the pressure decreases with altitude. Most of the mass is confined to the first maybe 10, 15 kilometres above the earth surface. That’s where the troposphere is, where climate is most important. You know Mount Everest is about 8 kilometres high. You cannot breathe anymore at the top of Mount Everest. So the atmosphere gets really thin very fast. And that again, it explains that we can actually affect it with human activities. But first just a few words: How does climate function? What does science tell us about climate itself? And we know that there’s a thermal balance and that’s what we’re in principle affecting. The energy balance of the planet is very simple to understand. For millions of years already the planet receives energy from the sun, mostly in the form of visible radiation, visible light. And it emits practically the same amount of energy. Ok, so it’s this balance, we can call it a dynamic equilibrium or a steady state. And that can be explained using very basic science laws. Some very important discoveries that occurred at the beginning of the 20th century that revolutionised science as we know it. The discovery of quantum mechanics for example by Planck and so on. This affects so many activities from today. TVs, iPhones, aviation and so on depends so much on solid state physics. Chemistry, the modern view of chemistry, as you know, is very much influenced by quantum mechanics. So these are very well established laws. They are not really in question anymore. It’s just interesting that Planck’s distribution law, when Planck discovered quantum mechanics, is connected with this question of trying to calculate for a body, some object, how much energy does it lose depending what its temperature. And that’s precisely the question that is relevant to estimate what's the temperature of our planet, of the earth surface. So, it’s Planck’s distribution law that tells us how that works. And by the way it also tells us that energy comes in packets, hence quantum mechanics. Einstein also contributed here that light also comes in packets you know, photons. That’s what actually gave Einstein his Nobel Prize. It was not relativity theory. And of course there are other very important scientists like Boltzmann that also had such an important influence in physics, physical chemistry in general. But the point is, these are well established laws and here is what happens then with the climate. If you use Planck’s distribution law you can measure how much energy our planet receives from the sun and you can also measure that only about 2/3 of that energies are absorbed by the planet, the rest is reflected by clouds and snow. You solve the equation and the average surface temperature should be about -18 degrees Celsius. Fortunately that’s not the case, something is wrong. We wouldn’t be here because the oceans would be frozen. It turns out that it’s not Planck’s law that is wrong. It’s just that that’s not the temperature of the earth surface. It’s in fact the average temperature of emission of infrared radiation of the planet. But it’s somewhere above the earth surface. And that’s because the atmosphere, you know, oxygen, nitrogen are transparent to infrared radiation but it has certain amounts of trace gases that absorb this infrared radiation emitted by the surface according to Planck’s law. But that radiation is absorbed partially by this species that we call green house gases and so it’s absorbed, reemitted and so on. And the net effect is for the atmosphere to function as a blanket in some sort of simple way to look at it. An extreme case of this situation is the planet Venus. It’s of course closer to the sun but it’s whiter than our planet. So the amount of energy absorbed by Venus from the sun is smaller than the amount of energy our planet absorbs. And yet, Venus’s surface is more than 400 degrees Celsius. So it’s like a very hot oven because its atmosphere is mostly green house gas, carbon dioxide. So again the basic science will establish, I won’t dwell into it, but it’s well understood: Because of this the average surface temperature is +15 rather than -18 degrees Celsius. And that’s what we call the natural green house effect. This temperature difference of 33 degrees Celsius, nothing else. So which are these species that absorb infrared radiation? They are very well characterised. In fact the main one is water vapour, it absorbs about ¾ of this infrared radiation emitted by the surface. But then carbon dioxide, methane, the CFCs, there are several others, recently black carbon is also, soot is also understood to be a very important component affecting climate. I won’t have time to talk about black carbon. But carbon dioxide and water vapour. But one could argue then we should worry mostly about water vapour. But it turns out that water vapour, the amount of water vapour in the atmosphere is not independent. There is an unlimited amount of water in the ocean that’s liquid water. So how much you have in the atmosphere depends on the average temperature. So one way to illustrate this situation, if you do a simple experiment, you can do it with pencil and paper but also with more sophisticated computer programs. And if you suddenly remove the gases that absorb infrared radiation, that non-condensable gases, carbon dioxide, methane and so on. And you would expect the atmosphere to begin to cool somewhat and water vapour begins to condense. That’s the Clausius-Clapeyron equation, also there’s more snow, more rain. And that keeps happening and quite clearly in just a few decades without Co2 and these other green house gases, the water would condense to such an extent that the average temperature will actually be below these -18 degrees Celsius. Why below? Because it would be a lot of snow and that reflects even more solar radiation. So that’s why we consider carbon dioxide actually the key here and the other green house gases that do not condense. It’s a clima-thermostate. And there’s a lot of information from geological time scales, paleo-climate studies that strongly corroborate this. That’s why we worry about carbon dioxide. Now a few more pieces of information. So far I’ve just talked about the natural green house effect. There’s really very little question about that, well understood. This figure Paul already showed it. I’m just showing it again, just this sudden jump in the concentration of these green house gases absorbing infrared radiation. By the way methane as you know which is in the lower curve is produced by anaerobic fermentation. Microbes produce that in the absence of oxygen. Those are the conditions you have in the digestive system of cattle. That’s why cattle matters so much. Also rice paddies and so on. So that’s why it has also jumped with population. But I’m showing it here to make the following point. These are measurements, analytical chemistry, very well established, very little doubt about these ones. There is another set of measurements that has been questioned also by people and it’s very well established indeed and that is what has happened to temperature. Now temperature 1,000 years ago could not be measured readily, there were no thermometers. But you could infer this average temperature, for example, studying the width of tree rings or coral reefs, sediments in lakes and oceans. There are all sorts of ways to do that and different groups interpret then the temperature slightly different because you have uncertainties of course. But in more recent times with thermometers it’s just very clear that the temperature has increased. Not very much but considering how stable it had been throughout most of the Holocene, it really jumps. So it’s almost 0.8 degrees, 0.7, 0.8 degrees Celsius. Now amazingly this is one of those issues that is questioned also by some scientists but that are not really in this field. And the reason is you can do so called cherry picking. There are so many temperature data that you can choose the ones you wish to show, any trend you’d like to. But if you do it properly statistically and so on the answer is very clear. But I will show you one interesting thing that happened. The scientific community was very sure about this. But there was one group of scientists at Berkeley, I happened to know. I did talk to Richard Muller some years ago. And he was bothered by this sort of inconsistency that some people were pointing out. The temperature data are not perfect. There are errors and it’s not always measured the way it should be. So he reanalysed with his group the strength. But the point here is he was funded partially from these groups that are powerful interest groups, like coal companies, that really want to question the validity of climate science. And unfortunately for this group that funded the research he ended up just corroborating what we knew already: Temperature is indeed increasing. So there is little question then about that fact. Ok, but now the point I want to make. Paul also mentioned this intergovernmental panel on climate change, the IPPC, a group that shared the Nobel Peace Prize with Al Gore in 2007. And about every 4 or 5 years they come up with a report. And in this report of 2007, the last one, they concluded that these 2 observations I showed you are indeed connected. Namely, this temperature change is caused by this change in the chemical composition. But climate is complicated, the basic science, well established as I explained, but it’s a complex system. Like our body, our brain, there are a number of complex systems that science deals with anyhow. So the conclusion is: They say: And so there in their estimate, these are experts on climate and again I was in several of these meetings, particularly the last one where they had these conclusions. They had to state just a probability that this temperature change is caused by human activities and it’s just a mere 90%, ok 90%. So it’s just very likely but not absolutely certain. Ok, so that’s the situation as far as the experts show. But very rapidly let me move on to show a few more things. We don’t worry so much about this small temperature change but the temperature extremes is what's beginning to worry. You see the number of floods is increasing, there are questions about the statistics which I won’t dwell into. Wild fires, forest fires have also been increasing quite dramatically particularly in some areas. And so the question is are these extreme events linked to global warming. And the scientific community is very conservative. So just a year ago they were still... Many scientists were really debating and asking: It’s possible but we can’t really say very much about it.” But this is really changing now. And perhaps this article, Kevin Trenberth’s article, explains in good part what's happening. It depends what question you ask. You can ask the wrong question. Namely, if you have an extreme event, a flood or a heat wave, and you say: Is this caused by climate change, by human activities? Well no, maybe that event would have happened anyhow. The important question: Is it more extreme? Can you do statistics? Maybe in the future you will have some events that would not have occurred without human activities. But here we’re just asking whether they are more intense. And the answer is quite clear. Yes for heat waves, the statistics is not quite as good for floods but everything points to that. The science in particular predicts that. It’s something that comes out of your understanding of the climate and certainly of the models themselves. And so the simplest way to see that this is almost obvious, if the temperature has drifted 0.8 degrees and you define a heat wave as a temperature increase which is sort of 3 standard deviations, 3 Sigmas above normal. Then just by doing the statistics, knowing what is the distribution and so on. You compute as Jim Hansen’s group did that the probability of extreme heat waves has increased about 40 times in just the last 50 years. And this is no longer a model or speculation, this comes from satellite measurements. The measurements indicate that this is indeed happening. Ok next topic, I’m going to try to move here very fast. What should society do? First I must clarify; scientists don’t tell society what to do. They just tell you what might happen, as I do myself, if you do certain things. And what options you have to do in other things and so on. But society has to respond, but I certainly can have my opinion as an individual, as a member of a democracy, as a member of the world’s community. Suggesting what should society do in light of what science tells us? Anyhow, here is an interesting president in Copenhagen with one of those international meetings trying to reach an international agreement that hasn’t happened unfortunately. We’re still far from that, an international agreement to deal with climate change. In large countries where the international agreement that already dealt with the stratospheric ozone issue that Paul Crutzen mentioned. Ok, that is solved. One global environmental problem has been solved but it’s the only one. Climate change, we’re still far from that. Anyhow in this meeting there were more than 120 heads of state, 130 or so. I happen to be there as well. And they all agreed but it was an aspirational goal, it was not officially sort of approved how to do it. But the agreement is: Let’s try to keep the average temperature increase below 2 degrees. Because more than 2 degrees and here sometimes people say it’s the science. Well, it’s a mix of science and economics, ok? More than 2 degrees is just risky. It’s something we should try to avoid if at all possible. So the next question is: Can society actually do that? Where do these green house gases come from? Well, more than 2/3 already comes from the use of energy. But one important component has to do with photosynthesis. You know of course carbon dioxide is balanced in the atmosphere, converted back to oxygen by photosynthesis otherwise we would no longer have oxygen in our atmosphere. And so photosynthesis has also been affected by deforestation and so on and so forth. So we have to deal with all the sources of this green house gases. And here is what society should do according to the scientific understanding which has uncertainties of course. We have to change from the upper red curve which are emissions, how much is emitted in terms of carbon dioxide, methane and other. Methane is no longer being emitted as Paul just clarified. But CFCs, there are other species. And so it’s growing because the economy depends heavily on the use of fossil fuels which is the main source of carbon dioxide. Fossil fuels, coal or petroleum. So we would have to change to the yellow curve in between. That means we have to stop emitting, very soon, in more detail, you can see that in just a few decades. These are again calculations. You see that by 2030, in just a few decades we have to decrease emissions by 50%. That’s a huge change, that’s a revolution in the way society functions. And almost 30% just by the end of this century, we’re not on that path. Society hasn’t recognised the urgency of this problem in terms of actually responding this way and in terms of reducing emissions. Is it possible? Well the experts claim, and I agree it is in fact possible. Here is again another curve of emissions. We have to delete the green part and go all the way down to the blue part. Reduce emissions, how to do that, there is no magic bullet. We have to do many things simultaneously. Use different sources of energy, renewables. And to begin with and that’s very important as well, to use energy much more efficiently. So if we do these activities, more than 10 or so simultaneously then we do have a chance to reduce emissions as needed. Are we doing that, well we’re just beginning. For example, you know, wind energy is a renewable energy and it’s already working quite well, almost as cheaply as fossil fuels. But it has limitations, it’s intermittent, you need to be able to store it. But for example in Denmark they just made a commitment to double from 20 to 40% roughly the amount of wind energy they use. So it’s feasible but its only part of the solution. Solar energy is still too expensive. But the price is coming down fast and here you have solar thermal energy. Like there are already some big plans for example in Spain, in Seville. Or photovoltaic cells. Until just a few years ago they were 5 or 6 times more expensive than fossil fuels but the price has come down remarkably fast. So they’re competing now with concentrated solar thermal. Still more expensive than solid fuels but not that far anymore. Nuclear, we could spend a whole hour discussing just nuclear energy. You know Germany has already decided not to use it. Japan also except that they restarted 2 of their old reactors. Well here at least the consensus, maybe my view as well is that should be an option to have at the very least in terms of continuing to develop new generations. Third and fourth generations of nuclear power plants which are more secure. You can deal with the nuclear waste actually quite efficiently, it’s not that much. So it’s possible to advance. One very worrisome aspect is proliferation, ok? That some countries can still use it to develop weapons of mass destruction. We know Iran, North Korea and so on. So that’s a political issue, not a technical one. Anyhow I won’t discuss anymore nuclear but the point is that it can be done. But to do that, in order to enforce these 10 measures or more that I’m talking about, the best thing would be, not the only way but the most practical one to have an international agreement. Which at the moment is out of the question because it will not pass congress in the United States as long as it’s dominated by Republicans. Although they’re beginning to change. But at the moment it’s still a party line that climate change is not valid, ok? Anyhow, we need an international agreement but we need to invest even more on research. Energy technology research which is one of the topics of this meeting. And society is making a lot of progress but the question is whether it’s fast enough. But we certainly should put more effort there. Also international cooperation because it's naïve now to think that it’s just developed countries that can solve the problem. China, India, Brazil, Mexico and so on have to participate, of course. And they’re well aware of that. So this expectation that the problem has to be solved by the developed countries alone is completely obsolete now. But there has to be international cooperation of course. There has to be transfer of technology, perhaps transfer of resources. As was the case with the stratospheric ozone issue. But at least, at the very least that’s beginning to happen but not extensively enough. Accelerate win, win measures, what's that? Energy efficiency, it turns out that many industries are actually making more profits because they are using energy more efficiently. Many countries, many companies. So that’s beginning to happen. But let me move to this sort of summary, I have one more important topic to cover but I’ll do the summary very fast. Which comes from my colleagues at MIT. I was at MIT many years working with them. And because of the complexity of the climate system. Because there are uncertainties. What society is doing is functioning as if playing a game of roulette. We don’t know what will happen in the future exactly but we can do probabilities. But we have the roulette of the left, because we haven’t started really to do anything about it. So that means that it’s very likely that the temperature will, the surface temperature, will increase more than 4 degrees. And what’s very worrisome is it might increase even 6 or 7 degrees. It's not very likely, wow but that’s, 10, 20%, that’s enormous, ok? We can change roulette. We can buy the other one, doing these measures, these wedges that I just talked about. The question: How much does it cost? Now some of you might be gamblers or if not gamblers you know about gambling, ok. So imagine you’re playing a game of $100,000. But you only earn, if the temperature does increase more than 3 degrees. That’s your choice but you have the roulette of the left. You have the choice of buying the blue one but you have to pay me something from this $100,000. But it’s much more likely that you'll win. So the question is: How much would you be willing to pay? Well, with the other one you’re most likely going to lose. So it’s sensible, maybe $20,000, $30,000, who knows, it’s a personal gambling experience. But economists have actually done this job, not gambling but doing the calculations and understanding how the economy works. And they all tend to agree. Some of them disagree on the methodology. But the result is to change roulette, this $100,000 roulette costs about $1,000, maybe $2,000. So that means we’re talking about 1, 2% of global GDP. So it’s really a bargain. Society can do it quite cheaply and that’s because the way energy functions and because we do have alternative energies, at somewhat more price and so on. But the difficulties are losers, winners and so on. The point where almost everybody agrees doing this sort of calculations is that the cost of the damage, these extreme weather events that we’re seeing, is clearly much larger, ok. So now I’m going to skip because I see I am very late now. The worry with reaching this red zone, more than 6 degrees, is some things might happen that are very worrisome that are not very likely. But things like the Amazon would disappear and so on. So I won’t dwell into except to claim that some economists argue that that’s what we should concentrate upon, that’s the way insurance companies work. Society should not take such a very high risk, 20, 15% risk of these calamities is not acceptable, strictly from an economic perspective. Ok. So let me finish with the last topic, I have 2 minutes, maybe I can do it. Scientific evidence is really overwhelming. Most experts agree there. I know many of them and really they don’t have a case and I know exactly where they are wrong and so on. But there are a few. Most scientists agree, ok? But the media, oh, they always like to show both sides of each issue, ok? On the one hand this happens but it’s also possible that climate is changing naturally. Of course, it’s also possible that it’s astrology. The stars actually tell us what's happening. Ok, the percentage is actually a little more favourable for astrology as I’ll tell you in a moment. But the public perception responds to the media. And so less than half people in the United States, these are surveys in the US, are convinced. This is a little bit misleading because about half the population actually would agree with climate change being a reality if you ask the right question. But it’s really the statistics, it’s only about 12% of population that really dismisses climate change as a hoax. As something to actively work against. But that’s 50% in US congress or almost 100%, it was, not too long ago with the Republican Party. And that stops an international agreement. Ok, so hopefully that’s changing. I’m talking myself to a number of Republican people in congress who are much more liberal but they have a lot of constraints because the party line works the other way around. So I’ll just finish with this, recognising our next speaker. I want to briefly touch on a topic. It’s not just Republicans or not just non-scientist that question this. There are also some scientists but they’re not the experts. Ok, the statistic of non-scientists is very different. So there was a Wall Street Journal editorial that claimed, they report our next speaker that this is really very exaggerated, we shouldn’t worry about it. But in this article they really make some incredible assumptions that I would be very ashamed myself if I were to be in that list, extraordinary ashamed I would. I would feel that I would get thrown tomatoes and eggs anywhere I would show up in the street. But anyway they signed anyhow. But they also claim that we claim that we that are in favour of doing something about it, that we are saying carbon dioxide will destroy civilisation, nonsense. Or that temperature hasn’t really changed and the last 10 years the statistics is just showing that there is no climate change. That’s again nonsense. If you look at the detail. Of course, temperature goes up and down. The last decade it has been the warmest on record for a long time. It doesn’t increase every year, it goes up and down. So the statistics here again is extremely clear. So I’ll let you read the details but again just to set up the stage for our next speaker. First of all the scientist responded. Ok, you don’t go to your dentist if you have a problem with your heart. I should clarify, if I go to my dentist and tell him: But then there might be some dentist that claimed that they are the ones that know everything. But furthermore Professor Giaever, he was annoyed by the American Physical Society claiming that the evidence was incontrovertible. Well according to the American Physical Society what is unequivocal, what they are absolutely certain is that they did not say that, ok? They merely claim that it’s very likely that indeed society can actually solve the problem. Because there are things, there are very few things that are unequivocal or totally certain. But I think there are some. For example the existence of molecules. Who would dare now to write a serious paper and say: It was possible. But many things in science are very well settled, among them quantum mechanics, quantum law. Climate change has a lot of uncertainties but we do have enough evidence just to state that it’s a very significant risk. And it’s a matter of risk, society should respond to this risk. For economic reasons but for ethical reasons as well. We do have a responsibility with future generations to leave a reasonable planet for them. Thank you for your attention. Applause.

Vielen Dank. Ich weiß die Gelegenheit, hier heute zu Ihnen sprechen zu können, sehr zu schätzen. Lassen Sie mich damit beginnen ... Ich werde jetzt meinen Kollegen Paul Crutzen sowie viele von Euch jungen Menschen hier vorne kopieren. Raten Sie mal, wie? Einfach, indem ich meine Jacke ausziehe, weil es dann viel angenehmer wird. Aber ernsthaft, ich möchte einige Worte der Bewunderung für meinen Kollegen Paul loswerden, von dem ich im Laufe der Zeit so viel gelernt habe. Sie wissen, dass Paul eigentlich kein Chemiker ist. Als er begann, sich Sorgen über die Atmosphäre zu machen, wusste er nicht so viel von der Chemie. Aber letztendlich wurde ihm der Nobelpreis in Chemie verliehen. Er hat also bewiesen, wie effizient man da sein kann. Ich möchte auch noch erwähnen, dass wir den Nobelpreis darüber hinaus mit Sherry Rowland, meinem Mentor, geteilt haben, von dem ich im Laufe der Zeit auch sehr viel gelernt habe. Und wie die meisten von Ihnen vielleicht wissen, ist er erst vor wenigen Monaten gestorben. Ich werde über den Klimawandel reden. Einiges überschneidet sich ein bisschen mit den Ideen, die Paul vorgestellt hat. Ich möchte aber damit beginnen, kurz auf die Klimawandelforschung zurückzublicken. Und ich möchte zwei Informationsteile ergänzen, nämlich: Was können wir tun und wie schwierig ist das? Und zweitens kann ich vielleicht die Frage der Authentizität der Klimawandelforschung in den Blick nehmen. Viele von Ihnen wissen, dass der Klimawandel insbesondere von zahlreichen Politikern, speziell in den USA, in Frage gestellt wurde. Der von der Republikanischen Partei dominierte US-Kongress hält den Klimawandel tatsächlich für nicht existent. Das ist eine ziemlich beunruhigende Situation. Und das betrifft nicht nur Politiker. Ich möchte versuchen, den Rahmen für eine Diskussion zu stecken, in der einige Fragen gestellt werden: Warum geschieht dies und gibt es möglicherweise einen Weg, das alles zu verstehen? Beginnen möchte ich aber mit diesem Foto unseres Planeten. Wie Sie wissen, befinden wir uns nicht im Holozän, sondern im Anthropozän, wie Paul bereits so gut erklärt hat. Das Problem aber ist, dass die natürlichen Ressourcen unseres Planeten begrenzt sind, wir aber alles Mögliche tun, um diese Ressourcen zu erschöpfen. Grundsätzlich kann das alles in nachhaltiger Weise erfolgen, aber das machen wir nicht. Und der Vortrag von Paul war wirklich eine sehr gute Beschreibung dieser gesamten Entwicklung. Eine dieser begrenzten Ressourcen ist die Atmosphäre. Es ist ja nicht so, dass wir die Atmosphäre ganz vernichten. Aber dennoch belasten und fordern wir die natürliche Fähigkeit der Atmosphäre enorm, indem wir sie mit den unerwünschten Nebenwirkungen menschlicher Aktivitäten konfrontieren. Die Atmosphäre ist wirklich sehr dünn, wie die Schale eines Apfels. Und so lässt sich verstehen, dass die Aktivitäten der Menschheit alle möglichen Probleme, einschließlich von globalen Problemen, hervorrufen. Und um das besser zu verstehen, sollten wir wissen, dass die Emissionen bestimmter Verbindungen in die Atmosphäre ziemlich langlebig sind und wir davon ausgehen können, dass sie sich innerhalb von Monaten sehr gut in beiden Hemisphären vermischen. Und es dauert vielleicht ein Jahr oder zwei Jahre, bis sie sich um den gesamten Planeten verteilt haben. Deshalb wirken sich Spezies wie Kohlendioxid, FCKW und andere, die Paul erwähnt hat, unabhängig vom Ort ihrer Emission auf die gesamte Atmosphäre aus. Wir haben es also wahrlich mit globalen Problemen zu tun. Lassen Sie mich noch einmal mit dem Klimawandel beginnen. Der Druck der Atmosphäre nimmt mit zunehmender Höhe ab. Ein Großteil der Masse ist auf die ersten zehn bis fünfzehn Kilometer über der Erdoberfläche begrenzt. Dort, wo sich die Troposphäre befindet, spielt das Klima die größte Rolle. Der Mount Everest ist bekanntlich ungefähr 8.000 Meter hoch. Und auf dem Gipfel des Mount Everest kann man nicht mehr atmen. Die Atmosphäre ist dort bereits sehr dünn. Und auch das ist eine Bestätigung dafür, dass wir die Atmosphäre wirklich mit unseren Aktivitäten beeinflussen können. Aber zunächst einige Worte dazu, wie Klima funktioniert. Was sagt die Wissenschaft zum Klima? Wir wissen, dass es eine Wärmebilanz gibt, auf die wir grundlegend Einfluss nehmen. Die Energiebilanz des Planeten ist sehr einfach nachzuvollziehen. Der Planet erhält bereits seit Millionen von Jahren Energie von der Sonne, größtenteils in Form sichtbarer Strahlung, sichtbaren Lichts.Und er gibt praktisch die gleiche Menge an Energie wieder ab. So sieht also diese Bilanz aus. Wir können das als Fließgleichgewicht oder stabilen Zustand bezeichnen. Und das lässt sich mit sehr grundlegenden Naturgesetzen erklären, einigen sehr wichtigen Entdeckungen, die zu Beginn des 20. Jahrhunderts erfolgt sind und die Wissenschaft enorm revolutioniert haben. Dazu zählt beispielsweise die Entdeckung der Quantenmechanik durch Planck. Das hat sich auf so viele Tätigkeiten und Aktivitäten der heutigen Zeit ausgewirkt. Fernsehen, Smartphones, Luftfahrt usw. hängen enorm von der Festkörperphysik ab. Und die Chemie, die moderne Sichtweise der Chemie, ist bekanntlich sehr stark von der Quantenmechanik beeinflusst worden. Das sind also eingeführte, geltende Gesetze. Sie stehen überhaupt nicht mehr in Frage. Es ist interessant, dass das Verteilungsgesetz von Max Planck im Rahmen seiner Entdeckung der Quantenmechanik mit dem Versuch verbunden war, für einen Körper, einen Gegenstand zu berechnen, wie viel Energie er - abhängig von seiner Temperatur - verliert. Und genau das ist doch die Frage, die für die Einschätzung relevant ist, welche Temperatur unser Planet, die Erdoberfläche hat. Plancks Verteilungsgesetz erklärt uns also, wie das funktioniert. Und im Übrigen besagt es auch, dass Energie in Form von Paketen auftritt, daher Quantenmechanik. Und Einstein brachte hierzu ein, dass auch Licht in Form von Paketen erscheint, nämlich Photonenpaketen. Genau dafür erhielt Einstein schließlich seinen Nobelpreis, nicht für die Relativitätstheorie. Und dann gibt es natürlich noch weitere, sehr bedeutende Wissenschaftler wie Boltzmann, die die Physik, die grundlegende physikalische Chemie ebenfalls enorm beeinflusst haben. Aber der Punkt ist, dass es auf der einen Seite sehr gut eingeführte Gesetze gibt und auf der anderen Seite das, was tatsächlich mit dem Klima passiert. Wenn man das Verteilungsgesetz von Planck anwendet, kann man messen, wie viel Energie unser Planet von der Sonne erhält. Man kann auch messen, dass nur rund zwei Drittel dieser Energien vom Planeten absorbiert werden. Der Rest wird von Wolken und Schnee reflektiert. Löst man die Gleichung, so dürfte die durchschnittliche Oberflächentemperatur bei rund -18 Grad Celsius liegen. Glücklicherweise ist das nicht der Fall. Etwas stimmt also nicht. Es gäbe uns nicht, weil die Weltmeere gefroren wären. Aber nicht das Gesetz von Planck ist falsch. Das ist nämlich nicht die Temperatur der Erdoberfläche, sondern die durchschnittliche Temperatur der Infrarotstrahlung-Emission des Planeten. Und das spielt sich irgendwo über der Erdoberfläche ab und zwar deshalb, weil die Atmosphäre, also Sauerstoff, Stickstoff für Infrarotstrahlung durchlässig ist, aber bestimmte Mengen von Spurengasen enthält, die diese von der Erde gemäß dem Planck'schen Gesetz abgegebene Infrarotstrahlung absorbieren. Diese Strahlung wird zum Teil durch die Spezies absorbiert, die wir als Treibhausgase bezeichnen. Sie wird also absorbiert, wieder abgegeben usw. Und so fungiert die Atmosphäre im Ergebnis wie eine Decke, um es einmal ganz einfach zu veranschaulichen. Ein extremes Beispiel für diese Situation ist der Planet Venus. Er befindet sich natürlich näher an der Sonne, ist aber heller als die Erde. Deshalb ist die Energiemenge, die die Venus von der Sonne absorbiert, geringer als die Energiemenge, die unser Planet absorbiert. Und dennoch ist die Venus-Oberfläche über 400 Grad Celsius heiß. Das ist also ein enorm heißer Ofen, weil seine Atmosphäre größtenteils aus Treibhausgas, Kohlendioxid besteht. Die Grundlagenforschung bestätigt sich also auch hier. Ich möchte darauf nicht weiter eingehen, aber das ist gut aufgeklärt. Deshalb liegt die durchschnittliche Oberflächentemperatur bei +15 statt -18 Grad Celsius. Und das ist dann das, was wir als den natürlichen Treibhauseffekt bezeichnen, dieser Temperaturunterschied von 33 Grad Celsius, nichts anderes. Was sind das für Spezies, die die Infrarotstrahlen absorbieren? Sie sind sehr gut beschrieben. Tatsächlich macht Wasserdampf den großen Teil aus. Wasserdampf absorbiert rund drei Viertel dieser Infrarotstrahlung, die von der Oberfläche abgegeben wird. Dann sind da noch Kohlendioxid, Methan, die FCKWs und andere. In neuerer Zeit wurde auch schwarzer Kohlenstoff, Ruß als weiterer entscheidender Faktor mit Klimaauswirkungen benannt. Ich habe keine Zeit, um hier auf den schwarzen Kohlenstoff einzugehen, aber auf Kohlendioxid und Wasserdampf. Man könnte denken, dass wir uns am meisten Sorgen über Wasserdampf machen sollten. Die Wasserdampfmenge in der Atmosphäre, so weiß man, ist nicht unabhängig von anderen Faktoren. Es gibt eine unbegrenzte Wassermenge im Meer. Das ist flüssiges Wasser. Wie viel Wasserdampf sich in der Atmosphäre befindet, hängt von der Durchschnittstemperatur ab. Eine Möglichkeit, diese Situation zu verdeutlichen, ist ein ganz einfaches Experiment. Das kann man mit Stift und Papier machen, aber auch mit komplexen Computerprogrammen. Wenn man schlagartig alle Gase entfernen würde, die die Infrarotstrahlung absorbieren, diese nicht kondensierbaren Gase Kohlendioxid, Methan usw., würde man erwarten, dass die Atmosphäre etwas abkühlt und der Wasserdampf zu kondensieren beginnt. Das ist die Clausius-Clapeyron Gleichung. Dann gibt es auch mehr Schnee und Regen. Und das geschieht. In nur wenigen Jahrzehnten ohne Co2 und diese anderen Treibhausgase würde das Wasser in einem solchen Ausmaß kondensieren, dass die Durchschnittstemperatur tatsächlich unter diese -18 Grad Celsius fallen würde. Warum darunter? Weil es eine Menge Schnee geben würde und der Schnee die Sonnenstrahlung noch stärker reflektiert. Deshalb halten wir Kohlendioxid und die anderen Treibhausgase, die nicht kondensieren, tatsächlich für den Schlüssel. Das ist ein Klimathermostat. Und wir verfügen über jede Menge Informationen aus geologischen Zeitskalen, paläoklimatologischen Studien, die dies stark untermauern. Darum machen wir uns ernsthafte Gedanken über Kohlendioxid. Einige weitere Informationen dazu. Bis jetzt habe ich über den natürlichen Treibhauseffekt gesprochen. Da gibt es kaum Fragen, das ist gut verstanden. Ich möchte noch mal die Abbildung zeigen, die Paul bereits präsentiert hat. Da ist dieser plötzliche Sprung in der Konzentration von Treibhausgasen zu sehen, die die Infrarotstrahlen absorbieren. Übrigens wird Methan, hier in der unteren Kurve zu sehen, ja bekanntlich durch die anaerobe Fermentierung erzeugt. Mikroben erzeugen das in Abwesenheit von Sauerstoff. Das sind die Bedingungen, die im Verdauungssystem von Rindvieh herrschen. Deshalb macht Rinderhaltung so viel aus. Das gilt auch für Reisfelder usw. Das sind also auch alles Gründe dafür, warum die Werte mit wachsenden Bevölkerungszahlen so sprunghaft angestiegen sind. Ich zeige dies hier aber, um auf das Folgende hinzuweisen. Dies hier sind Messungen, analytische Chemie, sehr gut verstanden, kaum anzuzweifeln. Und es gibt weitere Messungen, die ebenfalls von Menschen angezweifelt wurden. Und die sind wirklich gut belegt, nämlich Temperaturänderungen. Die Temperatur konnte vor 1.000 Jahren noch nicht ohne Weiteres gemessen werden, denn es gab keine Thermometer. Aber man konnte die Durchschnittstemperaturen beispielsweise durch Messung der Jahresringe von Bäumen oder Korallenriffen, Ablagerungen in Seen und Meeren untersuchen. Es gibt vielzählige Möglichkeiten für solche Analysen. Und verschiedene Gruppen interpretieren dann die Temperatur etwas anders, weil es natürlich auch Unwägbarkeiten gibt. Aber in neuerer Zeit ist es aufgrund der Verfügbarkeit von Thermometern wirklich sehr deutlich, dass die Temperatur angestiegen ist. Nicht sehr viel, aber wenn man berücksichtigt, wie stabil die Temperatur während des Großteils des Holozäns war, ist sie wirklich sprunghaft gestiegen. Es geht um fast 0,8°C, 0,7°C, 0,8°C. Und erstaunlicherweise zählt das zu den Problemen, das von einigen Wissenschaftlern, die sich aber auf diesem Gebiet nicht wirklich auskennen, in Frage gestellt wird. Der Grund dafür ist die so genannte Rosinenpickerei. Es gibt so viele Temperaturdaten, dass man sich genau die heraussuchen kann, die man sich wünscht. So erhält man praktisch jeden Trend, den man haben will. Aber wenn man solche Untersuchungen statistisch sorgfältig durchführt, ist die Antwort eindeutig. Ich möchte Sie noch auf eine interessante Sache aufmerksam machen, die sich zugetragen hat. Die Wissenschaftsgemeinschaft war sich sehr sicher bezüglich dieser Entwicklungen. Aber es gab eine Gruppe von Wissenschaftlern in Berkeley, die ich kenne. Und ich sprach vor einigen Jahren mit Richard Muller. Er beschäftigte sich mit der Inkonsistenz, auf die einige Menschen aufmerksam gemacht hatten. Die Temperaturdaten sind nicht perfekt. Es gibt Fehler und es wird nicht immer so gemessen, wie es sein sollte. Deshalb stellte er mit seiner Gruppe die Aussagekraft der vorliegenden Daten erneut auf den Prüfstand. Anzumerken ist, dass seine Arbeit zum Teil von mächtigen Interessengruppen wie Kohleunternehmen finanziert wurde, die die Gültigkeit der Ergebnisse der Klimaforschung wirklich in Frage stellen wollen. Und zum Bedauern seiner Geldgeber kam auch er zu dem Schluss und bestätigte, was wir bereits wussten: Die Temperatur steigt tatsächlich. Es gibt also kaum mehr Zweifel an dieser Tatsache. Aber jetzt zu dem Punkt, auf den ich hinaus will. Paul erwähnte bereits dieses zwischenstaatliche Expertengremium für Klimaänderungen IPPC, eine Gruppe, der 2007 gemeinsam mit Al Gore der Nobelpreis verliehen wurde. Alle vier bis fünf Jahre veröffentlichen sie einen Bericht. Und in ihrem letzten Bericht im Jahr 2007 kamen sie zu dem Schluss, dass diese beiden Beobachtungen, die ich aufgezeigt habe, tatsächlich zusammenhängen, dass nämlich die Temperaturveränderung durch die Veränderung in der chemischen Zusammensetzung verursacht wird. Aber das Thema Klima ist kompliziert. Wie ich sagte, ist die Grundlagenforschung gut etabliert. Aber es geht um ein komplexes System. Wie bei unserem Körper, unserem Gehirn gibt es zahlreiche komplexe Systeme, mit denen die Wissenschaft in diesem Bereich zu tun hat. Deshalb sagt sie: "Wir sind nicht absolut sicher, es ist lediglich eine Frage der Wahrscheinlichkeit." Diese Klimaexperten geben deshalb nur Einschätzungen ab. Ich war bei mehreren ihrer Treffen zugegen, insbesondere beim letzten, als sie diese Schlussfolgerungen zusammenfassten. Und deshalb konstatieren sie lediglich eine Wahrscheinlichkeit, dass diese Temperaturänderung durch menschliche Aktivitäten verursacht wird. Und es sind nur 90%, okay 90%. Es besteht also eine sehr große Wahrscheinlichkeit, aber keine absolute Sicherheit. Das ist also die Situation aus der Sicht der Experten. Lassen Sie mich aber noch schnell auf einige andere Dinge eingehen. Wir sorgen uns nicht so sehr über diese geringe Temperaturveränderung, sondern über die Temperaturextreme. Die machen uns zunehmend Sorgen. Die Zahl der Überschwemmungen nimmt zu. Es gibt Zweifel an den Statistiken. Darauf kann ich hier nicht näher eingehen. Flächen- und Waldbrände haben ebenfalls ziemlich drastisch zugenommen, insbesondere in einigen Gebieten. Die Frage ist, ob diese extremen Ereignisse mit der globalen Erwärmung zusammenhängen. Und die Wissenschaftsgemeinschaft ist da sehr konservativ. Vor einem Jahr noch haben viele Wissenschaftler diskutiert und tatsächlich gesagt: "Wir haben nicht genug Beweise dafür. Es ist möglich, aber wir können tatsächlich nicht sehr viel darüber sagen." Aber das ändert sich jetzt wirklich. Und vielleicht erklärt dieser Artikel von Kevin Trenberth den Großteil dessen, was passiert. Es hängt davon ab, welche Fragen man stellt. Man kann die falschen Fragen stellen. Wenn man Extremereignisse wie eine Überschwemmung oder eine Hitzewelle erlebt und dann die Frage stellt, ob das durch den Klimawandel, durch menschliche Aktivitäten verursacht wurde, lautet die Antwort: Wohl nicht. Dieses Ereignis hätte auf jeden Fall eintreten können. Die wichtigere Frage müsste deshalb lauten: Verläuft das Ereignis extremer? Gibt es darüber Statistiken? Vielleicht gibt es in der Zukunft Ereignisse, die ohne menschliche Aktivitäten nicht eingetreten wären. Aber jetzt geht es eher um die Frage, ob diese Ereignisse intensiver werden. Und da lautet die Antwort ziemlich eindeutig "Ja" für Hitzewellen. Für Überschwemmungen ist die statistische Datenlage noch nicht genauso gut. Aber alles deutet darauf hin. Die Wissenschaft prognostiziert das. Es ist etwas, das aus unserem Verständnis von Klima hervorgeht und mit den Modellen selbst zu tun hat. Der einfachste Weg, die Offensichtlichkeit dieser Entwicklung zu bestätigen, ist der Folgende: Wenn sich die Temperatur um 0,8 Grad verändert hat und man eine Hitzewelle als eine Temperaturerhöhung definiert, die zum Beispiel drei Standardabweichungen, drei Sigma über normal liegt, kann man einfach statistisch unter Voraussetzung der bekannten Verteilung usw. berechnen, wie es die Gruppe von Jim Hansen getan hat, dass sich die Wahrscheinlichkeit extremer Hitzewellen allein in den letzten 50 Jahren um das 40-Fache erhöht hat. Das ist dann kein Modell und keine Spekulation mehr. Das stammt aus Satellitenmessungen. Die Messungen signalisieren, dass das in der Tat passiert. Ok, nächstes Thema. Ich versuche hier schnell durchzugehen. Wie sollte die Gesellschaft reagieren? Zunächst muss ich eines klarstellen: Wissenschaftler geben der Gesellschaft nicht vor, was sie zu tun hat. Sie, wie auch ich, berichten nur, was geschehen könnte, wenn bestimmte Dinge passieren. Und sie sagen, welche Optionen in anderer Hinsicht bestehen usw. Reagieren darauf muss aber die Gesellschaft. Ich kann aber sicherlich meine Meinung als Individuum, als Mitglied einer Demokratie, als Mitglied einer weltweiten Gemeinschaft vertreten. Aber was sollte die Gesellschaft im Lichte dessen tun, was die Wissenschaft uns erzählt? Hier ist ein interessanter Präsident in Kopenhagen bei einer dieser internationalen Konferenzen, bei der man internationale Vereinbarungen erzielen will, was leider bisher noch nicht passiert ist. Wir sind immer noch weit davon entfernt, ein internationales Abkommen für den Umgang mit dem Klimawandel zu erreichen. In großen Ländern gibt es ein internationales Abkommen im Zusammenhang mit dem von Paul Crutzen erwähnten Problem der stratosphärischen Ozonschicht. Das ist gelöst. Eines der globalen Umweltprobleme wurde gelöst. Aber das ist nur eines. Was den Klimawandel betrifft, sind wir noch weit davon entfernt. Jedenfalls waren bei diesem Treffen mehr als 120 oder sogar 130 Staatsoberhäupter vertreten. Ich war auch dort. Und sie waren sich alle einig. Aber es ging um ein erstrebenswertes Ziel, keine offizielle Vereinbarung mit Handlungsfolgen. Die Vereinbarung lautet: Lassen wir uns versuchen, den durchschnittlichen Temperaturanstieg auf unter zwei Grad zu begrenzen, weil mehr als zwei Grad - und dies nennen manche Wissenschaft, aber es ist eine Mischung aus Wissenschaft und Wirtschaft - mehr als zwei Grad wirklich riskant sind. Das sollten wir zu vermeiden versuchen, wenn überhaupt möglich. Die nächste Frage lautet dann: Kann die Gesellschaft das tatsächlich leisten? Woher kommen diese Treibhausgase? Über zwei Drittel stammen heute bereits aus der Nutzung von Energie. Aber ein wichtiger Bestandteil hat mit der Photosynthese zu tun. Bekanntlich wird Kohlendioxid in der Atmosphäre ausgeglichen, durch Photosynthese in Sauerstoff umgewandelt. Sonst hätten wir keinen Sauerstoff mehr in unserer Atmosphäre. Und auch die Photosynthese wurde durch Abholzung usw. beeinträchtigt. Und wir haben mit allen möglichen Quellen von Treibhausgas zu tun. Hier ist zu sehen, was die Gesellschaft nach dem wissenschaftlichen Verständnis, das natürlich mit Unsicherheiten behaftet ist, tun sollte. Wir müssen es schaffen, die obere rote Linie zu verändern. Diese Linie stellt die Emissionen dar, also wie viel Kohlendioxid, Methan usw. abgegeben wird. Methan wird nicht mehr emittiert, wie Paul gerade verdeutlichte, aber FCKWs und die anderen Spezies. Und die Emissionen nehmen zu, weil die Wirtschaft enorm von der Nutzung fossiler Brennstoffe, den Hauptquellen von Kohlendioxid, abhängig ist. Fossile Brennstoffe, Kohle oder Benzin. Wir müssen es schaffen, die gelbe Linie dazwischen zu erreichen. Wir müssen also den Emissionen Einhalt gebieten, sehr bald, genauer gesagt in einigen wenigen Jahrzehnten. Das sind Berechnungen. Sie sehen hier, dass wir die Emissionen in nur wenigen Jahrzehnten, also bis 2030, um 50% senken müssen. Das ist eine enorme Veränderung. Das bedeutet eine Revolution für die Art und Weise, in der die Gesellschaft funktioniert. Und allein bis zum Ende dieses Jahrhunderts um fast 30%. Wir machen nicht genug, um das zu erreichen. Die Gesellschaft hat sich die Dringlichkeit des Problems im Sinne einer Reaktion und einer Reduzierung von Emissionen nicht wirklich realisiert. Und ist das überhaupt möglich? Die Experten behaupten, dass das durchaus möglich ist - und ich stimme dem zu. Hier ist eine weitere Emissionskurve. Wir müssen den grünen Teil abbauen und bis ganz auf den blauen Teil zurückfahren. Emissionsreduzierung, wie geht das? Es gibt keine Wunderwaffe. Wir müssen viele Dinge gleichzeitig tun, zum Beispiel verschiedene Energiequellen nutzen, erneuerbare Energien einsetzen und zunächst und zuallererst - das ist sehr wichtig - müssen wir die Energie wesentlich effizienter verwenden. Wenn wir also diese Aktivitäten - und das sind zehn oder mehr Aktivitäten, die gleichzeitig geschehen können - umsetzen, haben wir eine Chance, die Emissionen so zu senken, wie dies erforderlich ist. Aber tun wir das auch? Wir stehen gerade erst am Anfang. Mit der Windenergie, einer erneuerbaren Energie, funktioniert das bereits sehr gut. Sie ist inzwischen fast so preisgünstig wie fossile Brennstoffe. Aber die Windenergie hat Grenzen. Sie steht nur diskontinuierlich zur Verfügung. Man muss sie speichern können. In Dänemark hat man sich allerdings jetzt das verpflichtende Ziel gesetzt, die Menge der genutzten Windenergie grob von 20% auf rund 40% zu verdoppeln. Das ist machbar, aber auch nur ein Teil der Lösung. Sonnenenergie ist nach wie vor zu teuer. Aber der Preis fällt und hier gibt es auch die Solarthermie. Es wurden bereits einige riesige Anlagen errichtet, beispielsweise in Spanien, in Sevilla. Oder Photovoltaikzellen. Noch vor wenigen Jahren haben sie das fünf- bis sechsfache der fossilen Brennstoffe gekostet, aber der Preis fällt bemerkenswert schnell. Deshalb konkurrieren sie jetzt mit konzentrierter solarthermischer Energie. Immer noch teurer als Festbrennstoffe, aber bei weitem nicht mehr so viel teurer. Und was die Kernenergie betrifft, könnten wir hier eine ganze Stunde nur über diese Energie debattieren. In Deutschland hat man ja bereits entschieden, sie nicht mehr einzusetzen. In Japan wohl auch, mit der Ausnahme, dass man dort zwei der alten Reaktoren wieder in Betrieb genommen hat. Hier gibt es zumindest den Konsens, und da bin ich auch einverstanden, dass die Option aufrechterhalten werden sollte, die Entwicklung neuer Generationen dieser Technik in Erwägung zu ziehen. Die dritte und vierte Generation von Kernkraftwerken, die sicherer sind. Und man kann mit dem Atommüll doch ziemlich effizient umgehen. Das ist nicht so viel. Also auch auf diesem Gebiet sind Fortschritte möglich. Beunruhigend ist allerdings die Verbreitung dieser Energie, also die Tatsache, dass einige Länder diese Energie zur Entwicklung von Massenvernichtungswaffen nutzen können. Wir wissen das vom Iran, von Nordkorea, usw. Das ist ein politisches Thema, kein technisches. Ich möchte hier nicht weiter auf die Kernenergie eingehen. Aber der Punkt ist doch, dass Veränderungen möglich sind. Aber um diese ungefähr zehn Maßnahmen durchzusetzen, von denen ich hier rede, wäre es das Beste - nicht der einzige Weg, aber der praktikabelste Weg -, ein internationales Abkommen zu erzielen. Und das lässt sich derzeit nicht durchsetzen, weil es den US-Kongress nicht passieren wird, solange der von den Republikanern dominiert wird. Aber auch dort sind erste Änderungen zu bemerken. Aber dennoch besagt die Parteilinie momentan immer noch, dass es keinen Klimawandel gibt. Nichts desto trotz: Wir brauchen ein internationales Abkommen. Aber wir müssen auch noch mehr in die Forschung investieren, in die energietechnologische Forschung, was ja eines der Themen dieses Treffens ist. Die Gesellschaft macht eine Menge Fortschritte. Die Frage ist aber, ob das reicht. Wir müssen sicherlich noch mehr Anstrengungen unternehmen. Es geht auch um die internationale Zusammenarbeit, weil es naiv wäre zu denken, dass die Industrieländer dieses Problem allein lösen können. China, Indien, Brasilien, Mexiko usw. müssen natürlich mitwirken. Und sie wissen das auch. Die Erwartung, dass das Problem allein durch die Industrieländer gelöst werden müsste, ist heute also vollkommen überholt. Es muss unbedingt internationale Kooperationen geben. Und wir brauchen einen Technologietransfer, vielleicht auch einen Ressourcentransfer, wie dies ja bei dem Problem des stratosphärischen Ozons auch der Fall war. Zumindest gibt es erste Ansätze. Aber das reicht noch nicht aus. Die Win-Win-Maßnahmen müssen beschleunigt werden. Was bedeutet das? Energieeffizienz. Es zeigt sich doch, dass viele Industrien tatsächlich mehr Gewinne machen, weil sie die Energie effizienter einsetzen. Viele Länder, viele Unternehmen. Das geschieht doch bereits. Aber lassen Sie mich zu dieser Übersicht weitergehen. Es gibt ein weiteres Thema zu besprechen. Ich werde diese Übersicht sehr schnell abhandeln. Sie stammt von meinen Kollegen am MIT. Ich habe viele Jahre mit ihnen am MIT zusammengearbeitet. Aufgrund der Komplexität des Klimasystems und aufgrund der vielen Ungewissheiten tut die Gesellschaft so, als ob es um ein Roulettespiel ginge. Wir wissen nicht, was in der Zukunft exakt passieren wird, aber wir spielen mit Wahrscheinlichkeiten. Wir befinden uns in der Roulettesituation, die links zu sehen ist, denn wir haben nicht einmal damit begonnen, irgendetwas zu tun. Das bedeutet, dass die Temperatur, die Oberflächentemperatur sehr wahrscheinlich um mehr als vier Grad ansteigen wird. Und das Beunruhigende ist, dass sie sogar um sechs oder sieben Grad ansteigen könnte. Das ist zwar nicht sehr wahrscheinlich. Aber 10%, 20%, das ist doch enorm. Wir können das Roulettespiel verändern. Wir können uns für die andere Lösung rechts entscheiden, indem wir diese Maßnahmen ergreifen, diese Simultanmaßnahmen, von denen ich eben gesprochen habe. Die Frage ist: Wie viel kostet das? Einige von Ihnen sind vielleicht Glücksspieler. Oder wenn Sie keine Glücksspieler sind, kennen Sie vielleicht Glücksspiele. Stellen Sie sich also vor, dass Sie ein Spiel um $ 100.000 spielen. Sie gewinnen aber nur, wenn die Temperatur um mehr als drei Prozent ansteigt. Das ist Ihre Wahl, aber es geht um das Roulettespiel auf der linken Seite. Sie können sich aber auch für die blaue Seite entscheiden. Dann müssten Sie mir aber einen Teil dieser $ 100.000 bezahlen. Aber dann wäre die Wahrscheinlichkeit, dass Sie gewinnen, wesentlich höher. Die Frage ist also: Wie viel sind wir bereit zu bezahlen? Nun, bei dem anderen Roulette besteht eine hohe Verlustwahrscheinlichkeit. Es wäre also vernünftig, $ 20.000, $ 30.000, wer weiß es schon genau, einzusetzen. Es ist eine persönliche Glückspielerfahrung. Wirtschaftswissenschaftler haben dies aber bereits berechnet und wissen, wie die Wirtschaft funktioniert. Und sie sind sich tendenziell einig. Einige widersprechen der Methode. Aber das Ergebnis ist, dass zur Änderung der Chancen dieses $-100.000-Roulette einen Einsatz von $ 1.000, vielleicht $ 2.000 erfordern würde. Das bedeutet, dass wir über 1% oder 2% des weltweiten BIP sprechen. Es ist also in Wirklichkeit ein Geschäft. Die Gesellschaft kann das aufgrund der Art und Weise, wie Energie funktioniert, ziemlich preisgünstig haben, und zu einem etwas höheren Preis, wenn sie alternative Energien wählt. Aber die Schwierigkeit ist die Tatsache, dass es Gewinner und Verlierer gibt. Fast jedem, der diese Art von Berechnungen anstellt, ist aber wohl klar, dass die Kosten für die Schäden, für diese extremen Wetterereignisse, die wir erleben, deutlich höher sind. Ich überspringe jetzt mal Einiges, weil ich in Zeitverzug bin. Die Besorgnis in Bezug auf das Erreichen dieser roten Zone hier, also mehr als sechs Grad, hängt damit zusammen, dass hier sehr beunruhigende Dinge passieren können, die zwar nicht sehr wahrscheinlich sind, aber beispielsweise, dass der Amazonas verschwinden würde usw. Ich will darauf nicht näher eingehen. Außer auf die Aussage, die einige Wirtschaftswissenschaftler vorbringen, dass wir uns nämlich damit beschäftigen sollten, wie unsere Versicherungen funktionieren. Die Gesellschaft sollte keine zu hohen Risiken von 20% oder 15% aus diesen Katastrophen in Kauf nehmen. Das ist aus rein wirtschaftlicher Perspektive nicht akzeptabel. Lassen Sie mich also zum letzten Thema wechseln. Ich habe noch zwei Minuten. Vielleicht reicht das. Die wissenschaftlichen Belege sind wirklich überwältigend. Die meisten Experten sind sich da einig. Aber zwei oder drei von 100 stimmen dem nicht zu. Ich kenne viele von ihnen. Sie haben wirklich keine guten Argumente und ich weiß exakt, wo sie falsch liegen. Aber sie sind wenige. Die meisten Wissenschaftler stimmen dem zu. Die Medien wollen aber immer beide Seiten eines Problems zeigen. Auf der einen Seite passiert dies. Aber möglicherweise verändert sich das Klima ja auch aufgrund natürlicher Ursachen. Oder es ist eine Frage der Astrologie. Die Sterne sagen uns, was passiert. Ok, der Prozentsatz fällt für die Astrologie tatsächlich etwas günstiger aus, wie ich Ihnen gleich erzählen werde. Aber die öffentliche Wahrnehmung reagiert auf die Medien. Und deshalb ist laut Umfragen in den USA weniger als die Hälfte der US-Einwohner davon überzeugt. Das ist ein bisschen irreführend, weil rund die Hälfte der Bevölkerung tatsächlich der Aussage zustimmen würde, dass der Klimawandel Realität ist, wenn man nur die richtige Frage stellt. Aber es geht ja um Statistik. Nur rund 12% der Bevölkerung tut den Klimawandel als Schwindel, also als etwas ab, gegen das man aktiv vorgehen muss. Aber es gibt diese 50% im US-Kongress oder vor nicht allzu langer Zeit die fast 100% in der Republikanischen Partei. Und das verhindert ein internationales Abkommen. Das wird sich hoffentlich ändern. Ich spreche regelmäßig mit verschiedenen Republikanern im Kongress, die wesentlich liberaler sind, aber aufgrund der entgegengesetzten Parteilinie noch eine Menge Bedenken haben. Ich will aber jetzt langsam zum Ende kommen, weil schon der nächste Vortragende bereit steht. Ich möchte kurz noch ein Thema ansprechen. Es sind nicht nur die Republikaner oder die Nichtwissenschaftler, die den Klimawandel anzweifeln. Es sind auch einige Wissenschaftler, die aber keine Experten auf dem Gebiet sind. Die Statistik der Nichtwissenschaftler ist ganz anders. Es gab einen Leitartikel im Wall Street Journal, in dem behauptet wurde - der nächste Vortragende wird auch zitiert -, dass dies absolut übertrieben ist und wir uns darüber keine Sorgen machen sollten. Aber in diesem Artikel werden wirklich einige unglaubliche Aussagen gemacht, für die ich mich sehr schämen würde, wenn ich zu den Unterzeichnern zählen würde. Ich würde mich außerordentlich schämen. Ich hätte das Gefühl, man würde mich mit Tomaten und Eier bewerfen, wenn ich mich überhaupt noch auf die Straße traute. Aber dennoch wurde das unterzeichnet.Und dort wird auch gesagt, dass wir, die wir geltend machen, etwas tun zu können, behaupten, Kohlendioxid werde die Zivilisation zerstören. Das ist Unfug. Oder, dass sich die Temperatur tatsächlich nicht verändert hat und die Statistik der letzten zehn Jahre nur zeigt, dass es keinen Klimawandel gibt. Auch das ist Unsinn, wenn man sich das genau anschaut. Temperaturen steigen und fallen natürlich. Dennoch war das letzte Jahrzehnt das wärmste seit langer Zeit. Der Anstieg erfolgt nicht Jahr um Jahr. Es geht rauf und runter. Aber die Statistik ist doch auch hier extrem eindeutig. Hier können Sie zur Vorbereitung auf den nächsten Sprecher die Details lesen. Als Erstes haben die Wissenschaftler mit der Aussage geantwortet, dass man ja auch nicht zum Zahnarzt geht, wenn man ein Problem mit dem Herzen hat. Wenn ich zum Zahnarzt gehe und ihm sage: "Ich habe Herzprobleme", würde er mir direkt sagen: Aber möglicherweise gibt es auch Zahnärzte, die in einem solchen Fall behaupten, dass sie sich in allen Gebieten auskennen. Darüber hinaus ärgerte sich Professor Giaever darüber, dass die American Physical Society behauptet hatte, die Belege seien unwiderlegbar. Aber was ist laut American Physical Society zweifelsfrei? Sie ist sich absolut sicher, dass sie so etwas nie behauptet hat. Sie behauptet nur, dass die Gesellschaft das Problem in der Tat sehr wahrscheinlich lösen könnte, weil es Dinge gibt, einige wenige Dinge, die zweifelsfrei und absolut sicher sind. Aber auch solche Dinge gibt es meiner Meinung nach. Zum Beispiel die Existenz von Molekülen. Wer würde es wagen, ein ernstzunehmendes Papier mit der Aussage zu schreiben: "Ich glaube nicht, dass Moleküle wirklich existieren." Das passierte Boltzmann, aber das war vor 100 Jahren. Das war möglich. Aber viele Dinge in der Wissenschaft sind anerkannt, darunter die Quantenmechanik, das Quantengesetz. Mit dem Klimawandel sind eine Menge von Unsicherheiten verbunden, aber dennoch haben wir genug Belege, um sagen zu können, dass das ein sehr bedeutendes Risiko ist. Es ist eine Frage der Risikoabschätzung. Die Gesellschaft sollte auf dieses Risiko reagieren. Aus wirtschaftlichen ebenso wie aus moralischen Gründen. Wir haben gegenüber künftigen Generationen die Verantwortung, ihnen einen akzeptablen Planeten zu hinterlassen. Vielen Dank für Ihre Aufmerksamkeit.

Mario Molina on Science and the Policy of Climate Change
(00:12:45 - 00:16:10)


Ivar Giaever (2012) - The Strange Case of Global Warming

I am happy I am allowed speak for myself after the previous speaker here. And I’m going to talk about the strange case of global warming. I am not really terribly interested in global warming. Like most physicists I really don’t think much about it. But in 2008 I was on a panel here about global warming. And I had to learn something about it. And I spent a day or so, half a day maybe on Google and I was horrified by what I learned. And I’m going to try to explain to you why that was the case. So I also, being on that panel, became very famous because if you search on my name and on global warming together, you get roughly 40,000 hits. That’s much more than I get if I search for my name on superconductivity. So you get sort of into the system. And according to me then what I said at that time and I still agree with: Global warming has become a new religion because you can’t discuss it. And that’s not right. So it starts, just as science, comes in money forms. It’s more like old real science which I hope I do. Then what it is, we have pathological science, that people who fool themselves. And that happened quite often in science. You do something, you have a theory. You do something and my god the experiment shows it, you’re very happy and you publish and you fool yourself. You’ve got to be very careful when you publish. Then we have what we call fraudulent science, which is fortunately very rare. Some people cheat in science on purpose. And I have advice to you. If you want to cheat in science on purpose cheat on something which is not important. Then you won’t be found out. You won’t be very famous either but that’s another case. And finally I have junk science. Junk science often in the medical field. Somebody has 5 people eating onion soup and 5 people eating tomato soup and the 5 people eating onion soup don’t get as much cancer as the 5 people eating the tomato soup. And you can publish that but it’s not very good. And finally we have pseudoscience. And pseudoscience is a very strange thing. Because pseudoscience you begin with a hypothesis which is very appealing to you and then you only look for things which confirm the hypothesis. You don’t look for other things. And so the question then, what I’m going to ask: Is global warming a pseudoscience? And you can be the judge. So here it starts with these 2 people, you saw pictures of them before. If you ask who is a famous scientist in the United States, they say Al Gore. And so somebody said to me you have no business dealing with global warming because you're not a climatologist. But neither is Al Gore, you know. So that’s it. And Pachauri who is a railroad engineer. These 2 people got the Nobel Prize in Peace because of this figure here. And I am ashamed of the Norwegian government who did that. This is almost as bad a Peace Prize as when Obama got the Peace Prize when he got elected. So the Peace Prize is a difficult thing to do right I think. Now, what is this curve here? They are very famous because they made this curve famous. And this is the average temperature of the earth starting from 1860 to roughly 2000. And a temperature change, it’s going from minus .4 degrees to plus 4 degrees. They don’t know it’s so little. It’s not even fever. Now, the average over space on time for the whole earth for the whole year. Now I am dealing with temperature normally, in my normal life I grow cells in tissue culture. And I have to keep the temperature at 37 degrees. And that’s very difficult. But the earth has kept the temperature in 150 years in .8 degrees. But I don’t believe anybody can measure that. It’s impossible to measure that. And because in 1880 the thermometers were placed in various places, in 1900 they were moved, in 1950 they were moved, in 2000 they were moved. How can you figure the average temperature on the earth? I don’t think that’s possible. If I gave 10 people the job of measuring the average temperature in this room you will get 10 different answers. So that’s a very difficult thing to do. So what does it mean then, this curve here? And in my opinion probably nothing. Because I mean why does it matter if the temperature is going up .8 degrees. The average temperature, if indeed you could measure it. So from 1880 to 2013 the temperature has increased then from 288 degree Kelvin to 288.8 degree Kelvin. It’s .3%. It’s very little. And if it’s true, it means to me the temperature has been amazingly stable. I was amazed that the temperature can be so stable. And from 1975 to roughly 2000 you get this curve here and the Co2 and the temperature increased in common. And that’s what the problem is, why the Co2 causes the temperature change. Co2 has very little to do with the temperature change. Water vapour is a much, much, much stronger green gas than the Co2. If you look out of the window, you see the sky, you see the clouds and you don’t see the Co2. And then we come to the hockey stick graph, which the previous speaker showed in a little different matter. And I have to say that I have to rely on H. C. Andersen and “The Emperor’s New Clothes”. But the little boy who was innocent, he didn’t see that the emperor had clothes on and I am the little boy here. I don’t see that the Co2 is the cause of all this problem. For example, and I showed you before, the temperature going up from 288 to 288.8 degrees, .3% in this 150 years. The earth population had gone up from 1.5 billion to 7 billion. Nobody talks about that. And maybe for example that all the paved roads and cut down forests causes the global warming, not the Co2. But nobody talks about that. And actually some person do. This is Steven Chu, which is a Nobel Prize winner from 1977. And he suggests to paint all roofs white because that might help. So at least he, I know him very well, he’s a smart guy but he has been bought by the global warming people and he’s now helping Obama trying to make green energy in the United States. So how come, have you heard about the Copenhagen meeting, how come that can be. Well, it can be because of societies like the American Physical Society. I, as you heard I resigned from the American Physical Society because of this statement. American Physical Society discussed the mass of the proton. The mass of the proton is not incontrovertible according to the American Physical Society but the global warming is. You see that’s religion, that’s a religious statement like the Catholic Church says the earth is not round. And the American physical society says that the global warming occurs. I mean that’s a terrible thing. So I resigned from the Physical Society. I hope I can get 1 or 2 of you to resign as well. Now the other thing is, you see here, this statement taken directly from the American Physical Society. This says: “The global warming is occurring, if non mitigation actions are taken significant disruption in the earth physical and ecological system, social system, security and human health are likely to occur.” So let’s see, look at history. In the last 150 years the earth has got warmer according to these people but human health has got better, the social system is better, everything is better. The earth is much better now than it was 150 years ago. So why is it suddenly changing? Why is it suddenly getting worse? It’s a mystery to me. Then they had a meeting in Cancun and what we get there is typical of a paper. Oxfam report showed that 21,000 people suffered weather related deaths during the first 9 months of 2010. Twice as many as the whole 2009. These are the titbits you see in the paper trying to convince people that global warming is a terrible thing. And I think that’s a strange thing. Now we have the recent meeting in Brazil and if you read in the paper, nothing much has been coming out from that. I could hardly find it when I prepared this slide. And what they try to do is to concentrate on sustainable development. Now we can all agree with that. But one thing you should be very careful, you should not confuse pollution with Co2. Co2 is not a pollution. We are all agree that pollution is a bad thing and so on but it has nothing to do with Co2. So what is the greenhouse effect then? You have heard about it already. What it is, is that without the atmosphere the earth would be roughly 35 degrees colder. The fact that Co2 has increased from 280 to 350 ppm in a 100 years. Temperatures increased .8 degrees C. Is there a cause and effect? You can try to test that. Since 1998, which was the warmest year measured, Co2 has increased up to 396 ppm. So we can then calculate what the effect of the temperature would be. And the very simplest calculation is .8 times 14 divided by 100 is .1 degree warmer. But it is colder today. It is colder now than it was in 1998. That’s 15 years or so. How can that be? If Co2 is increasing regularly, it should be warmer but it’s not. So here you see the curve. This is the Co2 increasing, this is temperatures in 1998 and you see here, I think in 1908, suddenly it dropped maybe .5 degrees or so. Almost got rid of all the global warming entirely in one year. Do you recognise the difference in measurement is very difficult? And so you can’t really measure it. That’s what bothers me that both the people who believe in global warming and the people who are deniers accept the curve. That curve should never be accepted. So here is where the temperature is measured. This is according to NASA Goddard Institute for Space Research. So here in the United States all these dots are places where temperature is measured. Between 30 and 60 degrees, you know, United States is almost completely green. But look below 60 degrees, 60 degrees south, there are 8 thermometers. That includes the South Pole, only 8 thermometers there. How can they talk about average temperature of the earth? I don’t understand it. And furthermore if I ask this rhetorical question: What is the optimal temperature for the earth? It’s clearly not the temperature we have. That would be a miracle. But nobody knows what the optimal temperature is for the earth. It may be 2 degrees warmer, it may be 2 degrees colder. I just don’t know. But it clearly is not the temperature we have today. So Nature of course has gotten into the fact and they have a journal now called Climate Change. My friend said: “Don’t make fun of Nature. Then they won’t publish your papers.” I said: “Nature doesn’t publish my papers anyway so it doesn’t matter.” So, Nature then... This issue, I found out there were several issues, but this issue was free, so I looked up and they grow corn enough for Africa. And they found out which is a big article in this paper that they lose 1% for every day at over 30 degrees C. That’s a very difficult thing to find out. It may be true, maybe not. But if you think about the corn farmers of Iowa, that they’re probably maybe 100 times as efficient as the people in Africa because of the climate and all the things we have in the United States and they grow corn. Unfortunately what we do with that corn, we turn most of it into ethanol. And they mix; in New York State they mix 10% ethanol into the gasoline. And so it affects me directly. Every time I buy gasoline I have to by 10% ethanol mixed in the gasoline. Much less efficient and very costly for the country. Should never have done that. And they don’t mention at all in here how important Co2 is for plant life. And so if you have more Co2 the plant grows better all over the earth. If you have a greenhouse and put carbon dioxide in it the plant grow faster. Plants, Co2 of course is food for plants. And believe it or not the great trees in Bad Schachen are starving. They don’t look like that but they really are because when photosynthesis was developed the carbon dioxide was much higher in the air than it is today, so the plant has a system which is geared for a much higher concentration of carbon dioxide. So here is another thing. All these kind of things, you see, I pick and choose when I do this talk like my previous speakers picked and chose too. So I pick and choose and I really like this one. This is “the body shrinks because of global warming” and all these kind of things like the strawberries have gotten smaller these days for example. The red billed gulls, California squirrels, lynx, wood rats, large number of things get smaller because of global warming, because of the .8 degrees average. Now unfortunately this does not apply to people. My observation is that people get bigger as far as global warming occurs. So here we come then to, you see, remember everything is caused by global warming and then people, it doesn’t get any warmer so we can’t really talk about that. We have to talk about something else. Let’s talk about climate change, ok. So if I look up then it takes 30 years to define a climate according to the people who should know. So when did the climate change? Yesterday, 5 days ago, 5 years ago? I don’t know but that’s what people talk about climate change. And you may have noticed when you talk about the climate change; it’s always to the worse. Nobody says: “Oh I’m so glad the climate is changing, it’s getting better.” But nobody says that. When you say climate change, you mean it’s getting worse. And here is a thing which is difficult to see maybe. Let’s focus on this graph here. This is from the Midwest United States and this is the rainfall over 100 years. And you see the Midwest United states there was a very dry period which you call the dust bowl. Became very famous because of John Steinbeck wrote The Grapes of Wrath. But you see this happened long before now. And here is 100 hundred years, a place in Africa, huge amount of rain. You see these climate things that happened always have happened. Even if you’re religious, you know about Noah, the flood in the bible. You know, that’s really a giant flood. So the climate has always changed. And then we come to people who talk specific. And the one I really like is this thing here. It says: “melting Greenland.” They don’t say the ice melts on Greenland. It sounds more adverse if you say Greenland is really melting, you know. And they show these pictures of floods. So they look at this, just to pick something. And actually if all the glaciers in the world melt, the ocean will rise 1 metre. If all the ice in Greenland melts, the ocean will rise 7 metres. If all the ice on the South Pole melts, the ocean will rise 93 metres. But the fact is that there is more ice in the South Pole now than there ever has been because it’s colder. You know that the previous speaker talked about the northern hemisphere which is getting a little warmer- But the southern hemisphere is getting colder. So that’s the way life is. Now here is a paper by, all I know about this guy is Ola M. Johannessen. He’s a Norwegian. They measure the ice inland on Greenland scientifically by using satellites. And since it’s a Norwegian guy, I’m from Norway, it has to be true, you know. And they found out the last 11 years or so the ice on Greenland has risen 5 centimetres a year, on the inland of Greenland. But you are seeing pictures from the coast. But the inland is increasing. So there are more ice on Greenland now than there was like 15 years ago. And this is a fact. If you don’t believe that you can look at Google. And here I picked up, there are several harbours in Greenland, this is the 5 coldest years measured, the 5 warmest years. These are the coldest years and these are the warmest years. The warmest years were basically in the ‘30’s. But we didn’t worry about Greenland melting at that time. And that’s true for all the temperatures in Greenland. And the coldest years include ’92 and ’93, you know. So the coldest year happened more recent than the warmest years. So we don’t have to worry about Greenland. So since it’s difficult then for the people to talk about climate change you noticed from the previous speaker talked about extreme weather. Now that’s something, you know. But every time we have extreme weather you have 100 year flood. That means it happened 100 years ago as well. You see the weather is no more extreme now than it ever would have been. When we had the big catastrophe in the United States, when New Orleans was almost wiped off the map, we had 8 hurricanes that year. Huge, the papers say this is the future, this is global warming, this is what we have to expect. The next year there was no hurricane in the United States. Nobody wrote in the papers to say there are no hurricanes, this was due to global warming, this we can expect, you know. Only when disasters happen you get into the act and say this is bad. So you feel then you have the sort of extreme weather, then you have when the ocean rises, you have to run away from it but that of course is not the fact. As the question I ask: Is the ocean level increasing? And if you look at this curve here, this is 1,000 years on this scale, 8,000 years ago, this is metres here. So the ocean has risen 15 metres in 8,000 years. If we look at the recent years, this curve here and this is the recent years, the ocean, this is now centimetres and this is 100 years. So the ocean has risen 20 centimetres in 100 years. It rose 20 centimetres in a previous 100 years and so the last 200, 300 years it’s risen roughly 20 centimetres in 100 years. But please note there are no unusual rises of sea levels. It’s not unusual. And to be sure we understand that I’ll repeat it. There is no unusual rise in the sea level. So you’ve got to... You see these are the facts people don’t want to admit to you. They say the sea level is rising. Yes, it is. It’s rising 20 centimetres a century, that’s what it does. So here then is coming back to Al Gore. This polar bear is very famous because he’s running out of ice. And the poor, the cuddly polar bears are dying. But this is the real culprit, the guy with the gun and the polar bears. And as I said I’m from Norway and Spitsbergen, it’s the protectorate of Norway, has polar bears on it. And in 1972 there were roughly hundreds to 1,000 bears there. And now in 2005 there are 4,000 bears there. The reason for that of course, you weren’t allowed to hunt them anymore. They were protected. And what everybody in Norway knows but you probably don’t know is there are more seals now than there have been for a long time. Seal is what polar bear eat. Because people have stopped buying seal skinned coats. And the Canadians and the Norwegians used to club little seal babies to make these beautiful coats. Don’t do that anymore. So there’s a huge amount of seal which is what polar bears eat. So when I resigned from the Physical Society, I got this wonderful problem by a guy named Samson and I really like that. You consider a large room, 20 feet square, 10 feet high. Actually let’s take this room. This is a very large room. And the question he asked is: “If I seal this room off, how many matches do I have to light every day to keep up with the increase in the carbon dioxide in the air due to all the cars spewing out gasoline and stuff?” There are roughly maybe 800 million cars in the world. So how many matches do I have to light in this room to keep up with the carbon dioxide increase in the atmosphere, every day? And this is a good problem for physicists. I was surprised when I saw the problem. But the facts are that for this room here if you light say 1 match you’re probably equivalent to 3 years of cars spewing carbon dioxide into the air. So 1 match in this room is equivalent to all the carbon dioxide the cars in the world put up in the room. If you take this room here, it happened to be 20 years. But this room is much bigger. That’s amazing thing. So the atmosphere is much, much bigger than you think it is. And it’s a relatively easy calculation and I hope you try to do that tonight and you will learn, you know, something about that anyway. But you are sitting here listening to me and you are polluting this room with carbon dioxide as well. So how much are you doing that? Well, you need roughly 2,000 calories a day. So let’s take sugar as the food. And if you do that you have to eat 3 bowls of sugar a day which is 2,000 calories. And the sugar will weigh 450 grams. But the carbon dioxide you breathe out weighs 800 grams. More than the sugar of course because you get the oxygen from the air. So every day you breathe out roughly 800 grams of carbon dioxide, which is equivalent to 400 kilos a year, speaking or 40 tonnes in a lifetime. That’s what you breathe out. But of course it’s only roughly 4% of the total emission because you drive cars and you heat your house and you drive in airplanes and stuff. So it’s only 4%. So it doesn’t help to save the world if you go on a diet. You don’t have to do that, doesn’t do much. So the Chinese policy from 19... This is what Chinese did which I admire very much because they did something about something. What they did, they had 1 child per family and the result is that 375 million Chinese have not been born. Think about that. That’s more than the population of the United States. If you are still worried about global warming, why don’t you try to get the government to limit the child to 1 child per woman? Then you have really done something. The reason people don’t do that of course it’s unpopular. The Chinese did it and it was a very brave and the correct decision I think. Another thing is that the green want this solution. When I see windmills in California I shudder because I see my tax money go out the window. Of course this is the right decision, atomic, nuclear plants. And I know about the earthquake and the tsunami in Japan which causes Germany to ban nuclear power. That was a wrong decision of Germany and I know they will reverse it. I can make any kind of bets on that. And I know here now in the tsunami in Japan, actually that was a dumb thing from the Japanese to begin with to build a nuclear power in an earthquake, prone earth quake area. But it was one of the biggest earthquakes ever had been seen on this earth. And what happened is that 100,000 people, roughly speaking, died in the catastrophe and as far as I know not a single person died from radiation. But we are so worried about radiation. That’s wrong. Nuclear power is the most safe power if you per kilowatt hour produced. So here then there are many ways to spend money. And I feel... Do you feel good using solar cells? I mean do you feel good using solar cells wasting your money, the manufacturing capability, the country and everything else, using solar cells? So here then is a real problem from New York City in 1900. You may think I’m joking but someone had written a book about this. The real problem in New York City was: How can we get enough horses? It’s not a joke, it was a real problem. And there was dead horses lying in the streets of New York at that time. And the other problem of course: How can we get rid of the horse manure, you know? And so now we laugh at that problem. But I say 50 years from now people will look at us and say: “How could these people be so stupid not using nuclear power? How could they possibly be?” So it’s a question I ask then: Are we afraid of change? And this is an American character who is not afraid, “What, me worry?”. And here is a picture of the Earth in some millions of years. The Earth is changing. Things are changing for heaven’s sake. We can’t keep still the same. This is the American foreign policy. They try to keep things the same because we have it well in America. So their policy is to keep things unchanged. But even the foreign policy of the United States can’t manage to do that. And we certainly can’t manage to keep the Earth not different. So I think we have to learn to live with change. That’s one thing. And here’s a picture of myself, my wife and me. We got married roughly 60 years ago. This is how we looked. This is how we look today. You see we have changed. And notice... Unfortunately we have changed. And notice also that a new picture is a colour picture. There was no colour when I got married. So as far as I'm concerned we have left the world in a better shape than we arrived. And this will continue. So here is some Antarctic ice core which I haven’t showed. You see roughly every 100,000 years we get an ice age. Does it happen now, you see, does it happen, an ice age? People lived, this is 400,000 years ago, people lived on the earth through these changes. But they come and they look like we are ready for another ice age. And then people say: “Oh please burn some coal, you know. Keep warming up the earth.” And the other interesting thing about this is that the blue line is the temperature and the temperature increases before the carbon dioxide. And a lot of peddling and writing and things to try to get that changed around. But the facts are that these are the experiments. So finally then we get to the end and this is from The Economist: “Don’t despair. Grounds for hope on global warming.” And if I ask the rhetorical question: Is climate science a pseudoscience? And if I'm going to answer the question, the answer is: Absolutely. So thank you very much. Applause.

Ich freue mich, dass ich nach meinem Vorredner selbst sprechen darf. Ich möchte über das sonderbare Phänomen der globalen Erwärmung sprechen. Ich interessiere mich nicht sonderlich für dieses Thema. Wie die meisten Physiker denke ich eigentlich nicht viel darüber nach. Ich habe einen ganzen Tag oder vielleicht einen halben gegoogelt und war entsetzt über das, was ich gelesen habe. Ich werde versuchen Ihnen zu erklären warum. Dadurch, dass ich an dieser Diskussionsrunde teilgenommen habe, bin ich zudem sehr bekannt geworden. Wenn Sie nach meinem Namen in Kombination mit der globalen Erwärmung suchen, erhalten Sie rund 40.000 Treffer. Das ist erheblich mehr als Sie erhalten, wenn Sie meinen Namen und den Begriff Supraleitfähigkeit eingeben. Man wird also irgendwie Teil des Systems. Meiner Ansicht nach - ich habe das damals schon gesagt und bin nach wie vor dieser Meinung - ist die globale Erwärmung eine Art neue Religion geworden, weil man sie nicht diskutieren kann. Das ist nicht in Ordnung. Wissenschaft kann viele Gesichter haben. Was ich mache, ist hoffentlich eher die gute alte Wissenschaft. Es gibt aber auch eine pathologische Wissenschaft, also Leute, die sich selbst etwas vormachen. Das kommt in der Wissenschaft recht häufig vor. Sie machen etwas, haben eine Theorie und das Experiment belegt es; Sie sind glücklich, publizieren die Ergebnisse und blamieren sich. Sie müssen beim Publizieren sehr vorsichtig sein. Dann gibt es die arglistige Wissenschaft, die glücklicherweise sehr selten auftritt. Mancher Wissenschaftler betrügt vorsätzlich. Ich habe diesbezüglich einen Rat für Sie: Wenn Sie in der Wissenschaft vorsätzlich betrügen wollen, tun Sie es bei einem eher unwichtigen Thema, dann fliegen Sie nicht auf. Andererseits werden Sie dann auch nicht wirklich berühmt, aber das steht auf einem anderen Blatt. Und schließlich gibt es die Schrottwissenschaft, häufig im medizinischen Bereich. Da essen 5 Leute Zwiebelsuppe und 5 Tomatensuppe, und die 5 Leute, die Zwiebelsuppe essen, kriegen genauso wenig Krebs wie die 5 Leute, die Tomatensuppe essen. Das können Sie publizieren, aber es hat keinen großen Wert. Zu guter Letzt haben wir die Pseudowissenschaft. Dabei handelt es sich um ein sehr merkwürdiges Phänomen, denn die Pseudowissenschaft beginnt mit einer sehr ansprechenden Hypothese, so dass Sie nur nach Fakten suchen, die diese Hypothese bestätigen. Nach etwas anderem suchen Sie nicht. Die Frage, die ich stellen möchte, lautet also: Handelt es sich bei der globalen Erwärmung um Pseudowissenschaft? Sie können entscheiden. Wir beginnen mit diesen beiden Personen hier; Sie haben bereits Bilder von ihnen gesehen. Fragt man, wer ein berühmter Wissenschaftler in den Vereinigten Staaten ist, ist die Antwort Al Gore. Jemand hat zu mir gesagt, ich wäre beim Thema globale Erwärmung nicht kompetent, weil ich kein Klimaforscher bin. Al Gore aber auch nicht. So ist das. Pachauri ist Eisenbahningenieur. Diese beiden Menschen haben den Friedensnobelpreis erhalten, und zwar aufgrund dieser Zahl. Ich schäme mich für die norwegische Regierung, die dafür verantwortlich ist. Dieser Friedensnobelpreis ist fast so schlimm wie der, der Obama zu Beginn seiner Amtszeit verliehen wurde. Mit diesem Preis ist das so eine Sache. Was bedeutet diese Kurve hier? Die beiden sind so berühmt, weil sie diese Kurve berühmt gemacht haben. Sie stellt die Durchschnittstemperatur der Erde von 1860 bis etwa 2000 dar, eine Temperaturveränderung von -0,4 bis +0,4 Grad. Bei der globalen Erwärmung geht es also um 0,8 Grad. Sie wissen nicht, dass die Veränderung nur so gering ist. Das ist noch nicht einmal Fieber. Die Kurve stellt den zeitlichen und räumlichen Verlauf des Temperaturdurchschnitts für die gesamte Erde über das ganze Jahr dar. Ich kenne mich mit Temperatur aus, normalerweise züchte ich Zellen in einer Gewebekultur und muss die Temperatur bei 37 Grad halten. Das ist sehr schwierig. Doch die Erde hat ihre Temperatur in 150 Jahren nur um 0,8 Grad verändert. Obwohl ich glaube, dass keiner das messen kann; das ist nicht messbar. Wie kann man die Durchschnittstemperatur auf der Erde ermitteln? Ich halte das nicht für möglich. Würde ich 10 Leute damit beauftragen, die Durchschnittstemperatur in diesem Raum zu messen, würden wir 10 verschiedene Antworten erhalten. Das ist also sehr schwierig. Was bedeutet diese Kurve also? Meiner Meinung nach wahrscheinlich nichts. Warum ist es wichtig, wenn die Durchschnittstemperatur um 0,8 Grad steigt, sofern man sie überhaupt messen kann? Von 1880 bis 2013 hat die Temperatur von 288 Grad Kelvin auf 288,8 Grad Kelvin, also um 0,3% zugenommen. Das ist sehr wenig. Wenn das stimmt, ist die Temperatur meiner Ansicht nach erstaunlich stabil geblieben. Ich war überrascht, dass die Temperatur so stabil sein kann. Von 1975 bis etwa 2000 erhält man diese Kurve hier; CO2 und die Temperatur steigen gleichermaßen an. Und genau das ist das Problem: Warum bewirkt CO2 eine Temperaturveränderung? CO2 hat damit nur sehr wenig zu tun. Wasserdampf ist ein wesentlich stärkeres Treibhausgas als CO2. Wenn Sie aus dem Fenster schauen, sehen Sie den Himmel, die Wolken, aber kein CO2. Jetzt kommen wir wieder zu der Hockeyschlägerkurve, die Ihnen mein Vorredner in einem etwas anderen Zusammenhang gezeigt hat. Ich stütze mich hier auf das Märchen "Des Kaisers neue Kleider" von H. C. Andersen. Der kleine unschuldige Junge sah nicht, dass der Kaiser angezogen war, und ich bin jetzt dieser kleine Junge. Ich sehe nicht, dass CO2 all diese Probleme verursacht. Wie ich Ihnen vorhin gezeigt habe, ist die Temperatur in diesen 150 Jahren um 0,3% von 288 auf 288,8 Grad gestiegen. Die Weltbevölkerung hat von 1,5 auf 7 Milliarden zugenommen. Darüber spricht niemand. Es könnte z.B. sein, dass die geteerten Straßen und abgeholzten Wälder die globale Erwärmung verursachen und nicht das CO2. Aber darüber spricht niemand. Bis auf einen, Steven Chu, Nobelpreisträger von 1977. Er schlägt vor, alle Dächer weiß zu streichen, denn das könnte helfen. Ich kenne ihn gut, er ist ein schlauer Kopf, doch er hat sich von den Anhängern der globalen Erwärmung kaufen lassen und unterstützt jetzt Obama bei der Erzeugung von grüner Energie in den Vereinigten Staaten. Haben Sie von der Konferenz in Kopenhagen gehört? Wie kann so etwas geschehen? Weil es Gesellschaften wie die American Physical Society (APS) gibt. Wie Sie vielleicht gehört haben, bin ich aus dieser Gesellschaft ausgetreten, weil es dort hieß "Die Beweise sind unumstößlich." In der American Physical Society wurde die Protonenmasse diskutiert. Die Protonenmasse ist laut APS nicht unumstößlich, wohl aber die globale Erwärmung. Sie sehen, das ist Religion, eine religiöse Behauptung, wie wenn die katholische Kirche sagt, die Erde ist nicht rund. Die American Physical Society erklärt, dass die globale Erwärmung stattfindet. Das ist doch grauenhaft. Also bin ich aus der American Physical Society ausgetreten. Ich hoffe, ich kann den einen oder anderen von Ihnen auch dazu bewegen. Diese Aussage stammt ebenfalls direkt von der American Physical Society: "Die globale Erwärmung findet statt; erfolgen keine Maßnahmen zur Schadensbegrenzung, wird es wahrscheinlich zu Störungen im physikalischen und ökologischen System der Erde sowie zu sozialen, sicherheitstechnischen und gesundheitlichen Problemen kommen." Schauen wir uns einmal die Geschichte an. In den letzten 150 Jahren hat sich die Erde nach Angaben dieser Leute erwärmt, der Gesundheitszustand der Menschen, das Sozialsystem usw. haben sich dagegen verbessert. Der Erde geht es wesentlich besser als vor 150 Jahren. Warum verändert sie sich also plötzlich? Warum geht es ihr auf einmal schlechter? Das ist mir ein Rätsel. Dann gab es eine Konferenz in Cancun; hier sehen Sie ein typisches Paper. Im Oxfam-Bericht stand, dass in den ersten 9 Monaten des Jahres 2010 21.000 Menschen wetterbedingt starben, doppelt so viele wie im gesamten Jahr 2009. Das sind die Leckerbissen in dem Paper, mit denen die Leute überzeugt werden sollen, dass die globale Erwärmung eine schlimme Sache ist. Ich finde das seltsam. Hier haben wir die letzte Tagung in Brasilien; wenn Sie Zeitung lesen, wissen Sie, dass nicht viel dabei herausgekommen ist. Bei der Erstellung dieser Folie konnte ich kaum Informationen dazu finden. Man will sich auf eine nachhaltige Entwicklung konzentrieren. Damit sind wir alle einverstanden. Bei einer Sache sollten Sie sehr vorsichtig sein - verwechseln Sie nicht Umweltverschmutzung mit CO2. CO2 ist kein Schadstoff. Wir sind uns alle einig, dass Umweltverschmutzung schlecht ist, aber das hat nichts mit CO2 zu tun. Aber was bedeutet dann der Treibhauseffekt? Sie haben bereits davon gehört. Er bedeutet, dass die Erde ohne die Atmosphäre etwa 35 Grad kälter wäre. CO2 ist innerhalb von 100 Jahren von 280 auf 350 ppm angestiegen, die Temperatur hat um 0,8 Grad Celsius zugenommen. Handelt es sich hier um Ursache und Wirkung? Das lässt sich überprüfen. Seit 1998, dem wärmsten jemals gemessenen Jahr, ist CO2 auf bis zu 396 ppm angestiegen. Wir berechnen nun ganz einfach die Auswirkung auf die Temperatur: 0,8 mal 14 geteilt durch 100 ist 0,1 Grad wärmer. Es ist aber heute kälter als 1998. Das ist eine Zeitspanne von 15 Jahren. Wie kann das sein? Bei einer konstanten CO2-Zunahme sollte es heute wärmer sein. Das ist aber nicht der Fall. Hier sehen Sie die Kurve. Das ist der CO2-Anstieg, das die Temperatur 1998 und 1908; plötzlich ist sie um vielleicht 0,5 Grad, also um fast die gesamte globale Erwärmung in einem Jahr gefallen. Wie Sie merken, ist der Unterschied in der Messung sehr schwierig; man kann ihn nicht wirklich messen. Es macht mir Sorgen, dass sowohl die Leute, die an die globale Erwärmung glauben, als auch die, die es nicht tun, dieser Kurve Glauben schenken. Niemand sollte das tun. Hier sehen Sie die Temperaturmesspunkte gemäß dem NASA Goddard Institute for Space Research. All diese Punkte hier in den Vereinigten Staaten zwischen dem 30. und dem 60. Breitengrad sind Stellen, an denen die Temperatur gemessen wird. Sie wissen, die Vereinigten Staaten sind fast überall grün. Südlich des 60. Breitengrades finden sich nur an acht Stellen inklusive dem Südpol Thermometer. Wie kann man da von einer Durchschnittstemperatur der Erde sprechen? Das verstehe ich nicht. Außerdem möchte ich diese rhetorische Frage stellen: Was ist die optimale Temperatur für die Erde? Sicherlich nicht die Temperatur, die wir haben. Das wäre ein Wunder. Doch niemand kennt die optimale Temperatur für die Erde. Vielleicht 2 Grad wärmer oder 2 Grad kälter - ich weiß es nicht. Doch sicher nicht die Temperatur, die wie heute haben. Natürlich hat sich auch Nature mit dem Thema beschäftigt und bringt jetzt eine Fachzeitschrift namens Climate Change heraus. Ein Freund von mir meinte: "Mach dich nicht über Nature lustig. Sie werden Deine Paper nicht mehr veröffentlichen." Ich sagte: "Das macht nichts - Nature veröffentlich meine Paper sowieso nicht." Tja, Nature... ich habe mir dieses Heft durchgeblättert - es gab mehrere, aber dieses war umsonst - und gelesen, dass vor allem in Nordafrika Mais angebaut wird. Man hat jedoch festgestellt - ein großer Artikel in diesem Heft beschäftigt sich damit - dass man an jedem Tag mit einer Temperatur über 30 Grad Celsius mit 1% Verlust rechnen muss. Das ist nicht leicht zu ermitteln. Vielleicht stimmt es, vielleicht auch nicht. Die Maisbauern in Iowa sind wegen des Klimas und all der Dinge, die wir in den Vereinigten Staaten haben, wahrscheinlich 100 Mal effizienter als die Menschen in Afrika - und was machen wir? Wir wandeln den Mais zum Großteil in Ethanol um. Im Bundesstaat New York werden dem Benzin 10% Ethanol beigemengt. Das betrifft mich also direkt. Jedes Mal, wenn ich tanke, habe ich 10% Ethanol im Benzin. Erheblich weniger effizient und sehr kostspielig für das Land. Das hätte man niemals machen sollen. An keiner Stelle wird erwähnt, wie wichtig CO2 für die Pflanzenwelt ist. Steigt der CO2-Gehalt, wachsen überall auf der Welt die Pflanzen besser. Leitet man Kohlendioxid in ein Gewächshaus, wachsen die Pflanzen schneller. CO2 ist ein Pflanzennährstoff. Und ob Sie es glauben oder nicht, die großen Bäume in Bad Schachen hungern. Sie sehen nicht so aus, aber sie tun es, denn als sich die Photosynthese entwickelte, war der Kohlendioxidgehalt in der Luft wesentlich höher als heute. Pflanzen verfügen also über ein System, das für eine erheblich höhere Kohlendioxidkonzentration ausgelegt ist. Eine weitere Folie. Sie sehen, ich picke mir bei diesem Vortrag die Rosinen heraus, genau wie meine Vorredner. Diese Folie z.B. gefällt mir besonders: "Der Körper schrumpft aufgrund der globalen Erwärmung". All diese Sachen, z.B. dass die Erdbeeren heutzutage kleiner sind. Die Rotschnabelmöwe, das kalifornische Eichhörnchen, der Luchs, die Buschratte - vieles wird aufgrund der globalen Erwärmung von durchschnittlich 0,8 Grad kleiner. Leider trifft das nicht auf Menschen zu. Meine Beobachtung ist, dass die Menschen mit zunehmender globaler Erwärmung immer dicker werden. Jetzt sind wir wieder an dem Punkt, Sie erinnern sich, an dem alles durch die globale Erwärmung verursacht wird. Die Leute sagen "Es wird nicht wärmer, also können wir eigentlich nicht darüber reden. Wir müssen über etwas anderes reden. Reden wir doch über den Klimawandel." Laut denjenigen, die es wissen sollten, benötigt man zur Definition des Klimas 30 Jahre. Wann hat sich also das Klima verändert? Gestern, vor 5 Tagen, vor 5 Jahren? Ich weiß es nicht, aber genau so wird über den Klimawandel geredet. Sie haben bei Gesprächen zu dem Thema vielleicht bemerkt, dass es sich immer um eine Veränderung zum Schlechten handelt. Niemand sagt: "Oh, ich bin ja so froh, dass sich das Klima verändert, es wird besser." Niemand sagt das. Mit Klimawandel meint man immer den Wandel zum Schlechten. Das hier können Sie vielleicht nicht gut erkennen. Konzentrieren wir uns deshalb auf diese Kurve. Sie stellt die Niederschläge im mittleren Westen der Vereinigten Staaten in den letzten 100 Jahren dar. Wie Sie sehen, gab es in den Bundesstaaten des mittleren Westens der USA eine starke Dürreperiode; diese Staaten wurden daher als "dust bowl", Staubschüssel bezeichnet. Berühmt wurden sie durch den Roman "Früchte des Zorns" von John Steinbeck. Das war vor langer Zeit. Wenn Sie religiös sind, kennen Sie die Geschichte von Noah und der Sintflut aus der Bibel. Das war wirklich eine gigantische Flut. Das Klima hat sich also stets gewandelt. Jetzt kommen wir zu Leuten, die ihre ganz eigene Ausdrucksweise haben. Ein Bild, das mir besonders gefällt, ist dieses hier: "Schmelzendes Grönland." Sie sagen nicht, dass das Eis auf Grönland schmilzt. Es klingt dramatischer, wenn man sagt, Grönland selbst schmilzt, und dann Flutbilder zeigt. Das nur als Beispiel. Wenn alle Gletscher auf der Welt schmelzen, steigt der Meeresspiegel um 1 Meter. Schmilzt das gesamte Eis in Grönland, steigt der Meeresspiegel um 7 Meter. Schmilzt das gesamte Eis am Südpol, steigt der Meeresspiegel um 93 Meter. Es ist jedoch eine Tatsache, dass sich derzeit mehr Eis am Südpol findet als je zuvor, weil es kälter ist. Sie wissen, dass mein Vorredner über die nördliche Hemisphäre gesprochen hat, die sich leicht erwärmt. Die südliche Hemisphäre wird dagegen kälter. So ist das Leben. Hier haben wir ein Paper von - alles, was ich von ihm weiß ist, dass er Ole M. Johannessen heißt und Norweger ist. Er hat das grönländische Inlandeis mittels Satelliten wissenschaftlich vermessen. Und da ich auch Norweger bin, muss er Recht haben. Sie fanden heraus, dass das Inlandeis auf Grönland in den letzten 11 Jahren um 5 Zentimeter jährlich angewachsen ist. Sie sehen immer nur Bilder von der Küste; das Inlandeis aber nimmt zu. Es gibt also mehr Eis auf Grönland als vor 15 Jahren. Das ist eine Tatsache. Wenn Sie das nicht glauben, schauen Sie bei Google nach. Hier habe ich eine Folie mit den Temperaturen für verschiedene Häfen in Grönland herausgesucht; das sind die 5 kältesten bzw. wärmsten jemals gemessenen Tage. Das sind die kältesten und die wärmsten Jahre. Die wärmsten Jahre gab es mehr oder weniger in den 30er Jahren; damals hat man sich über ein schmelzendes Grönland jedoch keine Sorgen gemacht, egal bei welchen Temperaturen. Zu den kältesten Jahren gehörten 1992 und 1993. Das kälteste Jahr war also neueren Datums als die wärmsten Jahre. Wir müssen uns somit um Grönland keine Sorgen machen. Da es schwierig ist von Klimawandel zu sprechen, benutzte mein Vorredner, wie Sie vielleicht bemerkt haben, den Begriff Wetterextreme. Na, das ist doch mal was. Wenn wir aber bei jeder extremen Wetterlage eine Jahrhundertflut haben, bedeutet das, dass es so etwas vor 100 Jahren auch schon gegeben hat. Sie sehen, das Wetter ist heute nicht extremer als früher. In dem Jahr, als wir die große Katastrophe in den Vereinigten Staaten hatten, bei der New Orleans beinahe von der Landkarte getilgt wurde, gab es acht Wirbelstürme. Laut den Zeitungen ist das unsere Zukunft, das ist die globale Erwärmung, damit müssen wir rechnen. Im nächsten Jahr gab es keinen Hurrikan in den Vereinigten Staaten. Die Zeitungen schrieben aber nicht, dass es aufgrund der globalen Erwärmung keine Wirbelstürme gab und so die Zukunft aussieht. Nur wenn Katastrophen geschehen, wird man aufmerksam und sagt, das ist schlimm. Bei diesen Extremwetterlagen oder einem ansteigenden Meeresspiegel hat man das Gefühl davonrennen zu müssen. Aber dem ist natürlich nicht so. Meine Frage lautet daher: Steigt der Meeresspiegel? Betrachten Sie diese Kurve hier; das sind 1000 Jahre auf dieser Skala, also insgesamt 8000 Jahre, ausgedrückt in Metern. Der Meeresspiegel ist also in 8000 Jahren um 15 Meter gestiegen. Diese Kurve hier stellt den Meeresspiegel in den letzten Jahren dar, diesmal in Zentimetern pro 100 Jahre. Der Meeresspiegel ist also in 100 Jahren um 20 Zentimeter gestiegen. Er ist auch in den 100 Jahren davor um 20 Zentimeter gestiegen. In den letzten 200, 300 Jahren ist er jeweils um etwa 20 Zentimeter pro 100 Jahre gestiegen. Ich weise darauf hin, dass es keinen ungewöhnlichen Anstieg des Meeresspiegels gibt. Daran ist nichts Ungewöhnliches. Ich wiederhole das noch mal, damit Sie es auch wirklich verstehen. Es gibt keinen ungewöhnlichen Anstieg des Meeresspiegels. Das sind die Fakten, die die Leute nicht zugeben wollen. Sie sagen, der Meeresspiegel steigt. Ja, das tut er. Er steigt in einem Jahrhundert um 20 Zentimeter. An dieser Stelle komme ich wieder auf Al Gore zurück. Dieser Eisbär ist berühmt, weil sein Eis zur Neige geht. Die armen, knuddeligen Eisbären sterben. Der eigentliche Übeltäter ist aber der Typ hier mit dem Gewehr. Ich bin wie gesagt Norweger und komme aus Spitzbergen, einem norwegischen Protektorat. Dort leben Eisbären. Der Grund dafür ist natürlich, dass sie nicht mehr gejagt werden dürfen. Sie wurden geschützt. Was jeder in Norwegen weiß, aber Sie vermutlich nicht, ist, dass es heute mehr Seehunde gibt als früher - sie sind Beutetiere der Eisbären - weil die Leute keine Mäntel aus Seehundfell mehr kaufen. Früher haben die Kanadier und Norweger kleine Seehundbabys erschlagen, um daraus schöne Pelze zu machen. Das tun sie heute nicht mehr. Deswegen gibt es viele Seehunde, von denen sich die Eisbären ernähren. Als ich aus der American Physical Society ausgetreten bin, hat mir ein Typ namens Samson ein kniffliges Problem mit auf den Weg gegeben, das mir sehr gefällt. Denken Sie sich einen großen Raum von 6 mal 6 Metern, 3 Meter hoch. Wir können auch diesen Raum hier nehmen, er ist sehr groß. Die Frage lautet: "Wenn ich diesen Raum versiegle, wie viele Streichhölzer muss ich täglich anzünden, damit dies dem Kohlendioxidanstieg in der Luft infolge der weltweiten Autoabgase entspricht?" Es gibt ungefähr 800 Millionen Autos auf der Welt. Wie viele Streichhölzer muss ich also täglich in diesem Raum anzünden, um mit dem Kohlendioxidanstieg in der Atmosphäre Schritt zu halten? Das ist ein gutes Problem für Physiker, es hat mich überrascht. Wenn Sie in diesem Raum ein Streichholz anzünden, entspricht das wahrscheinlich dem Kohlendioxidausstoß aller Autos weltweit innerhalb von 3 Jahren. Für unseren Raum hier wären es 20 Jahre, aber er ist ja auch viel größer. Das ist wirklich erstaunlich. Die Atmosphäre ist erheblich weitläufiger als man denkt. Es handelt sich um eine relativ einfache Berechnung und ich hoffe, Sie probieren sie heute Abend aus und lernen etwas dabei. Sie sitzen jetzt hier und hören mir zu; dabei kontaminieren Sie den Raum mit Kohlendioxid. In welchem Ausmaß tun Sie das? Nun, man benötigt etwa 2000 Kalorien am Tag. Wenn wir Zucker als Nährstoff nehmen, müssten Sie am Tag drei Schüsselchen Zucker essen, das sind 2000 Kalorien. Der Zucker wiegt 450 Gramm. Das Kohlendioxid, das Sie ausatmen, wiegt aber aufgrund des Sauerstoffs aus der Luft 800 Gramm, also mehr als der Zucker. Sie atmen also jeden Tag ungefähr 800 Gramm Kohlendioxid aus, das entspricht 400 Kilogramm im Jahr und 40 Tonnen bis zum Lebensende. Das sind aber natürlich nur etwa 4% Ihrer Gesamtemissionen, denn Sie fahren Auto, heizen Ihr Haus, fliegen und so weiter. Es sind also nur 4%, so dass man die Welt durch Diät nicht retten kann. Lassen Sie das, es nützt nicht viel. Die Chinesen haben Folgendes getan, wofür ich sie sehr bewundere, denn immerhin haben sie überhaupt etwas getan: sie haben nur ein Kind pro Familie. Das Ergebnis ist, dass 375 Millionen Chinesen nicht geboren wurden. Denken Sie mal darüber nach, das ist mehr als die Bevölkerung der Vereinigten Staaten. Wenn Sie sich immer noch Sorgen um die globale Erwärmung machen, warum versuchen Sie dann nicht die Regierung dazu zu veranlassen, pro Frau nur noch ein Kind zu erlauben? Dann haben Sie wirklich etwas erreicht. Der Grund, warum die Leute das nicht machen, ist natürlich, dass es unpopulär ist. Die Chinesen haben es getan, was meiner Ansicht nach eine sehr mutige und richtige Entscheidung war. Die Grünen wollen dagegen diese Lösung. Wenn ich Windräder in Kalifornien sehe, schaudert es mich, weil ich sehe, wie meine Steuergelder zum Fenster rausgeschmissen werden. Natürlich ist das hier die richtige Entscheidung - Atomkraftwerke. Ich weiß, dass Deutschland wegen des Erdbebens und des Tsunamis in Japan aus der Atomkraft ausgestiegen ist. Diese Entscheidung war falsch und ich bin mir sicher, dass Deutschland sie rückgängig machen wird. Darauf wette ich. Wegen des Tsunamis in Japan muss man sagen, dass es ein Fehler war, dass Japan überhaupt ein Atomkraftwerk in einem erdbebengefährdeten Gebiet gebaut hat. Bei dem Erdbeben handelte es sich um eines der schwersten Erdbeben überhaupt. Bei der Katastrophe starben ungefähr 100.000 Menschen, soweit ich weiß jedoch keiner aufgrund von Strahlung. Wir haben so Angst vor Strahlung, aber das ist Unsinn. Atomkraft ist die sicherste Energieform pro erzeugter Kilowattstunde. Es gibt viele Wege Geld auszugeben. Sind Sie zufrieden, wenn Sie Solarzellen benutzen? Ich meine, sind Sie zufrieden, wenn Sie Ihr Geld, die Herstellungskapazitäten, die Landfläche und alles andere durch Verwendung von Solarzellen verschwenden? Hier haben wir ein echtes Problem der Stadt New York um 1900. Sie denken vielleicht, ich mache Witze, aber jemand hat darüber ein Buch geschrieben. Das eigentliche Problem in New York war: Wie können wir genügend Pferde bekommen? Das ist kein Witz, das war ein echtes Problem. In den Straßen der Stadt lagen damals tote Pferde. Das andere Problem war natürlich: Wie können wir den Pferdemist entsorgen? Heute lachen wir über dieses Problem. In 50 Jahren werden die Leute uns anschauen und sagen: "Wie konnten die nur so dumm sein und aus der Atomkraft aussteigen?" Deshalb frage ich: Haben wir Angst vor Veränderungen? Das hier ist eine amerikanische Figur, die keine Angst hat: "Was, ich Angst?" Hier haben wir ein Bild von der Erde in einigen Millionen Jahren. Die Erde verändert sich, die Dinge verändern sich. Wir können nicht dieselben bleiben. Das ist die amerikanische Außenpolitik. Die Dinge sollen so bleiben, wie sie sind, denn es geht den Amerikanern gut. Deshalb verfolgt man eine Politik des Stillstands. Doch selbst die Außenpolitik der Vereinigten Staaten schafft das nicht, und wir können die Erde auch nicht davon abhalten sich zu verändern. Wir müssen also meiner Ansicht nach lernen mit Veränderungen zu leben. Das ist das eine. Sie sehen hier ein Bild von mir und meiner Frau. Wir haben vor etwa 60 Jahren geheiratet. Damals sahen wir so aus. Und jetzt schauen Sie, wie wir heute aussehen. Wir haben uns verändert. Leider haben wir uns verändert. Wie Sie sehen, ist das neue Bild ein Farbfoto. Als ich geheiratet habe, gab es das nicht. Was mich betrifft, so verlasse ich die Welt also in einem besseren Zustand als bei meiner Ankunft. Und so wird es weitergehen. Hier sehen Sie einen antarktischen Eiskern, den ich Ihnen noch nicht gezeigt habe. Rund alle 100.000 Jahre tritt eine Eiszeit ein. Geschieht das vielleicht gerade jetzt? Die Menschen - das hier war vor 400.000 Jahren - haben diese Veränderungen auf der Erde schon immer durchlebt. Wenn heute eine neue Eiszeit droht, sagen die Leute: "Oh, bitte verbrennt Kohle, um die Erde aufzuwärmen." Interessant ist auch, dass die Temperatur - die blaue Linie - vor dem Kohlendioxid ansteigt. Man kann tun und machen, was man will, um etwas daran zu drehen, es ändert nichts an der Tatsache, dass dies die Experimente sind. Hiermit komme ich zum Ende und möchte aus dem Economist zitieren: "Verzweifeln Sie nicht. Begründete Hoffnung bezüglich der globalen Erwärmung." Und ich stelle noch einmal die rhetorische Frage: Ist Klimaforschung eine Pseudowissenschaft? Die Antwort lautet: Absolut. Vielen Dank.

Ivar Giaever on Global Warming
(00:03:25 - 00:08:34)

Carbon as a Clock
The fact that carbon is part of all living things and constantly moves through atmosphere and biosphere via the carbon cycle allows for an equally unusual and useful way of measuring time: radiocarbon dating. This technique, which has become invaluable to archaeologists, enables the determination of the age of carbonaceous materials in general, and dead organic matter in particular. Its inventor, Willard Libby, received the 1960 Nobel Prize in Chemistry for his achievement. At the 1971 Lindau meeting, he explained how radiocarbon dating works in detail:

Willard Libby (1971) - Radiocarbon Dating and Calibration with Tree Rings and Lake Sediments

Mrs Libby is a physicist. That explains my presence. I want to speak about the most recent developments in radiocarbon dating, emphasising our hopes for the future perfection of this method of determining the lapse of time in archaeological and historical sites. The method of radiocarbon dating derives from the production of radiocarbon in the atmosphere by cosmic rays. As Professor Hofstadter showed you, these high energy particles viciously disintegrate the atmosphere producing neutrons which are nearly quantitatively converted to radiocarbon by the nitrogen of the atmosphere. So on the average we have produced about two carbon-14 atoms per second for each square centimetre over the earth’s surface. And as time passes, this accumulates and the radiocarbon so produced burns in the air to form carbondioxide, radioactive carbondioxide. Which of course is mixed with the carbondioxide of the normal type and therefore finds its way into the life cycle, since all living matter is derived either directly or indirectly from atmospheric carbondioxide. That is the plants grow by the process of photosynthesis from the atmosphere. So we have built into our substance, and all living things have built into their substance a natural clock, set to be triggered at the moment of death. For throughout the lifetime we constitute a small but I hope very significant part of a giant system which is continually mixed by the processes of synthesis, photosynthesis and decay after death, but mainly by the winds and ocean currents. So that we have a fixed concentration of radiocarbon. With the decaying atoms being replaced by the radiocarbon contained in the food. So at the instance of death, when the supply of replacement, that is the eating of food stops, the supply of radiocarbon proceeds to decrease according to the law of radioactive decay with a half period of 5,730 years. So we do radiocarbon dating by taking long dead organic matter which once was part of a living system, such as hair from a body, such as charcoal from an ancient camp fire, such as material in woven fabrics, anything which was once part of a living system can be used to determine the lapse of time since death, that is called the radiocarbon age. Now, the principle, simple as it is, rests on several basic assumptions. The first of these is that all living matter has always had the same concentration of radiocarbon. For we do assume, when we take a piece of linen, say from a first dynasty tomb in Egypt, and find that it has about 60% of the radiocarbon that modern tissue, modern living matter has, we calculate its age to be say 4,800 years. We calculate it on the assumption that when that flax was grown, when that linen was young, it would have had the same concentration of radiocarbon that modern living matter has. In other words, a basic assumption is that life has always had the same concentration of radiocarbon. That rests on two further assumptions, namely that the cosmic ray intensity has not changed and that the volume of carbon in mixing equilibrium with the atmospheric CO2 has not changed. Of course the concentration is determined by the total amount of radiocarbon and the amount of carbon with which it is mixed. The concentration which living matter has corresponds to about 15 disintegrations per minute, per gram of carbon in the lifecycle. Or more importantly in the sea salts because in total amount the carbon contained dissolved in the ocean, in non living form is about 95 or 96% of the total diluting reservoir. So we must first say, ask the question, have the oceans changed in volume? Since the ocean is the main part of the diluting reservoir and assuming that the compositions of the ocean has not changed in the lifetime of radiocarbon or in a few lifetimes of radiocarbon, our first question is whether the volume of the ocean has changed. Now, we know that it hasn’t, and even if it had changed we would probably not appreciably affect the carbon in the reservoir but merely concentrate the salts to some degree. However, since the ocean is close to being saturated with respect to calcium carbonate formation, we must study whether the volume of the ocean has changed. Now, we have a way of doing this, if I may have the first slide, I’ll show you the evidence. Dr. Dansgaard from Copenhagen has carefully studied ice cores from Greenland, going back as far as an estimated 87,000 years. And he has measured the O18 concentration of these samples of ice. Now, to a first approximation, as ice is formed, the water which of course came by evaporating from the ocean, is depleted in the heavy oxygen isotope. So beginning over here at the present, at this concentration we have a constant O18 concentration back to about 10,000 or 12,000 years. Then we have a drop off which corresponds to the formation of the last ice sheets. And this drop off gives us a measure of the extent to which the volume of the ocean has changed. We see incidentally that the ice lasted approximately 15,000 years and there was a considerable period before it went back to the present normal state. So from this we know that the volume of the ocean has been constant over the last 40,000, 50,000 years to about 1% or 1½%. So our basic assumption that the reservoir has been constant is probably sound. However the proof of the matter lies in the testing of the accuracy of the dates. About 10 years after we began systematically measuring radiocarbon dates, we began to observe that the dates about 3,000 years before the present were looking a little young. And when we got back to the first dynasty’s of Egypt, it seemed that either the Egyptian historians were wrong or radiocarbon was giving an erroneously young date. The difference being some several centuries. That is we were finding for the first dynasty of Egypt about 4,300 years, whereas the historians expected something more like 4,800 years. We read a lot of Egyptian history then and when you do go into the evidence the historians have used, it does not inspire you with great confidence. So we were not at all certain that we had evidence of cosmic ray variation in this discrepancy. So we turned to the use of another method of checking and that is the tree ring technique. It is a remarkable fact that the wood in a large tree is dead, chemically dead, and is unable to interact with the sap, even though it’s continuously in contact with it, after it’s once ceased to be part of the living system of the tree. The other several rings may have some contact with the life bearing sap, but as far as we can tell from the radiocarbon datings of the inner parts of large trees, they are dead within a few years of being themselves part of the outer ring. Thus when we take a large redwood tree, among the first tests we ever used for calibrating the radiocarbon dating technique, was a very large redwood tree which had nearly 3,000 rings in it. And we took borings through the tree and using about 10 years, no, the first measurements were made on about 100 year slice, because our error of counting and measuring the radiocarbon was at least 100 years. We found an agreement between the radiocarbon age and the number of tree rings. Now, this has never ceased to amaze me, as a chemist, but it gave us great confidence in another assumption we had to make in developing the radiocarbon dating method, namely that we could do our laundry well, we could clean up. We could wash and purify, say charcoal that had been lying in the ground for 10,000 years, and we could remove the contaminating humic acids and other carbonaceous dirt that might have accumulated. But returning to the tree ring, this early result had left us with the impression that if worse came to worse we could use tree ring samples themselves for checking the radiocarbon dating method. So mainly due to the efforts of Dr. Paul Damon of the University of Arizona, early measurements were made on trees which had been dated by the tree ring method. And these dates, even though they stopped at something like 3,000 or 4,000 years themselves, did show a tendency for the older dates to be a few centuries too young. May I have the next slide, please? I’m afraid this is not visible, maybe you can see a little of it. On the one side here is the radiocarbon date and on the other side is the tree ring date and if they were in perfect agreement, the data would fall right on this horizontal line. Back here at about 1,000 BC, they begin to move up. Next slide, please. These data due largely to the work of Professor Hans Suess at La Jolla, show the results from the most ancient living tree, the bristlecone pine tree. These wonderful trees grow in only one place on earth, namely the south western United States. They live to be about 4,000 or 5,000 years old. They’re a scraggly stunted looking little tree with great ability to survive. These materials are invaluable for our problem of testing the method of radiocarbon dating. For by using various pieces of wood, which are found lying on the forest bed, it has been possible to constitute a dendrochronological scale which goes back to something like 8,000 years. This remarkable piece of work was done by Wes Ferguson of the Douglas tree ring laboratory at the university of Arizona and Dr. Suess measured the radiocarbon content. Now you will see, beginning at the present time and going backward in time, we have some small wiggles and deviations which Dr. Suess believes are beyond experimental air, and I believe it’s true also, for we have used these wiggles, as we call them, of Dr. Suess’s, for checking some very accurately known materials, namely some of the English manor houses and French chateau and we do find that the historical records agree far better with the radiocarbon date after the radiocarbon dates have been corrected with the Suess wiggles. These wiggles continue throughout the whole record but at about 2,000 years ago there’s a general drift towards radiocarbon dates being younger, the radiocarbon dates are given above and the tree ring dates below. Next slide, please. This deviation continues, the deviation amounting, say at 5,000 years ago, by the way this is the 4,800 year point and if we use this correction to our 4,300 year date for radiocarbon, we get the answer, the classical Egyptian historians had given us the whole while. In other words, they are right. They’ve been, I must say, pleased to learn that. But these wiggles are superimposed on a massive general trend which apparently continues back to at least 6,000 years. Now, we have some additional methods of checking. In the radiocarbon content of lake sediments. The next slide, please. We have here the data of Dr. Minze Stuiver of the University of Washington who studied a sedimentary lake, the sediment in a lake which he’s measured in terms of ash content, pollen grains, total organic matter and then the radiocarbon ages. Now, the radiocarbon ages are given here and what he calls the true ages, in terms of the thickness of sediment, as derived from the younger layers, would be here. And as you see, the radiocarbon ages are too young again. But the interesting part about this is that Minze Stuiver would say and does say that at about 10,000 or 11,000 years ago we’re back on the beam. And therefore apparently there was a period of time beginning at about 3,000 years ago and backward in time, or I should say the other way around, beginning about 10,000 years ago and up until about 3,000 years ago, the cosmic rays were extra intense. There was an augmentation of their intensity as compared to what it is today and what it was at the time of the last ice sheet some 12,000 years ago. That’s all for the slide, please. We have some 30,000 radiocarbon dates and in most cases the archaeologists and historians and the geologists are not so extremely concerned about the dates being translatable into accurate calendar dates. But in enough cases, namely the historians, there is a deep interest and concern in the accuracy that we feel it is a very important task that we have to press the calibration curve. There’s another aspect to it, too, and that is that the cause or the variation of the cosmic ray intensity has considerable scientific interest. What is it that made the cosmic rays become, what was it that made the cosmic rays become more intense, beginning about 10,000 years ago. What made them go back to their present lower level. The fluctuations I’m talking about here amount to a few percent. It was by a few percent that the cosmic rays increased, beginning about 10,000 years ago. Though I must say that the question of whether they were at the present level prior to that time is still not definitely answered. In addition to the curves and data I showed on the slides, there is work in Sweden with the lake sediments up there, the beautiful work of the Baron De Geer on the so called Swedish varves, that we are able to correlate the varve dates with the radiocarbon dates, though the varves themselves contain too little carbon for a dating. We occasionally find material embedded in the lake sediments and we’re able to date those. And doctor Tauber of Copenhagen has done considerable work on the varve dating, correlating it with radiocarbon and he, as well as Dr. Stuiver, finds that the radiocarbon is back on the present curve at about 10,000 years ago. So we have some confidence saying in the deduction something made the cosmic rays increase in intensity beginning about 10,000 years ago. And that something ceased to exist about 3,000 years ago, plus or minus perhaps 1,000 years. When we send an instrument such as the one Professor Hofstadter spoke to us about, up in a rocket, we see a 4-fold increase in the cosmic ray intensity. Now, half of that is due to just geometry because when you’re on the surface of the earth, you have only 2 pi steradians from which you can receive cosmic rays. When you get away from the earth, you have 4 pi in this factor of 2. But the other factor of 2 is due to the earth’s magnetic field, cosmic rays are charged, and as Professor Hofstadter said, you can bend charged particles and that’s the way they determine the energy in the Stanford laboratory. But the bending of the incoming cosmic rays causes about half of them to escape the earth and just go back out again. So we have a factor of 2 that is, if we turned off the earth’s magnetic field right now, the cosmic ray bombardment intensity and therefore the radiocarbon production rate would double. So about 15 years ago Dr. Elsasser and collaborators suggested that we should look carefully for deviations in the radiocarbon curve of just the sort that we have seen, has actually been found. He didn’t predict which way it would be but he gave a formula for it and suggested that if the earth’s magnetic field had varied we would see it in the discrepancy between the radiocarbon ages and the historical ages. Well, we found such a discrepancy. In the directions we would have said, if the Elsasser theory is correct, the earth’s magnetic field was weakened beginning about 10,000 years ago and then it recovered about 3,000 years ago and we can even say how much, a few percent. Now, we know from magnetic records that the earth’s field has changed in direction in historical times. The navigational charts show this, the earth’s pole wanders. Now, however, such a wandering in direction will not in any way effect the radiocarbon age, because we know that even though the cosmic rays vary strongly with intensity over the earth’s surface, the mixing is so rapid that a tree grown on the equator has exactly, well, within our experimental area, namely a percent or so, the same radiocarbon concentration as a tree say in the Yukon. Well, we made this measurement many times, going all over the earth and all living matter has the same concentration to within a percent. So the mixing is very rapid. So it isn’t enough to turn the north pole and south pole on to the equator, what you’ve got to do is change the total strength, the strength of the total magnetic field. If you do that and you weaken that, then the cosmic rays will come in and your radiocarbon ages will get too young. By the way, at the present time we are about twice the primeval level, due to the atomic explosions in the atmosphere. Archaeologists who dig us up are going to be very surprised at the radiocarbon age we show. But assuming such perturbations were not possible in past times, there were no hydrogen bombs 10,000 years ago, it must have been the earth’s field, magnetic field weakened. Now, of course we do not know much about the origin of the earth’s field and so perhaps anything is reasonable. Or it’s interesting that from the study of history we can say that the earth’s field weakened in these ancient times. And so we see a bringing together of the disciplines here in an interesting way. Now, we’ll look at Suess’s wiggles, the general trend we’ll call Elsasser, the wiggles we’ll call Suess. Now, the general trend we can easily imagine is due to a gradual weakening and then a recovery of the earth’s field. But the wiggles presumably are due to something else. Suess suggests and I agree, though I don’t think either of us would say it’s proven, that the wiggles are due to the sun. The sun continually gives off a plasma vapour which proceeds to flow outward from it. This plasma wind, called the solar wind, has in it totally ionised matter and in the clumps of plasma which fly outward are entrained, rather substantial magnetic fields. And these magnetic fields will scatter cosmic rays. Now, the main part of the cosmic rays are coming from outside the solar system. So as the solar wind blows outward from the sun, it’s continually pushing back and scattering back the incoming cosmic rays. And we think the wiggles are due to variation in the intensity of the solar wind in past times. Suess goes so far, and I think it's interesting speculation, to say that correlates with the weather, when the solar wind is strong, the sun is hot or cold - I forget which, I think it’s hot – and when the solar wind is weak, the opposite is true and he’s gone back looking at the historical weather records and finds a fairly convincing correlation between his wiggles and the mean temperatures. This is probably too speculative to pursue much further but in any case it offers an opportunity for future research. Much more can be done to establish the history of the weather, there’s a Professor Lamb at Oxford who is the world’s great authority on the history of the weather and I’ve talked with him at some length about it and he thinks much more can be done. And if the Suess theory is correct we’ll be able to get a figure for the variation of the solar constant in past time or may be able to get from a study of the radiocarbon correction curve. However the establishment of accurate historical records will reside entirely on our being able to correct the radiocarbon curve. Most places on earth there are no written records beyond 2,000 years ago. The only written records in the world are the Egyptians and 1 or 2 other Asia minor societies, there are no written records in any of the Americas beyond the Mayan. And in middle Europe and throughout all of the world, except for the middle east, there are no written records of any substance. All we have in terms of past history relies on our doing something about these corrections. Now, radiocarbon mixes rapidly, therefore, if we can carry the Ferguson-Suess work back in this one forest in the white mountains of the southern Sierra Nevada, we’ve got the whole thing. We have the whole thing if we can just carry them back in that one place, namely the Schulman forest grove in the southern Sierra Nevada. Now, let me tell you about this. This little laboratory in the university of Arizona, the only place in the world, this bristlecone pine work is done. The bristlecone pine doesn’t live any place else. The requirements are that it lives at an altitude of something over 3,000 metres and then it will live fine and it may live as long as 5,000 years. We found one tree down there that was 4,200 years old when unfortunately a graduate student sawed it down. He was supposed to bring home a core, you know, they take a core to go through and then they bring that back and count the rings and saving the tree. But for one or another reason he misunderstood and he sawed this tree down and brought back a slab, a whole section. I have part of that on my desk, 4,200 years old when that tree was cut down. But, more importantly, lying on the ground in this forest are trees which died 5,000 years ago, which themselves were 4,000 years old when they died. So the technique is to take these ancient pieces of what looks like driftwood lying on the forest floor, take it to our radiocarbon dating lab, we make a date of it and that gives them the guideline as to where to start matching. Then they look at the fine structure of the tree rings. And they match the fine structure that is one year will be thicker, the next year will be thinner, it will vary widely from year to year, that's attractive feature of this marvellous tree, is that it has a great deal of variation from year to year in the thickness of the rings. And so, from this single bed, a single forest stand of trees, they build up a structure for the variation from year to year by overlapping the rings, they can extend the chronology back beyond the time of the oldest living tree now, which is about 5,000 years. And in this way, Ferguson and Suess have pushed the bristlecone pine back to 8,000 years. We hope that we can push it back to 9,200 years, because Mrs. Ferguson about 2 years ago, when they were up there, said there’s a pretty piece, let’s take it back and we radiocarbon dated that at 9,200 years in its oldest part. Now, we have to find another log which will be 8,000 years old on the inner part and 9,000 years old and so we can go back to 10,000 years hopefully in this way. But all of quantitative human history depends on keeping the fact that the bristlecone pine is the most valuable historical research object in the world, secret. We must keep it secret, we must not let people come and use it for firewood or take it home and put it on their mantles. We have decided however that the best way to keep it secret is to act as though it was unimportant. So there is a new road into the Schulman forest, but we have an unusually attentive set of forest rangers around there. and we have not put a fence and a padlock on it. We had thought to have a big project where we go to gather all of the pieces of drift wood or fallen wood, and put them in the warehouse, we’ve even decided against that because it’s a pretty large job and seemed thoroughly beyond our budget. I guess you know that radiocarbon dating is not an extremely richly financed field of research, nothing like the field of space physics and high energy physics. Well, I wanted to tell you this, if any of you can think of any other ways of calibrating radiocarbon dates beyond 10,000 years or even back to 10,000 years, we would certainly appreciate knowing about them. Thank you very much.

Mrs Libby ist Physikerin. Das erklärt, warum ich hier bin. Ich möchte über die neuesten Entwicklungen in der Datierung mit Hilfe der Radiokarbonmethode sprechen und dabei die Hoffnung zu Ausdruck bringen, dass diese Methode der Altersbestimmung an archäologischen und historischen Fundstätten in Zukunft perfektioniert werden kann. Die Methode der Radiokarbondatierung basiert darauf, dass durch die kosmische Strahlung in der Atmosphäre radioaktiver Kohlenstoff entsteht. Wie Ihnen Professor Hofstädter gezeigt hat, führen diese Hochenergieteilchen zur Zersetzung der Atmosphäre. Sie erzeugen Neutronen, die durch den Stickstoff der Atmosphäre fast im Verhältnis von 1:1 in radioaktiven Kohlenstoff umgewandelt werden. Durchschnittlich werden pro Sekunde und Quadratzentimeter der Erdoberfläche etwa zwei Kohlenstoff-14-Atome erzeugt, und im Laufe der Zeit kommt es zu einer Akkumulation. Der auf diese Weise erzeugte radioaktive Kohlenstoff verbrennt in der Luft zu Kohlendioxid, radioaktivem Kohlendioxid, das sich natürlich mit dem normalen Kohlendioxid vermischt und auf diese Weise in den Kreislauf des Lebens gelangt, da alle lebende Materie entweder direkt oder indirekt vom Kohlendioxid der Atmosphäre abstammt, d.h. vom Pflanzenwachstum durch die Photosynthese, die das Kohlendioxid der Atmosphäre verwendet. Auf diese Weise ist in unsere Substanz, in die Substanz aller Lebewesen, eine natürliche Uhr eingebaut, die zum Zeitpunkt des Todes zu laufen beginnt. Denn während unseres Lebens bilden wir einen sehr kleinen – doch wie ich hoffe – sehr bedeutsamen Teil eines riesigen Systems, das ständig durch die Prozesse der Photosynthese gemischt wird, durch die Photosynthese und den Zerfall nach dem Tod, doch hauptsächlich durch die Winde und die Meeresströmungen, sodass wir eine konstante Konzentration von radioaktivem Kohlenstoff haben, wobei die zerfallenden Atome durch den radioaktiven Kohlenstoff ersetzt werden, der in der Nahrung enthalten ist. Ab dem Augenblick des Todes, wenn die Lieferung des Nachschubs, den die Nahrungsaufnahme darstellt, aufhört, nimmt die Konzentration von radioaktivem Kohlenstoff nach dem Gesetz des radioaktiven Zerfalls mit einer Halbwertzeit von 5.730 Jahren ab. Die Radiokarbondatierung erfolgt also dadurch, dass wir seit langem tote, organische Materie untersuchen, die einmal Teil eines lebenden Systems war: etwa die Haare einer Leiche, die Holzkohle einer uralten Feuerstelle, das Material in einem gewebten Stoff – alles, was ehemals Teil eines lebenden Systems war, kann dazu verwendet werden, die seit dem Tod des Organismus verstrichene Zeit zu bestimmen, die man als das mit der C14-Methode berechnete Alter bezeichnet. Nun, im Prinzip ist dies sehr einfach, da es auf mehreren Grundannahmen basiert. Die erste von ihnen besteht darin, dass alle lebende Materie immer dieselbe Konzentration von radioaktivem Kohlenstoff gehabt hat. Denn wir gehen davon aus, wenn wir ein Stück Leinen untersuchen – sagen wir aus einem Grab der ersten ägyptischem Dynastie – und feststellen, dass es 60 Prozent des radioaktiven Kohlenstoffs enthält, der sich in gegenwärtig lebender Materie findet, dass sich sein Alter auf sagen wir 4.800 Jahre berechnen lässt. Wir berechnen das Alter unter der Voraussetzung, dass das Flachs, als es gewachsen ist, als das Linnen frisch gewebt war, dieselbe Konzentration von radioaktivem Kohlenstoff enthielt, der sich in lebender Materie der Gegenwart findet. Mit anderen Worten: Es ist eine grundsätzliche Annahme, dass lebende Materie stets die gleiche Konzentration von radioaktivem Kohlenstoff enthält. Diese Annahme beruht selbst auf zwei weiteren Annahmen, d.h.: dass die Intensität der kosmischen Strahlung sich nicht geändert hat und dass sich der Anteil des Kohlenstoffs im Mischungsgleichgewicht mit dem CO2 der Atmosphäre nicht geändert hat. Die Konzentration hängt natürlich vom Gesamtumfang des radioaktiven Kohlenstoffs und der Menge des Kohlenstoffs ab, mit dem er vermischt ist. Die C14-Konzentration lebender Materie entspricht einem Zerfall von 15 Atomen pro Minute und Gramm des Kohlenstoffs im Lebenszyklus. Oder noch wichtiger: in den Salzen der Meere, denn die Gesamtmenge des in den Meeren in gelöster Form enthaltenen Kohlenstoffs, in nicht lebender Form, entspricht etwa 95 % oder 96 % des zur Lösung vorhandenen Gesamtreservoirs. Wir müssen also sagen, die Frage stellen: Hat sich das Volumen der Meere geändert? Da das Meer der Hauptteil des Lösungsreservoirs ist und wir davon ausgehen, dass sich die Zusammensetzung des Meeres in der Lebenszeit des radioaktiven Kohlenstoffs oder in ein paar Lebenszeiten von radioaktivem Kohlenstoff nicht geändert hat, lautet unsere erste Frage, ob sich das Volumen der Meere geändert. Nun, wir wissen, dass es sich nicht geändert hat, und selbst wenn es sich geändert hätte, würde dies wahrscheinlich keine nennenswerte Auswirkung auf den Kohlenstoff in diesem Reservoir haben, sondern lediglich bis zu einem gewissen Grad auf die Konzentration der Salze. Da die Ozeane jedoch bezüglich der Kalziumkarbonatbildung fast gesättigt sind, müssen wir untersuchen, ob sich das Volumen der Ozeane geändert hat. Nun, wir verfügen über eine Methode, dies zu untersuchen. Wenn ich bitte das erste Dia haben könnte, zeige ich Ihnen die Belege hierfür. Dr. Dansgaard aus Kopenhagen hat Eiskerne aus Grönland genauestens untersucht, wobei er bis zu etwa 87.000 Jahre in die Vergangenheit zurückgegangen ist. Er hat die O18-Konzentration dieser Eisproben analysiert. In einer ersten Näherung lässt sich feststellen, dass das Eis, da es aus von den Meeren verdunstetem Wasser entstand, sehr wenig Isotope mit schwerem Sauerstoff enthält. Wenn wir also hier in der Gegenwart anfangen, mit dieser Konzentration, haben wir bis in die Zeit vor 10.000 oder 12.000 Jahren eine konstante O18-Konzentration. Dann kommt es zu einem Absinken der Konzentration, dem zeitlich die Entstehung der letzten Eisschilde korrespondiert. Und dieses Absinken gibt uns ein Maß dafür, in welchem Umfang sich das Volumen der Meere geändert hat. Nebenbei bemerkt, können wir erkennen, dass die Eiszeit etwa 15.000 Jahre dauerte und dass es ziemlich lange dauerte, bevor der Wert wieder zur gegenwärtigen, normalen Höhe zurückkehrte. Aufgrund dieser Analysen wissen wir, dass das Volumen der Meere über die letzten 40.000 oder 50.000 Jahre nur um 1 % oder 1,5 % schwankte. Unsere Grundannahme, dass der Umfang des Reservoirs konstant gewesen ist, trifft wahrscheinlich zu. Der Beweis der Angelegenheit besteht jedoch im Testen der Genauigkeit der Daten. Etwa 10 Jahre nach dem Beginn systematischer Altersmessungen mit der Radiokarbondatierung begannen wir festzustellen, dass Daten von vor etwa 3.000 Jahren ein wenig zu jung aussahen. Und als wir zur ersten Dynastie Ägyptens zurückkehrten, schien es, als ob sich entweder die ägyptischen Historiker geirrt hatten, oder die Radiokarbonmethode fälschlicherweise ein zu junges Datum lieferte. Der Unterschied betrug mehrere Jahrhunderte, d. h. für die erste ägyptische Dynastie fanden wir ein Alter von etwa 4.300 Jahren, während die Historiker eher ein Alter von 4.800 Jahren erwarteten. Wir lasen dann sehr viel ägyptische Geschichte, und wenn man sich die Belege anschaut, auf die sich die Historiker gestützt hatten, so sind sie nicht sonderlich vertrauenserweckend. Wir waren uns daher alles andere als sicher, dass diese Diskrepanz eine Variation in der kosmischen Strahlung bewies. Also wendeten wir uns einer alternativen Methode der Überprüfung zu, und zwar der Dendrochronologie. Es ist eine bemerkenswerte Tatsache, dass das Holz in einem großen Baum tot ist, chemisch tot. Es kann, sobald es nicht mehr Teil des lebenden Systems des Baumes ist, mit dem Saft des Baumes nicht mehr in Wechselwirkung treten, obwohl es ständig mit ihm in Kontakt ist. Die anderen Ringe mögen zwar mit dem lebendigen Saft des Baumes einen gewissen Kontakt haben, doch so viel wir nach den Radiokarbondatierungen des Inneren großer Bäume sagen können, sind sie innerhalb einiger Jahre, in denen sie Teil des äußeren Baumrings gewesen sind, tot. Wenn wir beispielsweise einen sehr großen Mammutbaum nehmen – ein Mammutbaum war der erste Baum, den wir zur Kalibrierung der Technik der Radiokarbondatierung verwendeten. Es war ein sehr großer Baum, in dessen Innerem sich fast 3.000 Jahresringe befanden. Wir entnahmen dem Baum Bohrkerne und verwendeten etwa 10 Jahre, nein, die ersten Messungen nahmen wir an einem etwa 100 Jahre alten Stück vor, denn unser Fehler bei der Zählung und Messung des radioaktiven Kohlenstoffs betrug mindestens 100 Jahre. Wir stellten eine Übereinstimmung zwischen dem nach der C14-Methode und dem anhand der Jahresringe bestimmten Alter fest. Diese Tatsache hat nie aufgehört mich als Chemiker zu faszinieren, doch sie gab uns ein großes Vertrauen in eine andere Voraussetzung, die wir bei der Entwicklung der Radiokarbondatierung machen mussten, nämlich dass wir gut waschen konnten, dass wir unsere Proben waschen konnten. Wir konnten zum Beispiel Holzkohle, die 10.000 Jahre lang im Boden gelegen hatte, waschen und reinigen, und wir konnten die sie verunreinigenden Humussäuren und anderen kohlenstoffhaltigen Schmutz, der sich angesammelt haben konnten, entfernen. Doch um auf die Dendrochronologie zurückzukommen: Dieses frühe Ergebnis hinterließ bei uns den Eindruck, dass wir schlimmstenfalls Proben von Jahresringen verwenden konnten, um die Methode der Radiokarbondatierung zu überprüfen. Hauptsächlich aufgrund von Bemühungen von Dr. Paul Damon von der Universität von Arizona wurden frühe Messungen an Bäumen vorgenommen, deren Alter mit Hilfe der Dendrochronologie bestimmt worden war. Und diese Daten – obwohl sie nur bis zu einem Alter von 3.000 oder 4.000 Jahren zurückreichten – zeigten die Tendenz, dass die älteren Daten um ein paar Jahrhunderte zu jung angegeben wurden. Könnte ich bitte das nächste Dia haben? Ich fürchte, dies ist nicht sichtbar. Vielleicht können Sie ein wenig davon erkennen. Auf der einen Seite befindet sich das mit der Radiokarbonmethode bestimmte Alter und auf der anderen das dendrochronologische Alter, und wenn sie völlig übereinstimmten, würden die Daten genau auf dieser waagerechten Linie liegen. Hier hinten, in der Zeit um etwa 1000 vor Christus, beginnen die Daten anzusteigen. Das nächste Dia bitte. Diese Daten, die größtenteils auf die Arbeit von Professor Hans Suess in La Jolla zurückgehen, zeigen die Ergebnisse für den ältesten lebenden Baum, die Borstenkiefer. Diese wunderbaren Bäume wachsen nur in einer einzigen Region der Welt, im Südwesten der Vereinigten Staaten. Sie werden 4.000 oder 5.000 Jahre alt. Es sind kleine, raue und verkümmert aussehende Bäume mit einer großen Fähigkeit zu überleben. Diese Materialien sind für unser Problem, die Methode der Radiokarbondatierung zu testen, von unschätzbarer Bedeutung. Denn anhand von verschiedenen Holzstücken, die man auf dem Waldboden gefunden hat, war es möglich, eine dendrochronologische Skala zu erstellen, die etwa 8.000 Jahre zurückreicht. Diese bemerkenswerte Arbeit wurde von Wes Ferguson vom Douglas-Baumringlabor an der Universität von Arizona geleistet, und Dr. Suess bestimmte den Anteil an radioaktivem Kohlenstoff. Sie sehen, dass wir hier – beginnend in der Gegenwart und in die Vergangenheit zurückgehend – einige kleine Abweichungen haben, von denen Dr. Suess annimmt, dass es sich dabei um mehr als experimentelle Abweichungen handelt, und auch ich bin dieser Meinung. Denn wir haben diese Dr. Suess-„Schlängel“, wie wir sie nennen, dazu verwendet einige Materialien zu überprüfen, deren Alter wir genau kennen, nämlich Materialien aus englischen Herrenhäusern und französischen Schlössern, und wir stellten fest, dass die historischen Aufzeichnungen wesentlich genauer mit dem durch die Radiokarbonmethode ermittelten Daten übereinstimmen, wenn diese Daten anhand der „Suess-Schlängel“ korrigiert wurden. Diese Abweichungen setzen sich durch sämtliche Daten der Vergangenheit fort, doch vor etwa 2.000 Jahren zeigt sich generell die Tendenz, dass die mit der Radiokarbonmethode ermittelten Daten ein zu geringes Alter anzeigen. Die Radiokarbondaten sind oben und die dendrochronologischen Daten darunter angegeben. Das nächste Dia bitte. Diese Abweichung setzt sich fort. Sie beläuft sich, sagen wir vor 5.000 Jahren (dies ist, nebenbei bemerkt, der Punkt des Jahres 4.800) und wenn wir diese Korrektur auf das mit der Radiokarbonmethode errechnete Alter von 4.300 Jahren anwenden, erhalten wir die Antwort, die uns die Historiker des klassischen Ägypten schon immer gegeben haben. Mit anderen Worten: Sie haben Recht. Sie haben sich, das muss ich sagen, gefreut, das zu erfahren. Doch diese „Schlängel“ überlagern eine massive allgemeine Tendenz, die sich scheinbar mindestens bis in die Zeit von vor 6.000 Jahren fortsetzt. Nun, es gibt noch weitere Methoden der Überprüfung: die Untersuchung des radioaktiven Kohlenstoffanteils in den Sedimenten von Seen. Das nächste Dia bitte. Wir haben hier die Daten von Dr. Minze Stuiver von der Universität Washington, der die Sedimentablagerungen am Boden eines Sees untersucht hat. Er untersuchte das Sediment auf seine Anteile von Asche, Pollenkörnern sowie der Gesamtmenge der organischen Materie und bestimmte dann deren Alter mit der Radiokarbonmethode. Nun, die mit der Radiokarbonmethode ermittelten Altersangaben werden hier angezeigt, und was er als die wahren Altersangaben bezeichnet, die auf der Dicke der Sedimentschichten beruhen und aus jüngeren Schichten abgeleitet sind, wird hier wiedergegeben. Wie Sie sehen, geben die C14-Daten wieder ein zu geringes Alter an. Das Interessante hieran ist, dass Minze Stuiver sagen würde, und auch sagt, dass diese Abweichung vor 10.000 oder 11.000 Jahren aufhört. Daher gab es scheinbar einen Zeitraum, der vor etwa 3.000 Jahren begann und in die Vergangenheit reicht, oder ich sollte es anders herum sagen: der vor 10.000 Jahren begann und bis in die Zeit vor 3.000 Jahren reichte, in der die kosmische Strahlung besonders intensiv war. Ihre Intensität war im Vergleich zu ihrem heutigen Wert und demjenigen zur Zeit des letzten Eisschildes vor etwa 12.000 Jahren stärker. Mehr habe ich zu diesem Dia nicht zu sagen. Mit der Radiokarbonmethode wurden etwa 30.000 Datierungen vorgenommen. In den meisten Fällen sind die Archäologen und Historiker und die Geologen nicht sonderlich darum besorgt, ob sich die Datierungen in exakte Kalenderdaten übersetzen lassen. Doch in genügend vielen Fällen, namentlich unter Historikern, besteht ein starkes Interesse an dieser Frage und ein Verlangen nach Genauigkeit, sodass wir es für eine sehr wichtige Aufgabe halten, zu versuchen, die Kalibrierungskurve zu verbessern. Es gibt auch noch einen weiteren Aspekt: Die Frage nach der Ursache der Intensitätsschwankung der kosmischen Strahlung ist von beträchtlichem wissenschaftlichem Interesse. Was ist dasjenige, was war dasjenige, was die kosmische Strahlung vor etwa 10.000 Jahren stärker werden ließ? Was führte dazu, dass sie zu ihrer gegenwärtigen, geringeren Intensität zurückkehrte? Die Schwankungen, von denen hier die Rede ist, betrugen nur wenige Prozent. Vor etwa 10.000 Jahren stieg die Intensität der kosmischen Strahlung um wenige Prozent an; obwohl ich zugeben muss, dass die Frage, ob sie vor dieser Zeit die Intensität von heute hatte, immer noch nicht abschließend beantwortet ist. Zusätzlich zu den Kurven und Daten, die ich Ihnen auf den Dias gezeigt habe, gibt es Arbeiten in Schweden, die die Sedimente in dortigen Seen analysiert haben, die wunderschönen Arbeiten von Baron De Geer über die sogenannten schwedischen Warven, sodass wir die anhand der Warven ermittelten Daten mit den C14-Daten korrelieren können, obwohl die Warven selbst für eine Datierung zu wenig Kohlenstoff enthalten. Gelegentlich finden wir Material, das in die Sedimente am Boden der Seen eingebettet ist und das wir dann mit der Radiokarbonmethode datieren können. Dr. Tauber aus Kopenhagen hat über die Warve-Datierung intensiv gearbeitet. Er hat sie zur C14-Datierung in Beziehung gesetzt, und er fand, gemeinsam mit Dr. Stuiver, heraus, dass die C14-Datierung mit der gegenwärtigen Kurve vor etwa 10.000 wieder zur Deckung kommt. Wir haben also einiges Zutrauen zu dem von uns gezogenen Schluss, dass vor 10.000 Jahren etwas zur Zunahme der kosmischen Strahlung geführt hat und dass diese Ursache vor etwa 3.000 Jahren nicht mehr fortbestand, wobei diese Zahl nach unten oder oben um 1.000 Jahre schwanken kann. Wenn wir ein Messinstrument von der Art, wie es uns von Professor Hofstädter vorgestellt wurde, in einer Rakete ins All schicken, beobachten wir eine vierfache Zunahme der Intensität der kosmischen Strahlung. Nun, die Hälfte dieser Zunahme ist einfach eine Sache der Geometrie, denn wenn man sich auf der Erdoberfläche befindet, kann man nur aus 2pi Raumwinkeln kosmische Strahlen empfangen. Wenn man die Erde verlässt, hat man 4pi und dies entspricht einem Faktor von 2. Doch der andere Faktor 2 geht auf das Magnetfeld der Erde zurück. Kosmische Strahlen sind geladen, und wie Professor Hofstädter ausführte, kann man geladene Partikel beugen, und das entspricht der Methode, mit der man im Stanford-Labor ihre Energie misst. Aber die Beugung der eintreffenden kosmischen Strahlung führt dazu, dass etwa die Hälfte an der Erde vorbei in den Kosmos zurückstrahlt. Wir haben also einen Faktor von 2: Würden wir das Magnetfeld der Erde jetzt ausschalten, würde sich die Intensität des Strahlenbombardements Vor etwa 15 Jahren schlugen Dr. Elsässer und seine Mitarbeiter daher vor, dass wir in der Radiokarbonkurve sorgfältig nach Abweichungen der Art suchen sollten, die wir beobachtet haben, die tatsächlich gefunden wurden. Er sagte nicht vorher, in welcher Richtung sie liegen würden, doch er gab eine Formel dafür an und sprach die Vermutung aus, dass wir dies – wenn die Stärke des Magnetfeldes der Erde Schwankungen unterlag – an der Diskrepanz zwischen dem historischen und dem mit der Radiokarbonmethode ermittelten Alter erkennen könnten. Nun, wir haben eine solche Diskrepanz festgestellt. In den Richtungen, die wir erwartet hatten, wenn die Theorie von Dr. Elsässer richtig war, war das Magnetfeld der Erde vor etwa 10.000 Jahren schwächer geworden und hatte vor etwa 3.000 seine vorherige Stärke wiedererlangt. Wir können sogar sagen, in welcher Größenordnung: von wenigen Prozent. Wir wissen aus geomagnetischen Daten, dass das Magnetfeld der Erde im Laufe ihrer Geschichte seine Richtung geändert hat. Die Navigationskarten zeigen, dass die Pole der Erde wandern. Nun wirkt sich jedoch eine solche Wanderung der Richtung des Magnetfeldes auf das anhand der Radiokarbonmethode ermittelte Alter nicht aus, denn wir wissen, dass – obwohl die Intensität der kosmischen Strahlung auf der Erdoberfläche stark variiert – die Mischung des radioaktiven Kohlenstoffs so schnell erfolgt, dass ein am Äquator gewachsener Baum genau die gleiche Konzentration an radioaktivem Kohlenstoff enthält wie ein in Yukon gewachsener Baum. Wir haben diese Messung überall auf der Erde wiederholt durchgeführt: Alle lebende Materie hat die gleiche Konzentration von radioaktivem Kohlenstoff (plus/minus 1 Prozent). Die Vermischung erfolgt demnach sehr schnell. Es reicht also nicht, den Nord- und Südpol auf den Äquator zu drehen: Was man erreichen müsste, wäre eine Änderung der Gesamtstärke des magnetischen Feldes. Wenn das geschähe, wenn man es reduzieren könnte, würden mehr kosmische Strahlen auftreffen, und die von uns mit der Radiokarbonmethode gemessenen Altersangaben würden dann zu gering ausfallen. Nebenbei bemerkt ist die Intensität der kosmischen Strahlung gegenwärtig aufgrund der atomaren Explosionen in der Atmosphäre doppelt so hoch wie in der Urzeit. Archäologen, die uns einst ausgraben, werden über unser Radiokarbonalter sehr erstaunt sein. Wenn wir jedoch davon ausgehen, dass solche massiven Störungen in der Vergangenheit nicht möglich waren die Tatsache, dass das Magnetfeld der Erde schwächer wurde. Nun wissen wir natürlich nicht viel über den Ursprung des Magnetfeldes der Erde, und daher sind vielleicht zahllose Vermutungen in gleicher Weise vertretbar. Es ist interessant, dass wir dem Studium der Geschichte entnehmen können, dass das Magnetfeld vor dieser langen Zeit schwächer wurde. Wir sehen, wie verschiedene wissenschaftliche Disziplinen auf interessante Weise zusammenkommen. Schauen wir uns nun Dr. Suess’ „Schlängel“ an, den allgemeinen Trend benennen wir nach Dr. Elsässer, die Schlängel nach Dr. Suess. Nun, den allgemeinen Trend können wir uns leicht als allmähliche Abnahme und anschließendes erneutes Stärkerwerden des Magnetfeldes der Erde vorstellen. Doch die Schlängel haben vermutlich eine andere Ursache. Dr. Suess sprach die Vermutung aus – und ich stimme ihm zu, obwohl keiner von uns sagen würde, dass es bewiesen ist –, dass die Schlängel auf die Sonne zurückzuführen sind. Die Sonne gibt ständig einen Plasmadunst ab, der sich von ihr wegbewegt. Dieser Plasmawind, der als Sonnenwind bezeichnet wird, enthält vollständig ionisierte Materie und mit den „Plasmaklumpen“, die sich von der Sonne wegbewegen, bewegen sich ziemlich starke Magnetfelder, die kosmische Strahlen verstreuen. Nun, der Hauptteil der kosmischen Strahlung stammt von außerhalb des Sonnensystems. Während der Sonnenwind sich von der Sonne wegbewegt, drängt er ständig die eintreffende kosmische Strahlung zurück und zerstreut sie. Wir gehen davon aus, dass die Schlängel darauf zurückzuführen sind, dass es in der Vergangenheit Schwankungen in der Intensität des Sonnenwinds gegeben hat. Suess geht so weit – und ich halte es für eine interessante Spekulation – zu behaupten, dass eine Korrelation zum Wetter besteht: Wenn der Sonnenwind stark ist, ist die Sonne heiß oder kalt (ich habe den Zusammenhang vergessen), und wenn der Sonnenwind schwach ist, ist es umgekehrt. Er hat sich die historischen Wetteraufzeichnungen angesehen und festgestellt, dass eine ziemlich überzeugende Beziehung zwischen den Schlängeln und gemäßigten Temperaturen besteht. Dies ist wahrscheinlich zu spekulativ, um wesentlich weiter verfolgt zu werden, doch es eröffnet zumindest die Möglichkeit künftiger Forschungen. Zur Erforschung der Geschichte des Wetters kann noch wesentlich mehr getan werden. In Oxford lehrt ein Professor namens Lamb, der die weltweit führende Autorität zur Geschichte des Wetters ist, und ich habe mit ihm ziemlich ausführlich über dieses Thema geredet. Er meint, dass sehr viel mehr in dieser Richtung geforscht werden könnte. Und wenn die Theorie von Dr. Suess zutrifft, werden wir in der Lage sein, einen Zahlenwert für die Schwankung der Sonnenkonstante in der Vergangenheit zu errechnen oder ihn aus einer Untersuchung der Korrekturkurve für die mit der Radiokarbonmethode bestimmten Altersangaben gewinnen können. Die Ermittlung exakter historischer Daten wird ganz davon abhängen, ob es uns gelingt, die Kurve für die mit der Radiokarbonmethode ermittelten Altersangaben zu korrigieren. An den wenigsten Stellen der Erde existieren schriftlichen Aufzeichnungen, die mehr als 2.000 Jahre zurückreichen. Die weltweit einzigen schriftlichen Aufzeichnungen sind die der Ägypter und von 1 oder 2 anderen, kleinasiatischen Gesellschaften. In Nord- und Südamerika gibt es keine anderen Aufzeichnungen als diejenigen der Mayas, und in Mitteleuropa und auf der gesamten Welt gibt es keine Aufzeichnungen, die für solche Forschungen wertvoll sein könnten. Alles, was wir über die Vergangenheit wissen, stützt sich darauf, dass wir uns um diese Korrekturen bemühen. Radioaktiver Kohlenstoff verteilt sich sehr schnell. Wenn wir daher die Arbeit von Ferguson-Suess in diesem einen Wald in den weißen Bergen der südlichen Sierra Nevada weiter in die Vergangenheit zurückverfolgen können, können wir die Sache vervollständigen. Wir können sie vervollständigen, wenn wir die Vergangenheit an diesem einen Ort, der Baumgruppe im Schulman-Forst in der südlichen Sierra Nevada, zurückverfolgen können. Nun, lassen Sie mich Ihnen hierüber etwas erzählen. Dieses kleine Labor an der Universität von Arizona ist der einzige Ort auf der Welt, an dem diese Untersuchungen an der Borstenkiefer durchgeführt werden. Die Borstenkiefer kommt nirgendwo sonst auf der Welt vor. Die Bedingung ist, dass sie in mehr als 3.000 Meter Höhe lebt. Unter diesen Bedingungen gedeiht sie und kann bis zu 5.000 Jahre alt werden. Wir fanden dort einen Baum, der 4.200 Jahre alt war. Er wurde jedoch leider von einem Doktoranden mit einer Säge gefällt. Er hatte einen Bohrkern mitbringen sollen. Wissen Sie, man durchbohrt dabei den Baum und nimmt dann diesen Bohrkern mit und zählt die Ringe. So bleibt der Baum erhalten. Doch aus dem einen oder anderen Grund hatte er seinen Auftrag missverstanden, und er sägte diesen Baum durch und brachte eine Scheibe des ganzen Baumstamms mit. Ein Teil davon liegt auf meinem Schreibtisch. Der Baum war 4.200 Jahre alt, als er abgesägt wurde. Noch wichtiger war jedoch, dass auf dem Boden dieses Waldes Bäume lagen, die vor 5.000 Jahren gestorben waren, als sie selbst 4.000 Jahre alt waren. Die Technik besteht darin, diese uralten Holzstücke, die wie auf dem Waldboden liegendes Treibholz aussehen, zur Radiokarbondatierung in unser Labor zu bringen. Wir bestimmen ihr Alter, und das liefert dann einen Richtwert dafür, wo mit der zeitlichen Abgleichung begonnen werden soll. Dann wird die Feinstruktur der Jahresringe untersucht. Ein Jahr wird dicker sein, das nächste dünner. Die Stärke der Jahresringe variiert von Jahr zu Jahr beträchtlich. Das ist die attraktive Eigenschaft dieses wunderbaren Baumes: dass die Dicke der Ringe von Jahr zu Jahr so starken Schwankungen unterliegt. Und auf diese Weise, basierend auf dieser einzelnen Baumgruppe eines Waldes, haben sie durch die Überlappung der Ringe eine Struktur für die Variation von Jahr zu Jahr aufgebaut. Sie können jetzt die Chronologie über das Alter des ältesten lebenden Baumes, der etwa 5.000 Jahre alt ist, noch weiter in die Vergangenheit zurückverfolgen. Auf diese Weise haben Ferguson und Suess die Borstenkiefer-Chronologie bis auf 8.000 Jahre in die Vergangenheit rekonstruiert. Wir hoffen, dass wir sie bis auf 9.200 Jahre zurückverfolgen können, denn vor 2 Jahren fand Mrs. Ferguson, als sie dort oben waren, ein schönes Stück Holz: Bei seiner Datierung mit der C14-Methode ergab sich für seinen ältesten Teil ein Alter von 9.200 Jahren. Nun müssen wir einen weiteren Baumstamm finden, dessen Innenkern 8.000 oder 9.000 Jahre alt ist. Auf diese Weise können wir hoffentlich bis auf 10.000 Jahre zurückgehen. Die gesamte Chronologie der menschlichen Geschichte hängt davon ab, dass wir die Tatsache, dass die Borstenkiefer das weltweit wertvollste Objekt der historischen Forschung ist, geheim halten. Wir müssen es geheim halten, wir müssen verhindern, dass Leute daherkommen und sie als Brennholz verwenden oder mit nach Hause nehmen und auf ihren Kaminsims stellen. Wir haben uns allerdings entschieden, dass die beste Methode, dies geheim zu halten, darin besteht, dass wir uns verhalten, als ob es unwichtig wäre. Es gibt eine neue Straße in den Schulman-Forst, doch die Förster in dieser Gegend sind ungewöhnlich wachsam. Wir haben die Bäume nicht umzäunt und abgeriegelt. Wir hatten angenommen, dass wir ein großes Projekt haben würden, bei dem wir alle Treibhölzer bzw. abgefallenen Baumteile zusammentragen und sie in einem Lagerhaus unterbringen würden. Doch wir haben uns auch dagegen entschieden, weil es eine ziemlich zeitaufwendige Aufgabe ist und sehr viel mehr Geld kosten würde, als uns zur Verfügung steht. Ich vermute, Sie wissen, dass die Radiokarbondatierung, im Vergleich zur Astro- und Hochenergiephysik, nicht gerade ein mit reichlichen Mitteln gefördertes Forschungsgebiet ist. Nun, dies wollte ich Ihnen mitteilen, und wenn jemand unter Ihnen irgendwelche anderen Methoden kennt, mit denen man Radiokarbondaten für mehr als 10.000 Jahre in die Vergangenheit kalibrieren kann, oder auch nur bis zu 10.000 Jahre in die Vergangenheit, würden wir uns gewiss freuen, davon zu hören. Vielen Dank.

Willard Libby on Radiocarbon Dating
(00:00:22 - 00:03:45)

The Modifications of Elementary Carbon
If you encounter pure carbon in nature, it usually presents itself in one of two modifications: graphite or diamond. In graphite, carbon atoms form three covalent bonds to other carbon atoms, leading to a planar sheet structure. A great number of the resulting sheets are then stacked, whereas individual layers are held together merely by weak non-covalent interactions. This is why you can write with a pencil: the pressure you apply to the tip causes the weakly bound graphite sheets to slide off the stack. For the same reason, graphite is used as a “dry” lubricant. In diamond, on the other hand, each carbon atom forms four, tetrahedrally arranged, covalent bonds to other carbon atoms. This makes diamond the hardest naturally occurring material and explains why it is used in diamond cutters and polishers, for example. Until 1985, it was thought that this is where the story of carbon modifications ends. Three decades and two Nobel Prizes later, we know better.

A Carbon-Based Soccer Ball
In 1985, Harold Kroto, Robert Curl and Richard Smalley submitted a letter to the journal Nature, in which they reported the detection of a molecule made exclusively from 60 carbon atoms. The team synthesized this molecule by irradiating a rotating graphite disc with a laser. Its structure was suggested to be the one of a ball composed of pentagons and hexagons - or, in plain terms, a football. In reference to the similarly shaped buildings of the American architect Buckminster Fuller, the researchers called the new C60 molecule the Buckminster fullerene. Eleven years later, Kroto, Curl and Smalley received the 1996 Nobel Prize in Chemistry for this discovery. At the 1998 Lindau Meeting, Robert Curl explained how the team came up with the football structure:

Robert Curl Jr. (1998) - The Dawn of the Fullerenes: A Research Adventure

Good afternoon. I just want to tell you the story of how the fullerenes were discovered because it was certainly the most fun time I ever had in life and I like to share it. In the early 1980’s my colleague Richard Smalley invented a machine to study clusters of atoms of very refractory elements. The machine’s concept was very simple. You took refractor material, impacted the surface of it with a pulse laser light. This would vaporise the material and the laser would atomise it. And this plume of atoms would be then framed in a stream of helium gas, mixed up with the helium, cooled off and the atoms that you’d initially vaporised would come back together and form clusters. And you could add various reagents to the stream of gas so that you could see what would react with the surfaces of these clusters. Then downstream, the gas expanded into a vacuum, into a supersonic jet, was cooled to a few degrees above absolute zero, skimmed into molecular beam and interrogated with a mass spectrometer and so one got essentially a distribution of cluster sizes. That is, typically you’d have a big hump where a maximum would be, correspond to the most abundant clusters. Now may I have the first slide please? This is a picture of Rick Smalley atop this machine. He’s about 2 metres about the floor. So this was for physical chemists at least, big science, you could get inside the main chamber of the machine with no difficulty. What he’s doing at the moment is introducing a region where air could be excluded so that one could ionise clusters with a fluoride laser. May I have the next slide please? Now this is what Harry Kroto was interested in. What happened was that there was a meeting in Austin Texas in March of 1984 and Harry was there and I was there. And I suggested to Harry that he come visit Rice, he came to Rice and he fell in love with our machine, with Rick’s machine. And the reason he fell in love with this machine were these compounds that he was interested in. His colleague David Walton would make compounds like this for him. He would investigate the rotational spectra in a microspectrometer he had to determine the rest frequencies and then go to an observatory, radio astrometry observatory and try to observe the same rotational transitions in various interstellar clouds. And the amazing thing was, he found them. Because these things are fairly difficult to make in the laboratory, polyacetylenes are notoriously tricky to work with. It’s said that most polyacetylene chemists are missing a few fingers as a result of their endeavours. Now the reason that Harry became enthralled with this machine was that the question is, if this is so hard to make in the laboratory, how does it get made in the interstellar medium? And Harry had the idea that, which he’ll tell you about perhaps himself in a minute, that material was expelled from the surface of a carbon star. The carbon atoms would get together, make these chains, pick up a hydrogen at one end and a nitrogen at the other and create the species that he was observing. So Rick and I and our colleague Frank Tittel were engaged in a program of investigation of semiconductor clusters in March of 1984 and we thought we were going to revolutionise the computer business and we were not too interested in getting off on this side track. And it wasn’t until August of 1985 that we finally decided there’s a break in the action, we’ll call Harry and ask him to come over and do his experiments. Next slide please. Then we looked at the literature and there was a group at Exxon, Rohlfing, Cox and Kaldor who had already examined carbon clusters in an apparatus identical with the one that we were working with, and had proved that they could make chain-like species in this region that Harry was interested in, clusters of this size. So we called Harry back and said, looks like this experiment has been done but if you’d like for us to do a few things we’ll do it and send you the data. And Harry’s response was, I’m taking the next plane over there, I want to do this myself. So, let me tell you a bit about this, this is the kind of data that this machine produced. What we have at the bottom is a number of carbon atoms. And what we have going up this direction is a scale that tells you the relative number of clusters of a given size. So that in this particular diagram the carbon 11 cluster has the greatest abundance. Now this is not at all what a typical cluster diagram looks like. Typically you would just have one single hump. There would be some, as I said, some clusters of maximum concentration or maximum amount. And this was very peculiar, not at all like this. In this region you have only odd number clusters, in this region there seems to be some sort of forbidden zone or gap. And in this region you have only even numbered clusters. And it’s very difficult to come up with an explanation for how you can have only even number clusters, this has never been seen in any other cluster distribution. This also shows various magic numbers, 11, 15 and 19 are magic numbers, 60, 70 perhaps are also magic numbers. So Harry came over, he worked with graduate students, Jim Heath and Sean O’Brien, to do the experiments to show that these carbon chain compounds could be made by vaporising carbon and mixing them with something like ammonia to provide the hydrogen atom for one end and a nitrogen atom for the other. And these experiments worked. You certainly could make these chains and so the hypothesis seemed quite viable if that’s the way that these materials got made for the interstellar medium. However in the course of doing these experiments the whole distribution was looked at repeatedly, under all sorts of conditions. And the relative intensity of the peak corresponding to 60 carbon atoms changed a lot depending on what the experimental conditions were. Sometimes it was quite prominent, perhaps maybe 8 or 9 times higher than its nearest neighbour. And so we reached the stage on a Friday afternoon where Harry was going back I believe on Monday. And we had to wrap things up. And we said alright we have a paper out of finding these chains. But we really ought to think about why this 60 peak fluctuates so much. And I remember very clearly that we were sitting in Rick’s office and as a group of five of us we agreed this ought to be done. And then the three professors looked at the two graduate students and said why don’t you work this weekend and see how intense you can make this carbon 60 peak. So, may I have the next slide please? So, what happened is that on Monday morning Jim Heath walked in with this spectrum. It’s the same sort of thing except we were looking at only the region from 42 to 86 carbon atoms. Again we had only even number clusters. And Jim Heath had found conditions where this peak was at least 30 times more prominent than its neighbours. So clearly you need to come up with an explanation for this. You can’t ignore a result like this. It was a result sort of like this one that made us believe that we needed to investigate this further. So the main difference between these panels is that as you go from the bottom towards the top, there’s more chance for chemistry to take place in the expansion region, inside of the nozzle. And so, what we knew about the chemical conditions implied that carbon 60 and to a lesser extent carbon 70 was a survivor of chemical attack by carbon atoms and so, one wanted therefore to come up with some unique structure for the 60 carbon atom peak that would reflect this chemical inertness. Next transparency please, next slide please. So here are the kinds of things one might work with. We’ve already seen the chains, the chains typically have a dangling bond at each end. And so this would be a site for chemical reaction just like the divalent carbon here would be a site for chemical reaction. You could get around the chain having a dangling bond at the end if you have a 60 carbon atom chain by making it into a hula hoop. But then there would be no reason to think that a 62 carbon atom hula hoop would be any different in reactivity from a 60 carbon atom hula hoop. The other alternative was to base the structure somehow or another on the structure of graphite. Graphite after all is the most stable form of carbon, these hexagons with the carbon atoms at the vertices. And you could imagine that somehow or another if you made up a piece of chicken wire like this or hexagons like this, that you could fold it around, curve it around and have a dangling bond on one side react with a dangling bond on the other side. And perhaps there would be some way of avoiding dangling bonds. Next slide. And those precedent for this, the structures that Mr. Fuller was so fond of making, looked like chicken wire at first glance, looked like hexagons. And they curve around and they look like they could ultimately close. And in fact, next slide. Some of them like the Expo Dome at Montreal are virtually closed globes. Well there’s a little bit of a problem and that is that Mr. Fuller didn’t tell you how to do this. The Rice library has perhaps 100 books on the works by Mr. Fuller. And if you look through those books, it’s relatively difficult to find any kind of picture that tells you what to do. So there was a famous luncheon at the Mexican restaurant which Harry can perhaps tell you a bit about in more detail because I wasn’t there. All I know is what I’ve been told. We were discussing how can we make a closed form of this cage, we’d been talking about that. And Harry said, well, a few years back I made a thing out of cardboard to study the constellations. It was about so big and it was roughly a globe in shape but it was a polyhedron, it was made up of hexagons and I think pentagons. And it might have had 60 vertices. And so everybody, what happens in these discussions is everybody says, um, that’s very interesting, and changes the subject and that’s what happened on this occasion. But people don’t forget these things. And this was around 1 o’clock in the afternoon perhaps when this came up. And this began to gnaw on Harry during the afternoon. And by a little bit after dinner time, I think around 6.30 or 7 he really wanted to see this straight thing he had made and he wanted to count the vertices on it to see if it had 60 vertices. And so he said, he came to me and he said, I want to call my wife, Marg, who is here today, and get her to get this thing out and count the vertices. And I said, um, Harry it’s what, 2.30 in the morning in Brighton, I don’t know. And then I asked him the killing question, Harry do you know where it is? Well, it’s been a while since I’ve seen it. And so I said it can wait till morning. You know, what the heck, why wake her up in the middle of the night to count, you know to find this thing and count the vertices. Many wives would not appreciate this. So Harry agreed with me it could wait till morning. But it couldn’t wait till morning because Rick hadn’t forgotten about the idea that this thing was made of hexagons and maybe pentagons. So he went home and he cut out a bunch of hexagons out of paper and he cut come pentagons with the same linked edges out of paper. And he tried to put them together and to make some closed structure with 60 vertices. And from what he tells me, once he started working with pentagons it turned out to be trivial. You start with one pentagon and you put 5 hexagons around it and you already have a bowl-shaped object. And so the next morning, he lived at that time far away from Rice. Next morning he called me and said I’m on my way to work, get everybody together in my office, I found the solution. Next slide please. And he came in and he threw this object on the table in the office. And of course none of us bothered to count the vertices, we knew it had 60 vertices or he wouldn’t have come in claiming that this was a solution. But I’m always one not to give up too easily so I said well we really got to see if the bonding of carbon works out. And so we pasted these little pieces of extra paper that had double bonding on them to see if we started out making the number of bonds from each carbon be 4 on one side. If when we got around to the other side, it would work out, there would be no carbons with either 3 bonds or 5 bonds. And it worked out and so I said oh I believe this must be the right structure. So we called the chairman of the math department at Rice. We didn’t know what this was and said we’ve got this object that’s got 20 hexagons and 12 pentagons, 60 vertices, what is it. He said well let me look it up and I’m sure I can find out the answer. In and about 5 minutes he called back and I happened to be the one that picked up the phone. And he said what you’ve got there is a soccer ball. I was somewhat taken aback by this comment. And I pretended, you know you try to somehow or another shift your ground a bit, I said well what's its technical name, like I knew it was a soccer ball. And he said well it’s a truncated icosahedron and you guys haven’t discovered anything new. We mathematicians have known about this for quite a while. So anyway we got the computer model made, (next side please), of this molecule, this is what it is with the bonding, of course the carbon atoms are vertices. This particular catalase structure, that is, you could move the double bonds around in many different ways, actually 12,500 different ways. But once for all, the double bonds were only in the pentagon, there was only one structure where the double bonds were, I’m sorry, only in the hexagons. And no double bonds were in the pentagons. And that is by far the dominant structure. So this particular material, it was discovered some time later, reacts like a polyolefin and not like an aromatic compound. As it looks, this looks like benzene but it really isn’t benzene. So we wrote a paper for Nature, a letter to Nature, and we claimed that this new material that no one had ever thought of before would be wonderful. It would do all sorts of things, it would be the carrier for the diffuse interstellar bands. It would be a wonderful lubricant. I don’t think we claimed it would cure the common cold but we quivered on that edge of doing that. And we sent the paper off to Nature and we were really happy. Next slide please. And we had our team photo made. This is Sean O’Brien and this is Jim Heath and you’ve met the other characters in this play. This is our mystery woman, no good story, every good story needs a mystery woman. We still don’t know who she is. Anyway we were very happy about this. We finally found, next slide please, how Mr. Fuller made domes, he put pentagons in them by golly. And so this is a picture of Mr. Fuller revealing his secret. Now as I said we thought we were the first people to ever think of this, next slide, but we weren’t, Eiji Osawa in Japan had thought of this molecule in 1971. By the simple expedient of taking a close look at a soccer ball that his son was playing with. And apparently this was, the idea of this compound was really quite well-known to a large number of chemists. For example the Russians had done a Hückel theoretical calculation on it. Next slide please. And the synthetic organic chemist Orville Chapman who was at UCLA, had looked around for a suitable target for his considerable synthetic organic skills, asked himself supposedly this question, if god would give me the grace to make one molecule, what would that molecule be? And answered his own question with ‘soccer ball C60’. And this was around 1980. He went further than that, he wrote a proposal to the National Science Foundation in the United States. It was funded to make the soccer ball C60 and he set to work with several graduate students to make it. Unfortunately he was not able to make it, no organic chemist has synthesised this molecule by the traditional methods of organic chemistry, at least so far. Now in this period of time when we were discovering that hey this isn’t such a revolutionary and new idea after all, things were very interesting because Harry had gone back to England and we were in the United States. And so we’d send out a lot of reprints or preprints of our paper and we began to get information back. And we were getting slightly different information, us in Houston and Harry in Sussex, that were pointing in the same direction. What we got was a preprint of a paper by Tony Hyman, who had considered once again on this theoretical calculation on soccer ball C60. This was actually the third time it was published, but no one knew that. But he had in his paper a lot of thoughts that have not been sufficiently appreciated. One thought that he had, one thing that he showed was, he considered an alternative closed caged structure for carbon 60 and concluded that it wouldn’t be a good structure because it had 5-membered rings that were bonded together. And he thought this would be a high energy, possibly chemical reactive site. The other thing that he knew was that Euler had in about 1764 explained the rules for how you make polyhedra. And when these rules were applied to a system that contained only 6-membered rings or 5-membered rings, what it said was that as long as you had 24 or more even numbers of atoms, you could make a closed cage solution which would have exactly 12 pentagons in it and the rest would be hexagons. Now what Harry was getting, next slide please, was as somebody pointed out this beautiful little article by David Jones, which was published in 1966 saying, David Jones had a column for the New Scientist where he essentially said crazy ideas that I’ve had about chemistry. And he published under the name of Daedalus because I guess he didn’t want people to think he was crazy for having crazy ideas. He says, Daedalus has conceived a hollow molecule, a closed spherical shell with sheet polymer like graphite whose molecules are flat sheets of benzene hexagons. He proposes to modify the high temperature graphite process by introducing suitable impurities into the sheets to work them, reasoning that it will ultimately close on itself. And almost immediately people told him the suitable impurities ought to be 5-membered rings and you need exactly 12 of them. And essentially what we discovered was, you didn’t really have to do much to modify the high temperature graphite process, all you had to do was let carbon condense, carbon atoms condense from a high temperature. And you would spontaneously make this closed caged compound. Next slide please. And he had, in some of his subsequent work, he had some pictures of this beautiful radiolarian animals which have skeletons that are made of hexagons and pentagons primarily, although if you look carefully, you can see some heptagons in there. And this picture comes out of a book by D’Arcy Thompson on growth and form. D’Arcy Thompson had considered the relationship between geometry and symmetry and the structure of organisms. For example we have bilateral symmetry, a star fish has 5 fold symmetry. And these little animals have sort of spherical symmetry. And so this turns out to be in some ways related to biology. Next slide please. So this led us back to this distribution and the thought that perhaps the reason that there are only even clusters here is because all of these clusters are closed cage compounds, that they’ve already been subjected to considerable chemical attack. And only the ones that were already closed cages survive. Next slide please. Well that makes it a little hard because if these are all closed cages, why are they reacting away? And there is something unique about carbon 60, it’s the smallest cage compound that has no adjacent pentagons in it. And so almost simultaneously, Harry and quite independently the group at Galveston, Thomas Schmalz and Doug Kline and Bill Seitz reasoned that maybe the 5-membered rings that are adjacent to each other, are particularly susceptible to chemical attack. And maybe what's going on here is that C70 is the next smallest closed rhombohedral form that has no adjacent pentagons. Now it turns out to prove this is a formidable challenge. And in fact the group at Galveston who are quite talented mathematicians finally proved it in about 1993. But this is the only one that you can make a non adjacent pentagon structure for easily. Harry tried to make some in this region and never could succeed and was forced essentially to guess. And it is true that this is the next one that has no adjacent pentagons. Next slide please. So what's happening, here’s a C40, what's happening is, if you have a pair of pentagons that are adjacent, these 2 particular carbon atoms that bridge the 2 pentagons are particularly susceptible to chemical attack. And no fullerene has ever been isolated which has adjacent pentagons. Next slide please. Now there are many different isomers, once you get up in the neighbourhood of C60 there are 1,812 closed cage forms of C60. And this is, all but one of the isomers, the soccer ball isomer has adjacent pentagons in it. This is just one of them. Well we had a lot of fun in 1985, almost all the ideas that we had were on the table by the end of 1985. We spent a couple of years defending ourselves and trying to do new experiments to test the fullerene hypothesis. By about 1988 or ’89 we were running out of gas. You go to give a talk, the organic chemist would say let’s see your vile of substance and we’d say we don’t have it, we just have a few molecules in a molecular beam. Ah, and it was clear there was no Nobel Prize in what we had done. And we couldn’t figure out what to do next. Next slide please. And these 2 guys came to our rescue, this is Wolfgang Krätschmer from Heidelberg and this is Don Huffman from the University of Arizona in Tucson. They are physicists who had been interested in carbon particles in space for a long time. Next slide please. They had a machine for making carbon, essentially for making carbon sooth and then looking at it. And this machine consisted of a couple of graphite rods that you ran a current through, heated up the graphite, vaporised the carbon and then they had a little disc that they put above it to collect the sooth on. And they had some peculiar sooth and they wondered what was going on. They usually had an inert atmosphere in here. They wondered what was going on with this peculiar sooth. And after kidding each other around for years they finally decided well maybe it really is C60, maybe we really ought to look for it. And sure enough they discovered that if you had about half an atmosphere of argon in this bell jar and collected sooth here, that that sooth was about 5% a mixture of C60 and C70. And so people around the world started, this was in essentially August of 1990, September of 1990, people around the world started vaporising carbon rods and collecting the sooth from inside the container. You notice it doesn’t land just here, it lands everywhere on the inside of the container. And so most of the research groups looked kind of like this. Next slide please. It was nasty work, scraping the sooth out and shaking it up and dissolving the C60 and the C70 out of it. Next slide please. Once the chemists knew how they could get this material out, then they separated this material and actually Harry’s group was one of the first groups to separate the material. This is C60 in a toluene solution. This is a thin film of C60, this is C70 in a toluene solution and C84 in a toluene solution. And so there are about, I don’t know, perhaps 8 nor 9 different pure fullerenes that have been isolated. And there was a tremendous amount of excitement and a very large number of papers that came out in the year right after 1990 as people worked on this. And so where do we stand today? May I have the next slide please? Well first of all there’s, this material has come out since about 1992. This is a fullerene that’s been elongated and it’s only capped with pentagons on one end. If you do your vaporisation of carbon and add a little bit of metallic iron cobalt or nickel, particularly nickel, to the system, the catalyst takes over the system and converts all the fullerene production into the production of these carbon nanotubes, buckytubes. And a lot of the current excitement is, can we do something with these buckytubes? I mean for example if you could take millions or billions of them and put them together into a cable, all parallel to each other, you would have the strongest cable imaginable. Perhaps 100 times stronger than steel at perhaps a quarter of the weight for the same cross section. Unfortunately no one knows how to do that. But the effort to make something out of this material, also the material is electrically conducting, so you would have electrically conducting extremely strong cable. So just recently people have wondered whatever became of buckyball. Next slide please. This is what we have, I’ve got my slide out of order, apologise, this is what we have and come out of this in terms of the morphology of carbon. We started out with diamond as a three-dimensional network of carbon atoms. So this is basically a three-dimensional material. A well-known other form of carbon is graphite which is basically a two-dimensional material, these sheets of 6-membered rings. Then the nanotubes are one-dimensional materials and the buckyballs would correspond to a zero-dimensional material. So one of the things that’s come out of this is that we can think of carbon as satisfying virtually all forms, in one form or other satisfying virtually all morphologies that are possible in three-dimensional space. Next slide please. So this is what I thought was coming up. In the May 4th 1998 Wall Street Journal this question was asked by Susan Warren. And the obvious answer is, no commercial product has been made out of buckyballs. And her reasoning was that it cost too much, $11,000 a pound for C60 seemed to put it outside the scope of something that would be useful. Even the highest utility material, pharmaceuticals have to cost less than $2,500 a pound. I don’t think this is actually the reason, it is true that it’s hard to scale up the manufacture of C60 because of this basic, the fundamental nature of the process in digging in there and getting the sooth out. But no one has come up with this killer application that’s going to be some great commercial value. And therefore there’s been no reason to drive this price down. Now next slide please. That’s not because people aren’t trying. There’s areas of research who are producing fullerenes, particularly in the hedral metallofullerenes, fullerenes with metals inside. There’s a lot of work on the organic chemistry of fullerenes: Efforts to find applications in biology and medicine, efforts to find applications in optics and electronic devices. But no one as far as I know has come up with that practical application that we’re all thinking of. So in the words of Rick Smalley, we all wonder whether the kid will ever get a job. Thank you. Applause.

Guten Tag. Ich möchte Ihnen erzählen, wie die Fullerene entdeckt wurden, denn das war mit Sicherheit einer der spaßigsten Momente, die ich in meinem Leben je hatte, und an dem möchte ich Sie teilhaben lassen. Anfang der 1980er erfand mein Kollege Richard Smalley eine Vorrichtung zur Untersuchung der Atom-Cluster stark refraktärer Elemente. Das Konzept der Vorrichtung war ganz einfach. Die Oberfläche von Refraktormaterial wurde mit dem Licht eines Pulslasers bestrahlt. Das ließ das Material verdampfen und der Laser atomisierte es. Und diese Rauchwolke aus Atomen wurde dann mit einem Strom Heliumgas bestrichen, vermischte sich mit dem Helium, kühlte sich ab und die zuvor vaporisierten Atome näherten sich einander wieder und bildeten Cluster. Und man konnte dem Gasstrom verschiedene Reagenzien hinzufügen, um erkennen zu können, was mit den Oberflächen dieser Cluster reagieren würde. Weiter hinten expandierte das Gas in ein Vakuum, in einen Überschallstrahl, wurde auf ein paar Grad über dem absoluten Nullpunkt abgekühlt, zu einem Molekularstrahl abgeschält und mit einem Massenspektrometer untersucht, und so erhielt man im Wesentlichen eine Verteilung der Clustergrößen, d.h. normalerweise erhielt man einen großen Buckel, wo das Maximum liegt, das den am häufigsten vorkommenden Clustern entspricht. Könnte ich jetzt bitte die erste Folie bekommen? Hier sehen Sie Rick Smalley über dieser Vorrichtung. Er befindet sich etwa 2 Meter über dem Boden. Das war also zumindest für physikalische Chemiker große Wissenschaft, man gelangte ohne Probleme in die Hauptkammer der Vorrichtung. Was er gerade macht ist, er installiert einen Bereich, in der Luft abgesaugt werden konnte, sodass man Cluster mit einem Fluorid-Laser ionisieren konnte. Könnte ich bitte die nächste Folie bekommen? Nun, hier sehen Sie, wofür sich Harry Kroto interessierte. Es gab da ein Treffen in Austin, Texas, im März 1984, und Harry war da und ich war da. Und ich schlug Harry vor, uns in Rice zu besuchen. Er kam nach Rice und er verliebte sich in unsere Vorrichtung, in Ricks Vorrichtung. Und der Grund, warum er sich in diese Vorrichtung verliebte, waren diese Verbindungen, für die er sich interessierte. Sein Kollege David Walton stellte Verbindungen wie diese für ihn her. Er untersuchte die Rotationsspektren mit einem Mikrospektrometer, das er zur Bestimmung der Restfrequenzen hatte, und dann ging er in ein Obeservatorium, ein Observatorium für Radioastrometrie, und versuchte dort dieselben Rotationsübergänge in verschiedenen interstellaren Wolken zu beobachten. Und das Erstaunliche daran war, er fand sie. Da diese Dinger im Labor ziemlich schwer herzustellen sind, ist die Arbeit mit Polyethinen bekanntermaßen verzwickt. Man sagt, dass den meisten Polyethin-Chemikern als Folge ihres Bestrebens ein paar Finger fehlen. Nun, was Harry an dieser Vorrichtung so faszinierte war die Frage, dass, wenn es so schwierig ist, diese Dinger im Labor zu erzeugen, wie werden sie dann im interstellaren Medium erzeugt? Und Harry hatte die Idee, dass - vielleicht wird er Ihnen das in ein paar Minuten selbst erzählen - dass das Material aus der Oberfläche eines Kohlenstoffsterns herausgelöst wird. Die Kohlenstoffatome kämen zusammen, bildeten diese Ketten, nähmen einen Wasserstoff an einem Ende und einen Stickstoff am anderen Ende auf und erzeugten so die Spezies, die er beobachtete. Rick und ich und unser Kollege Frank Tittel waren also im März 1984 mit einem Programm zur Erforschung von Halbleiter-Clustern beschäftigt und wir glaubten, wir würden die Computerindustrie revolutionieren, und waren nicht allzu sehr daran interessiert, auf dieses Nebengleis abzubiegen. Und es dauerte bis August 1985 bis wir uns schließlich entschlossen, eine Pause einzulegen, wir würden Harry anrufen und ihn bitten, rüber zu kommen und seine Experimente durchzuführen. Nächste Folie bitte. Dann warfen wir einen Blick in die Literatur und es gab eine Gruppe bei Exxon, Rohlfing, Cox und Kaldor, die Kohlenstoff-Cluster bereits mit einer Vorrichtung wie dieser, mit der wir arbeiteten, untersucht und bewiesen hatten, dass sie kettenähnliche Moleküle in dem Bereich erzeugen konnten, an dem Harry interessiert war, Cluster dieser Größe. Also riefen wir Harry zurück und sagten, sieht aus, als wäre dieses Experiment schon durchgeführt worden, aber wenn Du möchtest, dass wir ein paar Sachen machen, machen wir das und schicken Dir die Daten. Und Harrys Antwort war, ich komme mit dem nächsten Flugzeug rüber zu Euch, ich möchte das selbst machen. Lassen Sie mich ein wenig darüber erzählen, das ist die Art von Daten, die diese Vorrichtung erzeugte. Was wir ganz unten sehen ist die Anzahl der Kohlenstoffatome. Und wenn wir in diese Richtung hinaufgehen, gibt uns diese Skala die relative Anzahl der Cluster einer bestimmten Größe an. In diesem Diagramm hier kommt der Kohlenstoff-C11-Cluster am häufigsten vor. Nun, ein typisches Cluster-Diagramm sieht eigentlich ganz anders aus. Normalerweise hätte man nur einen einzigen Buckel. Es gäbe einige, wie schon gesagt, einen Cluster mit maximaler Konzentration oder maximaler Menge. Und dies war sehr eigenartig, dem so gar nicht ähnlich. In diesem Bereich gibt es nur Cluster mit ungeraden Zahlen, in diesem Bereich scheint es eine Art verbotener Zone oder eine Lücke zu geben. In diesem Bereich gibt es nur Cluster mit geraden Zahlen. Und es ist sehr schwierig, eine Erklärung zu finden, wie es sein kann, dass es nur geradzahlige Cluster gibt, dies wurde in keiner anderen Cluster-Verteilung je gefunden. Dies zeigt auch verschiedene magische Zahlen, 11, 15 und 19 sind magische Zahlen, 60, 70 sind vielleicht auch magische Zahlen. Harry kam also rüber, er arbeitete mit Doktoranden, Jim Heath und Sean O'Brien, um die Experimente durchzuführen und zu zeigen, dass diese Kohlenstoffketten-Verbindungen durch Verdampfen von Kohlenstoff erzeugt werden könnten, wenn man den Dampf mit etwas wie Ammoniak mischt, um das Wasserstoffatom für das eine Ende und ein Stickstoffatom für das andere Ende zu liefern. Und diese Experimente funktionierten. Man konnte diese Ketten ganz gewiss herstellen und so erwies sich die Hypothese als ziemlich brauchbar, wenn dies der Weg ist, diese Materialien für das interstellare Medium zu erzeugen. Im Laufe dieser Experimente wurde die ganze Verteilung jedoch wiederholt unter verschiedenen Bedingungen untersucht. Und die relative Intensität der Spitze, die 60 Kohlenstoffatomen entsprach, änderte sich je nach den experimentellen Bedingungen gewaltig. Manchmal trat sie deutlich hervor, vielleicht 8 oder 9 Mal höher als die Benachbarte. Und so erreichten wir an einem Freitagnachmittag den Punkt, an dem Harry, Montag glaube ich, zurückfliegen sollte. Und wir mussten die Dinge zusammenfassen. Und wir sagten, OK, wir haben eine Abhandlung herausgegeben, dass wir diese Ketten gefunden haben. Aber wir sollten wirklich darüber nachdenken, warum diese 60ger-Spitze so stark flukturiert. Und ich erinnere mich genau, wir saßen in Ricks Büro und die fünf von uns stimmten darin überein, dass wir dies tun sollten. Und dann sahen die drei Professoren die beiden Doktoranden an und fragten, warum arbeitet ihr dieses Wochenende nicht und seht mal, wie intensiv ihr diese Kohlenstoff-C60-Spitze machen könnt. So, könnte ich bitte die nächste Folie bekommen? Und so geschah es also, dass am Montagmorgen Jim Heath mit diesem Spektrum hereinkam. Es ist genau dasselbe, außer dass wir diesmal nur den Bereich zwischen 42 und 86 Kohlenstoffatomen betrachteten. Wieder gab es nur geradzahlige Cluster. Und Jim Heath hatte Bedingungen gefunden, unter denen diese Spitze mindestens 30 Mal höher war als die benachbarten. Wir mussten also ganz klar eine Erklärung dafür finden. Man kann solch ein Ergebnis nicht ignorieren. Es war ein Ergebnis in etwa dieser Art, das uns glauben ließ, dass wir dies weiter untersuchen mussten. Der Hauptunterschied zwischen diesen Diagrammen besteht darin, dass, wenn man von unten nach oben geht, es im Ausbreitungsbereich, innerhalb der Düse, eine größere Chance für chemische Reaktionen gibt. Und was wir über die chemischen Bedingungen wussten, ließ darauf schließen, dass Kohlenstoff C60, und etwas weniger stark Kohlenstoff C70, Überlebende eines chemischen Angriffs durch Kohlenstoffatome waren, und so..., daher hatte man das Gefühl, sich eine einzigartige Struktur für diese Spitze bei 60 Kohlenstoffatomen ausdenken zu müssen, die diese chemische Trägheit widerspiegeln würde. Nächste Folie, bitte, nächstes Blatt. Hier sehen Sie die Arten von Strukturen, mit denen man arbeiten könnte. Wir haben die Ketten bereits gesehen, die Ketten haben normalerweise eine ungesättigte Bindung an beiden Enden. Das wäre daher der richtige Ort für chemische Reaktionen genau wie der divalente Kohlenstoff hier ein Ort für chemische Reaktionen wäre. Man könnte verhindern, dass es am Ende der Kette eine ungesättigte Bindung gäbe, wenn es sich um eine Kette aus 60 Kohlenstoffatomen handelt, indem man sie wie einen Hula-Hoop-Reifen anordnet. Dann gäbe es aber keinen Grund anzunehmen, dass ein Hula-Hoop-Reifen aus 62 Kohlenstoffatomen eine andere Reaktivität aufweisen sollte, als ein Hula-Hoop-Reifen aus 60 Kohlenstoffatomen. Die andere Alternative bestand darin, die Struktur irgendwie auf der Struktur von Graphit basieren zu lassen. Graphit ist schließlich die stabilste Form des Kohlenstoffs, diese Sechsecke mit den Kohlenstoffatomen an den Eckpunkten. Und man könnte sich vorstellen, dass, wenn man ein Stück Maschendraht wie dies formt oder Sechsecke wie dies, dass man es herumfalten könnte, es herumbiegen und dafür sorgen, dass eine ungesättigte Bindung an einer Seite mit der ungesättigte Bindung auf der anderen Seite reagierte. Und vielleicht gäbe es eine Möglichkeit, ungesättigte Bindungen zu vermeiden. Nächste Folie. Und die Vorgänger hiervon, diese Strukturen, die Mr. Fuller so gerne baute, sahen auf den ersten Blick aus wie Maschendraht, sie sahen aus wie Sechsecke. Und sie biegen sich herum und sehen aus, als ob sie am Ende ein geschlossenes Gebilde abgeben könnten. Und wirklich, nächste Folie. Manche von ihnen wie der Expo-Dom in Montreal sind beinahe geschlossene Kugeln. Nun, ein kleines Problem gab es aber doch, und das bestand darin, dass Mr. Fuller uns nicht mitteilte, wie man sie bildet. In der Bibliothek in Rice gab es vielleicht 100 Bücher über die Arbeiten von Mr. Fuller. Und wenn man diese Bücher durchschaut, fällt es nicht leicht, irgendeine Art von Bild zu finden, dem man entnehmen kann, was man machen sollte. So gab es also dieses berühmte Mittagessen im mexikanischen Restaurant, von dem Ihnen Harry vielleicht etwas mehr erzählen kann, denn ich war nicht dabei. Ich weiß nur, was man mir erzählt hat. Wir diskutierten, wie man wohl eine geschlossene Form dieses Käfigs herstellen könnte, über den wir gesprochen hatten. Und Harry sagte, tja, vor ein paar Jahren habe ich so ein Gebilde aus Karton hergestellt, um die Anordnungen zu untersuchen. Es war ungefähr so groß und ungefähr kugelförmig, aber es war ein Polyeder, es bestand aus Sechsecken und, ich glaube, Fünfecken. Und es könnte 60 Eckpunkte gehabt haben. Und jeder..., was bei diesen Diskussionen geschieht, ist, jeder sagt, hm, das ist sehr interessant, und wechselt das Thema, und genau das geschah bei dieser Gelegenheit. Aber man vergisst diese Dinge nicht. Und es war vielleicht 13:00 Uhr als diese Bemerkung fiel. Und sie begann im Laufe des Nachmittags an Harry zu nagen. Und kurz nach dem Abendessen, ich glaube, es war 18:30 oder 19:00 Uhr, wollte er sich das Ding, das er gebastelt hatte, genauer ansehen und die Eckpunkte daran zählen, um zu schauen, ob es 60 Eckpunkte gab. Und so meinte er..., er kam zu mir und sagte, er wolle seine Frau anrufen, Marge, die heute hier ist, und sie bitten, dieses Ding herauszuholen und die Eckpunkte zu zählen. Und ich sagte, hm, Harry, wie spät ist es in Brighton, 2:30 Uhr nachts, ich weiß nicht. Und dann stellte ich die tödliche Frage: Harry, weißt Du, wo es ist? Nun, es ist schon eine Weile her, dass ich es gesehen habe. Und so sagte ich, dass es bis zum Morgen warten könne. Stellen Sie sich vor, was zum Henker, warum sie mitten in der Nacht aufwecken, um zu zählen, wissen Sie, um dieses Ding zu finden und die Eckpunkte zu zählen. Die meisten Frauen wären nicht begeistert. Also stimmte Harry mir zu, dass es bis zum Morgen warten könne. Aber es konnte nicht bis zum Morgen warten, denn Rick hatte die Idee nicht vergessen, dass dieses Gebilde aus Sechsecken und vielleicht Fünfecken bestand. Also ging er nach Hause und schnitt eine Handvoll Sechsecke aus Papier aus und ein paar Fünfecke mit genauso verknüpften Ecken. Und er versuchte, sie zusammenzusetzen und eine geschlossene Struktur mit 60 Eckpunkten herzustellen. Und wie er mir erzählte, war es ganz einfach, nachdem er angefangen hatte, mit Fünfecken zu arbeiten. Man beginnt mit einem Fünfeck und fügt 5 Sechsecke drum herum an, und schon hat man ein schüsselförmiges Objekt. Und am nächsten Morgen, er wohnte zu dieser Zeit weit weg von Rice, am nächsten Morgen rief er mich an und sagte, ich bin auf dem Weg zur Arbeit, versammle alle in meinem Büro, ich habe die Lösung gefunden. Nächste Folie bitte. Und er kam herein und er warf dieses Gebilde auf den Tisch im Büro. Und natürlich machte sich niemand die Mühe, die Eckpunkte zu zählen, wir wussten, es hatte 60 Eckpunkte oder er wäre nicht mit der Behauptung hereingekommen, dies wäre die Lösung. Aber ich gehöre zu denen, die nicht so leicht aufgeben, also sagte ich, nun, wir müssen wirklich schauen, ob das mit den Kohlenstoffbindungen hinhaut. Und so klebten wir diese kleinen Zusatzpapierstücke mit der Doppelbindung darauf fest, um festzustellen, ob, wenn wir auf einer Seite anfingen, jedes Kohlenstoffatom mit 4 Bindungen zu ersehen, ob es, wenn wir auf der anderen Seite ankämen, funktionieren würde und es keine Kohlenstoffatome mit entweder 3 oder 5 Bindungen gäbe. Und es funktionierte und so sagte ich, oh, ich glaube, das muss die richtige Struktur sein. Also riefen wir den Vorsitzenden der Mathe-Fakultät von Rice an. Wir wussten nicht, was das war, und sagten, wir haben hier ein Gebilde aus 20 Sechsecken und 12 Fünfecken, 60 Eckpunkte, was ist das? Er sagte, lasst mich das nachschauen, ich bin sicher, ich kann die Antwort finden. Ungefähr 5 Minuten später rief er zurück und gerade ich war derjenige, der den Hörer abnahm. Und er sagte, was Ihr da habt ist ein Fußball. Diese Bemerkung irritierte mich doch etwas. Und ich tat so, wissen Sie, auf die eine oder andere Art versucht man, seine Position ein wenig zu verändern, ich sagte, OK, und was ist sein technischer Name, als wüsste ich bereits, dass es ein Fußball war. Und er sagte, nun, das ist ein abgestumpftes Ikosaeder und ihr Leute habt nichts Neues entdeckt. Wir Mathematiker kennen das schon eine ganze Weile. Egal, wir ließen das Computermodell (nächste Folie bitte) dieses Moleküls erstellen, so sehen also die Bindungen aus, natürlich bilden die Kohlenstoffatome die Eckpunkte. Diese bestimmte Katalasestruktur, d. h., man konnte die Doppelbindungen auf viele Arten herumschieben, tatsächlich auf 12.500 verschiedene Arten. Aber endgültig, die Doppelbindungen gab es nur im Fünfeck, es gab nur eine Struktur, in der sich die Doppelbindungen fanden, tut mir leid, nur in den Sechsecken. Und in den Fünfecken gab es keine Doppelbindungen. Und das ist die bei Weitem vorherrschende Struktur. Dieses besondere Material, es wurde einige Zeit später entdeckt, reagiert wie ein Polyolefin und nicht wie eine aromatische Verbindung. Wie es aussieht..., es sieht aus wie Benzol, aber in Wirklichkeit ist es kein Benzol. Also schrieben wir einen Artikel für Nature, einen Brief an Nature, und wir behaupteten, dass dieses neue Material, an das bisher noch niemand gedacht hatte, tolle Eigenschaften haben würde. Es wäre zu allem Möglichen in der Lage, es wäre der Träger für die diffusen interstellaren Banden. Es wäre ein prima Schmierstoff. Ich glaube nicht, dass wir behaupteten, es könnte eine Erkältung heilen, aber wir zitterten am Ende unseres Werks. Und wir schickten die Abhandlung an Nature und waren richtig glücklich. Nächste Folie bitte. Und wir ließen ein Teamfoto machen. Das ist Sean O'Brien und das ist Jim Heath und die anderen Darsteller dieses Schauspiels haben Sie bereits kennen gelernt. Dies ist unsere Geheimfrau, keine gute Geschichte, jede gute Geschichte braucht eine Geheimfrau. Wir wissen immer noch nicht, wer sie ist. Egal, wir waren sehr glücklich darüber. Wir hatten am Ende herausgefunden, nächste Folie bitte, wie Mr. Fuller seine Kuppeln machte, er setzte Fünfecke ein, zum Kuckuck. Und hier sehen Sie also ein Bild, in dem Mr. Fuller sein Geheimnis offenbart. Nun, wie gesagt, wir dachten, wir wären die ersten Menschen, die je auf so was gekommen sind, nächste Folie, aber das stimmte nicht. Eiji Osawa aus Japan hatte sich bereits 1971 so ein Molekül überlegt. Einfach dadurch, dass er sich den Fußball, mit dem sein Sohn spielte, ein wenig näher ansah. Und anscheinend war dies, die Vorstellung einer solchen Verbindung war einer ganzen Reihe Chemiker ziemlich gut bekannt. Die Russen zum Beispiel hatten dafür bereits eine theoretische Berechnung nach Hückel vorgenommen. Nächste Folie bitte. Und ein Forscher auf dem Gebiet der synthetisch-organischen Chemie, Orville Chapman von der UCLA, der sich nach einem geeigneten Ziel für seine beträchtlichen synthetisch-organischen Fähigkeiten umgesehen hatte, hat sich vermutlich diese Frage gestellt: Wenn Gott mir die Gnade erweisen würde, ein Molekül zu erschaffen, wie würde dieses Molekül aussehen? Und er beantwortete seine eigene Frage mit der Antwort "Fußball C60". Das war um 1980 herum. Er ging sogar noch weiter, er schrieb einen Vorschlag an die National Science Foundation in den Vereinigten Staaten. Und er wurde gefördert, um den Fußball C60 herzustellen, und er machte sich mit mehreren Doktoranden an die Arbeit. Leider war er nicht in der Lage, ihn herzustellen. Kein organischer Chemiker hat dieses Molekül mithilfe der herkömmlichen Methoden der organischen Chemie je synthetisiert, jedenfalls bisher nicht. Nun, dieser Zeitraum, als wir feststellten, dass, hey, dies ist doch keine so revolutionäre und neue Idee, war eine sehr interessante Zeit, denn Harry war nach England zurückgegangen und wir waren in den Vereinigten Staaten. So schickten wir also jede Menge Nachdrucke oder Nachdrucke unserer Abhandlung los und bekamen nach und nach Informationen zurück. Und wir erhielten leicht unterschiedliche Informationen, wir in Houston und Harry in Sussex, die in dieselbe Richtung wiesen. Was wir bekamen war ein Nachdruck einer Schrift von Tony Hyman, der einmal mehr über diese theoretische Berechnung von Fußball C60 nachgedacht hatte. Das war also wirklich das dritte Mal, dass dies veröffentlicht wurde, aber keiner wusste davon. Aber in seiner Schrift gab es eine Menge Ideen, die nicht genug gewürdigt werden. Einen Gedanken, den er hatte, etwas, dass er zeigte, war, er überlegte sich eine alternative Käfigstruktur für Kohlenstoff C60 und zog dann den Schluss, dass dies keine gute Struktur wäre, denn sie bestand aus fünfgliedrigen Ringen, die miteinander verbunden waren. Und er glaubte, dies wäre ein hochenergetischer, möglicherweise chemisch reaktiver Ort. Was er außerdem wusste war, dass Euler 1764 die Regeln zum Herstellen von Polyedern erläutert hatte. Und wenn man diese Regeln auf ein System anwandte, das nur aus sechsgliedrigen Ringen oder fünfgliedrigen Ringen bestand, dann besagten sie, dass, so lange man 24 oder mehr gerade Zahlen von Atomen nimmt, man eine geschlossene Käfigstruktur herstellen könnte, die aus genau 12 Fünfecken bestünde und der Rest wären Sechsecke. Nun, Harry bekam, nächste Folie bitte, diesen, wie jemand bemerkte, wunderschönen, kleinen Artikel von David Jones, der 1966 veröffentlicht wurde und besagte... David Jones hatte eine Spalte im New Scientist, in der er im Wesentlichen verrückte Ideen in der Chemie vorstellte. Und er veröffentlichte sie unter dem Namen Daedalus, weil, so glaube ich, er nicht wollte, dass man ihn für verrückt hielt, weil er verrückte Ideen hatte. Er sagte, Daedalus habe sich ein Hohlmolekül ausgedacht, eine geschlossene, sphärische Hülle aus Schichtpolymer wie Graphit, dessen Moleküle flache Schichten aus Benzol-Sechsecken sind. Er schlägt vor, den Hochtemperaturprozess der Graphitherstellung etwas abzuwandeln, indem in die Schichten zu deren Bearbeitung geeignete Unreinheiten eingeschleust würden, mit der Begründung, diese werden sich am Ende von alleine schließen. Und prompt sagte man ihm, die geeigneten Unreinheiten sollten fünfgliedrige Ringe sein und man bräuchte genau 12 davon. Und unsere Entdeckung bestand im Wesentlichen darin, dass man eigentlich nicht viel tun musste, um den Hochtemperaturprozess der Graphitherstellung abzuwandeln. Alles was man tun musste, war, Kohlenstoff kondensieren zu lassen, Kohlenstoffatome aus hohen Temperaturen kondensieren zu lassen. Und spontan erhielte man diese Käfigverbindung. Nächste Folie bitte. Und er zeigte, in einigen seiner nachfolgenden Arbeiten, zeigte er einige Bilder dieser wunderschönen Strahlentierchen, deren Skelette überwiegend aus Sechsecken und Fünfecken bestehen, obwohl man, wenn man genau hinschaut, auch einige Siebenecke darin erkennen kann. Und diese Abbildung stammt aus einem Buch von D'Arcy Thompson über Wachstum und Form. D'Arcy Thompson hatte die Beziehung zwischen Geometrie und Symmetrie und der Struktur der Organismen betrachtet. So gibt es zum Beispiel bilaterale Symmetrie, ein Seestern weist Fünffachsymmetrie auf. Und diese kleinen Lebewesen weisen eine Art sphärischer Symmetrie auf. Und es stellt sich also heraus, dass dies auf die eine oder andere Art mit Biologie zu tun hat. Nächste Folie bitte. Das brachte uns zurück zu dieser Verteilung und den Gedanken, dass der Grund dafür, dass es nur geradzahlige Cluster gab, vielleicht der ist, dass all diese Cluster Käfigverbindungen sind, dass sie bereits beträchtlichen chemischen Angriffen ausgesetzt waren. Und nur die, die bereits geschlossene Käfige waren, überlebten. Nächste Folie bitte. Nun, das wirft eine andere Schwierigkeit auf, wenn es sich bei allen um geschlossene Käfige handelt, warum reagieren sie und zerfallen. Und Kohlenstoff 60 hat etwas Einmaliges, es ist die kleinste Käfigverbindung, bei der es keine benachbarten Fünfecke gibt. Und beinahe gleichzeitig argumentierten so unabhängig voneinander Harry und die Gruppe aus Galveston, Thomas Schmalz, Doug Kline und Bill Seitz, dass fünfgliedrige Ringe vielleicht besonders leicht chemisch angreifbar sind, wenn sie nebeneinander liegen. Und vielleicht ist genau C70 das nächst kleinste, geschlossene, rhomboedrische Gebilde ohne nebeneinander liegende Fünfecke. Jetzt stellt sich heraus, dass es eine enorme Herausforderung ist, dies zu beweisen. Und wirklich gelang der Gruppe aus Galveston, die ziemlich talentierte Mathematiker sind, 1993 endlich der Nachweis. Aber dies ist die einzige Struktur aus nicht benachbarten Fünfecken, die sich leicht konstruieren lässt. Harry versuchte sich an einigen aus diesem Bereich, aber es gelang ihm nie und er war gezwungen zu raten. Und wirklich ist dies das nächste (Gebilde) ohne benachbarte Fünfecke. Nächste Folie bitte. Was also geschieht, hier sehen sie ein C40, was also geschieht ist Folgendes: Wenn es zwei Fünfecke gibt, die nebeneinander liegen, sind diese beiden Kohlenstoffatome, die die Brücke zwischen den beiden Fünfecken bilden, chemisch besonders angreifbar. Und es wurde nie ein Fulleren isoliert, bei dem es benachbarte Fünfecke gibt. Nächste Folie bitte. Nun gibt es viele verschiedene Isomere, wenn man in die Nähe von C60 vordringt, gibt es 1.812 geschlossene Käfigformen von C60. Und wirklich weisen alle außer einem dieser Isomere, das Fußball-Isomer, nebeneinander liegende Fünfecke auf. Das ist nur eines davon. Nun, wir hatten jede Menge Spaß 1985, beinahe alle unsere Ideen lagen Ende 1985 auf dem Tisch. Wir verbrachten einige Jahre mit unserer Verteidigung und dem Versuch, neue Experimente zum Testen der Fullerenhypothese zu entwickeln. Ewa 1988 oder '89 ging uns der Sprit aus. Man hält einen Vortrag und der organische Chemiker sagt, lass uns doch einmal dein Reagenzglas mit der Substanz sehen, und wir mussten zugeben, dass wir keines haben, wir haben lediglich ein paar Moleküle in einem Molekularstrahl. Ja, und es war klar, dass da kein Nobelpreis drin war, in dem, was wir geleistet hatten. Und wir hatten keine Ahnung, was wir als Nächstes tun sollten. Nächste Folie bitte. Aber dann kamen diese 2 Männer zu unserer Rettung, das ist Wolfgang Krätschmer aus Heidelberg und dies Don Huffman von der University of Arizona in Tucson. Sie sind Physiker, die sich schon länger für Kohlenstoffteilchen im Weltraum interessierten. Nächste Folie bitte. Sie hatten eine Vorrichtung zur Herstellung von Kohlenstoff, vor allem zur Herstellung von Kohlenstoffruß, der dann untersucht werden konnte. Diese Vorrichtung bestand aus einer Reihe von Graphitstäben, durch die man einen Strom schickte, der den Graphit aufheizte, den Kohlenstoff verdampfte und dann gab es eine kleine Scheibe darüber, in der man den Ruß auffing. Und sie erhielten einen besonderen Ruß und wunderten sich, was los war. Normalerweise hatten sie darin eine träge Atmosphäre. Sie fragten sich, was mit diesem besonderen Ruß los war. Und nachdem sie jahrelang darüber gescherzt hatten, entschieden sie schließlich, nun, vielleicht ist es wirklich C60, vielleicht sollten wir wirklich danach suchen. Und tatsächlich entdeckten sie, dass, wenn man bei etwa einer halben Atmosphäre Argon den Ruß in dieser Glasglocke hier auffing, dass dieser Ruß zu 5 Prozent aus einer Mischung aus C60 und C70 bestand. Und so fingen Menschen auf der ganzen Welt an, dies geschah überwiegend im August 1990, September 1990, Menschen auf der ganzen Welt begannen, Kohlenstoffstäbe zu verdampfen und den Ruß aus dem Inneren des Behälters zu sammeln. Man bemerkt, er landet nicht nur genau hier, er landet überall auf der Innenseite des Behälters. Und daher sahen die meisten Forschungsgruppen in etwa so aus. Nächste Folie bitte. Es war eine schmutzige Arbeit, den Ruß abkratzen und aufschütteln und das C60 und C70 herauslösen. Nächste Folie bitte. Nachdem die Chemiker einmal wussten, wie man dieses Material herausbekommt, trennten sie das Material und wirklich war Harrys Gruppe eine der ersten, die dieses Material heraustrennten. Das ist C60 in einer Toluollösung. Das ist eine dünne Schicht von C60, das ist C70 in einer Toluollösung und C84 in einer Toluollösung. Und so gibt es etwa, ich weiß nicht genau, vielleicht 8 oder 9 verschiedene reine Fullerene, die isoliert wurden. Und es gab jede Menge Aufregung und eine sehr große Zahl von Abhandlungen kam direkt im Jahr nach 1990 heraus, als viele Menschen daran arbeiteten. Und wo stehen wir also heute? Könnte ich bitte die nächste Folie bekommen? Nun, zuerst einmal gibt es..., dieses Material wurde etwa 1992 bekannt. Das ist ein Fulleren, das in die Länge gezogen wurde, und es weist nur an einem Ende eine Kappe aus Fünfecken auf. Wenn man den Kohlenstoff verdampft und dem System ein bisschen metallisches Kobalt-Eisen oder Nickel, vor allem Nickel, hinzufügt, übernimmt der Katalysator das System und verwandelt die gesamte Fullerenproduktion in eine Produktion dieser Kohlenstoffnanoröhrchen, Buckytubes. Und eine Menge Aufregung rankt sich um die Frage, kann man mit diesen Buckytubes etwas anfangen. Wenn man zum Beispiel Millionen oder Milliarden davon nehmen und sie zu langen Kabeln, parallel zueinander zusammenfügen könnte, hätte man das stärkste Kabel, das man sich vorstellen kann. Vielleicht 100 Mal stärker als Stahl und vielleicht nur ein Viertel des Gewichts bei demselben Durchschnitt. Leider weiß keiner, wie man das machen kann. Aber die Bemühung, etwas aus diesem Material zu machen, das Material ist auch elektrisch leitfähig, man hätte also elektrisch leitfähige, extrem starke Kabel. Gerade kürzlich haben sich Leute gefragt, was eigentlich aus Buckyball geworden ist. Nächste Folie bitte. Das hier haben wir, meine Folien sind durcheinander, Entschuldigung, das zeigt, was wir haben und was in Bezug auf die Morphologie des Kohlenstoffs dabei herauskam. Wir begannen mit Diamanten als dreidimensionales Netzwerk aus Kohlenstoffatomen. Das ist also im Prinzip ein dreidimensionales Material. Eine bekannte weitere Form des Kohlenstoffs ist Graphit, der im Prinzip ein zweidimensionales Material darstellt, diese Schichten aus sechsgliedrigen Ringen. Dann sind die Nanoröhrchen eindimensionales Material und die Buckminster-Fullerene C60 entsprächen einem nulldimensionalen Material. Eine Schlussfolgerung also ist, dass man sich Kohlenstoff in beinahe jeder Form vorstellen kann, er genügt in der einen oder anderen Form beinahe allen Morphologien, die im dreidimensionalen Raum möglich sind. Nächste Folie bitte. Hier sehen sie, was ich glaubte, würde gesehen. Im Wall Street Journal vom 4. Mai 1998 stellte Susan Warren diese Frage. Und die Antwort ist offensichtlich, kein kommerzielles Produkt besteht aus Buckminster-Fullerenen (Buckyballs). Und ihre Begründung war, sie kosten zu viel, 11.000 USD das Pfund für C60 scheint es aus dem Kreis der Materialien auszuschließen, aus denen etwas Nützliches hergestellt werden könnte. Selbst die hochpreisigsten Rohstoffe, Pharmazeutika, müssen weniger als 2.500 USD pro Pfund kosten. Ich glaube nicht, dass dies wirklich der Grund ist. Natürlich ist es schwierig, C60 in größerem Maßstab herzustellen, das liegt an dieser Grund-, dieser fundamentalen Eigenschaft des Prozesses, reinschaufeln und den Ruß herausholen zu müssen. Aber noch hat niemand diese umwerfende Anwendung gefunden, die einen großartigen kommerziellen Nutzen verspricht. Und darum gab es bisher keinen Grund, den Preis nach unten zu drücken. Jetzt die nächste Folie, bitte. Das liegt nicht daran, dass es niemand versucht. Es gibt Forschungsbereiche, die Fullerene erzeugen, insbesondere im Bereich der flächigen Metallofullerene, Fullerene mit Metallen darin. Es gibt noch eine Menge Arbeit im Bereich der organischen Chemie der Fullerene: Bestrebungen, Anwendungen in der Biologie und Medizin zu finden, Bestrebungen, Anwendungen in der Optik und bei elektronischen Geräten zu finden. Aber soweit ich weiß, hat bisher niemand diese praktische Anwendung vorgeschlagen, die uns allen im Kopf spukt. Um es mit den Worten von Rick Smalley zu sagen: Wir fragen uns alle, ob das Kind je einen Job bekommen wird. Vielen Dank.

Robert Curl on the Football Structure of the C60 Molecule
(00:07:22 - 00:15:50)

The fullerenes were so exciting to the scientific community (and the Royal Swedish Academy of Sciences) because they represented a new modification of carbon, which is distinctly different to the well-known graphite and diamond modifications. Due to the fundamental importance of carbon in almost all processes of life as well as in materials science, it could be expected that the advent of the fullerenes would entail a horn of plenty of potential technical applications. This excitement was stimulated further, when traces of fullerenes were detected in space. However, as far as we know today, the enthusiasm was probably excessive. More than 25 years after the discovery of fullerenes, there are still no major technical applications.

Graphene
Fortunately, there are already a couple of new stars at the horizon. The fullerenes indeed stimulated the interest of the scientific community in carbon-based materials. This interest inter alia led to the synthesis of carbon nanotubes, which are used in turbines, sports gear and scientific instruments due to their supreme mechanical and electronic properties. It further revived interest in an endeavour, which had, more or less unsuccessfully, been attempted since the 1840s [1]: the isolation and characterisation of a single, pristine carbon layer from graphite. Unfortunately, such pristine, isolated layers, which are referred to as graphene, are not easily obtained: they tend to be “sticky” and highly susceptible to the incorporation of structural defects and impurities.

It was thus only in 2004, when Andre Geim and co-workers at the University of Manchester presented a new, surprising solution to these problems: micromechanical exfoliation. What sounds like a complex technical endeavour is actually ingeniously simple: all you need is a graphite stick and some scotch tape. If the former is pressed against the latter and then removed, tiny graphene flakes remain stuck to the tape. The advantages of this method are its simplicity and the high quality of the obtained graphene flakes, which allows for studies looking at the fundamental properties of the material. Geim and co-workers did just that and came up with a range of amazing results, which eventually led to the award of the 2010 Nobel Prize in Physics.

Today we know that graphene is not only the thinnest material in the universe, it is also the strongest ever characterized [2]: a single graphene sheet, with a thickness of only about 0.0000003 millimetres, would have the ability to support the weight of a kitten, if made large enough. The favourable electronic properties of graphene furthermore render it a promising candidate for high-tech applications (such as high-speed and radio frequency logic devices, thermally and electrically conductive reinforced composites, sensors, and transparent electrodes for displays and solar cells [3]).

Using Carbon Atoms as Lego Bricks: Organic Synthesis of Carbon Compounds
Diamond, graphite, graphene and the fullerenes contain only carbon atoms. In this respect, they could be considered “basic” materials. However, carbon may form bonds with dozens of other elements, such as hydrogen, nitrogen, oxygen, sulphur, boron, the halogens (bromine, chlorine and fluorine) or even metals like lithium, magnesium, titanium and rhodium. This extraordinary chemical versatility allows for tens of millions of carbon compounds. No other element, except hydrogen, is found in that many different molecules. The vast world of carbon compounds ranges from biomolecules such as sugars, fatty-acids, vitamins, proteins and DNA to man-made bioactive molecules such as drugs or pesticides, to technical materials like plastics, resins and paints, petrochemicals or explosives.

Many Nobel Prizes in Chemistry were motivated by discoveries relating to new ways of making such compounds and materials. While some prizes were awarded with respect to a particular technical procedure, like the 1963 chemistry prize to Karl Ziegler and Giulio Natta for their method of making polyolefins, quite a few honour synthetic methods which are not linked to a particular application, but are general enough to push the whole field of organic synthesis forward.

Whether technical or fundamental, many modern synthetic methods awarded with a Nobel Prize have one thing in common: they use metals or metalloids like boron to make previously impossible or inefficient reactions feasible. An excellent example is the Ziegler-Natta method just mentioned. In the 1950s, Karl Ziegler discovered that a combination of aluminium and titanium compounds could sustain the polymerisation of ethylene to polyethylene. Giulio Natta used similar compounds to produce polypropylene. Today, both polyethylene and polypropylene are two of the most common and widely employed plastics. Their total global annual production is well in excess of 100 million tonnes, generating an annual market of around 200 billion EUR. In fact, it is highly unlikely that you do not have a Ziegler-Natta based plastic in your reach while you are reading this. Water bottles, plastic bags, stationery, but also car parts and laboratory equipment are just a few examples. In 1964, Karl Ziegler lectured in Lindau on the history of the discovery of the Ziegler-Natta catalyst (which he paraphrased as “the Muelheim invention”):

Karl Ziegler (1964) - From Triphenylmethyl to Polyethylene - Less Well-Known Facts About the Developments Leading to the Invention Made in Muelheim (German presentation)

Ladies and Gentlemen, The topic of my lecture today might lead you to expect me to talk today about the stimulation of polymerisation by free radicals. After all: the chemists among you, and I assume there are a great number of you from the younger generation, will know that you can stimulate polymerisation with radicals and that triphenylmethyl is the oldest and best-known free radical. Stimulation of polymerisations by radicals proceeds in such a way that the radical with its free electron is attracted to one side of a double bond, for example in ethylene. As a result, one electron is again freed on the other side of the ethylene, which can then repeat the process. And in this way polymerisation speeds through a large number of molecules. This is known as a radical chain mechanism. But the polymerisation of ethylene, which we discovered ten years ago in Mühlheim, does not proceed on the basis of such a radical chain mechanism and is therefore completely unrelated to it. It is, however, related to the fact that I have today the opportunity, the very welcome opportunity, to speak to you here. The context of radicals in relation to triphenylmethyl is a personal one and relates to the somewhat circuitous path that ultimately led us to an observation in 1953, from which everything else down to the present day developed. The story in which the whole thing took place is unique and may be educational for the younger generation, because it shows the roundabout routes that can sometimes lead to important findings and progress. And it begins at a time before I was born and when I was still a child. And in this context there is a remarkable circumstance namely our old master Hahn. And in his book “From Radiothorium to the Fission of Uranium”, Otto Hahn has recently written about his own early days at the Chemical Institution of the University of Marburg on the Lahn, in which he mentioned his doctoral supervisor, Theodor Zincke. And his account then goes on to portray very vividly how, after starting his career as an organic chemist, he became an inorganic chemist and radiochemist, and then achieved the pinnacle of success in those fields. My story begins in the same place but around 20 years later. And it differs in that my doctoral supervisor was no longer “old Zincke”, as we called him, but his successor, von Auwers. Moreover, I attempted, and this is another difference to Otto Hahn, to prove that you can start in organic chemistry and then achieve success in organic chemistry itself. Von Auwers, incidentally, had begun his career with August Wilhelm von Hofmann in Berlin and later worked for many years under Victor Meyer at the Heidelberg Institute before moving to Marburg via Greifswald. And for this reason, I can claim to be a scientific grandchild of August Wilhelm von Hofmann, as well as of Victor Meyer. I would first like to place the two gentlemen, the two great chemists, in context. Here you have “Old Zincke”, as I remember him and knew him, and then Mr. von Auwers, as he was when he was my doctoral supervisor. Despite this very unique personal bond to von Auwers, my story also has something to do with the old Privy Counsellor Zincke, who throughout my studies still worked assiduously in a corner of the organic chemistry room, where he had his workplace, and immediately after the First World War still had two doctoral candidates who, incidentally, remained close colleagues for life. My own relationship has a more negative slant. This has to do with the fact that Privy Counsellor Zincke, in his final period of creativity, did a lot of work on certain organic sulphur compounds. Now, sulphur compounds are, as you know, the worst toxins for sensitive catalysts. When I starting in 1917 was working in organic chemistry in Marburg and then took up my own work there in 1920, it was a standing rule that catalytic hydration never worked at the Marburg Institute. This was generally attributed to contamination of the laboratory with organic sulphur compounds, that is, the sulphur compounds from Old Zincke. Whether this really was true or whether it was simply a convenient excuse on the part of those affected, who did not always work scrupulously enough when preparing catalysts, is anyone’s guess. In any case, when I was confronted with a certain hydration problem, this situation prompted me not to even attempt catalytic hydration and to come up with something somewhat different. And this marks the real beginning of my story. Around 1920, free organic radicals of the triphenylmethyl type were a hot topic. Shortly before the war, which had only recently ended, Schlenk prepared the first really totally free monomolecular, non-associated radical, triphenylmethyl and the question regarding the causes of the stability of such radicals was the subject of lively debate. There is a still recent, really new - back then really new - monograph by Schmidlin on the field, and on the last page he suggested that researchers might consider searching for a trivinylmethyl, which would contain three monounsaturated residues, the bottom formula here. The implication was that researchers should conduct a search here based on the analogy between aromatic and unsaturated aliphatic substituents. The first success of my independent scientific research lay along these lines, and in 1923 I was able to synthesize the first radical with an unsaturated substituent, namely tetraphenylallyl, which you can see at the top left. And soon afterward, I managed to synthesise an analogous substance containing two unsaturated substituents, pentaphenyl cyclopentadienyl, in 1925 (top right). Both products showed a marked tendency to associate, and they truly were free radicals. Of course I then set about to run a cross-check and see what would become of such radicals after hydration of the double bond. In the process, hydration should ... So, what I was trying to do was make a substance like the one expressed by the bottom formula. That involves nothing more than hydrating this tetraphenylallyl at the double bond. The hydration should not be performed on the free radical itself, because it was feared that the free electron would also enter into the hydration reaction, but rather on a precursor. On a precursor, namely the corresponding ether, which you see up here. And because, as I mentioned, I didn’t expect much from catalytic hydration, I immediately chose a different path. Around ten years before, Wilhelm Schlenk namely had found that you can add alkali metals to certain double bonds, particularly those containing aromatic substituents. And so I conceived the pathway shown in these two formulas. I wanted to add sodium to this ether and then, by way of conventional hydrolysis, replace those two sodium atoms with hydrogen. That was the starting point and the concept. I was very fortunate that things didn’t go quite to plan and that I was given the opportunity to discover my first new reaction. No alkali metal attached to the double bond; instead, the two sodium atoms caused the ether to cleave at this bond, as you can see here in this diagram, to form an organosodium compound plus sodium alcoholate. Thus, on the basis of this very complicated example, a new, very simple method was discovered to produce organo compounds of the alkali metals. And, of course, I then established what structural requirements such ethers must possess for them to be cleanly cleaved by alkali metals. It was found that ethers of tertiary alcohols containing at least one aromatic residue on the tertiary carbon atom undergo cleavage particularly easily. The simplest ether that worked was phenylisopropyl methyl ether, a tertiary ether with an aromatic substituent that undergoes cleavage extraordinarily easily, especially by potassium, in accordance with this reaction. In this way, phenylisopropyl potassium was produced, the substance at the bottom left, which at the time was the most readily accessible and highly reactive organopotassium compound. I would like to take this opportunity to reassure you that in my later chemical career I managed to carry out catalytic hydration with ease. So I’ve rectified this deficiency from my early days. But at the time I had every reason to attribute this to the old Privy Counsellor Zincke and his sulphur compounds and actually suspect – I didn’t even attempt the experiment Because that is how I came to study organometallic compounds, to which I owe a whole series of new discoveries and successes right down to the present day. The next link in the chain of development was a rumour that I heard shortly after starting work in Heidelberg in 1925. The word was that Wilhelm Schlenk in Berlin had produced addition products of alkali metals, for example on stilbene the symmetrical isomer of 1,2-diphenylethylene, whose configuration was said to correspond to that of diastereomers. So it was thought that when lithium is added to stilbene, shown as a stereoformula, as a projection formula, such an addition product results, and when sodium is added, an analogous but different product results. Schlenk published these results later. I heard at the time about it from …, as it happens, from rumour. Schlenk later published his findings, and it still remains doubtful whether the published data would have withstood close scrutiny. A lot of other things attributed to the Berlin laboratory at the time were not true. But I began to wonder whether you could also make such diasteriomers with the same metal if you produced the addition products using two different methods. One such method would be to attach the metal directly to the double bond, and another, for example, an indirect route via a reaction in which the metal is exchanged by way of a reactive organometallic compound. Based on these considerations, I reacted stilbene - that was in Heidelberg, where I took up work in 1926 - with phenylisopropyl potassium, which had just been discovered in Marburg, in the expectation that a dipotassium compound would form along the lines of such an exchange. I then wanted to determine if it was identical to the compound obtained by direct attachment of potassium to Stilbene and the product obtained by combining the two remaining residues of phenylisopropyl potassium. But again things didn’t go to plan. The potassium compound simply added to the ethylene in accordance with this reaction: Here is potassium on the one side, the predicted phenylisopropyl group on the other. And in this way I discovered my second new reaction of organoalkali metal compounds, and namely one that went significantly beyond the organometallic compounds known up to then. Because the Grignard magnesium compounds, which dominated the field at the time, added only to CO double bonds and not to CC double bonds of olefin hydrocarbons. In the course of events, those observations I made in Heidelberg may have played a role. The Baden Aniline and Soda Factory, which was working on synthetic rubber, was nearby. And I was familiar with the well-known polymerisation method of butadiene by sodium, which later led to the general name of Buna rubber. I clearly recall the evening we succeeded in adding phenylisopropyl potassium to stilbene and definitively established that this reaction pathway had taken place, and that even on the way home from the institute, I realized that this reaction might hold the key to understanding the polymerisation of butadiene by alkali metals. If one assumes that such an addition product is formed from butadiene and sodium, you would have a disodium compound that would certainly correspond to this phenylisopropyl potassium in the nature of its bonds. And if it adds here and on both sides of the butadiene molecule, the result could be a large molecule of this type. Now, based on the example of this phenylisopropyl potassium, it was possible to show that this type of reaction actually is possible. An addition reaction of this kind does actually occur between phenylisopropyl and butadiene, and – as I discovered in Heidelberg – you can repeat it. That is the first reaction step. And then, in the same way, you can add the second, the third, the fourth, and so on. I discovered in other words and demonstrated a reaction type that I called stepwise organometallic synthesis, and then later, in a completely different form, namely with aluminium as the carrier metal of the organometallic compound and using ethylene instead of butadiene, developed it into an industrial process. It’s clear that after the discovery of such a new reaction, researchers would search the entire field for reactions of a similar nature in order to explore the boundaries within which such reactions are possible. So I tested many combinations of organometallic compounds and olefin carbohydrates available at the time and found that not all unsaturated carbohydrates are suitable for addition, not all alkali metal compounds as well. And when you come up against such highly variable reactivity, it’s logical, to draw exact comparisons, to take kinetic measurements of the reaction. Now, for such measurements phenylisopropyl potassium is very unsuitable, because, insofar as it reacts at all, it always does so at an extraordinary speed, making it impossible to carry out comparative rate measurements. We then included the lithium alkyls discovered by Wilhelm Schlenk in 1917 in these investigations. At the time, the method for producing them was very elaborate, requiring mercury-silver alkyls to be heated with lithium shavings in organic solvents. We were also able to add these substances to suitable unsaturated carbohydrates, and usually the reaction did not occur instantly but required some time. We therefore had ideal objects for carrying out comparative kinetic measurements. In our kinetic experiments we were faced with the task of distinguishing the addition products of lithium alkyls ourselves by means of a suitable reaction in order to follow the progress of addition over time. If, for example, you add lithium methyl, a colourless substance that is readily soluble in organic solvents, to a suitable hydrocarbon, for example this diphenylethylene, addition takes place, and the addition product is deep orange-red in colour. We then found that this red instantly disappears after the addition of organohalogen compounds, especially butyl chloride. In other words, this type of organometallic compound in proximity to aromatic substituents reacts extraordinarily rapidly with the halogenated alkyl. And we also found that the starting product, the purely aliphatic lithium methyl, does not react at all with the halogen, with the organohalogen, for example butyl chloride or ethyl chloride, within a reasonable time. So that we were able to carry out our kinetic experiments very nicely by removing the lithium from the more reactive, coloured species after some time by adding halogen compounds and then decomposing the whole thing, and finally filtering out the halogen. With regard to these experiments – I’d like to describe all the circumstances to you today they were simply some type of experiments. They did not lead to far-reaching new findings. But they did make us realize that simple aliphatic lithium compounds with halogenated alkyls do not react rapidly at all, that they can be stored indefinitely. This had naturally a very specific consequence, because from this realisation to the discovery of a new, simple reaction for producing lithium alkyls was just a small step. While I was still a student, the dogma still prevailed that organic halogen compounds only enter into the so-called Wurtz reaction with alkali metals. That is this reaction which you can see written down here. I note, however, that although the diagram is rather old, something is missing: a 2 should appear here, otherwise it’s incomprehensible. So the Wurtz reaction, where a metal acts on halogen compounds, simply welds together two such residues, and the metal goes over to the halogen compound. While I was a young assistant, Schlubach was able to show, with the help of a special trick, that organoalkali metal compounds are produced as intermediate products in the process. He was also able to show that the reaction proceeds in two steps. Firstly the first step: Formation (ME simply stands for metal here), formation of the organometallic compound and metal halogenide. And then, in the second step: the halogen compound reacts with the metallic compound to form the product of Wurtz synthesis. But, as Schlubach observed at the time, these two reactions proceed so rapidly, one after the other, that they couldn’t be used, or at least it was believed that they couldn’t be used, to produce the organoalkali metal compounds themselves. Today we have long since overturned that view, and we know that, using a suitable technique, even organosodium compounds can be easily produced from halogen alkyls. But at the time we had no idea of this. And so we realised for the first time in the course of our kinetic experiments that you must be able to produce lithium alkyls directly from lithium and halogen alkyls. Because as I said, the reaction that we observed to be very slow, was nothing other than reaction 2 on this diagram. And that actually proved to be the case, and as a result in 1930 we were able to transfer the known Grignard reaction, as it were, to lithium, so that a whole series of organic lithium compounds became as readily accessible as the Grignard magnesium compounds. And these findings subsequently opened the way, first by us and then by many colleagues around the world, to a broad chemical field of organolithium compounds. I do not want to pursue this, but I would like to mention that in the following period we explored the reactions between lithium alkyl, particularly between lithium butyl and butadiene, very carefully. That which was originally possible with the potassium compound, we were now able to demonstrate for lithium compounds as well. Initially, a single addition product forms and then one butadiene after another links up, and products of this general formula are formed. This reaction would have been of interest for the synthesis of long, straight-chain aliphatic compounds if it uniformly proceeded according to the principle of 1,4 addition. In fact, however, these reactions were subject to two different principles simultaneously, namely 1,4 addition products resulted with formation of the straight chain, as well as 1,2 addition products with formation of the branched chain. If the next butadiene attaches there at the site where the lithium is, it is clear that this group here will form a side chain, and you get a branched product. And the more frequently that can happen and the longer, meaning the greater the number of butadiene molecules that attach, the more complicated will be the mixtures of the reaction products obtained. In fact, using carbon dioxide, carbonic acids can be produced from these substances. These are however always complicated mixtures of straight-chain and branched products. And it’s not a neat synthesis of uniform substances. So it was theoretically very interesting, but had no practical application whatsoever. For the further course of events, attention to an extremely simple problem was then crucial: Schlenk had in 1917 described lithium ethyl as a crystalline, colourless substance that is soluble in hydrocarbons and mentioned incidentally that lithium ethyl partly sublimates in conventional tubes used for melting-point determination. Now that I had large quantities of lithium alkyls available and could easily produce, I wanted, to complete our knowledge, to check in general whether you can distil lithium alkyls under suitable conditions. Because we knew that sodium and potassium alkyls are evidently purely heteropolar salts that cannot be distilled without undergoing decomposition, the question regarding the distillability of lithium alkyls was of some interest, because, according their properties, these substances occupy an intermediate position with respect to the purely homeopolar types of the zinc diethyl type. Shortly before leaving Heidelberg in 1936, I ran a few experiments along these lines, which, however, did not produce a clear result, so that the question regarding the distillability of lithium alkyls remained unanswered for the time being. I then moved to Halle and concerned myself with a series of other problems that are of no interest to us here. And finally, in 1943 I landed in Mühlheim an der Ruhr and considered what productive work I could do there at the Coal Research Institute. Sure there were back then many who believed – and you still encounter similar opinions today – that the director of a coal research institute should of course pursue research into coal. Under this assumption I had however not come to Mühlheim. I was generously granted instead free rein to explore the entire field of the chemistry of carbon compounds without regard to whether the work was related to coal. At first I had very few coworkers. Mainly, the work by my predecessor at the institute was still ongoing. So the thought occurred to me that I could revisit ground that I had not explored since 1936, and which would require little effort. So I began with this question regarding the distillability of lithium alkyls. I was then able to show that these substances can be distilled without decomposing if their molecular weight is not too high, and if the distilling takes place in an extremely high vacuum and along a very short distillation path. But much more important than the thing we were looking for, and which, by way of exception, we actually found this time around, was a side reaction that we observed. We found, namely, that lithium alkyls readily split to form lithium hydride and olefins at temperatures above around 100 degrees. That was not very exciting in itself. American authors had already demonstrated that several years earlier for sodium ethyl . And we ourselves had already shown around 1930 in Heidelberg a tendency for lithium hydride to split off from certain complex organolithium compounds. But we also found that the decomposition of lithium methyl gives rise not only to ethylene, but also to butylene, a hydrocarbon containing four carbon atoms. This means that a synthesis had occurred, and we were then able to show in suitably designed experiments, in which lithium alkyls were heated with excess ethylene under pressure, that a stepwise organometallic synthesis is possible between lithium alkyls and ethylene. The next image shows all these possibilities. Up here we have lithium methyl, which can split into lithium hydride and ethylene. And in the further reaction with ethylene under pressure it can be converted first into lithium butyl and then with another ethylene to lithium hexyl, and so forth in general. In a manner similar to that which I showed before for butadiene, it was possible to synthesize straight-chain aliphatic compounds in this way. In retrospect, you might ask today: Why didn’t you discover this very simple reaction much earlier and why did it take such a roundabout way to find this primitive reaction? The answer is as follows. Firstly: when we discovered the general reaction between organic and alkali metal compounds and olefin unsaturated hydrocarbons, it seemed that it would only be possible with olefin double bonds that were activated somehow by a suitable substituent, for example by a phenyl. Earlier, I presented diphylethylene as a reaction product, and styrene, also known as phenylethylene, also undergoes the reaction or activates via a second double bond, as in butadiene. In Heidelberg we had no ethylene available. We had tested other simple olefins, for example cyclohexene, and found that these did not result in addition. In fact, we now know that ethylene and ethylenes with substituted saturated hydrocarbon residues must not be equated in terms of their reactivity. Ethylene is by far the most reactive. Finally, before we discovered our new synthesis, the organolithium compounds were accessible only via mercury-silver alkyls, so with great difficultly. And in the long course of our research we have repeatedly observed that a field experiences a great boost only after it has become possible to produce the necessary starting materials easily in the laboratory in quantities of several 100 g or, better, in kilogram quantities. Only in Mühlheim were all the requirements met. Above all, ethylene was native to the Ruhr region from coking plants. All of this conspired in such a way that in the first few years at Mühlheim we made important advances, achieving the transfer of these reactions from butadiene to ethylene. From the moment of the discovery of this very simple way to synthesize straight-chain aliphatic compounds from lithium alkyls, the course of research at Mühlheim has been described and published many times in rather great detail, so that I can end my story here. Combining our knowledge about the tendency of lithium hydride to split off from lithium alkyls and the ability of lithium hydride to undergo addition reactions with ethylene, we began to suspect that you should be able to convert ethylenes into higher alpha olefins by using lithium hydride as a catalyst. That is shown in this reaction diagram. If you consider each reaction stage to be an equilibrium reaction involving the scission and re-deposition of lithium hydride, you can easily combine them, so that when you simply heat lithium hydride together with ethylene, you would expect all these products to appear again catalytically on the right side. Thus, butylene, hexene, octylene and the higher homologues should form simply by combining these two reactions. We found this to be true in principle, but the reaction does not run smoothly. It is complicated by side reactions and follow-on reactions. One is shown at the top. A sort of substitution reaction occurs. For example, when lithium methyl reacts with butylene, a lithium compound of butylene like this is able to form. And if lithium hydride is removed, you have butadiene, and from there it proceeds to polymerisation and the like. Those are complications that you cannot necessarily predict, but which nevertheless prevent what we were looking for to occur straightforwardly. Subsequently – and as I said, this has been described many times that we could achieve what we were aiming for very nicely with lithium hydride alone if we used the lithium aluminium hydride complex, which had been discovered in the US a short time before. And it was just after the war that we became aware of the substance. This observation, that it works very well with lithium aluminium hydride, despite working poorly or not at all with lithium hydride, this observation opened the way to proceed from the lithium alkyls to the aluminium alkyls. Surprisingly, with these it was possible to fully realize everything we had expected from the lithium alkyls and which the latter only exhibited weakly or poorly. In this context, we were particularly intrigued by the problem of synthesising straight chains from aluminium alkyls and ethylene, a process we referred to as a growth reaction, which proved highly suitable for the synthesis of aliphatic compounds, particularly alcohols with a chain length of 10 to 20 atoms, especially if you combined it with subsequent oxidation. I’ve again written down the principle of this growth reaction again for aluminium alkyl. It’s simply the addition of this Al-C bond to the ethylene. It can be written like this. The reaction can be repeated, and this chain then grows on the aluminium by attaching ethylene consecutively at this site so that ultimately this is the final product. The result must, of course, be a straight chain, because no possibility other than straight growth is possible using ethylene as a building block. These substances can enter two possible reactions. You can oxidise them with oxygen at this site. The result is then what I mentioned before: a long-chain alcohol with a terminal OH group, a higher fatty alcohol. These compounds also exhibit the property – and I’ll come to speak about that in a moment – of simply releasing aluminium hydride under certain conditions. That results in this long chain, an olefin. This could provide a synthesis pathway for such olefins, exactly what we had previously sought with lithium hydride. We did not succeed in attaching as many ethylenes to an aluminium ethyl as would be required to form a true plastic-like polyethylene. You would have to add at least around 1000 ethylene molecules, whereas the best we managed was 50 to 100, because cleavage of olefins As a result, growth could not continue indefinitely. Before that could happen, relatively short chains of around 50 to 100 ethylene molecules split off. Clearly, when we discovered this reaction of aluminium alkyls with ethylene, this growth reaction, we realized of course that this could be related to the formation of a high-molecular-weight plastic. In truth – and contrary perhaps to reports in the daily press But, of course, this drew our attention to the possibility. It looked as if it was not achievable with aluminium alkyls alone and that at best you could only approach molecular sizes corresponding to fatty acids and the like. In fact, we had already given up on this problem of achieving a true plastic. But then serendipity once again lent a helping hand. One day, during an experiment in which we were attempting to synthesize non-straight chains from aluminium propyl, a trace amount of metallic nickel found its way into the reaction unbeknownst to us. The result was that the entire growth or synthesis reaction, as we called it, no longer took place. So instead of these nice large aluminium alkyls that we had already made a dozen times, suddenly we got: first propylene from the aluminium propyl (the small “Al” is simply meant to denote a third large Al). And furthermore butylene. We also found that we no longer obtained higher products with aluminium methyl either, it was as if it were jinxed, but evidently only by catalysis. The aluminium triethyl acted as a catalyst for the smooth conversion of ethylene to butylene. The cause in principle was, of course, immediately clear. Something had entered the reaction, some trace catalyst, that strongly catalysed this reaction, which I’ve written down here, in which an olefin was displaced from this chain by ethylene. In that case, it is, of course, clear that when an ethylene attaches to the aluminium ethyl and you therefore get a chain of four carbon atoms, this displacement occurs much more rapidly than the synthesis, due to the additional catalysis, and only the first synthesis stage is fixed, forming butylene and nothing else. After we had determined this and also discovered the reason – it took us around three months to realize what was going on, because the quantity of nickel required to trigger the effect is minute, so that the cause eluded us for some time – it was a logical step, since trace metal catalysis was involved, for us to expect that the previous attempts to synthesise really extremely long chains on aluminium had failed due to the presence of similar trace catalysts and that we would have to aim to work as aseptically as possible in the future. For that reason, we began to examine what other substances might exist that act similarly to nickel and exclude them in the expectation that we could approach around 1000 molecules of ethylene by way of this simple synthesis reaction. As you will be aware, from this systematic examination something very positive, new and surprising again emerged. Instead of a large number of other substances analogous to nickel, we found that there are entirely novel, up till then unknown combinations, especially organoaluminium compounds, with, for example, the chlorides of titanium, zirconium, vanadium, chromium and others, that were completely novel, highly active polymerisation catalysts, with the help of which it is possible to produce high-quality polyethylene at atmospheric pressure. Just how surprising this effect must have seemed at the time is reflected in the fact that among the many unsaturated compounds that exist, a whole series had been known for years that very readily undergo polymerisation - including products such as Plexiglas, polystyrene and polyvinylchloride. However ethylene, the parent substance, had resisted all polymerisation attempts and it was not until 1937 that researchers in England succeeded in achieving this under extreme conditions, namely at 1000 atmospheres and 200 degrees… For the gentlemen from the press, please note: not 1000 degrees and 200 atmospheres. The figures are often reversed, resulting in complete nonsense, because such substances do not withstand 1000 degrees. Anyway, that was discovered in 1937. And at the end of 1953 – 16 years later – we then discovered that the entire reaction easily proceeds with ethylene at one atmosphere with these highly active polymerisation catalysts. We called these combinations of certain heavy metal compounds with organometallic compounds of aluminium and other metals organometallic mixed catalysts. And it was found that they can be used to polymerise not only ethylene, but also may other substances to produce a large number of novel plastics. In particular, using our catalysts, others – not us – succeeded in producing a substance that is truly identical to natural latex. I have compared the entire development we set in motion ten years ago with an explosion of scientific knowledge and technical development. Let me explain to you why this comparison is not entirely unjustified with the help of two maps I will give you (the next image please). The first is a map of Europe and the second a map of the world, on which the factories that produce high-molecular plastics, whether polyethylene or others, using Mühlheim catalysts are marked in red. Among them, as you see, are three factories in Russia. Now, those marked in green by contrast are plants in which organometallic compounds, especially aluminium compounds, are produced and processed. The field has also developed industrially, but not to the same extent. And please now the map of the world. The same appears again on the world. Because of the small scale, the individual points are difficult to make out, so I have written figures that express the number of plants at each relevant location on the world map. As you see, there are three in Japan. So, that is the end of the development and it may be of interest … or perhaps the current state of development, probably not the end. It is perhaps interesting to see how it all looked ten years previously at the Mühlheim Institute. I would therefore like to describe to you in detail the small apparatus which we used to study the normal-pressure polymerisation of ethylene and then present a short film. You can easily image what a setup would like to run an experiment at 1000 atmospheres. The apparatus is a bit unusual. The glass vessel in the middle is a conventional five-litre jar. It is fitted with a stirring device. At the top is the drive; the motor is behind the paper, and to the right is the ethylene steel bottle with a reduction valve and manometer. Here is a wash bottle, which can be used to estimate the flow rate by counting the bubbles. Then on the other side is again … you can see how the ethylene escapes unchanged, there’s a thermometer in it, and so forth, which is what such an apparatus looks like. Here are a few coloured pictures showing how the experiment was run. Afterwards you will see the same thing in the film. Unfortunately, it’s an amateur film we made ourselves. It’s a bit fast, and it’s not always possible to explain what’s going on in detail. Therefore I’m going to show you parts of the apparatus again beforehand in static pictures. Here the stirring has begun. You can see that it’s foaming here. Here is the liquid inside, and the foam has risen. This is nothing more than a petrol-like hydrocarbon serving as a suspension medium. And here we have added a mixture of diethylaluminium chloride and titanium tetrachloride. A brown precipitate forms. That is the polymerisation catalyst. It’s 9:05. It is still very thin. No ethylene has been added yet. It’s just the catalyst alone. Perhaps a gram or so of it is suspended in the mixture. In the next stage, about an hour later, you see that the brown catalyst is still there. But you can already see a thick mass forming. Up here some of it is already adhering. So polyethylene has been formed by introducing, say, per hour 200 litres of ethylene. This is very rapidly absorbed, at the same time the substance precipitates, the temperature rises, and you have to cool the setup and hold it at around 60 or 70 degrees. And the catalyst is still in it. Now you can decompose it. Up to now the reaction has to be carried in the absence of air. You can decompose it by adding alcohol and admitting air. The thing then looks snow-white. This is somewhat later. You can then filter the thick slurry (the next picture). This is in the same experiment. The decomposition process has not become so prominent. You can see that brown catalyst is still present. After it has been exposed to air for a short time, it turns snow-white. Here you see a thick slurry being put on the filter above the vacuum flask. And the end result is a heap of white powder on the table. Here is a picture from the very early days. That’s the first tube which we late in 1953 fabricated ourselves from the material, and we first formed a solid by hot pressing and then drilled out the cylinder. We then conducted a pressure test with it. I believe the inside diameter was around 12 mm and the walls were perhaps 4 mm thick. And we pressed water into it, and the tube burst at 180 atmospheres. So we had a material with very remarkable properties, after all such performance had not been possible with the earlier high-pressure polyethylenes. It had a somewhat different structure for specific reasons. You can see that here too: If you press two objects made of the conventional product and the new material, in this case two beakers, you can see that the one is quite floppy and soft, while the other retains its shape pretty well. Using this simple test, you can always tell very easily where the products come from. However, the test is no longer perfect, because meanwhile high-pressure polyethylenes have been improved so that they are now much stiffer. Anyway, that was the state of affairs at the time. Nowadays, the result wouldn’t be quite the same. But there has always been a notable difference And how it today ... Those are the small objects from the early days. Now I’d like to demonstrate to you on the maps what progress has been made by showing you the largest vessels that can be made from the material today, which of course has excellent properties in terms of resistance to aggressive agents. Those are the largest containers with a capacity of several cubic metres. And the fact that they are very light can be seen in the picture, which shows how just a few people can easily lift such a large container. Incidentally, there’s no need to construct demonstration objects of this material for lectures, because all you have to do is stroll through the streets of the city. Right here in Lindau I saw a display window yesterday filled with objects that can be made from this material. And I also want to show you … all this in the time-lapse film, which unfortunately But now that you’ve seen the individual components, it’ll be easier for you to understand the film And here it is now …, that’s the apparatus again, similar, here ethylene is fed through, here then the catalyst is produced. One component. What’s more, time 0 is registered on the clock. Now comes … that’s probably the organoaluminium compound in a solvent, yes, it’s labelled: diethylaluminium chloride. Then titanium tetrachloride is drawn up with a pipette and is added. Only now does it turn yellow. After a short time, this precipitate forms. Gradually it turns cloudy. Now the entire mixture must be transferred to the other reaction vessel. That is done with the help of a siphon. Now it’s beginning. Here you see the reaction, here the stirrer, which you saw before, and how the catalyst is introduced with a siphon, which enters below as a cloud. At the top it becomes less and less. The whole thing took about ten minutes. Now the stirrer is switched on and the ethylene flow is started, right … left …, what you see: for the time being the flow rate is the same on both sides; it leaves as quickly as it enters. That’s the upper part. Now it’s quite rapid, and now you see a vigorous flow of ethylene on the right. On the left it’s much weaker, although it is being fed in at a furious rate, the ethylene is being completely absorbed. There’s even a slight vacuum. The temperature rises. You can see, it’s just under 50 degrees … 60 degrees. And now you can see already how the precipitate is forming. That’s … the polymerisation reaction, running now for around 20 minutes. You can already see how the whole thing is getting thicker. Nothing is coming out here anymore, here’s a weak vacuum. Now you see the material everywhere in the upper part of the reactor. The ethylene stream is measured again with a rotameter. It’s becoming increasingly viscous. If you don’t have a very powerful stirrer, it remains stationery at the end. This is now one hour after the start. That’s how the whole thing looks now. Now … the decomposition starts, now alcohol comes in and air. You’ll soon see, now it turns snow-white. And then you see the filtering process and this film …The material is still hot. You can see the vapours rising from it. And this way you can … the liquid is sucked out from below and the whole thing is pressed. Afterward, it can be removed from the filter. The result is a heap of white power, which is not shown in the film. Finally, the film shows a few objects made from the material. Here you have the tube again and a few …, the first plastic films, which were not very successful, which we made ourselves. Thank you. Thank you very much for the applause. However, I’m not quite finished. Please allow me just a few more minutes. I have tried to trace the entire causal chain leading from my beginnings 40 years ago to an important new finding for the industry. This development was always driven by experimentation and observation. The whole secret was actually nothing more than us – I speak in the plural because, of course, many diligent people were involved – exploring a still uncharted but doubtlessly interesting field of organic chemistry with eyes open and minds alert. For decades we did not think in our wildest dreams that our investigations into organometallic compounds would have such ramifications. Given the events in Mühlheim over the past decade, some of my colleagues here If so, you do us an injustice. Because it was always driven by our endeavour to expand our scientific knowledge. Of course it was gratifying that the results of our work allowed us a great deal of independence and freedom in our scientific research. But otherwise I regard the things many outsiders believe to be particularly important and decisive more as by-products of our actual work and, I must admit, often as very annoying by-products. Annoying insofar as everything our research produced necessarily arose from my personal need to investigate many outlying fields. However, that limits the options for continuing to follow my own recipe for success, namely to wander without prejudice through the fields of organic chemistry with eyes wide open, searching in all directions. I’m now in a position at my institute to see that research along these lines is being continued by outstanding young colleagues with great success, and eventually we all find ourselves in the situation where we have to recognize that our main purpose is to pave the way for the next generation. Another aim of my lecture was to show you that it’s possible to start in organic chemistry, like Mr. Otto Hahn, and to be successful while sticking to the field of organic chemistry. But I have to qualify that a little, because our entire work also had an inorganic element in that it was the organometallic compounds, meaning the products of a kind of symbiosis between the two main disciplines of chemistry, which ultimately led to success. I have always believed that you should not draw sharp lines between individual subdisciplines, and I have therefore always felt that I’m first and foremost a chemist, and not, for example, a macromolecular chemist or an organic chemist or a plastics expert. And it is my wish that, despite the ongoing process of specialisation, similar basic attitudes will continue to be possible in the future.

Meine Damen und Herren, das Thema meines heutigen Vortrags legt die Vermutung nahe, ich würde irgendetwas erzählen über die Anregung von Polymerisationen durch freie Radikale. Denn: Die Chemiker unter Ihnen und ich nehme an, es sind doch eine ganze Menge, namentlich von der jüngeren Generation, die wissen, dass man Polymerisationen durch Radikale anregen kann und dass das Triphenylmethyl das älteste und bestbekannte freie Radikal ist. Die Anregung von Polymerisationen durch Radikale die geht ja so vor sich, dass das Radikal mit seiner freien Valenz an die eine Seite einer Doppelbindung etwa im Ethylen herangeht, dass dadurch auf der anderen Seite des Ethylens wieder eine Valenz frei wird, die dasselbe veranlassen kann, und so schießt dann die Polymerisation durch eine Vielzahl von Molekülen hindurch. Und das nennt man dann einen Radikalkettenmechanismus. Aber die Polymerisation des Ethylens, die wir mal vor zehn Jahren in Mühlheim gefunden haben, die verläuft nicht nach einem solchen Radikalkettenmechanismus und hat damit also gar nichts zu tun. Sie hat allerdings etwas damit zu tun, dass ich heute hier die Gelegenheit habe, die mich sehr erfreuende Gelegenheit habe, hier vor Ihnen zu sprechen. Der Zusammenhang mit den Radikalen im Zusammenhang mit dem Triphenylmethyl ist vielmehr ein ganz persönlicher und der hängt zusammen mit dem etwas gewundenen Weg, auf dem wir letzten Endes zu dieser Beobachtung im Jahre ‘53 gekommen sind, von der sich dann alles Weitere bis zum heutigen Tage entwickelt hat. Die Geschichte, in der sich das Ganze abgespielt hat, die ist eigenartig und vielleicht für die jüngere Generation lehrreich, weil sie zeigt, auf welchen Umwegen gewichtige Erkenntnisse und Fortschritte gemacht werden können. Und sie beginnt zu einer Zeit, als ich selbst noch gar nicht geboren oder noch ein Kind war. Und es besteht in dieser Hinsicht ein merkwürdiger Zusammenhang – nicht Zusammenhang, aber eine merkwürdige Beziehung zwischen mir als dem derzeit sozusagen jüngsten deutschen Nobelpreisträger für Chemie und dem an Jahren ältesten, nämlich unserem Altmeister Hahn. Und Otto Hahn hat kürzlich in seiner Schrift „Vom Radiothor zur Uranspaltung“ von seinem eigenen Anfang im Chemischen Institut der Universität Marburg an der Lahn berichtet und dabei den Namen seines Doktorvaters Theodor Zincke erwähnt. Und sein weiterer Bericht schildert dann in sehr lebendiger Weise, wie er nach einem Anfang als organischer Chemiker Anorganiker und Radiochemiker geworden ist und es dann auf diesem Gebiet zum höchsten Erfolg brachte. Meine Geschichte fängt an der gleichen Stelle an, aber etwa 20 Jahre später. Und sie weicht insofern ab, als mein Doktorvater nicht mehr, wie wir ihn damals nannten, der „alte Zincke“ war, sondern sein Nachfolger von Auwers. Und außerdem habe ich ja versucht, und das ist wiederum ein Unterschied zu Otto Hahn, den Beweis zu erbringen, dass man organisch-chemisch anfangen und es dann sogar in der organischen Chemie selbst zu etwas bringen kann. Von Auwers hatte übrigens bei August Wilhelm von Hofmann in Berlin angefangen und später aber viele Jahre unter Victor Meyer am Heidelberger Institut gewirkt, ehe er dann über Greifswald nach Marburg kam. Und deswegen kann ich mich heute ebenso wohl als einen wissenschaftlichen Enkel von August Wilhelm von Hofmann als auch von Victor Meyer bezeichnen. Ich möchte zunächst die beiden Herren, die beiden großen Chemiker im Bilde vorführen. Hier haben Sie den „alten Zincke“, so wie ich ihn in Erinnerung und gekannt habe, und dann den Herrn von Auwers, wie er als mein Doktorvater wirkte. Trotz dieser ganz andersartigen, persönlichen Bindung an von Auwers hat meine Geschichte etwas mit dem alten Geheimrat Zinke zu tun, der während meines Studiums immer noch fleißig in einer Ecke des organischen Saales seinen Arbeitsplatz hatte und dort noch unmittelbar nach dem Ersten Weltkrieg zwei Doktoranden hatte, die sich bei ihm dann übrigens auch noch zum Bund fürs Leben zusammenfanden. Meine Beziehung ist mehr negativer Art. Das hängt damit zusammen, dass der Geheimrat Zincke in seiner letzten Schaffensperiode sehr viel über gewisse organische Schwefelverbindungen gearbeitet hat. Und Schwefelverbindungen sind, wie man weiß, die schlimmsten Gifte für empfindliche Katalysatoren. Als ich damals ab 1917 in Marburg organisch-chemisch arbeitete und dann nach 1920 meine eigenen Arbeiten aufnahm, galt es als eine feststehende Regel, dass im Marburger Institut die katalytischen Hydrierungen nicht gingen. Dies wurde allgemein auf die Verseuchung des Laboratoriums mit organischen Schwefelverbindungen zurückgeführt Ob dies wirklich gestimmt hat oder ob es vielleicht nur eine bequeme Ausrede dafür war, dass die Betreffenden, die katalytisch hydrieren wollten, bei der Herstellung der Katalysatoren nicht immer sauber genug gearbeitet hatten, sei dahingestellt. Jedenfalls war der geschilderte Zusammenhang für mich der Anlass, als ich vor ein bestimmtes Hydrierproblem gestellt wurde, die katalytische Hydrierung gar nicht erst zu versuchen, sondern mir etwas anderes auszudenken. Und damit fängt meine Geschichte eigentlich erst an. Um das Jahr 1920 herum waren die freien organischen Radikale vom Typ des Triphenylmethyls recht aktuell. Kurz vor dem gerade überstandenen Krieg hatte Schlenk das erste wirklich ganz freie, monomolekulare, nicht-assoziierte Radikal, das Triphenylmethyl (die zweite Formel in der Mitte), hergestellt und die Frage nach den Ursachen der Beständigkeit solcher Radikale wurde lebhaft diskutiert. Es gab eine noch recht neue – damals noch recht neue – Monografie von Schmidlin über das Gebiet und in dieser war auf einer der letzten Seiten erwähnt, dass man wohl daran denken sollte, nach einem Trivinylmethyl, also mit drei einfach ungesättigten Resten, die unterste Formel zu suchen. Womit zum Ausdruck gebracht war, dass man auch hier nach der Analogie zwischen aromatischen und ungesättigten aliphatischen Substituenten suchen sollte. In der Richtung lag der erste Erfolg meiner selbstständigen wissenschaftlichen Arbeiten und ich konnte 1923 ein erstes Radikal mit einem ungesättigten Substituenten synthetisieren, nämlich das Tetraphenylallyl, was Sie da oben links stehen sehen. Und es gelang dann auch unmittelbar danach, auch eine analoge Substanz mit zwei ungesättigten Substituenten herzustellen, dieses Pentaphenylcyclopentadienyl im Jahre ‘25 (rechts oben). Alle beide Produkte zeigten keine ausgeprägte Tendenz zur Assoziation und sie waren wirklich freie Radikale. Es war klar, dass ich jetzt bestrebt war, die Gegenprobe zu machen und zu prüfen, was aus solchen Radikalen bei der Hydrierung der Doppelbindung wurde. Die Hydrierung sollte dabei … Ich versuchte also solch einen Stoff zu machen, wie er durch die unterste Formel angedeutet ist. Das ist nichts anderes als dieses Tetraphenylallyl, an der Doppelbindung hydriert. Diese Hydrierung sollte nun nicht an dem freien Radikal selbst durchgeführt werden, weil da zu befürchten war, dass die freie Valenz sich auch hydriert haben würde, sondern an einer Vorstufe. An einer Vorstufe, nämlich dem entsprechenden Ether, den Sie hier oben sehen. Und da ich, wie gesagt, mir von der Hydrierung, der katalytischen Hydrierung nichts versprach, so wählte ich sogleich einen anderen Weg. Es hatte nämlich etwa zehn Jahre vorher Wilhelm Schlenk gefunden, dass man an bestimmte Doppelbindungen Alkalimetalle addieren kann, insbesondere solche, die aromatisch substituiert sind. Und so dachte ich mir den Weg aus, der durch diese beiden Formeln hier gegeben ist. Ich wollte an die Doppelbindung dieses Ethers Natrium addieren und dann durch Hydrolyse in bekannter Weise diese beiden Natriume gegen Wasserstoff ersetzen. Das war also der Ausgangspunkt und die Konzeption. Ich hatte das große Glück, dass die Sache ganz anders verlief und dass ich bei dieser Gelegenheit meine erste neue Reaktion entdeckte. Es lagerte sich nämlich kein Alkalimetall an der Doppelbindung an, sondern der Ether wurde im Sinne dieses Schemas hier an dieser Bindung durch die zwei Natriumatome gespalten. Es entstand eine natriumorganische Verbindung neben Natriumalkoholat. Damit war zunächst an einem recht komplizierten Beispiel eine neue, ganz einfache Methode zur Herstellung von organischen Alkalimetallverbindungen entdeckt. Und es war selbstverständlich, dass ich dann festzustellen hatte, welche konstitutionellen Voraussetzungen solche Ether besitzen müssen, damit sie sich glatt durch Alkalimetalle spalten lassen. Es zeigte sich, dass man besonders gut Ether tertiärer Alkohole spalten kann, die mindestens einen aromatischen Rest an dem tertiären Kohlenstoffatom enthalten. Der einfachste Ether, mit dem die Sache gut ging, war der Phenylisopropylmethylether. Tertiärer Ether, ein aromatischer Substituent, der sich also außerordentlich leicht, insbesondere durch Kalium, im Sinne dieser Reaktion hier, spalten ließ. Und damit wurde das Phenylisopropylkalium, dieser Stoff unten links, die damals am leichtesten zugängliche und hoch reaktionsfähige, organische Kaliumverbindung. Ich möchte bei dieser Gelegenheit zur Beruhigung mitteilen, dass es mir in meinem späteren chemischen Leben natürlich ohne Weiteres gelungen ist katalytisch zu hydrieren. Diesen Makel aus meiner Anfangszeit habe ich also ausgeglichen. Aber damals hatte ich allen Grund, diesem ursächlich dem alten Geheimrat Zincke und seinen Schwefelverbindungen zugeschriebenen und eigentlich mehr vermuteten Denn so bin ich zur Beschäftigung mit den metallorganischen Verbindungen gekommen, denen ich eine ganze Reihe von neuen Erkenntnissen und Erfolgen bis hin zum letzten weithin anerkannten verdanke. Das nächste Glied der Entwicklung war ein Gerücht, das mir kurz nach meinem Beginn in Heidelberg 1925 zu Ohren kam. Und nachdem es Wilhelm Schlenk in Berlin gelungen sein sollte, Additionsprodukte von Alkalimetallen, zum Beispiel an das Stilben, das symmetrische 1,2-Diphenylethylen, hergestellt zu haben, die ihrer Konfiguration nach Diastereomeren entsprechen sollten. Es war also etwa so, dass bei der Addition von Lithium an das Stilben, jetzt als Stereoformel, als Projektionsformel gedacht, sich ein solches Additionsprodukt bilden sollte und bei der Addition von Natrium ein entsprechend anderes. Schlenk hat das dann später auch publiziert. Ich hörte damals zunächst durch ..., wie das ja so kommt, gerüchteweise. Schlenk hat das dann später auch publiziert und es ist wohl bis heute zweifelhaft geblieben, ob die dahin gehenden Angaben einer Nachprüfung standhalten würden. Vieles andere, was damals bekannt gegeben wurde, stimmte leider nicht aus dem Berliner Laboratorium. Aber ich kam auf die Idee, ob man vielleicht solche Diastereomere auch mit dem gleichen Metall wenn man die Additionsprodukte nach zwei verschiedenen Methoden herstellt. Eine solche Methode hätte etwa die direkte Anlagerung des Metalls an die Doppelbindung sein können und eine andere etwa eine indirekte über eine Reaktion durch einen Austausch von Metall über eine reaktionsfähige, metallorganische Verbindung hinweg. Aus dieser Vorstellung heraus ließ ich auf das Stilben, das gerade kurz – und das war in Heidelberg, wohin ich 1926 gekommen war - ließ ich das kurz zuvor in Marburg entdeckte Phenylisopropylkalium einwirken in der Erwartung, dass etwa im Sinne eines solchen Austauschs sich diese Dikaliumverbindung bilden würde, von der ich dann prüfen wollte, ob sie identisch war mit der, die man durch direkte Anlagerung von Kalium an das Stilben erhalten konnte und außerdem das Produkt, was durch Aneinanderlagerung der beiden übrigen Reste des Phenylisopropylkaliums entstanden wäre. Aber wiederum verlief die Sache ganz anders. Die Kaliumverbindung addierte sich einfach an das Ethylen im Sinne dieser Reaktion: Hier ist Kalium auf die eine Seite, dieser prognostizierte Phenylisopropylrest auf die andere Seite. Und damit hatte ich meine zweite neue Reaktion der alkalimetallorganischen Verbindungen entdeckt, und zwar eine solche, die sichtlich wesentlich über das von metallorganischen Verbindungen bis dahin Bekannte hinausging. Denn die Grignardschen Magnesiumverbindungen, die damals das Feld beherrschten, addierten sich ja nur an CO-Doppelbindungen und nicht an die CC-Doppelbindungen olefinischer Kohlenwasserstoffe. Das mag im weiteren Verlauf der Dinge eine Rolle mit gespielt haben, dass ich diese Beobachtungen in Heidelberg machte. Denn dort war die Badische Anilin- und Sodafabrik nicht weit, in der über synthetischen Kautschuk gearbeitet wurde. Und das bekannte Polymerisationsverfahren von Butadien durch Natrium, was später zu der allgemeineren Namensbildung Buna geführt hat, das war mir durchaus geläufig. Ich erinnere mich sehr deutlich, dass wir die Addition dieses Phenylisopropylkaliums an das Stilben an einem Abend fanden bzw. endgültig feststellten, dass das der Reaktionsverlauf gewesen war und dass mir schon auf dem Wege vom Institut nach Hause aufging, dass diese Reaktion möglicherweise den Schlüssel zum Verständnis der Polymerisation des Butadiens durch Alkalimetalle brächte. Wenn man nämlich davon ausging, dass aus Butadien und Natrium sich zunächst ein solches Additionsprodukt bildete, so hatte man ja eine Dinatriumverbindung, die durchaus in der Bindungsart diesem Phenylisopropylkalium entsprach. Und wenn sich das hier und an beiden Seiten an Butadienmoleküle addierte, so konnte ein großes Molekül von diesem Typ hier das Ergebnis sein. Nun, es gelang dann, mit dem Beispiel dieses Phenylisopropylkaliums festzustellen, dass tatsächlich dieser Reaktionstyp möglich ist. Es tritt zwischen dem Phenylisopropylkalium und dem Butadien tatsächlich eine Addition dieser Art ein und man kann das auch - das stellte ich damals in Heidelberg fest - wiederholen. Das ist die erste Reaktionsstufe. Und dann kann sich in dem gleichen Typ das zweite, das dritte, das vierte usw. addieren. Ich entdeckte mit anderen Worten oder wies einen Reaktionstyp nach, den ich dann stufenweise metallorganische Synthese genannt habe und der später dann in einer ganz anderen Form, nämlich mit Aluminium als tragendem Metall der metallorganischen Verbindung und mit Ethylen statt Butadien, sich zu einem großtechnischen Prozess entwickelt hat. Es ist klar, dass man nach der Entdeckung einer solchen neuen Reaktion das ganze Gebiet nach weiteren Reaktionen ähnlicher Art überprüft, um mal die Grenzen abzutasten, innerhalb derer solche Reaktionen möglich sind. Ich prüfte also viele Kombinationen von damals zugänglichen metallorganischen Verbindungen und olefinischen Kohlenwasserstoffen und es stellte sich dabei heraus, dass nicht alle ungesättigten Kohlenwasserstoffe für sich die Addition geben, auch nicht alle Alkalimetallverbindungen. Und wenn man auf solche verschieden stark ausgeprägten Reaktionsfähigkeiten stößt, so ist es naheliegend, dass man für exakte Vergleiche dann auch reaktionskinetische Messungen macht. Für solche Messungen eignete sich nun dieses Phenylisopropylkalium sehr schlecht, da es, sofern es reagierte, stets ungemein rasch reagierte, sodass es also nicht möglich war, etwa vergleichende Geschwindigkeitsmessungen auszuführen. Wir bezogen dann, die 1917 von Wilhelm Schlenk entdeckten Lithiumalkyle in diese Untersuchungen ein, für die es damals nur eine recht umständliche Methode der Herstellung gab, nämlich durch Erhitzen von Quecksilberalkylen mit den Lithiumschnitzeln in organischen Lösungsmitteln. Wir konnten auch diese Stoffe an geeignete ungesättigte Kohlenwasserstoffe addieren, und zwar ging das in der Regel nicht momentan, sondern erforderte einige Zeit. Das waren also die schönsten Objekte für die Ausführung vergleichender, reaktionskinetischer Messungen. In unseren reaktionskinetischen Versuchen standen wir vor der Aufgabe, durch eine geeignete Reaktion die Additionsprodukte von den Lithiumalkylen selbst zu unterscheiden, um mithilfe einer geeigneten Reaktion den zeitlichen Fortgang der Addition zu verfolgen. Wenn man das Lithiumethyl zum Beispiel, eine farblose, in organischen Lösungsmitteln gut lösliche Substanz, mit einem geeigneten Kohlenwasserstoff zusammenbringt, etwa diesem Diphenylethylen, dann tritt die Addition ein und das Additionsprodukt ist tief orangerot gefärbt. Wir fanden dann, dass diese rote Farbe bei der Zugabe von organischen Halogenverbindungen, insbesondere von Butylchlorid, momentan verschwindet. Mit anderen Worten: Dieser Typ einer metallorganischen Verbindung in Nachbarschaft substituiert durch aromatische Reste, der reagierte außerordentlich schnell mit dem Halogenalkyl. Und wir fanden weiter, dass das Ausgangsprodukt, das rein aliphatische Lithiumethyl, mit dem Halogen, mit dem organischen Halogenid, das etwa dem Butylchlorid oder Ethylchlorid in vernünftigen Zeiten gar nicht reagierte, sodass wir unsere reaktionskinetischen Versuche sehr schön dadurch durchführen konnten, dass wir jeweils nach einer gewissen Zeit durch Zugabe von Halogenverbindungen das Lithium aus dem reaktionsfähigeren gefärbten Typ abspalteten und dann die ganze Sache zersetzten und schließlich das Halogen filtrierten. Bei Gelegenheit dieser Versuche – ich möchte gerade heute die ganzen Zusammenhänge etwas schildern – die Versuche sind natürlich mal wieder nicht … diese reaktionskinetischen Versuche …, die waren nun Versuche irgendwelcher Art. Zu sehr umfassenden neuen Erkenntnissen haben sie nicht geführt. Aber wir kamen bei Gelegenheit dieser Versuche hinter die Erkenntnis, dass die einfachen aliphatischen Lithiumverbindungen mit Halogenalkylen gar nicht rasch reagieren, dass sie beliebig lange haltbar sind. Das hatte natürlich wieder eine ganz bestimmte Konsequenz, denn von dieser Erkenntnis bis zu dem Auffinden einer neuen, einfachen Reaktion zur Herstellung von Lithiumalkylen war es dann nur noch ein kleiner Schritt. Noch während ich studierte, galt das Dogma, dass organische Halogenverbindungen mit Alkalimetallen lediglich die sogenannte Wurtzsche Reaktion gaben. Das ist diese Reaktion, die Sie hier in angeschrieben sehen. Ich sehe aber, obwohl das Bild ziemlich alt ist, es fehlt hier etwas: Es muss nämlich hier noch eine 2 stehen, sonst ist es unverständlich. Also diese Wurtzsche Reaktion, dass ein Metall bei der Einwirkung auf Halogenverbindungen einfach zwei solche Reste zusammenschweißt und dann das Metall als Halogenverbindung herausging. Es hatte dann etwa, während das passierte, während ich junger Assistent war, Schlubach durch einen besonderen Trick zeigen können, dass dabei organische Alkalimetallverbindungen als Zwischenprodukte auftreten. Er konnte zeigen, dass das also in zwei Stufen erfolgt. Erst die erste Stufe: Bildung (das ME soll einfach Metall heißen), Bildung der organischen Metallverbindung und Metallhalogenid. Und dann in der zweiten Stufe: Einwirkung der Halogenverbindung auf die Metallverbindung zu dem Produkt der Wurtzschen Synthese. Aber soweit Schlubach damals feststellte, erfolgten diese beiden Reaktionen so rasch aufeinander, dass man das nicht ausnutzen konnte oder glaubte, nicht ausnutzen zu können zur Herstellung der organischen Alkalimetallverbindungen selbst. Heute ist dies alles ein längst überwundener Standpunkt und man weiß, dass bei geeigneter Arbeitsweise selbst organische Natriumverbindungen ohne Weiteres aus Halogenalkylen hergestellt werden können. Damals aber kannte man nichts davon. Und so erschloss sich uns im Zuge unserer reaktionskinetischen Versuche erstmals die Erkenntnis, dass man aus Lithium und Halogenalkylen direkt Lithiumalkyle müsse herstellen können. Denn ich habe ja gesagt, dass die Reaktion, die wir als sehr langsam erkannt hatten, war ja nichts anderes als diese Reaktion 2 dieses Schemas. Und das stimmte dann in der Tat und es führte dazu, dass wir im Jahre 1930 die bekannte Grignard-Reaktion sozusagen auf das Lithium übertragen konnten, dass es die ganzen organischen Verbindungen des Lithiums genauso gut zugänglich wurden wie die Grignardschen Magnesiumverbindungen. Und das wurde dann in der Folgezeit zunächst noch von uns selbst und dann von vielen Kollegen in der ganzen Welt zu einer umfassenden Chemie der Organolithiumverbindungen erschlossen. Darauf will ich nicht eingehen, sondern nur noch erwähnen, dass wir in der Folgezeit auch die Reaktionen zwischen den Lithiumalkylen, insbesondere zwischen Lithiumbutyl und dem Butadien, sehr sorgfältig studiert haben. Das, was da zunächst ursprünglich mit der Kaliumverbindung möglich gewesen war, das konnten wir jetzt auch für die Lithiumverbindungen nachweisen. Es bildet sich erst so ein einzelnes Additionsprodukt und dann ging stufenweise ein Butadien nach dem anderen heran und es bildeten sich Produkte dieser allgemeinen Formel. Diese Reaktion hätte dann ein Interesse für die Herstellung geradkettiger, längerer aliphatischer Verbindungen haben können, wenn sie einheitlich nach dem Prinzip der sogenannten 1,4-Addition verlaufen wäre. Tatsächlich aber fanden diese Reaktionen nebeneinander nach zwei verschiedenen Prinzipien statt, nämlich es bildeten sich sowohl unter Ausbildung der geraden Kette 1,4-Additionsprodukte als auch unter Ausbildung der verzweigten Kette 1,2-Additionsprodukte. Wenn hier jetzt das nächste Butadien da an der Stelle, wo das Lithium sitzt, herantritt, so ist es klar, dass diese Gruppe hier als Seitenkette herausbrach und man bekommt ein verzweigtes Produkt. Und je häufiger das passieren kann, je länger, also je mehr Butadiene herangehen, umso komplizierter werden die Mischungen der erhaltenen Reaktionsprodukte. Tatsächlich kann man beispielsweise aus diesen Stoffen mit Kohlendioxid Karbonsäuren herstellen. Das sind aber immer komplizierte Gemische von geradkettigen und verzweigten Produkten. Und es ist keine saubere Synthese einheitlicher Substanzen. Und so war das zwar theoretisch zwar ganz interessant, hat aber keinerlei praktische Auswirkungen gehabt. Für den weiteren Verlauf ist dann die Beschäftigung mit einem höchst simplen Problem wichtig geworden: Schlenk hatte 1917 das Lithiumethyl als einen in Kohlenwasserstoff löslichen, kristallinen, farblosen Stoff beschrieben und beiläufig erwähnt, dass bei der Bestimmung des Schmelzpunktes in den üblichen eingeschmolzenen Röhrchen das Lithiumethyl teilweise sublimiere. Nachdem ich jetzt größere Mengen Lithiumalkyle in der Hand hatte und sie leicht herstellen konnte, wollte ich zur Vervollständigung unserer Kenntnisse ganz allgemein prüfen, ob man Lithiumalkyle unter geeigneten Bedingungen destillieren kann. Da man von den Natrium- und Kaliumalkylen wusste, dass sie offensichtlich rein heteropolar gebaute Salze sind, die nicht unzersetzt destilliert werden können, so bot die Frage nach der Destillierbarkeit der Lithiumalkyle immerhin einiges Interesse, da diese Stoffe ihren Eigenschaften nach eine Zwischenstellung zu den rein homöopolaren Typen von der Art des Zinkdiethyls einnehmen. Ich habe kurz vor meinem Weggang in Heidelberg 1936 einige Versuche in der angedeuteten Richtung gemacht, die jedoch noch kein klares Ergebnis zeigten, sodass die Frage nach der Destillierbarkeit der Lithiumalkyle zunächst offenblieb. Dann kam ich nach Halle und beschäftigte mich dort mit einer Reihe von anderen Problemen, die hier nicht weiter interessieren, und schließlich landete ich 1943 in Mühlheim an der Ruhr und überlegte, worüber ich denn nun dort in dem Kohlenforschungsinstitut zweckmäßig würde arbeiten sollen. Sicher gab es damals viele – und kann man heute noch auf ähnliche Meinungen stoßen –, die etwa der Ansicht waren, dass der Direktor eines Kohlenforschungsinstituts selbstverständlich eine Arbeit zur Erforschung der Kohle aufzunehmen habe. Unter diesen Auspizien war ich aber nicht nach Mühlheim gekommen. Man hatte mir vielmehr großzügigerweise zugestanden, dass ich über das gesamte Gebiet der Chemie der Kohlenstoffverbindungen würde arbeiten können ohne Rücksicht darauf, ob diese Arbeiten einen Zusammenhang mit der Kohle erkennen lassen würden oder nicht. Ich hatte zunächst nur ganz wenige Mitarbeiter. In der Hauptsache liefen ja noch Arbeiten von meinem Vorgänger im Institut. So kam ich auf den Gedanken, das einstweilen mal wieder aufzunehmen, was ich seit 1936 nicht mehr getrieben hatte und was keinen großen Aufwand erforderte. Und ich fing mit dieser Frage nach der Destillierbarkeit der Lithiumalkyle an. Es gelang mir dann auch zu zeigen, dass sich diese Stoffe, sofern ihr Molekulargewicht nicht zu hoch ist, in extrem hohem Vakuum und bei sehr kurzem Destillationsweg unzersetzt destillieren lassen. Aber wiederum viel wichtiger als das, wonach wir gesucht und das wir ausnahmsweise diesmal wirklich auch gefunden hatten, erwies sich eine Beobachtung, eine Nebenreaktion, die wir feststellten. Wir fanden nämlich, dass sich die Lithiumalkyle von etwa 100 Grad ab sehr leicht in Lithiumhydrid und Olefine spalten. Das war nicht sehr aufregend. Für das Natriumethyl hatten das amerikanische Autoren schon einige Jahre früher gezeigt. Und wir selbst hatten schon um 1930 herum in Heidelberg bei gewissen komplizierteren organischen Lithiumverbindungen die Neigung zur Abspaltung von Lithiumhydrid nachgewiesen. Aber wir fanden auch, dass sich bei der Zersetzung von Lithiumethyl nicht nur Ethylen, sondern auch Butylen, also der Kohlenwasserstoff mit vier Kohlenstoffatomen, bildete. Das heißt, es hatte ein Aufbau, eine Synthese stattgefunden und wir konnten dann zeigen, dass bei entsprechend angelegten Versuchen, nämlich beim zusammen Erhitzen von Lithiumalkylen mit überschüssigem Ethylen unter Druck eine stufenweise metallorganische Synthese zwischen Lithiumalkylen und Ethylen möglich ist. Das nächste Bild zeigt alle diese Möglichkeiten. Wir haben hier oben das Lithiumethyl, das kann sich in Lithiumhydrid und Ethylen spalten. Und es kann bei der weiteren Reaktion, mit Ethylen unter Druck, zunächst in Lithiumbutyl übergehen, dann mit einem weiteren Ethylen in Lithiumhexyl und so weiter, ganz allgemein. Ähnlich wie ich das vorhin bei Butadien gezeigt habe, kann man in dieser Weise die geradkettigen aliphatischen Verbindungen aufbauen. Nachträglich wird man jetzt vielleicht sagen: Warum seid Ihr nicht schon sehr viel früher auf diese ganz einfache Reaktion gekommen und warum bedurfte es solcher Umwege, um diese primitive Reaktion zu finden? Die Antwort darauf ist folgende. Zunächst einmal: Als wir ganz generell die Reaktion zwischen organischen und Alkalimetallverbindungen und olefinisch ungesättigten Kohlenwasserstoffen gefunden hatten, sah es ganz so aus, als ob sie nur mit solchen olefinischen Doppelbindungen möglich wäre, die irgendwie durch einen geeigneten Substituenten aktiviert waren, zum Beispiel durch Phenyl. Ich habe Ihnen vorhin das Diphenylethylen als einen Partner vorgestellt und auch das Styrol, das Phenylethylen zeigte die Reaktion oder aktiviert durch eine zweite Doppelbindung, wie im Butadien. Ethylen hatten wir in Heidelberg gar nicht zur Verfügung gehabt. Wir hatten andere, einfache Olefine, zum Beispiel das Cyclohexen, überprüft und festgestellt, dass diese die Addition nicht geben. Tatsächlich weiß man heute, dass man das Ethylen und die durch gesättigte Kohlenstoffwasserstoffreste substituierten Ethylene in ihrer Reaktionsfähigkeit nicht gleichsetzen darf. Das Ethylen ist das bei Weitem reaktivste. Schließlich waren ja zunächst, ehe wir unsere neue Synthese fanden, die organischen Lithiumverbindungen ausschließlich über Quecksilberalkyle, also recht schlecht, zugänglich. Und wir haben im langen Verlauf unserer Arbeiten immer wieder festgestellt, dass ein bestimmtes Gebiet erst dann einen großen Aufschwung nimmt, wenn es gelungen ist, die dafür notwendigen Ausgangsstoffe in einfacher Weise auch im Laboratorium wenigstens einmal in Mengen von einigen 100 g oder besser in Kilogrammmengen herzustellen. Erst in Mühlheim waren alle diese Voraussetzungen gegeben. Insbesondere war im Ruhrgebiet von der Kokerei her Ethylen heimisch. All das hat zusammengewirkt, dass wir erst in den ersten Mühlheimer Jahren diesen wichtigen Fortschritt, also die Übertragung dieser Reaktionen von Butadien auf das Ethylen, fanden. Von dem Augenblick der Entdeckung dieser sehr einfachen Aufbaumöglichkeit geradkettiger aliphatischer Verbindungen aus Lithiumalkylen ist der Gang der Mühlheimer Arbeiten mehrfach und ziemlich ausführlich beschrieben und publiziert worden, sodass ich jetzt meine Geschichte rasch zu Ende führen kann. Durch Kombination unseres Wissens um die Neigung der Lithiumalkyle zur Abspaltung von Lithiumhydrid und der Additionsfähigkeit in Ethylen kamen wir zur Vermutung, dass man mit Lithiumhydrid als Katalysator Ethylen in höhere Alpha-Olefine müsste umwandeln können. Das ist in diesem Reaktionsschema gezeigt. Denkt man sich nämlich in jeder einzelnen Reaktionsstufe hier nochmal eine Gleichgewichtsreaktion der Abspaltung und Rückanlagerung von Lithiumhydrid heran, so kann man sehr leicht kombinieren, dass einfach beim zusammen Erhitzen von Lithiumhydrid mit Ethylen man erwarten konnte, dass sich katalytisch alle diese Produkte wieder auf der rechten Seite stehen. Also Butylen, Hexen, Octylen und die höheren Homologe sollten bilden müssen, einfach durch Kombination dieser beiden Reaktionen. Wir fanden dann, dass das im Prinzip tatsächlich stimmt, aber dass die Reaktion nicht glatt verläuft. Sie ist durch Nebenreaktionen und Folgereaktionen kompliziert. Eine ist da oben angegeben. Es tritt nämlich damit auch so eine Substitutionsreaktion ein. Wenn etwa das Lithiumethyl mit Butylen zusammenkommt, dann kann sich eine solche Lithiumverbindung des Butylens bilden. Und wenn die nochmal Lithiumhydrid abspaltet, dann hat man Butadien, und von da geht es dann zur Polymerisation und ähnlichen Dingen weiter. Das sind also Komplikationen, die man nicht unbedingt voraussehen konnte, die es aber verhinderten, dass das, wonach wir da gesucht hatten, einigermaßen glatt eintrat. Es wurde dann - und das ist, wie gesagt, mehrfach geschildert worden - die wichtige Beobachtung gemacht, die letzten Endes auf meinen Mitarbeiter Gellert zurückzuführen ist, dass man das, was wir hier anstrebten, mit dem Lithiumhydrid allein sofort und sehr schön verwirklichen kann, wenn man das komplexe Lithiumaluminiumhydrid – das war gerade kurz zuvor in Amerika entdeckt worden – nimmt. Und der Stoff war gerade nach dem Krieg dann auch bei uns bekannt geworden. Diese Beobachtung, dass das mit dem Lithiumaluminiumhydrid sehr schön geht, obwohl es mit dem Lithiumhydrid schlecht oder gar nicht geht, diese Beobachtung hat uns dann den Übergang von den Lithiumalkylen zu den Aluminiumalkylen allein vermittelt, mit denen es überraschenderweise möglich ist, all das, was wir von den Lithiumalkylen erwartet hatten und was diese nur andeutungsweise oder schlecht zeigten, in vollendeter Form zu verwirklichen. Hierbei hat uns vor allen Dingen dann das Problem des Aufbaus gerader Ketten aus Aluminiumalkylen und Ethylen gefesselt, jener von uns Wachstumsreaktion genannte Prozess, der sich mit großem Erfolg, insbesondere wenn man ihn mit einer nachträglichen Oxidation kombiniert, für die Synthese von aliphatischen Verbindungen, insbesondere von Alkoholen von Kettenlängen von etwa 10 bis 20 Atomen, eignet. Ich habe hier nochmal für das Aluminiumalkyl das Prinzip dieser Wachstumsreaktion angeschrieben. Es ist einfach die Addition dieser Al-C-Bindung an das herantretende Ethylen. Das schiebt sich sozusagen ein. Das lässt sich dann wiederholen und es wächst dann sozusagen an dem Aluminium an dem Aluminium wächst dann diese Kette durch fortgesetzte Angliederung von Ethylen an dieser Stelle heraus, sodass das letzten Endes das Endprodukt ist. Und das natürlich muss eine wirklich gerade Kette geben, weil es ja mit dem Ethylen als Baustein gar keine andere Möglichkeit als das gerade Wachstum gibt. Diese Stoffe zeigen dann eine doppelte Reaktionsmöglichkeit. Man kann sie mit Sauerstoff an dieser Stelle oxidieren. Dann kommt das heraus, was ich vorhin andeutete: ein langkettiger Alkohol mit einer OH-Gruppe am Ende, ein höherer Fettalkohol. Und diese Verbindungen zeigen auch die Eigenschaft, und darauf werde ich gleich zurückkommen, unter bestimmten Bedingungen einfach Aluminiumhydrid abzuspalten. Das ergibt diese lange Kette, ein Olefin. Es steckt also auch eine Synthesemöglichkeit für solche Olefine darin, durchaus das, was wir da mit dem Lithiumhydrid vorhin versucht hatten. Es war uns nun nicht möglich, an ein Aluminiumethyl so viele Ethylene anzulagern, wie es für die Bildung eines echten kunststoffartigen Polyethylens notwendig wäre. Es müssten sich mindestens etwa 1000 Ethylenmoleküle addieren, während wir es bestenfalls auf 50 bis 100 brachten, weil diese Abspaltung von Olefinen, also diese untere Reaktion gemäß dem unteren Pfeil, sich störend überlagerte und das Wachstum dann nicht beliebig weit fortzusetzen war, sondern schon vorher sich relativ kurze Ketten mit etwa 50 bis 100 Ethylenmolekülen abspalteten. Es ist klar, dass wir, als wir diese Reaktion der Aluminiumalkyle mit dem Ethylen, diese Wachstumsreaktion fanden, wir jetzt natürlich darauf aufmerksam wurden, dass hier ein Zusammenhang mit der Bildung eines hochmolekularen Kunststoffs bestehen konnte, während wir keineswegs etwa vorher – und es ist vielfach in der Tagespresse falsch dargestellt worden Aber es war natürlich klar, dass wir hier auf die Möglichkeit aufmerksam wurden. Es sah also so aus, als ob das mit den Aluminiumalkylen allein nicht erreichbar war, dass man da bestenfalls zur Molekulargröße etwa der Fettsäuren und Ähnliches hineinkommen würde. Und eigentlich hatten wir dieses Problem, zum echten Kunststoff vorzustoßen, schon aufgegeben. Aber wieder hat dann der bekannte Zufall weitergeholfen. Und der bestand darin, dass uns eines Tages, und zwar in einem Versuch, bei dem wir aus dem Aluminiumpropyl ungeradzahlige Ketten aufbauen wollten, dass uns in diesem Versuch, ohne dass wir das zunächst erkannt hätten, eine winzige Spur metallischen Nickels hineingeriet, was zur Folge hatte, dass diese ganze Wachstums- oder Aufbaureaktion, wie wir sie auch nannten, überhaupt nicht mehr ging. Also anstatt dieser schönen größeren Aluminiumalkyle, wie wir das schon ein Dutzend Mal gemacht hatten, kam plötzlich heraus: erstens Propylen aus dem Aluminiumpropyl (das kleine „Al“ soll einfach ein Drittel großes Al bedeuten). Und außerdem bildete sich Butylen. Und wir fanden dann, dass man auch mit Aluminiumethyl, das war wie verhext, auf einmal keine höheren Produkte mehr bekam, sondern nur noch scheinbar katalytisch. Das Aluminiumtriethyl war nur noch ein Katalysator für die platte Umwandlung von Ethylen in Butylen. Woran das lag, im Prinzip lag, das war natürlich sofort klar. Es war irgendetwas hineingeraten, irgendein Spurenkatalysator, der diese Reaktion, die ich hier angeschrieben habe, die die Verdrängung eines Olefins aus dieser Kette durch Ethylen, sehr stark katalysierte. Dann ist es natürlich klar, dass, wenn sich an das Aluminiumethyl ein Ethylen anlagert und man dann also eine Kette von vier Kohlenstoffatomen bekommt, dass hier jetzt dieses Abdrängen sehr viel schneller geht durch die zusätzliche Katalyse als der Aufbau, dass da nur die erste Aufbaustufe fixiert wird, dass sich das Butylen bildet und nichts anderes. Nachdem wir das festgestellt und den Grund auch aufgefunden hatten – das dauerte etwa ein Vierteljahr, bis wir dahinterkamen, woran es eigentlich gelegen hatte, denn die Mengen des Nickels, die notwendig sind, um den Effekt auszulösen, die sind winzig klein, sodass man zunächst gar nicht gut feststellen kann –, da war es nun naheliegend, nachdem es sich hier um eine ausgesprochene Spurenkatalyse handelte, dass wir damit rechnen mussten, dass die vorausgegangenen Misserfolge am Aluminium wirklich extrem lange Ketten aufzubauen, am Vorhandensein von ähnlichen Spurenkatalysatoren gescheitert war, wir also anstreben mussten, in der Folgezeit möglichst aseptisch zu arbeiten. Und aus dem Grunde überprüften wir jetzt, was es denn nun vielleicht noch für andere Stoffe geben kann, die ähnlich wirken wie das Nickel, um die dann nach Möglichkeit auszuschließen in der Erwartung, dass wir dann etwa 1000 Moleküle Ethylen im Wege dieser einfachen Aufbaureaktion würden heranbringen können. Es ist bekannt, dass bei dieser systematischen Prüfung wiederum etwas sehr Positives, Neues und Überraschendes gefunden wurde. Wir fanden nämlich statt vieler weiterer analoger, nickelanaloger Stoffe, dass es bis dahin unbekannte, ganz neue Kombinationen gibt, und zwar insbesondere Kombinationen der Organoaluminiumverbindungen mit zum Beispiel den Chloriden von Titan, Zirkon, Vanadin, Chrom und anderen, die völlig neue, hoch aktive Polymerisationskatalysatoren sind, mit deren Hilfe man schon bei Atmosphärendruck ein ganz hochwertiges Polyethylen herstellen kann. Wie überraschend das seiner Zeit wirken musste, das geht daraus hervor, dass unter den vielen ungesättigten Verbindungen, die es gibt, man schon seit vielen Jahren eine ganze Reihe gefunden hatte, die sich sehr leicht polymerisieren lassen dass aber das Ethylen, die Stammsubstanz, bis zuletzt allen Polymerisationsversuchen widerstanden hatte und dass es erst 1937 in England gelungen war, unter extremen Bedingungen, nämlich bei 1000 Atmosphären und 200 Grad… Bitte für die Herren von der Presse: nicht 1000 Grad und 200 Atmosphären. Denn das wird meistens umgedreht und dann kommt völliger Unsinn heraus. Denn 1000 Grad vertragen solche Stoffe nicht. Also das war 1937 entdeckt worden und wir stellten dann also 1953, Ende 1953 – 16 Jahre später – fest, dass das Ganze auch ohne Weiteres mit Ethylen von einer Atmosphäre, mit diesen hoch aktiven Polymerisationskatalysatoren geht. Wir haben diese Kombinationen von gewissen Schwermetallverbindungen mit metallorganischen Verbindungen des Aluminiums und auch anderer Metalle metallorganische Mischkatalysatoren genannt. Und es hat sich gezeigt, dass man damit nicht nur das Ethylen polymerisieren kann, sondern auch noch viele andere Stoffe, und dass man damit eine große Zahl von neuartigen Kunststoffen herstellen kann. Insbesondere ist es aber nicht uns, aber mit unseren Katalysatoren anderen auch gelungen, erstmals einen wirklich mit dem Naturkautschuk voll identischen Stoff herzustellen. Diese ganze Entwicklung, die wir da vor zehn Jahren ausgelöst haben, die habe ich mit einer Explosion doch wissenschaftlicher Erkenntnis und technischer Entwicklung verglichen. Und dass dieser Vergleich vielleicht nicht ganz unberechtigt ist, das mögen Ihnen zwei Karten erläutern (bitte das nächste Bild), die ich Ihnen geben will: einmal von Europa und dann anschließend noch von der Welt, in denen mit Rot eingezeichnet ist lauter Fabriken, in denen mit den Mühlheimer Katalysatoren hochmolekulare Kunststoffe, sei es Polyethylen, seien es andere, hergestellt werden. Dabei auch, wie Sie sehen, drei Fabriken in Russland. Nun, die grünen dagegen sind solche Werke, in denen metallorganische Verbindungen, insbesondere die Aluminiumverbindungen hergestellt und weiter verarbeitet werden. Das Gebiet hat sich auch industriell entwickelt, aber nicht in dem Umfang. Und bitte noch die Weltkarte. Da ist dasselbe nochmal auf die Welt übertragen. Da kann man wegen des kleinen Maßstabs die Punkte nur noch schlecht einzeln anzeigen. Ich habe deshalb noch Zahlen dabei gemalt, die die Anzahl der Betriebe wiedergeben, die an den betreffenden Stellen dort auf der Weltkarte liegen. Also auch drei, wie Sie sehen, in Japan. Nun, das ist das Ende der Entwicklung und es ist vielleicht ganz interessant… bzw. der derzeitige Zustand der Entwicklung, wahrscheinlich nicht das Ende. Es ist aber vielleicht ganz interessant sich anzusehen, wie das zehn Jahre vorher im Mühlheimer Institut ausgesehen hat. Und deshalb will ich Ihnen die kleine Apparatur hier zunächst einmal einzeln vorführen und nachher einen kleinen Film, in der wir diese Normaldruckpolymerisation des Ethylens studiert haben. Sie können sich leicht ausdenken, wie das aussehen würde, wenn man so einen Versuch bei 1000 Atmosphären macht. Das sind ein bisschen andere Apparaturen. Das Glasgefäß in der Mitte ist ein ganz gewöhnliches 5-Liter-Weckglas. Das ist also mit einer Rührvorrichtung versehen. Da oben ist der Antrieb; der Motor steht ja hinter dem Papier, und rechts steht die Ethylenstahlflasche mit dem Reduzierventil und dem Manometer. Hier eine Waschflasche, mit deren Blasenzählung man die Geschwindigkeit abschätzen kann. Dann auf der anderen Seite ist nochmal ..., kann man feststellen, wie das Ethylen eventuell noch unverändert entweicht, ein Thermometer drin usw., wie solche Apparaturen aussehen. Und ich gebe Ihnen jetzt noch einige wenige Buntbilder, wie der Versuch sich abspielt. Nachher sehen Sie dasselbe noch mal im Film. Aber leider ist es ein Amateurfilm, den wir selbst aufgenommen haben. Das geht ein bisschen schnell und es ist manchmal nicht gut möglich, im Einzelnen zu erläutern. Deshalb zeige ich Ihnen die Teile der Apparatur nochmal vorher so im stehenden Bild. Hier hat das Rühren angefangen. Sie sehen, das schäumt hier. Hier ist die Flüssigkeit drin und es schäumt hoch. Das ist an sich nichts anderes als ein benzinähnlicher Kohlenwasserstoff als Suspensionsmittel. Und da haben wir eine Mischung von Diethylaluminiumchlorid und die Titantetrachlorid hineingegeben. Da fällt so ein brauner Niederschlag aus. Das ist der Polymerisationskatalysator. Das ist also 9:05 Uhr. Das ist noch ganz dünn. Es ist noch kein Ethylen hineingekommen. Es ist nur der Katalysator allein. Vielleicht ein Gramm oder so etwas wird davon suspendiert sein. Und das nächste Stadium, da sehen Sie, das ist etwa eine Stunde später, der braune Katalysator ist noch da. Aber Sie sehen schon, da ist ein dickes Zeug drin. Hier oben ist schon einiges angeklebt. Da hat sich also das Polyethylen gebildet, indem man so etwa stündlich vielleicht 200 Liter Ethylen eingeleitet hat. Das wird sehr rasch absorbiert, gleichzeitig fällt das Zeug aus, die Temperatur steigt und man muss nachher kühlen und es etwa auf 60, 70 Grad halten. Und jetzt ist immer noch der Katalysator drin. Den kann man dann zersetzen. Soweit muss es auch unter Luftausschluss gemacht werden. Den kann man dann zersetzen durch Zugabe von Alkohol und Einleiten von Luft. Dann sieht die Sache schneeweiß aus. Das ist wieder etwas später. Und dann kann man den dicken Brei (das nächste Bild) filtrieren. Das ist in demselben Versuch. Da ist das Zersetzen noch nicht so berühmt gewesen. Sie sehen, da ist noch brauner Katalysator drin. Wenn das kurze Zeit an der Luft liegt, wird es schneeweiß. Und Sie sehen, wie also ein ganz dicker Brei auf die Saugflasche, auf den Filter draufkommt. Und schließlich liegt es dann als ein Häufchen weißes Pulver schließlich auf dem Tisch. Hier zeige ich Ihnen eine Abbildung aus der allerersten Zeit. Das ist das erste Rohr, das wir Ende 1953 selbst hergestellt haben aus dem Material durch heißpressen zunächst als Zylinder. Und dann ist der Zylinder ausgebohrt worden. Wir haben dann einen Drucktest damit gemacht. Ich glaube, die Öffnung ist etwa 12 mm breit, die Wände mögen vielleicht 4 mm stark sein. Und dann haben wir da Wasser hineingepresst und das ist geplatzt bei 180 Atmosphären. Wir hatten also einen Stoff von ganz besonders bemerkenswerten Eigenschaften vor uns, denn so etwas war mit dem früheren Hochdruckpolyethylen nicht möglich. Es hat aus bestimmten Gründen eine etwas andere Struktur. Das können Sie auch hieran sehen: Wenn man zwei gleiche Gegenstände aus dem herkömmlichen Produkt und dem neuen Stoff gegeneinanderdrückt, hier zwei Becher, dann sehen Sie, der eine ist ganz labberig und weich und der andere hält seine Form ziemlich gut aus. Durch diesen einfachen Test kann man immer sehr leicht entscheiden, woher die Produkte stammen. Der Test ist aber nicht mehr einwandfrei, denn inzwischen ist auch das Hochdruckpolyethylen so verbessert worden, dass es sehr viel steifer ist. Also das war der Zustand, wie er seinerzeit war. Jetzt würde es wohl nicht mehr ganz so ausfallen. Aber merklich ist der Unterschied immer gewesen. Und wie das heute … Das sind die kleinen Stückchen aus der Anfangszeit. Und ich will Ihnen also durch die Landkarten vorhin die Entwicklung, die das genommen hat, noch zeigen, indem ich Ihnen gleich die größten Gefäße, die man heute etwa herstellt aus dem Material, was natürlich auch hinsichtlich auf Angreifbarkeit, der Beständigkeit gegen aggressive Mittel recht gute Eigenschaften hat. Das sind die größten Behälter von etlichen Kubikmeter. Und dass es sich um ganz leichtes Zeug handelt, das zeigt Ihnen dieses Bild, dass ein paar Leute ganz einfach mit so einem großen Behälter fertig werden. Im Übrigen ist es müßig, etwa Demonstrationsmaterial für diesen Stoff irgendwie bei Vorlesungen aufzubauen, denn man braucht nur durch die Straßen der Städte zu gehen. Und insbesondere auch hier in Lindau habe ich gestern ein Schaufenster festgestellt, in dem alles voll ist mit derartigen Gegenständen, die man daraus herleiten kann. Und dann will ich Ihnen noch … also das ist noch im bewegten Zeitrafferfilm vorführen, der nun leider – wir waren keine allzu großen Filmkünstler – ein bisschen schnell vorüberlaufen wird. Aber nachdem Sie die einzelnen Teile schon gesehen haben, werden Sie den Film leichter verstehen können. Und es kommt jetzt …, das ist die Apparatur nochmal, ähnlich, hier wird Ethylen durchgeleitet, hier ist also die Herstellung des Katalysators. Die eine Komponente. Außerdem ist die Zeit 0 nochmal durch die Uhr markiert. Jetzt kommt …, das ist wohl die aluminiumorganische Verbindung in einem Lösungsmittel, ja, das ist auch drangeschrieben: Diethylaluminiumchlorid. Und dann wird mit der Pipette Titantetrachlorid aufgesaugt und wird hineingegeben. Dann wird das erst gelb. Nach kurzer Zeit fällt dieser Niederschlag aus. Jetzt wird das langsam trüb. Und dann muss das Ganze in das andere Reaktionsgefäß übergeführt werden. Das wird nachher mithilfe eines Hebers gemacht. Fängt wohl jetzt gleich an. Hier haben Sie nun diesen Reaktor, hier sehen Sie den Rührer, wie Sie ihn vorhin gesehen haben, und jetzt wird mit einem Heber der Katalysator übergedrückt, der kommt jetzt unten hinein als Wolke. Oben wird es immer weniger. Das hat etwa zehn Minuten gedauert, die ganze Geschichte. Jetzt geht das Rühren los und der Ethylenstrom wird angestellt, rechts ... links ..., was Sie sehen: vorläufig ist es auf beiden Seiten gleich schnell; es geht ebenso schnell wieder raus, wie es hineinkommt. Das ist das Oberteil, es geht jetzt ziemlich rasch. Und jetzt sehen Sie rechts geht ein wüster Ethylenstrom hinein. Der links ist sehr viel schwächer, das wird jetzt … Das Ethylen, obwohl es da wild eingeleitet wird, wird hier vollkommen absorbiert. Es gibt sogar ein kleines Vakuum. Die Temperatur steigt. Sehen Sie, es sind knapp 50 Grad ... 60 Grad. Und jetzt sehen Sie schon, wie da drin der Niederschlag sich bildet. Das ist … die Polymerisation läuft jetzt etwa 20 Minuten. Jetzt merkt man schon, wie es dicker wird in der ganzen Art und Weise. Hier kommt nichts mehr raus, hier ist ein bisschen Vakuum. Jetzt sehen Sie im oberen Teil des Reaktors, wie schon überall das Zeug drinsitzt. Und hier wird nochmal mit einem Rotameter der eingehende Ethylenstrom gemessen. Es wird immer dicklicher. Wenn man kein sehr kräftiges Rührwerk hat, bleibt der Rührer zum Schluss stehen. Das ist jetzt also eine Stunde nach Beginn. So sieht jetzt die ganze Geschichte aus. Jetzt kommt …, wird die Zersetzung vorgenommen, jetzt kommt Alkohol rein und Luft. Sie werden gleich sehen, jetzt wird es schneeweiß. Und dann wird noch das Filtrieren gezeigt und dann ist auch dieser Film … Das Zeug ist noch heiß. Sie sehen, dass dort auch Dämpfe aufsteigen. Und man kann das in dieser Weise ... wird die Flüssigkeit von unten raus gesaugt, das Ganze zusammengedrückt. Und dann kann man es nachher aus dem Filter herauslösen. Dann hat man dieses Häufchen weißer Pulver, was aber hier auf diesem Film nicht mehr gezeigt wird. Dagegen laufen dann nochmal so ein paar erste daraus hergestellte Gegenstände zum Schluss des Films über die Leinwand. Hier haben Sie das Röhrchen wieder und ein paar ..., die ersten Folien, die noch nicht sehr schön geraten sind, die wir selbst gemacht haben. Dankeschön. Ich danke herzlich für den Beifall. Ich bin aber noch nicht ganz fertig. Sie müssen mir noch einige wenige Minuten konzedieren. Ich habe versucht, Ihnen lückenlos die gesamte Kausalreihe zu offenbaren, die von meinen ersten Anfängen vor über 40 Jahren schließlich auch zu einer für die Industrie wichtigen neuen Erkenntnis geführt hat. Die Entwicklung war stets wesentlich getragen von Experimenten und Beobachtung. Das ganze Geheimnis war eigentlich nichts anderes, als dass wir – ich spreche in der Mehrzahl, weil natürlich sehr viele tüchtige Mitarbeiter an dem Ganzen teilgenommen haben in ein noch unerschlossenes aber unzweifelhaft interessantes Gebiet der organischen Chemie unternommen haben. Wir haben Jahrzehnte lang auch nicht im Entferntesten daran gedacht, dass die Untersuchungen über metallorganische Verbindungen derartige Auswirkungen würden haben können. Wenn ich vielleicht heute bei manchen älteren und jüngeren Kollegen aufgrund der Ereignisse in Mühlheim während der letzten zehn Jahre etwas in den Verdacht geraten bin, dass ich etwa unsere Arbeiten in erster Linie nach dem zu erwartenden technischen Erfolg ausgerichtet hätte, so tut uns ein solcher Verdacht unrecht. Denn entscheidend ist stets nur das Streben nach Vermehrung der wissenschaftlichen Erkenntnis gewesen. Gewiss war es sehr schön, dass uns schließlich die Ergebnisse unserer Arbeiten ein hohes Maß an Unabhängigkeit gegeben haben und Unabhängigkeit und Freiheit für die wissenschaftliche Arbeit gegeben haben. Aber im Übrigen betrachte ich das, was heute nach außen hin vielfach als besonders wesentlich und entscheidend angesehen wird, doch mehr als die Nebenprodukte unserer eigentlichen Arbeiten und, wie ich gestehen muss, häufig sogar als sehr lästige Nebenprodukte, lässt sich insofern als durch alles, was unsere Arbeiten zur Folge hatten, sich für mich persönlich zwangsweise auf die Notwendigkeit zur Beschäftigung mit vielen, mehr am Rande liegenden Aufgaben ergeben haben. Das aber engt die Möglichkeiten ein, weiterhin unmittelbar mein eigenes Rezept für den Erfolg, nämlich das der unvoreingenommenen Wanderung mit offenem Blick nach allen Seiten durch die Gefilde der organischen Chemie, zu befolgen. Ich bin aber in der Lage, dass in meinem Institut auf der gleichen Linie von vorzüglichen jüngeren Kollegen mit großem Erfolg weitergearbeitet wird, und schließlich kommt jeder von uns einmal in die Situation, dass es seine Hauptaufgabe in der Ebnung der Wege für die nachfolgende Generation zu sehen hat. Es war ein weiterer Zweck meines Vortrags, Ihnen zu zeigen, dass es möglich ist, an der gleichen Stelle wie Herr Otto Hahn organisch-chemisch anzufangen und es auch dann zu etwas zu bringen, wenn man in der organischen Chemie bleibt. Aber ich muss das gleich ein wenig einschränken, denn die ganzen Arbeiten hatten auch insofern einen anorganischen Einschlag, als es die metallorganischen Verbindungen waren, das heißt also, die Erzeugnisse einer Art Symbiose zwischen den beiden Hauptrichtungen der Chemie, die schließlich zu Erfolgen führte. Ich bin stets der Meinung gewesen, dass man nicht so scharf zwischen den einzelnen Teilgebieten unterscheiden sollte, und habe mich daher stets betont als Chemiker und keineswegs nun jetzt etwa als Makromolekularchemiker und nicht so sehr als Organiker oder Kunststofffachmann gefühlt. Und möchte nur wünschen, dass auch in Zukunft trotz der laufend weitergetriebenen Spezialisierung ähnliche Grundeinstellungen noch möglich sein möchten.

Karl Ziegler on the Discovery of the Ziegler-Natta Catalyst (in German)
(00:47:46 - 00:50:32)

While the “Muelheim invention” established transition metal catalysis of carbon-carbon bond formation on the industrial scale, the idea of using metals to enhance the reactivity of carbon compounds was not new. In 1912, the two Frenchmen Victor Grignard and Paul Sabatier received the 12th Nobel Prize in Chemistry. This 12th Nobel Prize in Chemistry was the first one awarded for organometallic chemistry,that is chemistry involving carbon-metal bonds. Sabatier had shown that the transition metal nickel could be used to catalyse the addition of hydrogen gas to carbon compounds. Grignard had developed a new kind of reagent, which is based on carbon compounds attached to magnesium halides. This famous “Grignard reagent” allows for a facile, controlled formation of single carbon-carbon bonds. It has been both a workhorse and a source of inspiration to organic chemists for more than a century. The field of organometallic chemistry grew considerably in the years to come and several Nobel Prizes ensued, which can all be considered offspring of Grignard’s work. These include the Prize to Ziegler and Natta, the 1973 Prize to Ernst Otto Fischer and Geoffrey Wilkinson, the 1979 Prize to Herbert Brown and Georg Wittig as well as the recent 2010 Prize to Richard Heck, Ei-ichi Negishi and Akira Suzuki.

At the 2011 Lindau Meeting, almost 100 years after Grignard’s award, Ei-ichi Negishi talked about why metals continue to be the major bearers of hope in the ongoing quest for novel green synthetic methods:

Ei-ichi  Negishi (2011) - Magical Power of d-Block Transition Metals: Past, Present and Future

So, I really like the young lady saying: "I love organic chemistry." (laugh) That's my message, one of my key messages. And I also fully understand the excitement of a young man shortly after his discovery. I think those are the things that will keep us going and this is a wonderful profession. So, in a limited amount of time what I want to discuss is a very, very simple fundamental sort of understanding or knowledge that can support all kinds of activities. Even a rather traditional half worn out discipline like organic synthesis which, I believe, is fundamentally still very, very important well into the 21st century and beyond. If you look at the world food shortage, energy shortage, of course many disciplines can join force and try to solve. But at the heart of this problem, world solution must come from chemistry and the chemist's responsibility is very, very heavy. What I talk about today, the magical power of transition metals. I truly believe that the magical power of d-block transition metals... You know, I'll show you 23/4 of them in a periodic table. Some of them like iron, copper, you know, gold, silver, platinum and so on, these are all d-block transition metals. They had been until recently mainly used as precious material. So the structure beams, are they wooden? (laugh) Anyway. But probably half a century or so ago, well actually discovery came earlier, but through appreciation of catalytic ability of d-block transition metals came. And that's the essence of my talk today. So, I can only talk about the left half of this mainly. This story actually is... This represents the future of magical power of transition metals. But you probably have to come back to this meeting a few years later. So, as I told you, I believe that this organic synthesis continues to play a very important role in our society. But today some of the most capable synthetic organic chemists claim that they can make anything, any small molecule including some drugs like palytoxins, like amphotericin which I will show you and a palytoxin and so on. Yes, they have synthesised but what is increasingly important is how to synthesis them. And if you think about that, in your head that's all you need, any organic compound. We must do it in a green way and here is my definition of a green chemistry. First of all we should make any organic compound. Any is a very important term, any synthesizable. In high yields, Y, in high efficiency, E, in high selectivity without producing any other isomers and so on preferably, S. In YES, in a yes-manner as someone in America said and succeeded with this YES word a few years back. I can add another E and S. We should synthesise any organic compounds economically, obviously, and then safely. So my message, key message is that I think we should be focusing our attention on how to synthesise but not what to synthesise, from what to synthesise to how to synthesise. And this I began thinking when I came to America for my baccalaureate degree, knowledge in chemistry. So everything at the graduate level and beyond I learned in America. And I began thinking as a graduate student: Probably we should, you know we as chemists, consider all useable elements Simply all you need is this one cube box here. Avoid radioactive ones -maybe close to 30 of them, 25 or 30 of them- and inert gas obviously, several of them, and then inherently toxic elements, I can count up to 10. If you subtract all these, then we are still left with about 70. When organic compounds are mostly made of about 10 or a dozen elements, this is still a large, large number. Then I soon realised that this is actually rather small, frustratingly small number. And if we are to do organic synthesis in a YES(ES) way, in other words in green way consider even their binary combinations, then all of a sudden your options jump up from about 70 to 5,000. And indeed I truly believe that there is this 2 is better than 1 principle operating. And of course second ones are usually... even the first one can be catalytic ideally. The second one should definitely be catalyst. This is where our d-block transition metals come in. So use metals for desirable reactivities. Grignard had the right idea 100 years ago. Next year we're going to be celebrating Grignard's centennial year for winning the first Nobel Prize. Together with Sabatier I think. Anyway, the first Nobel Prize in organometallic chemistry, 1912. So use metals for desirable reactivities. And use transition metals mainly as catalyst. That's the essence of my talk today. So when you look at periodic table as I said, you see 112 or so metals. You can divide them roughly into... or you can colour them in 7 different ways. Of course here you have 10 or dozen so-called organic elements. Ok, we need to deal with them. And then as I told you all these red ones are fundamental ..., you know, intrinsically radioactive and we for the moment avoid them and then we avoid several inert gas, grey ones. Then we are left with, still left with these blue, so-called main group elements. They are... some of them are relatively cheap, inexpensive and you get to use stoichiometrically, like magnesium or like zinc and so on. About 20 of them. And then you are left with this golden -it's not yellow, it's golden (laugh) in my opinion- golden coloured, 3 by 8. You take away tegnesium and your left with 23 d-block transition metals. So together we have a few others of f-block transition metals. So these 3 groups combined we have close to 60 metals. Again it's 10 or dozen organic elements. So as a graduate student, why should we not bring in all these usable metals to promote organic synthesis? That was my dream and it is still my dream today. Of course getting back to YES, we have to worry about yield, number of steps and yield. Even if the average yield is 90%, after 30 steps you are almost down close to zero, not quite, 4%. If it is a very, very precious medicinal compound, then we may still be practically go through this. But not beyond 30. After 40 steps of excellent, excellent yields, series of excellent yields, you're almost down to nothing. So I would say maximum number of steps in a linear organic synthesis should be about here. If the average yield goes down to 80% it's reduced to half, 15 steps. If it's down to 70% then 10 steps. So number of steps efficiency, in other words efficiency, is very, very important. So as a graduate student at Pen, University of Pennsylvania, in 1962 or so I began thinking when I was doing acetoacetic ester synthesis and malonic ester synthesis, some of those kinds of reactions: You bring in maybe big molecule, then you only get to use a CH2 or something like that, very inefficient in my opinion. I'm sorry to say that. So one notion came to me that is this Lego game approach, in other words cross-coupling. Without a catalyst of course. Grignard reaction, some of the Grignard reactions are known in this way. And some people say that, well, this reaction goes this way and then you get what you want, organic compounds, but along with by-product MX. That's not very green. But I say that's not true because of the formation of this by-product MX, we gain tremendously number of things. One is we gain some dynamic advantage. In other words most every reaction like this when you use highly electropositive metals like magnesium, then it's going to be fundamentally downhill. And the metals and M and X they tag various positions in organic compounds. They are regio and stereo tags. So actually use of these metals in X, they are beneficial and they make the whole process green. I say that loudly. But even so without catalyst the overall picture... You know, these are about 10 or so kinds of organic groups that we normally think. And if you can fill all of these close to 100, actually only 72 shown here, but if we can do that then you can begin saying that we can deal with a synthesis of most of the kinds of organic compounds in one sort of a uniform way. That is a cross-coupling way. Turned out when I checked the literature as a graduate student, it looked like this. When these groups are unsaturated organoalkali then practically nothing works here using Grignard reagents here. If they are SP3 hybridized alkyl, then you have a better chance but still there are all kinds of problems, elimination, isomerisation and so on. Today I can show this and hopefully this change was recognised by the Nobel committee (laugh). So, the same chart and I counted once 45 or so out of 72 in green. So the majority fundamentally worked very well. When we use alkyl halide, this is a very active area now. So I should look forward to some additional progresses but it is a fundamentally difficult thing. The worst part is here when you mix 2 allyl, benzyl or propargyl, then you have all kinds of problems. Some efforts were made half a century ago by Bielmann in France, that came up with some of the best. Even so it takes so much effort. And having dealt with this for some years I have decided to give up on this one because we came up with this wonderful alternative to come up with the same molecule. So this is where we are but we still have to go further. And I have emphasised the use of metal, one as a stoicheometric creation, the other as a catalyst. Ok, so if you mix alkane and alkene, usually nothing happens under normal conditions. But if you replace this alkane with carbocations, then of course you see a rapid reaction. So shows a power of perhaps positive charge as well but mainly the presence of the empty orbital. These simple considerations can, if you think right, then give you some powerful, powerful principle. Then of course if you compare this carbocation and boron hydride, they are isoelectronic. No wonder hydroboration works very well, very rapidly. And then if you generalise, now this is a powerful principle, you know, the presence of this empty orbital. Electron deficiency is, if anything, a source of chemical reactivity. And then of course someone translated, of course Geoffrey Wilkinson and others, Australian group, came up with a "hydrosiliconation". So "iso-lobo" kind of relationship and then they came up with "hydrosiliconation" which we use extensively. Ok, so you think that as I told you electron deficiency is a main source of chemical reactivity and then if you mix acid and base then they should form AB salt. Looks easy but there is one problem. If this works very well, then Grignard reagents and organic halides probably should cross-couple readily. Thermodynamically they are fundamentally more downhill. But there is a kinetic issue which I didn't notice until recently. Sorry to say this but let's say A and B are neutral and then as they come close and then they start transferring pair of electrons, then the problem starts. So B let's say neutral one. But as it gives up electrons then it will be positively charged and A as a recipient will be negatively charged. What are these 2 charges do? Well, this positive charge will attract this pair of electrons back to B and the negative charge at A will start sending back. So I talk to my physical chemical colleague and then he came up with this paper, rather recent and in a respectable journal. And then indeed my concern was born out. So this is attracting force that I was showing here. But then there's this repulsive force. So at one quantum level there is a problem. But fundamentally this had already been solved through the use of d-block transition metal. This is one magical power of d-block transition metals, one of the essences of my talk today. Namely by definition d-block transition metals can have in the valence shell both empty orbital ... (inaudible19:57) and then filled non bonding orbital, dehybridised. With this pair they can interact with alkenes for instance in a HOMO-LUMO and HOMO-LUMO fashion. And notice that this interaction mode here inside is from bottom electron flow, from the bottom to up, and then outside it is from the top to bottom. So this nasty charge separation issue can be mostly cancelled. And indeed d-block transition metal, one thing they love to do is to interact with neutral pi-bonds. Alkenes, alkynes and arenes are very highly reactive and readily form complexes. This is a kind of binding action that make all of these processes kinetically very facile. And as shown here... Ok, so here we have "alkeneliadised" and "alkyliadised" Grignard reagent will attack here or here maybe but d-block transition metal, palladium species, they love to interact here based on this and then like this. Ok, so that's the one principle, very fundamental, very basic principle. And we mostly know but you have to believe in that and then you have to use it, then you can come up with some discoveries as shown in one of the pictures earlier today and then you have a eureka. Anyway, yet another very important thing which is current and the future of this use of magical power of d-block transition metals current is hydrometalation and perhaps carbometalation. But we can expand this hydrometalation, carbometalation further to include heteroatom metalation, which I call for simplicity heterometalation. This carbometalation was a term I coined in 1978 and gradually people have started using this one. Well heterometalation, I'm a little bit dubious about this thing but anyway for simplicity I call this heteromelatation or metallometalation. Then the hydrocarbon and the hetero, you can cover the whole periodic table. In other words you can do almost anything in terms of addition like this. And then why do we believe that they should go well. Well, if you compare this pi-complexation with hydrometalation inside here in this triangle, everything is dead same. Only difference is that here we have a dehybridised orbital. That is replaced here, substituted with a sigma orbital. We should believe in this. I mean if this works, this should work. Then all kinds of, actually... As long as there is this empty orbital here we can fundamentally observe all kinds of hydrometalation reaction, beginning with Brown's hydroboration or hydroelimination, hydrosiliconation, you name it. Ok, but then you should realise that by replacing this hydrogen with a carbon group, you should also fundamentally observe all kinds of carbometalation. Probably the overall scope is more limited because you replace this small round hydrogen orbital with a larger, more sterically demanding and more highly oriented carbon group. But this is how we have come up with carbo-zirconium catalysis, catalysis was needed, zirconium-catalysed carboelimination. Then only I realised: Well, this had already been discovered by, long ago Karl Ziegler in the form of polymerisation. Ours is a one step single stage better suited for wider, you know, organic synthesis. And we are still in the process. If you think about that, you can think of various other kinds of related reactions that can be represented by this simple molecular orbital scheme. That's how we want to do research and come up with some eureka moments. And then I recently realised and some facts are already known, we can go beyond, cover all the periodic table. Heterometalation, like bromo- or haloboration, halometalation, this sounds surely contra thermodynamic. With most metals, more electropositive metals they may be. But with the boron, rather highly electronegative metal, they can be thermodynamically downhill. And they can be kinetically very facile as long as you can buy this kind of scheme. Haloboration was first discovered by Mike Lappert in the UK in the '60s and about 20 years later Akira Suzuki made use of it but there were some difficulties, fundamental difficulties which we have overcome recently. Now it's synthetically very useful reaction. So here under this term you can have a wide range of possibilities. And of course the other part, the second part of the d-block transition metal, their magical power of course is their ability to go up and down the oxidation-reduction scale. Well, of course many other atoms can do, sulphur compounds can be readily oxidised, sulphur compounds can be readily reduced. But not in the same one, same flask or same vessel. With the d-block transition metals you can observe... You know, some atoms, d-block transition metal atoms are getting oxidised as well others are getting reduced. They go around and around and around in our hands million times or more, sometimes close to billion times. In other words they can go around because of this ability, getting oxidised and reduced under one set of reaction conditions. Wonderful property, we should try to take advantage of that. And that is a second secret or magical power of d-block transition metals. The 2 together I think we can, if I may exaggerate, we can save the world in the 21st century. I believe so. Anyway, so in a limited amount of time I was telling you that 2 is better than 1. And when 2 metals, electron deficient metals species are mixed, the one thing they love to do is to cuddle up, try to eliminate empty orbitals like this but electron counts, electron deficient. And these processes can often be dynamic and in a dynamic process they generate species like this. This part is of course very reactive, same as this one but compared with this one, this one is super-hyper-duper-acidic because this one is right next to dipole which is positive or negatively polarising. In other words positive charge close to this electron deficient centre and negatively charged away from there. So this interaction makes this centre super-acidic. And this is the secret of the ... (inaudible 29.31) chemistry, polymerisation chemistry. Why should we not take advantage of this in a general sense? That is the message. And I'm going to have to go through this and net result of our cross-coupling, discovery of cross-coupling reactions and their development is that now we can claim that we can synthesis the majority of organic compounds. We can, you know, in a YES(ES) manner. For instance, I will wind up my talk if I may have couple of minutes. Traditionally alkenes, people selective synthesis alkenes were done by so called carbonyl olefination. This one has a fundamental problem in my opinion because this one is addition elimination process. Addition is a problematic but more problematic is the elimination. Of course when they work well they work well, of course. But here it is concerted additional to alkyne, we start like this. This process, there is a bit of issue, chemical issues but other that it is essentially 100% in addition. Once we set up this group like this, R1M group, then palladium catalysed cross-coupling comes into play to rescue and then it will retain this whole group integrity and then produce the alkenes of your choice. And let me end my talk with half, nearly half of the synthesis of amphotericin B which the whole thing has been only synthesised once by K. C. Nicolaou. Many, many steps, many more than 50, 60 steps. We figured out that we should be able to synthesise as I told you within 30 steps overall and then we chose this one as our first intermediary target. If we can synthesise this part in less than 15 or 10 steps we might be in business and which we did. So using our Negishi coupling to form this part as you see here, 40% yield overall in 5 steps. And then you note that there is nowhere any figure less than, greater than 98% in our synthesis. Believe me. So I show this one. And then another breakthrough is that we were able to go from here to here in 4 steps. The second shortest is by Erick Carreira, 13 or 14 steps. But you need to do this in 4 steps, overall 57% yield. And here again you don't see any figure less than, greater than 98%. So now we got this and from here we use Heck reaction. Heck reaction is overall less green, less green, even though we use CH. We lose the power of metal. But in this case it was the best option because we end up with this terminal alkene so we can get this one under Geoffrey's conditions and then get this one. I told you how we got this one. And then we hook up by... not by palladium catalysed cross-coupling but HWE. Because of this conjugation here and here we can maintain this, we can do that in highly selective way. So the combination Negishi, Heck and HWE turned out to be so far the best. And overall we did it in 8 steps. So we are hopeful that we can do the rest and overall thing in less than 30 steps. That's the kind of 21st century synthesis. You know, it gives us hope for being practical. And I have a lot of things that I can show but in view of time I think I should stop here and I only want to... So here I am showing that we can make any kind, any of 8 possible trienes. These 2 had never been synthesised selectively in any more than several percent yield. But look here, yields and then the selectivity. You can do that. And even this one is one of my favourite, so-called 1, 5-dienes, representing all kinds of terpenoids and others. You can control every aspect if you avoid the allyl-allyl cross-coupling or allyl-propoxyl and then shift to homoallyl and alkenyl. So, even molecules like CoQ10 can be synthesised in less than 10 steps starting from these compounds. Ok, so that's the second part (laugh). So in the area of palladium catalysed cross-coupling more than 100 people worked but still the first quintet, Doctor Baba, Tony King, Okukado, Kobayashi and Van Horn, they had their eureka moment every other month or so (laugh). I thank them. So, thank you very much for your kind attention. End.

Also, die junge Dame, die sagt "Ich liebe organische Chemie", mag ich wirklich sehr. Das ist meine Botschaft, eine meiner wichtigsten Botschaften. Und ich verstehe die Begeisterung eines jungen Mannes kurz nach seiner Entdeckung vollkommen. Ich denke, dies sind die Dinge, die uns in Schwung halten werden, und dies ist ein wunderbarer Beruf. Das, was ich in der begrenzten Zeit erörtern möchte, ist eine sehr, sehr einfache Art von Verständnis oder Wissen, das alle möglichen Arten von Aktivitäten unterstützen kann. Selbst eine eher traditionelle, halb verschlissene Disziplin wie die organische Synthese, von der ich glaube, dass sie im Wesentlichen immer noch sehr, sehr wichtig sein wird, bis weit in das 21. Jahrhundert hinein und darüber hinaus. Wenn man sich den weltweiten Lebensmittelmangel anschaut, die Energieverknappung, dann können sich natürlich mehrere Disziplinen zusammentun und zur Lösung der Probleme ihre Kräfte bündeln. Doch die Lösung des Kernproblems, eine globale Lösung, muss von der Chemie kommen, und die Verantwortung des Chemikers ist sehr, sehr groß. Worüber ich heute sprechen werde, ist die magische Kraft der Übergangsmetalle. Ich glaube fest, dass die magische Kraft der d-Block-Übergangsmetalle ... Wissen Sie, ich werde Ihnen 23/4 von ihnen in einem Periodensystem zeigen. Einige von ihnen, wie zum Beispiel Eisen, Kupfer, kennen Sie, Gold, Silber, Platin usw. All dies sind d-Block-Übergangsmetalle. Sie wurden bis vor kurzem hauptsächlich als wertvolle Materialien verwendet. Also, die Strukturbalken, sind die aus Holz? Wie auch immer. Doch wahrscheinlich vor etwa einem halben Jahrhundert - nun ja, tatsächlich erfolgte die Entdeckung früher, allerdings durch die Wertschätzung der katalytischen Fähigkeit der d-Block-Übergangsmetalle. Doch Sie müssen wahrscheinlich in ein paar Jahren noch einmal auf dieses Treffen kommen. Also, wie ich Ihnen bereits gesagt habe, glaube ich, dass diese organische Synthese weiterhin eine sehr wichtige Rolle in unserer Gesellschaft spielen wird. Einige unserer fähigsten Vertreter der Synthetisch-Organischen Chemie behaupten heute, dass sie beliebige Stoffe synthetisieren können, jedes kleine Molekül, einschließlich einiger Medikamente wie Palytoxine, wie Amphotericin, die ich Ihnen zeigen werde, und ein Palytoxin usw. Ja, sie haben diese Stoffe synthetisiert, doch was zunehmend wichtig ist, ist die Methode der Synthese. Und wenn Sie sich überlegen, in Ihrem Kopf ist das alles, was Sie jemals brauchen: eine beliebige organische Verbindung. Wir müssen es auf grüne Weise tun, und dies ist meine Definition einer grünen Chemie. Zunächst sollten wir eine beliebige organische Verbindung herstellen. Beliebig ist ein wichtiger Ausdruck: jede beliebige, synthetisierbare Verbindung. Mit großen Erträgen (Y), mit hoher Effizienz (E), mit großer Selektivität (S), vorzugsweise ohne irgendwelche anderen Isomere herzustellen usw. Mit der YES-Methode, wie jemand in Amerika sagte und vor ein paar Jahren mit dieser Methode Erfolg hatte. Ich kann ein weiteres E und S hinzufügen. Natürlich sollten wir jede organische Verbindung wirtschaftlich produzieren und dann auf sichere Weise. Meine Botschaft, meine Kernbotschaft, besteht darin, dass ich glaube, wir sollten unsere Aufmerksamkeit darauf konzentrieren, wie wir synthetisieren, nicht darauf, was wir synthetisieren: weg von der Frage was wir synthetisieren, hin zu der Frage, wie wir synthetisieren. Ich gelangte zu dieser Überzeugung, als ich nach Amerika kam, um dort meinen BA in Chemie zu absolvieren. Alles, was ich im Graduiertenstudium und später gelernt habe, habe ich also in Amerika gelernt. Und als Graduate Student begann ich zu denken: Wahrscheinlich sollten wir, wissen Sie, wir als Chemiker, alle verwendbaren Elemente in Erwägung ziehen. Natürlich gibt es um die 110 Elemente im Periodensystem, aber aus einer rationalen..... Alles was Sie brauchen, ist einfach diese quadratische Box hier. Vermeiden Sie radioaktive - vielleicht an die 30 von ihnen, 25 oder 30 von ihnen - offensichtlich ein Edelgas, mehrere von ihnen, und dann von Natur aus toxische Elemente. Ich kann bis zu 10 zählen. Wenn Sie diese alle abziehen, bleiben uns immer noch etwa 70. Da organische Verbindungen größtenteils aus etwa zehn oder zwölf Elementen hergestellt werden, ist dies immer noch eine sehr, sehr große Zahl. Dann wurde mir bald klar, dass dies tatsächlich eine eher kleine, frustrierend kleine Zahl ist. Und wenn wir organische Synthese mit einer YES(ES)-Methode praktizieren sollten - mit anderen Worten: auf eine grüne Weise, das ist meine Definition der grünen Chemie - bedenken Sie selbst ihre binären Kombinationen: Dann springen Ihre Optionen plötzlich von etwa 70 auf 5000. Und tatsächlich bin ich wahrhaftig der Überzeugung, dass es diese beiden gibt, dass es besser ist, wenn zwei Prinzipien angewendet werden, statt nur eins. Und natürlich sind die zweiten normalerweise .... Selbst das erste kann katalytisch ideal sein. Das zweite Prinzip sollte definitiv katalytisch sein, und dies ist der Punkt, an dem unsere d-Block-Übergangsmetalle wieder wichtig werden. Verwenden Sie also Metalle für wünschenswerte Reaktivitäten. Grignard hatte vor 100 Jahren die richtige Idee. Nächstes Jahr feiern wir den 100. Geburtstag der Verleihung des ersten Nobelpreises an Grignard. Zusammen mit Sabatier, glaube ich. Wie auch immer: den ersten Nobelpreis in der organometallischen Chemie, 1912. Verwenden Sie also Metalle für wünschenswerte Reaktivitäten. Und verwenden Sie Übergangsmetalle hauptsächlich als Katalysatoren. Das ist der Hauptpunkt meines heutigen Vortrags. Wenn Sie sich also das Periodensystem der Elemente anschauen, wie ich gesagt habe, dann sehen Sie um die 112 Metalle. Sie können sie grob unterteilen in .... Oder Sie können sie auf sieben verschiedene Arten färben. Natürlich haben Sie hier zehn oder zwölf sogenannte organische Elemente. Ok, wir müssen mit ihnen fertig werden. Und dann, wie ich Ihnen gesagt habe, sind alle diese roten fundamental ..., Wissen Sie, von Natur aus radioaktiv, und wir meiden sie im Moment, und dann meiden wir mehrere Edelgase, grau dargestellt. Dann bleiben uns, bleiben uns noch diese blauen sogenannten Hauptgruppenelemente. Sie sind ... Einige von ihnen sind relativ billig, kostengünstig, und man kann sie stöchiometrisch verwenden, wie Magnesium oder wie Zink usw., etwa 20 von ihnen. Und dann bleiben Ihnen diese goldenen - sie sind nicht gelb, sie sind goldfarben, nach meiner Meinung goldfarbenen - 3 mal 8 Elemente. Sie nehmen Technetium weg, und es bleiben Ihnen 23 d-Block-Übergangsmetalle. In diesen drei Gruppen haben wir also zusammengenommen fast 60 Metalle. Nochmals: Es gibt zehn oder zwölf organische Elemente. Als Graduate Student [fragte ich mich]: warum sollen wir nicht alle diese verwendbaren Metalle hinzunehmen, um die organische Synthese voranzubringen? Das war mein Traum, und es ist auch noch heute mein Traum. Natürlich, um auf YES zurückzukommen: Wir müssen uns Sorgen um den Ertrag machen, um die Zahl der Schritte und den Ertrag. Selbst wenn der durchschnittliche Ertrag 90 % beträgt, ist man nach 30 Schritten fast bei Null angelangt, nicht ganz bei 4 %. Handelt es sich um eine sehr, sehr wertvolle medizinische Verbindung, dann würden wir vielleicht diesen ganzen Weg in der Praxis auf uns nehmen. Doch nicht über 30 hinaus. Nach 40 Schritten exzellenter, exzellenter Erträge, nach einer Reihe hervorragender Erträge ist man fast bei Nichts angelangt. Ich würde also sagen, dass die maximale Anzahl der Schritte in einer linearen organischen Synthese etwa hier liegen sollte. Wenn der durchschnittliche Ertrag auf 80 % sinkt, wird die Zahl der Schritte auf die Hälfte, auf 15 reduziert. Beträgt der durchschnittliche Ertrag 70 %, dann auf zehn Schritte. Die Effizienz der Anzahl der Schritte, mit anderen Worten die Effizienz, ist sehr, sehr wichtig. Als Graduate Student an der Universität von Pennsylvania begann ich 1962, als ich die Synthese von b-Ketobuttersäureethyl- und Malonester durchführte, einige dieser Reaktionen. Man bringt ein großes Molekül ins Spiel, und man verwendet dann nur eine CH2-Gruppe oder so etwas, meiner Meinung nach höchst ineffizient. Es tut mir leid das sagen zu müssen. Eine Idee, die mir in den Sinn kam, war, dass dies eine Lego-Methode ist, mit anderen Worten: eine Kupplungsreaktion. Natürlich ohne einen Katalysator. Eine Grignard-Reaktion, von einigen der Grignard-Reaktionen wissen wir, dass sie so ablaufen. Und einige Leute sagen, ok, diese Reaktion läuft auf diese Weise ab, und dann erhält man was man will, organische Verbindungen allerdings zusammen mit dem Nebenprodukt MX. Das ist nicht sehr grün. Doch ich sage, dass dies nicht wahr ist, wegen der Bildung dieses Nebenprodukts MX. Wir erreichen eine übergroße Vielzahl von Dingen. Ein Gewinn ist, dass wir einen dynamischen Vorteil bekommen. Mit anderen Worten: Fast alle Reaktionen dieser Art, wenn man stark elektropositive Metalle wie Magnesium verwendet, verlaufen im Wesentlichen bergab. Und die Metalle und M und X markieren verschiedene Positionen in organischen Verbindungen. Es sind Regio- und Stereo-Tags. Tatsächlich verwenden wir diese Metalle in X, Sie sind nützlich und machen den gesamten Prozess grün. Ich sage das lautstark. Doch obwohl hierbei keine Katalysatoren verwendet werden, ist das Gesamtbild ... Wissen Sie, dies sind etwa zehn Arten organischer Gruppen, von denen wir normalerweise annehmen.... Und wenn sie all diese fast bis 100 füllen - tatsächlich werden nur 72 hier angezeigt - doch wenn einem das gelingt, kann man beginnen zu behaupten, dass wir mit der Synthese der meisten dieser Art von organischen Verbindungen auf eine einheitliche Weise fertig werden: Dies ist die Kupplungsmethode. Es stellte sich heraus, als ich als Graduate Student die Literatur daraufhin überprüfte, dass es sich folgendermaßen darstellte. Wenn diese Gruppen unsaturierte Organoalkali-Gruppen sind, dann funktioniert hier fast nichts unter Verwendung der Grignard-Reagenzien. Wenn es SP3-hybridisierte Alkyle sind, dann hat man eine bessere Chance, doch es gibt immer noch alle möglichen Probleme: Elimination, Isomerisation usw. Heute kann ich dies zeigen, und hoffentlich wurde diese Änderung durch das Nobelkomitee anerkannt. Also, dieselbe Übersicht, und ich habe einmal 45 oder so aus 72 in grün gezählt. Die Mehrzahl funktionierte also im Prinzip sehr gut. Wenn wir Alkyl-Halide verwenden, ist das hier ein sehr aktiver Bereich. Ich sollte mich also auf einige zusätzliche Fortschritte freuen, doch dies ist eine fundamental schwierige Angelegenheit. Das Schlimmste ergibt sich, wenn man 2 Allyle, Benzyle oder Propargyl mischt. Dann bekommt man alle möglichen Probleme. Einige Bemühungen wurden vor einem halben Jahrhundert von Bielmann in Frankreich unternommen. Er erzielte einige der besten Ergebnisse. Obwohl es so große Anstrengung erfordert. Und da ich mich einige Jahre lang damit beschäftigt habe, habe ich entschieden, hieran nicht weiter zu arbeiten, weil wir eine wunderbare Alternative gefunden haben, bei der man mit demselben Molekül herauskommt. Dies ist also der Punkt, an dem wir uns befinden, doch wir müssen noch weiterkommen. Und ich habe die Verwendung von Metall betont: einmal als stöchiometrische Kreation, das andere als ein Katalysator. Nun gut, wenn man Alkane und Alkene mischt, passiert bei normalen Bedingungen normalerweise nichts. Ersetzt man aber diese Alkane mit Carbokationen, dann sieht man natürlich eine schnelle Reaktion. Dies zeigt also möglicherweise auch die Kraft einer positiven Ladung, doch hauptsächlich die Präsenz des leeren Orbitals. Diese einfachen Überlegungen können, wenn man folgerichtig denkt, einem dann ein sehr leistungsstarkes Prinzip geben. Wenn Sie dann natürlich diese Carbokationen und Borhydride vergleichen, sind sie isoelektronisch. Kein Wunder, dass die Hydroboration sehr gut arbeitet, sehr schnell. Und wenn Sie dies generalisieren, dies ist ein leistungsstarkes Prinzip, wissen Sie, das Vorhandensein dieses leeren Orbitals. Der Mangel an Elektronen ist, wenn überhaupt, eine Quelle chemischer Reaktivität. Und dann übersetzte natürlich jemand, Geoffrey Wilkinson und andere, die australische Gruppe, und führte das Wort "Hydrosilikonation" ein. Also eine "iso-lobo"-Art von Beziehung, und dann erfanden sie den Ausdruck "Hydrosilikonation", den wir äußerst häufig verwenden. Ok, Sie denken also, weil ich ihnen gesagt habe, dass der Elektronenmangel die Hauptquelle chemischer Reaktivität ist, dass man Salze der Form AB erhalten sollte, wenn man Säuren und Basen mischt. Das sieht einfach aus, aber es gibt ein Problem. Wenn dies sehr gut funktioniert, dann sollten sich Grignards Reagenzien und organische Halide wahrscheinlich ganz problemlos durch Kupplung verbinden. Thermodynamisch gesehen verlaufen diese Vorgänge im Prinzip bergab. Es gibt jedoch ein generelles Problem, das mir vor Kurzem aufgefallen ist - es tut mir leid dies sagen zu müssen. Doch nehmen wir an, dass A und B neutral sind und dass sich dann, wenn sie sich näher kommen und beginnen Elektronenpaare auszutauschen, das Problem ergibt. Sagen wir also, dass B neutral eins ist. Aber es gibt Elektronen ab, und wird dann positiv geladen sein, und A als Empfänger wird negativ geladen. Was tun diese beiden Ladungen? Nun, diese positive Ladung wird dieses Elektronpaar zurück nach B ziehen, und die negative Ladung bei A wird beginnen sie zurückzuschicken: "Komm nicht zu mir, geht zurück! Ok?" Ich sprach also mit einem Kollegen in der Physik, und daraufhin verfasste er diesen Aufsatz, erst vor kurzem, und veröffentlichte ihn in einer angesehenen Fachzeitschrift. Und dann hat sich meine Sorge tatsächlich bestätigt. Dies also ist die Anziehungskraft, die ich hier gezeigt habe. Doch dann gibt es da noch diese Abstoßungskraft. Auf der Quantenebene besteht ein Problem. Doch grundsätzlich war dies bereits durch die Verwendung von d-Block-Übergangsmetallen gelöst worden. Dies ist eine der magischen Fähigkeiten der d-Block-Übergangsmetalle, einer der Kernpunkte meines heutigen Vortrags. Definitionsgemäß können nämlich d-Block-Übergangsmetalle in der Valenzschale sowohl leere Orbitale ...(unverständlich bei 19:57) ... und dann gefüllte nicht-bindende Orbitale - dehybridisiert. Mit diesem Paar können Sie beispielsweise mit Alkenen auf eine HOMO-LUMO und HOMO-LUMO-Weise interagieren. Und beachten Sie, dass diese Interaktion hier im Inneren aus dem Elektronenfluss von unten stammt, von unten nach oben, und außen ist es dann von oben nach unten. Dieses üble Ladungstrennungsproblem kann größtenteils ausgeglichen werden. Und tatsächlich ist es so, dass d-Block-Übergangsmetalle vor allem eins gerne tun: mit neutralen pi-Bindungen interagieren. Alkene, Alkyne und Arene sind hochreaktiv und bilden bereitwillig Komplexe. Dies ist eine Art Bindungsaktion, die alle diese Prozesse kinetisch sehr einfach macht. Und wie es hier dargestellt ist... Ok, wir haben also nun "alkeneliadised" und "alkyliadised" Grignard-Reagenzien. Sie werden hier angreifen oder vielleicht hier, aber d-Block-Übergangsmetalle, Palladiumverbindungen: Sie lieben es, an dieser Stelle zu interagieren, hierauf basierend, und dann auf diese Weise. Ok, das ist das eine Prinzip, sehr fundamental, ein sehr grundlegendes Prinzip. Und zum größten Teil wissen wir dies, doch Sie müssen daran glauben und müssen es verwenden, dann können Sie einige Entdeckungen machen, wie auf einem der heute früher bereits gezeigten Bilder dargestellt, und dann haben Sie ein Heureka-Erlebnis. Wie dem auch sei, eine weitere sehr wichtige Sache, die gegenwärtig aktuell ist und es in Zukunft bei der Verwendung der magischen Kraft der d-Block-Übergangsmetalle sein wird, ist die Hydrometalation und vielleicht die Carbometalation. Doch wir können diese Hydrometalation, Carbometalation erweitern, um die Heteroatommetalation darin aufzunehmen, die ich der Einfachheit halber als Heterometalation bezeichne. Den Begriff Carbometalation habe ich im Jahre 1978 geprägt, und die Leute haben nach und nach angefangen, ihn zu verwenden. Nun gut, die Heterometalation, ich stehe dieser Sache etwas zweifelnd gegenüber, doch der Einfachheit halber nenne ich dies Heterometalation oder Metallometalation. Dann das Hydrocarbon und das Hetero: Sie können das gesamte Periodensystem abdecken. Mit anderen Worten: Sie können, was Hinzufügungen dieser Art betrifft, fast alles tun. Und warum glauben wir dann, dass sie problemlos ablaufen sollten? Nun ja, wenn Sie diese pi-Komplexbildung mit der Hydrometalation hier im Inneren dieses Dreiecks vergleichen, so ist alles absolut identisch. Der einzige Unterschied ist, dass wir hier ein dehybridisiertes Orbital haben. Das ist hier ersetzt, substituiert mit einem Sigma-Orbital. Wir sollten daran glauben. Ich meine, wenn dies funktioniert, dies sollte funktionieren. Tatsächlich würden dann alle Arten von .... Solange es dort dieses leere Orbital hier gibt, können wir im Prinzip alle Arten von Hydrometalationsreaktionen beobachten, angefangen mit Browns Hydroboration oder Hydroelimination, Hydrosiliconation, womit auch immer. Ok, doch dann sollte man erkennen, dass man durch das Ersetzen dieses Wasserstoffs mit einer Carbongruppe im Prinzip alle Arten von Carbometalation beobachten können sollte. Wahrscheinlich ist der Gesamtbereich begrenzter, weil man diese kleine Runde Wasserstofforbital mit einer größeren, mehr Raum fordernden und räumlich stärker orientierten Carbongruppe ersetzt. Doch auf diese Weise kamen wir zu unserer Carbo-Zirconium-Katalyse, Katalyse war erforderlich, eine Zirconium-katalysierte Carboelimination. Erst dann erkannte ich: Nun ja, dies war bereits entdeckt worden, vor langer Zeit von Karl Ziegler, in der Form der Polymerisation. Unsere Form ist einen einzelnen Schritt besser geeignet für weitere, wissen Sie, organische Synthese. Und wir befinden uns noch immer im Prozess. Wenn Sie darüber nachdenken, können Sie an viele andere Arten verwandter Reaktionen denken, die durch dieses einfache molekulare Orbitalschema dargestellt werden können. So wollen wir Forschung betreiben und einige Heureka-Momente erleben. Und dann habe ich erst kürzlich erkannt, und einige Fakten sind bereits bekannt: Wir können darüber hinausgehen und das gesamte Periodensystem der Elemente abdecken. Heterometalation, wie Bromo- oder Haloboration, Halometalation: Dies klingt sicherlich contra-thermodynamisch. Bei den meisten Metallen, mehr elektropositiven Metallen, mag dies so sein. Doch bei Bor, einem er stark elektronegativen Metalle, können diese Prozesse thermodynamisch bergab verlaufen; und Sie können kinetisch sehr einfach sein, solange man diese Art Schema übernehmen kann. Haloboration wurde erstmals in Großbritannien in den 1960er Jahren von Mike Lappert entdeckt. Etwa 20 Jahre später wurde sie von Akira Suzuki eingesetzt, doch es gab einige Schwierigkeiten, grundsätzliche Schwierigkeiten, die wir vor Kurzem lösen konnten. Nun, es ist eine synthetisch sehr nützliche Reaktion. Hier unter dieser Beschreibung können Sie also eine große Bandbreite von Möglichkeiten haben. Und der andere Teil, der zweite Teil der de-Block-Übergangsmetalle, ihre magische Kraft, ist natürlich ihre Fähigkeit, die Oxidations-Reduktions-Skala auf und ab zu gehen. Nun, natürlich können viele andere Atome dies tun, Schwefelverbindungen können leicht oxidiert werden, Schwefelverbindungen können leicht reduziert werden, allerdings nicht im selben Behälter oder im selben Gefäß. Bei den d-Block-Übergangsmetallen können Sie beobachten... Wissen Sie, einige Atome, einige d-Block-Übergangsmetallatome werden oxidiert, während einige andere reduziert werden. Sie gehen in unsern Händen immer im Kreis herum, Millionen Male oder mehr, manchmal Milliarden Male. Mit anderen Worten: Sie können hin und her gehen aufgrund dieser Fähigkeit, unter denselben Reaktionsbedingungen oxidiert und reduziert zu werden. Eine wunderbare Eigenschaft. Wir sollten versuchen, Nutzen daraus zu ziehen. Und das ist ein zweites Geheimnis oder eine magische Kraft der d-Block-Übergangsmetalle. Mit den beiden zusammen, denke ich, können wir, wenn ich übertreiben darf, können wir im 21. Jahrhundert die Welt retten. Das glaube ich. Wie dem auch sei, in begrenzter Zeit habe ich Ihnen erzählt, dass 2 besser ist als 1. Und wenn zwei Metalle, Metalle mit Elektronenmangel, gemischt werden, dann ist das eine, was sie zu tun lieben, dass sie sich eng nebeneinanderlegen, dass sie versuchen, leere Orbitale wie dieses zu eliminieren. Aber Elektronen zählen, der Elektronenmangel. Und diese Prozesse können oft dynamisch sein und in einem dynamischen Prozess erzeugen sie Verbindungen wie diese. Dieser Teil ist natürlich sehr reaktiv, genau wie dieser, doch verglichen mit diesem, ist dieser super-hyper-duper sauer, weil sich dieser direkt neben einem Dipol befindet, der positiv oder negativ polarisierend ist. Mit anderen Worten: positive Ladung in der Nähe dieses Mittelpunkts mit Elektronenmangel, und negativ geladen davon entfernt. Diese Interaktion macht dieses Zentrum äußerst säurereich. Und dies ist das Geheimnis der (unverständlich bei 29.31) Chemie, der Polymerisations-Chemie. Warum sollten wir daraus nicht in einem generellen Sinn Vorteile ziehen? Das ist die Botschaft. Und ich werde dies durchgehen müssen, und das Nettoergebnis unserer Kupplung, unserer Entdeckung der Kupplungsreaktionen und ihrer Entwicklung. Natürlich sind wir nur eine Gruppe von zehn oder zwölf an dieser Front der Forschung. Wir können jetzt behaupten, dass wir die Mehrzahl aller organischen Verbindungen synthetisieren können. Wir können das, wissen Sie, mit einer YES(ES)-Methode. Zum Beispiel: Ich werde meinen Vortrag abschließen, wenn ich noch ein paar Minuten haben darf. Traditionellerweise wurden Alkene, man hat Alkene selektiv synthetisiert, durch eine sogenannte Carbonylolefination. Dies enthält meiner Meinung nach ein grundsätzliches Problem, weil dies ein Additions-Eliminations-Prozess ist. Die Addition ist problematisch, noch problematischer ist jedoch die Elimination. Natürlich, wenn sie gut funktionieren, funktionieren Sie gut, das versteht sich von selbst. Doch hier ist es gezielte Addition zu Alkynen. Wir fangen auf folgende Weise an. Bei diesem Prozess besteht ein kleines Problem, ein chemisches Problem, doch keines, das damit zu tun hat, dass es im Wesentlichen 100%ig eine Addition ist. Nachdem wir diese Gruppe auf diese Weise eingerichtet haben, die R1M-Gruppe, kommt zur Rettung eine palladiumkatalysierte Kupplung ins Spiel, und dann erhält es die Integrität dieser ganzen Gruppe und erzeugt die Alkene ihrer Wahl. Lassen Sie mich meinen Vortrag mit der Hälfte, fast der Hälfte der Synthese von Amphotericin B beenden, das ganze wurde erst einmal synthetisiert, von K.C. Nicolaou. Viele, viele Zwischenschritte, viel mehr als 50, 60 Schritte. Wir haben herausgefunden, dass wir eine Synthese, wie ich Ihnen gesagt habe, in maximal 30 Schritten durchführen können sollten, und dann wählten wir dies als unser erstes Zwischenziel. Wenn wir diesen Teil in weniger als 15 oder zehn Schritten synthetisieren könnten, dann wären wir im Rennen, und es gelang uns. Unter Verwendung unserer Negishi-Kupplung zur Bildung dieses Teils, wie Sie hier sehen: 40 % Ertrag insgesamt in fünf Schritten. Und dann stellen Sie fest, dass sich in unserer Synthese nirgendwo eine Zahl von weniger als, größer als 98 % befindet. Glauben Sie mir. Ich zeige also diese hier. Und ein weiterer Durchbruch bestand darin, dass wir in der Lage waren, in vier Schritten von hier nach hier zu gelangen. Der zweitkürzeste ist der von Erick Carreira, 13 oder 14 Schritte. Doch man muss dies in vier Schritten tun, mit einem Gesamtbetrag von 57 %, und auch hier sehen Sie nirgendwo eine Zahl von weniger, größer als 98 %. So, nun haben wir dies erhalten, und ab hier verwenden wir die Heck-Reaktion. Die Heck-Reaktion ist insgesamt weniger grün, weniger grün, obwohl wir CH verwenden. Wir verlieren die Kraft des Metalls. Doch in diesem Fall war es die beste Option, weil wir dieses endständige Alken erhalten, so dass wir dieses unter Geoffreys Bedingungen erhalten und dann dieses bekommen. Ich habe Ihnen erzählt, wie wir dieses erhalten. Und dann stellen wir eine Verbindung her ... nicht mit palladiumkatalysierter Kupplung, sondern mit HWE. Aufgrund dieser Konjugation hier und hier können wir dies aufrechterhalten, können wir dies auf hochselektive Weise tun. Die Kombination von Negishi, Heck und HWE hat sich also als die bislang beste herausgestellt. Insgesamt erreichten wir dies in acht Schritten. Wir sind daher voller Hoffnung, dass wir den Rest und das gesamte Ding in weniger als 30 Schritten machen können. Das ist die Art der Synthese im 21. Jahrhundert. Wissen Sie, sie gibt uns Hoffnung, praktisch sein zu können. Ich habe noch viele Dinge, die ich Ihnen zeigen könnte, doch angesichts der Zeit denke ich, sollte ich hier aufhören, und ich möchte nur.... Also hier zeige ich, dass wir jede Art, jedes beliebige von acht möglichen Trienen herstellen können. Diese beiden wurden noch nie selektiv synthetisiert mit mehr als einem Ertrag von einem einstelligen Prozentsatz. Doch schauen Sie hier: die Erträge und dann die Selektivität. Man kann das tun. Und selbst dies ist eine meiner Lieblingssynthesen, sogenannte 1,5 Diene, die für alle möglichen Terpenoide und andere Substanzen stehen. Sie können alle Aspekte kontrollieren, wenn Sie die Allyl-Allyl- oder die Allyl-Propoxyl-Kupplung vermeiden, und dann zu Homoallyl und Alkenyl übergehen. Selbst Moleküle wie CoQ10 können also in weniger als zehn Schritten synthetisiert werden, beginnend mit diesen Verbindungen. Ok, das ist also der zweite Teil. Im Bereich der palladiumkatalysierten Kupplung arbeiteten also mehr als 100 Leute, doch das erste Quintett, die Doktoren Baba, Tony King, Okukado, Kobayashi und Van Horn, hatten etwa jeden Monat Heureka-Momente. Ich danke ihnen. Haben auch Sie vielen Dank für Ihre freundliche Aufmerksamkeit.

Ei-ichi Negishi on the Meaning of Metals in the Field of Green Synthetic Methods
(00:03:22 - 00:08:12)


Conclusion
Carbon is the chemically most versatile element. It is essential to all life, both as an energy source and a building stock. It is part of food, fuels and plastics and millions of bioactive compounds. Carbon-related subjects engage researchers from all scientific fields, including the Nobel Prize disciplines Physics, Chemistry and Physiology or Medicine. Indeed, taking an extreme stance, one could argue that there is not a single Nobel Prize unrelated to carbon. In view of this great diversity, it is clearly impossible to discuss all relevant aspects of “carbon” in a single article. In this topic cluster, we have rather pointed out some of the most prominent properties and roles of carbon, relevant to modern society and life on earth. This includes energy metabolism, climate change, radiocarbon dating, the properties of elementary carbon and a brief glimpse on the syntheses of carbon compounds.

Footnotes:
[1] D. R. Dreyer et al., Angewandte Chemie International Edition 2010, volume 49, page 9336.
[2] A. K. Geim, Science, 2009, 324, 1530-1534.
[3] M. J. Allen, V. C. Tung and R. B. Kaner, Chem. Rev., 2009, 110, 132-145.

Additional Lectures by the Nobel Laureates associated with Carbon:

Introductory Mini Lecture on Carbon.
Otto Hahn 1955:Recent Methods for Measuring Geologic and Biologic Age (German presentation).
Karl Ziegler 1964: From Triphenylmethyl to Polyethylene - Less-Well-Known Facts Leading to the Invention Made in Muelheim (German presentation).
Albert von Szent-Györgyi 1969: Molecules, Electrons and Biology (German presentation).
Willard Libby 1971: Radiocarbon Dating and Calibration with Tree Rings and Lake Sediments.
Geoffrey Wilkinson 1974: Transition Metal to Carbon Bonds - Stable and Labile.
Ernst Fischer 1974. Transition Metal-Carbonyl-Carbine-Complexes (German presentation).
Herbert Brown 1980: Organoboranes - The Modern Miracle.
Hans Krebs 1981: The Evolution of the Citric Acid Cycle and Other Metabolic Pathways (German presentation).
Harold Kroto 1998: C60-Buckminsterfullerene: Not Just a Pretty Molecule.
Robert Curl 1998: The Dawn of the Fullerenes: A Research Adventure.
Herbert Brown 1998: A General Asymmetric Synthesis Based on Chiral Organoborane.
Ryoji Noyori 2009: Chemistry: The Key to Our Future.
Richard Schrock 2009: Recent Advances in Olefin Metathesis Catalyzed by Molybdenum and Tungsten Alkylidene Complexes.
Ryoji Noyori 2010: Molecular Catalysis for Green Chemistry.
Ei-ichi Negishi 2011: Magical Power of d-Block Transition Metals: Past, Present and Future.


Cite


Specify width: px

Share

Cite


Specify width: px

Share