Johann Deisenhofer (2002) - Back to Proteins

When Johann Deisenhofer attended the Lindau Nobel Laureate Meeting for the seventh time in 2002 („It is clear that I am a fan of the Lindau Meetings“, he opens his talk) he took the „overwhelming success“ of the genome project „contrary to some peoples’ expectations and skepticism“ as the starting point of his lecture

Alright now, thank you very much for the introduction. I am here for the 7th time, so it is clear that I’m a fan of the Lindau meetings. And it is a great pleasure to talk to you about this topic and it is related to what Jerome Karle just told you, in a way that should become obvious. Why back to Proteins? In recent years there has been a change in the focus of biological science. And one can say without doubt that the 1990’s were the age of recombinant DNA, where the techniques to handle DNA had become mature. And actually big science entered biology. By the end of the 1990’s we could see in the top journals articles that had 100’s of authors. And that reminds me of course of high energy physics where this happened a long time ago. And it was an interesting experience to see that coming because biologists traditionally used to work individually in small groups. And cook their problems for a long time by themselves and then come out with some sensational discovery. This is really a new thing for biology. And needless to say we all know the determination of genome sequences, among them our own, was an overwhelming success contrary to some people’s expectations and scepticism. And so now the question is what do we do next? And this is by the way a contribution to introducing the round table discussion later this morning. One question is: can we repeat this approach, the big science approach with proteins? Obviously proteins are an essential ingredient of cells. And genes alone can do nothing. Life comes with proteins. So we can look at protein-protein interactions. We can look at how the expression of proteins from the genomic information changes over time in development, with disease and so on. One idea that came up about 4 or 5 years ago is: can you apply this approach, the approach of large scale focused research on protein structures? And the fact that people were even thinking about this shows you how far we have come from the days of Jerome Karle where people doubted that he could ever solve a crystal structure from a diffraction pattern. Now we are thinking of doing this to thousands of proteins. And the complication here is, and the difference here is that we don’t, with protein crystals we don’t have usually 150 data points per atom. We more like have 2 or so. And that creates some difficulty with that. So the name that evolved very quickly for this, for the concerted approach to determine many, the structures of as many proteins as possible was structural genomics. And here I just mention a few points. It was certainly stimulated by the success of genome sequencing projects. It means that instead of working on one protein at a time, trying to figure out its structure, many proteins are in the works at the same time. So massively parallel determination or handling of proteins and determination of structure. And this involves a large degree of automation because you cannot have, at least not in the type of laboratory I work in, you cannot have 100’s of people sitting at desks and performing identical operations. This is what robots can and should do. And the objectives are, among others, create a dense covering of fold space that will allow structure prediction and homology models for most proteins. What I mean by that is, it has been the consensus among structural biologists that there are not an infinite number of different ways a protein chain, let’s say of 100 or 200 amino acids, can fold. There is certainly a limited number. And that notion came from observations like how many new types of folding are discovered per year. If you look at the deposits in the protein data bank where all the structural information is collected, the percentage of new structures is decreasing steadily. And that means it has to approach zero over time. It is not quite clear at what number of different folds it will reach zero but the guesses are between 1 and 5,000 or so. And we are pretty close to 1,000 already. So the other objective of course is more practical. Many pathogenic microorganisms have been selected as targets for structural genomics. And this undoubtedly will open new opportunities for drug design where we can selectively or hope to selectively inhibit proteins that are essential for the pathogens. But that are not essential for the host. And in that way approach a solution to the problem of infectious diseases that are on the rise now again in the world. And there are many more objectives. I don’t want to dwell on these. Possible as I already said, possible, the possibility of thinking about such projects came up because of the advent of many new powerful methods for determination of protein structures. I will not mention at all NMR or only in passing. But in the field of protein crystallography alone where you have to crystallise your protein, do the x-ray diffraction experiment, there have been so many steps that by themselves look small but in combination created nothing less than a revolution in the field. And so this makes it possible and it is to be expected that these projects will further improve the methods because people now are forced to think about each step in the making and purification and handling of proteins to make that as efficient as possible. And this would undoubtedly lead to progress. And this is obvious. All protein structures that are easily accessible with these methods will be determined. We don’t know yet how many this will be. And currently there are 21 structure genomic centres world wide. At least that is the number that’s given by the protein data bank. North America has the most with 15 and 4 in Europe and 2 in Asia. All these started working very recently. So we don’t have real good data yet on how the progress is in each of them. I personally became convinced that this approach is possible when Mischa Machius determined the structure, which is a part of a DNA repair system in this thermophilic bacterium, protein of 650 amino acids, when Mischa determined this structure in much less than 6 weeks and after 6 weeks came up with the first draft of a manuscript. So that showed me that there is really no reason to assume that protein structures need to take years as they did when I was a graduate student and post doc and so on. So what can we expect from this? On the average the determination of protein structure would take only days or weeks. And that is really a revolutionary statement because many of us who have experienced the beginning of this field would have been really sceptical about the possibility of such a speed up maybe only 10 years ago. And the availability of many structures in many different types of folds of proteins will make reliable structure prediction quite a real possibility. And this in turn can aid the prediction of function. As of now a substantial part of the genes that were tentatively identified in the human genomes have no function associated with it. Essentially it’s a sequence with no idea what the associate protein is going to do in our bodies. And so this should help in predicting function. However I want to spend a few minutes putting in a few words of caution. And one of them is of course that many proteins will not cooperate. And the success rate of the structural genomics programs is still unknown. We don’t know how many proteins that are chosen as targets will actually be accessible for the automated approach to structure determination. And even if you get structure, it may not reveal the function of the protein. I will show an example. And sometimes evolution may have gone unexpected ways so that one, lets say a version of a protein from a bacterium does not allow you to make conclusions on the version of the same protein occurring in let’s say a eukaryotic cell. And modelling is certainly not yet precise enough to explain chemistry. So even if we can do homology modelling of a protein, so far we cannot come close enough to the real structure to explain the chemistry let’s say of an enzymatic reaction. Now I want to present examples for each of these. The first one is the cytochrome BC1 complex, that was mentioned in Hartmut Michel’s talk already. And he explained the function of this. This here is, represents the structure of the BC1 complex from cows. And this is a complex of 11 subunits that are put together in this very complicated way. This is a dimer so you have 2 copies of each of the proteins. And this protein sits in a membrane, so membrane proteins are not yet really part of the structural genomics project. Some of the centres express intent to work on membrane proteins but there is a lot of work to do to make this kind of protein accessible for automatic methods. And consequently it took 8 years from crystal to manuscript as compared to 6 weeks for the previous structure. And this is not because the post doc who worked on this did not understand his business. It’s really that proteins of this kind are very difficult. So the next note of caution is the synapsin C domain. Now synapsins are very abundant proteins in our nerves. About 1% of the neuro-proteins are synapsins. And they have been known for a long time but nobody knows their exact function yet. What do they do in our bodies? And if they are, if the genes for synapsin are knocked out as we say, they are silenced, they don’t express proteins, mice develop normally. The only difference to normal mice is that mice lacking synapsins have more frequently seizures, epilepsy type phenomena. But it is along way from a molecule to epilepsy. And so we have no clue about the real function of synapsin. Now but when we got the structure of this part of synapsin, this is the C domain. Synapsin, the full length proteins have about 100 amino acids. Previous to this point here, where the N terminals of our structures start and about 200 amino acids more following the C terminal residue in the structure. But this part is the most conserved part if you compare synapsins in different species. And when we saw the structure as we usually do or always do, we send it to a server at the EMBL using a program that was developed by Chris Sander and co-workers which identifies proteins of similar structures that are already known. And there was a big hit in glutathione synthetase and related proteins. This is a protein which makes a non-standard peptide bond using ATP and phosphorylation of one of the substrates and then followed by a peptide bond formation. So there is ATP bound, there are two other substrates bound in this region. And readily we could show that this protein also binds ATP but we have to this day no clue whether it is an enzyme at all, whether its function in the body is enzymatic. Nor if so do we have a clue what its substrates could be. So structure alone doesn’t do it. This was the work of Lothar Esser. The next example is human HMG-CoA reductase. And this HMG-CoA reductase is an example of the unpredictable ways evolution may take from time to time. Here is an overview of the function of this enzyme. This here is one of the substrates, hydroxymethylglutaryl coenzyme A. And the enzyme consumes two molecules of NADPH that give a total of four electrons to split this bond and reduce this carbon here. So the starting point is this HMG-CoA and the outcome is mevalonate which in turn is the necessary compound to form all kinds of essential compounds like hem, ubiquinone and then more steps later cholesterol. That is why this enzyme is very interesting because it performs the committed step in the body’s own production of cholesterol. Which is about 2/3 of the cholesterol that we have is formed in this pathway. And that is more than enough to explain our interest. So we knew that there are two classes of HMG-CoA reductases: one in mammals, yeast, plants and archaeabacteria, the other one in eubacteria. And here you see the structural organisation. In mammals for example there is a membrane bound part and a catalytic part. And this catalytic part is common to all these types of organisms. And the catalytic part in bacteria is about 20% identical in sequence to the catalytic part in these organisms whereas the identity across these organisms is more like 40%. So there are clearly two classes. And this gave us the courage to work on this structure assuming that perhaps there were important differences between these two classes of proteins. And the concern was that of course when we started, this structure was already known from the group of Cynthia Stauffacher which is a bacterial pseudomonas HMG-CoA reductase. And this here is the human, the structure of the human enzyme contrary to the bacterial enzyme, it’s a tetramer, four different subunits here shown in different colours. And it has four active sites which are at the interface of two monomers. So the purple monomer and the yellow monomer form this active site and again on the other side of the dimer. So each dimer has two active sites. And in the human enzyme two dimers are related by a 2 fold symmetry axis. Ok so, sure, the quaternary structure is different but looking at the dimer alone, the shape of these two dimers, the pseudomonas and the human is very similar, each one has two active sites. There are some differences in the sense that structure parts in the dimer seem to have been switched between the two monomers. So for example this red part of the molecule here should actually be green if the organisation of the dimer were the same as in the human enzyme. So if we superimpose the monomers, the alpha carbon trace, we see that most of the molecule is superimposing very, very well. And the peripheral parts, the N and C terminal parts are different. But does that, is that really important? We certainly would expect that the active site would be the most conserved part between the two structures. And we were extremely surprised to see this result. Here the active site of the pseudomonas enzyme and that of the human enzyme. Remember, they are formed at the interface of two monomers, the yellow and the blue monomer. And clearly there is a lot more blue here than is here. That means essential parts of the active site of the enzyme are formed here by the blue subunit and here by the yellow subunit which seems to invade the active site. Still the substrate HMG-CoA binds roughly in the same way, the NAD or NADP binds in a different orientation. But I think the most surprising part is that there is a real dramatic difference between the active site that would make it impossible to predict any, let’s say mutants one would make to further test the enzymatic activity of the human enzyme by just looking at the bacteria enzyme. So that kind of thing may, also has to be kept in mind when we use the results that come out of the structural genomics project. And the last case which may be a difficult case for modelling: the binding of inhibitors to HMH-CoA reductase. And these inhibitors are very, extremely popular and profitable drugs that are used by people who, mainly in the civilised world, who suffer from too much food as compared to the rest of the world who has the opposite problem. And these are inhibitors of HMG-CoA reductase which as I told you is the key enzyme for the body’s own production of cholesterol. And so if we shut down or slow down that enzyme, we diminish our own cholesterol production. Therefore the cells are likely to take up more from the blood and that is the desired effect. So we looked at how these things bind to the enzyme, here’s a gallery of six structures that was done by Eva Istvan as also the structure that I showed previously with the natural substrate. And you see that these inhibitors are all binding with an HMG-like moiety bound in the active site and a more or less hydrophobic moiety occupying this shallow depression at the surface. So all these different compounds, basically no matter what the size and shape of these ring systems is, bind in the same way. But a closer look at the binding of the substrate and NADP in this case and the inhibitor shows that in this structure part of the enzyme is missing, namely this helix and a turn of this helix here. That means the inhibitor binding actually does more than just occupying the active site with this part. But also it prevents the formation of the complete active site by preventing or disturbing the folding of this helix here. And I think this type of binding with today’s method is very, very hard to predict. Most of us would have said the inhibitor will bind, sure this here is too similar to the natural substrate for any other hypothesis to be made, that it binds here. But most of us would have thought that this part here will bind in a place where the NADP is. But the reality is different and that shows that modelling is still in need of a lot of improvement. So coming to the end, it is obvious that we still have a lot to learn. I did not mention these four examples to discourage structural genomics. It just shows that there are problems that need to be solved. And these problems are not simple at all to solve. But I am confident that they can be solved over time. It is also clear that we will be inundated with a flood of data. All these 21 groups alone produce data at a mind boggling rate every day. And they have to learn how to, and the rest of us have to learn how to handle this data and how to retrieve them or prepare them in a way that they are retrievable by people who are interested. And clearly the most pressing need is the development of more computational tools, data bases, modelling methods and simulation methods. And the ultimate goal of course in my view is the simulation of whole cells and maybe even organisms. And this is probably many decades away but I think biology as a discipline can only be called successful after we have achieved this goal. Thank you very much. Applause.

Gut, vielen Dank Ihre einführenden Worte. Ich bin zum siebten Mal hier, also eindeutig ein Fan der Lindau-Treffen. Es ist mir eine große Freude, hier über dieses Thema sprechen zu können. Und wie bald deutlich werden dürfte, hat es auch etwas mit dem zu tun, was Ihnen Jerome Karle gerade erzählt hat. Warum zurück zu den Proteinen? In den letzten Jahren gab es eine Schwerpunktverlagerung bei den biologischen Wissenschaften. Und man kann zweifelsohne behaupten, dass die 1990er Jahre zum Zeitalter der rekombinanten DNA-Technologie wurden, in dem die Techniken im Umgang mit DNA eine gewisse Reife erreicht haben. Und in der Tat hielt die Großforschung Einzug in die Biologie. Bis zum Ende der 1990er Jahre konnten wir in den führenden Fachzeitschriften Artikel mit Hunderten von Autoren finden. Und das erinnert mich natürlich an die Hochenergiephysik, wo dies vor langer Zeit ebenfalls der Fall war. Und es war eine interessante Erfahrung, dieses Phänomen entstehen zu sehen, weil Biologen traditionell die Gewohnheit hatten, individuell in kleinen Gruppen zu arbeiten und ihre Probleme lange Zeit im eigenen Saft zu garen, um dann mit sensationellen Entdeckungen an die Öffentlichkeit zu gehen. Das ist wirklich eine neue Sache für die Biologie. Und natürlich wissen wir alle, dass die Entschlüsselung der Genomsequenzen, auch unsere eigene, ein überragender Erfolg war, der den Erwartungen und der Skepsis einiger Menschen entgegenstand. Und deshalb stellt sich jetzt die Frage, was wir als nächstes angehen? Und dies ist übrigens ein Beitrag zur Vorbereitung des Rundtischgespräches, das später am heutigen Vormittag stattfinden soll. Eine Frage lautet: Können wir diesen Ansatz, den Großforschungsansatz, mit Proteinen wiederholen? Offensichtlich sind Proteine ein wesentlicher Bestandteil von Zellen. Und Gene allein können nichts bewirken. Leben entsteht mit Proteinen. Deshalb können wir Protein-Protein-Interaktionen untersuchen. Wir können untersuchen, wie sich die Expression von Proteinen aus den genomischen Informationen im Laufe der Entwicklung, bei Krankheiten usw. mit der Zeit verändert. Eine Idee, die vor circa vier oder fünf Jahren entstand, ist die Frage: Kann man diesen Ansatz, den Ansatz der groß angelegten Forschung, auf Proteinstrukturen übertragen? Und die Tatsache, dass überhaupt darüber nachgedacht wurde, zeigt, wie weit wir seit den Tagen von Jerome Karle gekommen sind, in denen daran gezweifelt wurde, dass er jemals in der Lage sein würde, eine Kristallstruktur mit Hilfe eines Beugungsmusters aufzuklären. Und heute denken wir darüber nach, dies an Tausenden von Proteinen durchzuführen. Das Komplizierte daran ist, dass wir im Unterschied dazu bei den Proteinkristallen üblicherweise nicht 150 Datenpunkte pro Atom haben, sondern eher zwei oder so. Und das sorgt für Schwierigkeiten. Die Disziplin, die sich deshalb sehr schnell für diesen konzertierten Ansatz zur Ermittlung der Strukturen möglichst vieler Proteine entwickelte, war die strukturelle Genomik. Und ich erwähne hier nur einige Punkte. Dieser Ansatz wurde sicherlich durch den Erfolg der Genomsequenzierungsprojekte beflügelt. Bei diesem Ansatz wird die Struktur des Proteins statt in einem Protein gleichzeitig in vielen Proteinen erforscht. So kommt es zu einer enorm umfangreichen, parallelen Entschlüsselung oder Handhabung von Proteinen und der Aufklärung ihrer Struktur. Und das bedeutet ein hohes Maß an Automatisierung, weil man – zumindest in der Art von Labor, in der ich tätig bin – nicht Hunderte von Menschen an Laborarbeitsplätzen damit beschäftigen kann, identische Abläufe durchzuführen. Solche Abläufe können und sollten von Robotern durchgeführt werden. Und zu den Zielen zählt unter anderem, eine dichte Abdeckung von gefaltetem Raum, der eine Strukturvorhersage und Homologie-Modelle für die meisten Proteine ermöglicht. Damit möchte ich andeuten, dass unter Strukturbiologen Einigkeit darüber besteht, dass keine unendliche Anzahl von unterschiedlichen Möglichkeiten besteht, in denen sich eine Proteinkette, beispielsweise mit 100 oder 200 Aminosäuren, falten kann. Die Anzahl der Möglichkeiten ist mit Sicherheit begrenzt. Und diese Ansicht basiert auf Beobachtungen wie beispielsweise der, wie viele neue Faltungsarten pro Jahr entdeckt werden. Wenn man sich die Bestände in der Proteindatenbank anschaut, in der alle strukturellen Informationen gesammelt werden, nimmt der Prozentsatz neuer Strukturen kontinuierlich ab. Und das bedeutet, dass sich der Wert im Laufe der Zeit dem Nullpunkt nähern wird. Es ist nicht ganz klar, bei welcher Anzahl von unterschiedlichen Faltungen der Nullpunkt erreicht werden wird. Aber die Schätzungen liegen zwischen etwa 1.000 und 5.000. Und wir sind bereits kurz vor 1.000. Deshalb ist das andere Ziel natürlich zweckmäßiger. Viele pathogene Mikroorganismen wurden als Zielstrukturen der strukturellen Genomik ausgewählt. Und dies wird zweifelsohne neue Möglichkeiten für die Arzneimittelentwicklung eröffnen, bei der wir selektiv Proteine inhibieren oder hoffentlich inhibieren können, die essentiell für die Pathogene, aber nicht für den Wirt sind. Und in dieser Art und Weise können wir uns einer Lösung des Problems von Infektionskrankheiten nähern, die heute weltweit wieder im Zunehmen begriffen sind. Und es gibt viele weitere Ziele, auch die ich hier nicht weiter eingehen möchte. Wie ich bereits sagte, entstand die Möglichkeit, überhaupt über solche Projekte nachzudenken, durch das Aufkommen vieler neuer leistungsstarker Methoden der Aufklärung von Proteinstrukturen. Ich will gar nicht groß auf die NMR-Spektroskopie eingehen oder sie nur kurz streifen. Aber allein auf dem Gebiet der Proteinkristallografie, bei der Proteine mit Hilfe von Röntgenbeugungsexperimenten kristallisiert werden, wurden viele Schritte realisiert, die für sich genommen gering erscheinen, aber in Kombination nicht weniger als eine Revolution auf diesem Gebiet ausgelöst haben. Und deshalb entstehen hier Möglichkeiten. Es ist zu erwarten, dass diese Projekte in Zukunft zu weiteren Methodenverbesserungen führen werden, weil man heute gezwungen ist, jeden Schritt in der Herstellung, Reinigung und Behandlung von Proteinen so effizient wie möglich zu gestalten. Und das wird zweifelsohne zu weiteren Fortschritten führen. Und es liegt auf der Hand, dass sich alle Proteinstrukturen, die über diese Methoden leicht zugänglich sind, aufklären lassen werden. Wir wissen natürlich heute noch nicht, wie viele das sein werden. Es gibt derzeit 21 Strukturgenomik-Zentren weltweit. Zumindest ist das die Zahl, die von der Proteindatenbank genannt wird. Die meisten dieser Zentren befinden sich in Nordamerika, nämlich 15, vier in Europa und zwei in Asien. Alle Zentren haben ihre Arbeiten vor kurzer Zeit aufgenommen, sodass wir derzeit noch keine wirklich aussagekräftigen Daten darüber haben, welche Fortschritte in den einzelnen Zentren gemacht werden. Ich persönlich bin von der Realisierbarkeit dieses Ansatzes überzeugt, seit Mischa Machius die Struktur in diesem thermophilen Bakterium, diesem Protein aus 650 Aminosäuren, identifizierte, die Teil eines DNA-Reparatursystems ist. Mischa klärte diese Struktur in weniger als sechs Wochen auf und veröffentlichte nach sechs Wochen den ersten Entwurf eines Manuskripts. Das zeigte mir, dass wirklich kein Grund zu der Annahme besteht, dass Proteinstrukturen Jahre in Anspruch nehmen müssen, wie dies zu meiner Doktoranden- und Postdoc-Zeit noch der Fall war. Was können wir von diesen Entwicklungen erwarten? Durchschnittlich dürfte die Entschlüsselung einer Proteinstruktur nur Tage oder Wochen benötigen. Und das ist tatsächlich eine revolutionäre Aussage, weil viele von uns, die die Anfänge auf diesem Gebiet miterlebt haben, die Möglichkeit einer solchen Beschleunigung noch vor vielleicht zehn Jahren wirklich sehr skeptisch beurteilt hätten. Die Verfügbarkeit vieler Strukturen in vielen verschiedenen Protein-Faltungsarten macht die zuverlässige Strukturvorhersage zu einer realen Möglichkeit. Und dies kann wiederum die Vorhersage der Funktion unterstützen. Bis heute konnte einem erheblichen Teil der Gene, die in den Humangenomen vorläufig identifiziert wurden, keine Funktion zugeordnet werden. Im Wesentlichen ist es eine Sequenz, ohne dass man eine Vorstellung davon hat, was das assoziierte Protein in unseren Körpern anrichtet. Und deshalb dürfte dieser Ansatz bei der Vorhersage der Funktion hilfreich sein. Allerdings möchte ich an dieser Stelle auch einige Worte der Warnung formulieren. Und ein Aspekt ist sicherlich der, dass viele Proteine nicht kooperieren werden. Die Erfolgsquote der Strukturgenomikprogramme ist noch unbekannt. Wir wissen nicht, wie viele der als Targets ausgewählten Proteine tatsächlich über den automatisierten Ansatz der Strukturaufklärung zugänglich sind. Und selbst wenn man die Struktur aufklärt, kann möglicherweise die Funktion des Proteins nicht entschlüsselt werden. Ich werde das anhand eines Beispiels erläutern. Und zuweilen geht auch die Evolution unerwartete Wege, sodass uns beispielsweise die Version eines Proteins von einem Bakterium keine Schlussfolgerungen auf die Version desselben Proteins in einer eukaryotischen Zelle ermöglicht. Modellierungen sind sicherlich nicht präzise genug, um die Chemie zu erklären. Selbst, wenn wir also Homologiemodelle eines Proteins erstellen können, kommen wir bis heute nicht nah genug an die tatsächliche Struktur heran, um die Chemie, beispielsweise einer enzymatischen Reaktion, zu erklären. Ich möchte Ihnen jetzt Beispiele für diese einzelnen Aspekte aufzeigen. Das erste betrifft den Cytochrom-BC1-Komplex, der heute bereits im Vortrag von Hartmut Michel erwähnt wurde. Und er erläuterte dessen Funktion. Das hier repräsentiert die Struktur des BC1-Komplexes von Kühen. Und dies hier ist ein Komplex aus elf Untereinheiten, die auf diese sehr komplizierte Art und Weise zusammengesetzt sind. Das hier ist ein Dimer, sodass man zwei Kopien von jedem Protein hat. Und dieses Protein hier befindet sich in einer Membran. Membranproteine sind bisher nicht wirklich Bestandteil des Strukturgenomikprojekts. Einige der Zentren haben ausdrücklich ihre Absicht bekundet, über Membranproteinen zu arbeiten. Aber es gibt noch eine Menge zu tun, um diese Art von Proteinen für automatische Methoden zugänglich zu machen. Und konsequenterweise brauchte es acht Jahre vom Kristall bis zum Manuskript im Vergleich zu sechs Wochen für die frühere Struktur. Und das hat nichts damit zu tun, dass der Postdoc, der darüber arbeitete, sein "Geschäft" nicht verstanden hat, sondern Proteine dieser Art tatsächlich sehr komplex sind. Deshalb gilt die nächste Vorsichtswarnung der Synapsin-C-Domäne. Synapsine sind in unseren Nerven reichlich vorhandene Proteine. Rund 1% der Neuroproteine sind Synapsine. Und sie sind bereits seit langer Zeit bekannt. Aber keiner kennt bis heute ihre genaue Funktion. Was machen sie in unserem Körper? Und wenn die Gene für Synapsin deaktiviert oder – wie wir sagen – ruhig gestellt werden, sie keine Proteine exprimieren, entwickeln sich Mäuse normal. Der einzige Unterschied zu normalen Mäusen ist der, dass Mäuse mit einem Mangel an Synapsin häufiger Krampfanfälle, epilepsieartige Phänomene, aufweisen. Aber es ist ein weiter Weg von einem Molekül zur Epilepsie. Und deshalb haben wir keine Ahnung, was die tatsächliche Funktion von Synapsin sind. Betrachten wir aber jetzt die Struktur dieses Teils des Synapsins. Das hier ist das C-Domäne-Synapsin. Die Volllängenproteine haben rund 100 Aminosäuren vor diesem Punkt hier, wo die N-terminalen Teile unserer Strukturen beginnen, und rund 200 Aminosäuren mehr nach dem C-terminalen Rest in der Struktur. Wenn man Synapsine verschiedener Spezies miteinander vergleicht, ist aber dieser Teil der am stärksten konservierte Teil. Und als wir diese Struktur beobachteten – wir schickten sie, wie üblicherweise bzw. immer, an einen Server am EMBL zur Analyse mit Hilfe eines Programms, das von Chris Sander und Kollegen entwickelt wurde und bereits bekannte Proteine ähnlicher Strukturen identifiziert – war das ein großer Wurf in Bezug auf Glutathion-Synthetase und verwandte Proteine. Dies ist ein Protein, das mit Hilfe von ATP und Phosphorylierung eines der Substrate eine Nicht-Standard-Peptidbindung herstellt, der sich dann die Bildung einer Peptidbindung anschließt. Und dort besteht also eine ATP-Bindung, dort sind zwei andere Substrate in dieser Region gebunden. Und wir konnten leicht nachweisen, dass dieses Protein ebenfalls ATP bindet. Aber wir wissen bis heute nicht, ob es überhaupt ein Enzym ist und ob seine Funktion im Körper enzymatisch ist. Und selbst wenn dies so sein sollte, haben wir keine Ahnung, welcher Art seine Substrate sein könnten. Die Struktur allein reicht also nicht aus. Das hier war die Arbeit von Lothar Esser Das nächste Beispiel betrifft die humane HMG-CoA-Reduktase. Und diese HMG-CoA-Reduktase ist ein Beispiel für die unvorhersehbaren Wege, die die Evolution von Zeit zu Zeit nimmt. Hier sehen Sie eine Übersicht über die Funktion dieses Enzyms. Das hier ist eines der Substrate, Hydroxymethylglutaryl-Coenzym A. Und das Enzym verbraucht zwei Moleküle von NADPH, die insgesamt vier Elektronen beisteuern, um diese Verbindung zu trennen und diesen Kohlenstoff hier zu reduzieren. Der Ausgangspunkt ist also dieses HMG-CoA und das Ergebnis ist Mevalonat, das wiederum die erforderliche Verbindung für die Bildung aller Arten von essentiellen Verbindungen wie Hem, Ubiquinon und dann einige Schritte später Cholesterin ist. Aus diesem Grund ist dieses Enzym sehr interessant, da es den bedeutenden Schritt in der körpereigenen Produktion von Cholesterin durchführt. Rund zwei Drittel unseres Cholesterins wird auf diesem Wege gebildet. Und das ist wohl mehr als ausreichend, um unser Interesse zu begründen. Wir wussten also, dass es zwei Kategorien der HMG-CoA-Reduktase gibt: Eine in Säugetieren, Hefen, Pflanzen und Archaeabakterien, die andere in Eubakterien. Und hier sieht man die strukturelle Organisation. Bei Säugetieren gibt es beispielsweise einen Membranbindungsteil und einen katalytischen Teil. Und dieser katalytische Teil ist in all diesen Organismusarten gleich. Und der katalytische Teil in Bakterien ist in der Sequenz zu rund 20% identisch mit dem katalytischen Teil in diesen Organismen, während die organismusübergreifende Identität eher bei 40% liegt. Es gibt also eindeutig zwei Kategorien. Vor dem Hintergrund der Annahme, dass möglicherweise bedeutende Unterschiede zwischen diesen beiden Kategorien von Proteinen bestehen, hat uns das ermutigt, an dieser Struktur zu arbeiten. Und das Interesse bezog sich natürlich darauf, dass diese Struktur zu dem Zeitpunkt, als wir begannen, bereits aus der Gruppe von Cynthia Stauffacher bekannt war, und zwar als bakterielle Pseudomona-HMG-CoA-Reduktase. Und hier ist die Struktur des menschlichen Enzyms im Unterschied zum bakteriellen Enzym zu sehen. Es ist ein Tetramer. Hier sind vier verschiedene Untereinheiten in unterschiedlichen Farben zu sehen. Und es hat vier aktive Stellen, die sich an der Schnittstelle von zwei Monomeren befinden. Das violette Monomer und das gelbe Monomer bilden also die aktive Stelle – ebenfalls auf der anderen Seite des Dimers. Jedes Dimer besitzt also zwei aktive Stellen. Und im menschlichen Enzym sind zwei Dimere durch eine zweizählige Symmetrieachse verbunden. Ok, natürlich ist die quaternäre Struktur unterschiedlich, aber bei ausschließlicher Betrachtung des Dimers, der Form dieser beiden Dimere, sind sich Pseudomonas- und humanes Enzym sehr ähnlich. Sie weisen beide jeweils zwei aktive Stellen auf. Einige Unterschiede gibt es dahingehend, dass Strukturteile im Dimer zwischen den beiden Monomeren ausgetauscht worden zu sein scheinen. So sollte beispielsweise dieser rote Teil des Moleküls hier eigentlich grün sein, wenn die Organisation des Dimers mit der eines humanen Enzyms vergleichbar wäre. Wenn wir die Monomere, die Alpha-Kohlenstoffspur, überlagern, sehen wir, dass sich ein Großteil des Moleküls, sehr, sehr gut überlagert. Und die peripheren Teile, die N- und C-terminalen Teile sind unterschiedlich. Aber ist das wirklich wichtig? Wir würden sicherlich erwarten, dass die aktive Stelle der zwischen diesen beiden Strukturen am stärksten konservierte Teil ist. Und wir waren deshalb extrem überrascht, dieses Ergebnis zu sehen. Hier ist die aktive Stelle des Pseudomonas-Enzyms und des Humanenzyms. Bedenken Sie, dass sie sich an der Schnittstelle der beiden Monomere bilden, des gelben und des blauen Monomers. Und hier ist deutlich mehr blau als hier. Das bedeutet, dass wesentliche Teile der aktiven Stelle des Enzyms hier von der blauen Untereinheit gebildet werden und hier von der gelben Untereinheit, die in die aktive Stelle einzudringen scheint. Das HMG-CoA-Substrat bindet sich dennoch ungefähr genauso, das NAD oder das NADP bindet in anderer Ausrichtung. Das Überraschendste ist aus meiner Sicht, dass ein wirklich dramatischer Unterschied zwischen der aktiven Stelle besteht, was es unmöglich macht, beispielsweise Mutanten vorherzusagen, um die enzymatische Aktivität des Humanenzyms weiter zu untersuchen, indem man nur das Bakterienenzym betrachtet. Deshalb müssen auch diese Aspekte berücksichtigt werden, wenn wir die aus dem Projekt der strukturellen Genomik stammenden Ergebnisse verwenden. Und ein letzter Fall, der schwierig für die Modellbildung sein könnte, ist der Folgende: die Bindung von Inhibitoren an die HMH-CoA-Reduktase. Und diese Inhibitoren sind extrem beliebte und profitable Arzneimittel, die – hauptsächlich in der zivilisierten Welt – von Menschen genommen werden, die unter den Folgen von übermäßigem Essen leiden – im Vergleich zum Rest der Welt, der das gegenteilige Problem hat. Und das hier sind Inhibitoren der HMG-Co-A-Reduktase, die, wie ich bereits erwähnte, das Schlüsselenzym für die körpereigene Produktion von Cholesterin ist. Wenn wir also dieses Enzym deaktivieren oder verlangsamen, verringern wir unsere körpereigene Cholesterinproduktion. Deshalb nehmen die Zellen wahrscheinlich mehr aus dem Blut auf, und das ist der gewünschte Effekt. Wir haben also betrachtet, wie sich diese Dinge an das Enzym binden. Hier ist eine Galerie mit sechs Strukturen zu sehen. Sie wurde von Eva Istvan erstellt, die übrigens auch die Struktur erstellt hat, die ich vorher mit dem natürlichen Substrat gezeigt habe. Und Sie sehen, dass diese Inhibitoren alle mit einer HMG-artigen Teilbindung an der aktiven Stelle und einem mehr oder weniger hydrophoben Teil binden, der diese flache Vertiefung an der Oberfläche besetzt. All diese verschiedenen Verbindungen binden also grundsätzlich unabhängig von Größe und Form dieser Ringsysteme in derselben Weise. Aber ein genauerer Blick auf die Bindung des Substrats, in diesem Fall NADP, und den Inhibitor zeigt, dass in dieser Struktur ein Teil des Enzyms fehlt, nämlich diese Helix und eine Umdrehung der Helix hier. Das bedeutet, dass die Inhibitorbindung für mehr als lediglich die Besetzung der aktiven Stelle mit diesem Teil zuständig ist. Sie verhindert darüber hinaus die Bildung der vollständigen aktiven Stelle, indem sie die Faltung dieser Helix hier verhindert oder stört. Und ich glaube, dass diese Art der Bindung mit heutigen Methoden sehr, sehr schwer vorherzusagen ist. Die meisten von uns würden gedacht haben, dass der Inhibitor bindet. Das hier ähnelt dem natürlichen Substrat zu sehr, um eine andere Hypothese darüber aufzustellen, dass die Bindung hier erfolgt. Aber die meisten von uns hätten gedacht, dass dieser Teil hier an eine Stelle bindet, an der sich NADP befindet. Aber in der Realität ist es anders und das zeigt, dass die Modellbildung nach wie vor verbesserungsbedürftig ist. Damit komme ich langsam zum Ende. Es ist wohl offensichtlich geworden, dass wir noch eine Menge zu lernen haben. Ich habe diese vier Beispiele nicht gewählt, um die strukturelle Genomik zu diskreditieren. Sie zeigen lediglich auf, dass Probleme bestehen, die es zu lösen gilt. Und die Lösung dieser Probleme ist überhaupt nicht leicht. Aber ich bin zuversichtlich, dass sie sich im Laufe der Zeit lösen lassen werden. Ebenfalls klar ist, dass wir mit einer Flut von Daten überschwemmt werden. Allein diese 21 Gruppen produzieren Tag für Tag Daten in unüberschaubaren Mengen. Und sie und wir alle werden lernen müssen, mit diesen Daten so umzugehen und sie so auszuwerten oder aufzubereiten, dass sie von interessierten Menschen abrufbar sind. Und der dringendste Bedarf besteht eindeutig darin, weitere Rechenwerkzeuge, Datenbanken, Modellierungsmethoden und Simulationskonzepte zu entwickeln. Und das letztendliche Ziel muss meiner Ansicht nach selbstverständlich die Simulation von ganzen Zellen und möglicherweise sogar Organismen sein. Und das liegt wahrscheinlich noch viele Jahrzehnte entfernt. Aber ich glaube, dass die Biologie als Disziplin nur dann erfolgreich genannt werden kann, wenn wir dieses Ziel erreicht haben. Vielen Dank. Applaus.

Johann Deisenhofer (2002)

Back to Proteins

Johann Deisenhofer (2002)

Back to Proteins

Comment

When Johann Deisenhofer attended the Lindau Nobel Laureate Meeting for the seventh time in 2002 („It is clear that I am a fan of the Lindau Meetings“, he opens his talk) he took the „overwhelming success“ of the genome project „contrary to some peoples’ expectations and skepticism“ as the starting point of his lecture. „Big Science has entered Biology“, he said. „We could see articles in top journals that had hundreds of authors, which reminded me of high-energy physics where this happened many years ago“. As a trained physicist who specialized in the determination of protein structures, Deisenhofer asks: „Can we repeat this big science approach with proteins?“If we pursued such a concerted approach that has become known under the name „structural genomics“, he says, we could undertake a massive parallel determination of protein structures instead of working at one protein at a time. Such an effort would not only make many structures in many folding stages available and ultimately allow for reliable structure predictions. It also provides new opportunities to target specific protein structures of pathogenic microorganisms and better combat infectious diseases that show rising incidence worldwide. „Many of us who have experienced the beginning of this field would have been really skeptical of the possibility of such a speed up ten years ago“, Deisenhofer expresses his optimism, before he shares with his audience four important words of caution:1. Many proteins probably will not cooperate because they are inaccessible for a fast automatic structural elucidation, e.g. membrane proteins. For the cytocrome bc1 complex it took eight years from “crystal to manuscript” for example. 2. The structure may not reveal the function of the protein. Synapsin proteins are abundant in our nerve cells and have been known for a long time, but nobody knows their function yet. 3. Evolution may have gone unexpected ways, so that conclusions from the bacterial to a mammalian version of a protein cannot easily or necessarily be drawn.4. Homology modeling is not yet precise enough to explain the chemistry of all proteins. This is especially true for enzymatic reactions, as the example of HMG CoA reductase shows. Besides that, Deisenhofer says, structural genomics produce data at a mind-boggling rate and require improved computational tools. “The ultimate goal is the simulation of whole cells and maybe even organisms. This is probably many decades away – but biology as a discipline can only be called successful when we have achieved this goal.”Joachim Pietzsch

Cite


Specify width: px

Share

COPYRIGHT

Cite


Specify width: px

Share

COPYRIGHT


Related Content