Hamilton Smith (2014) - Synthetic Biology for Genetic Engineering in the 21st Century

One of the first things friends told me when I got the Prize was that I should be sure to come to Lindau for the meetings. And I’ve been doing it now for 30 years. It’s always a wonderful experience. I meet old colleagues and new ones and of course the new crop of students. So today I’m talking about synthetic biology. And this means different things to different people. To me if you’re using chemically synthesised genes or DNA in your work, you’re essentially a synthetic biologist. It’s the same as in the past if you work with DNA and RNA you were a molecular biologist. So that’s a very simple way of putting it. A more elaborate definition of synthetic biology is that it’s the field of research that engages in the design and assembly of genes and genetic pathways from chemically synthesised DNA to produce organisms with new and improved functions that do not already exist in nature. The key thing in synthetic biology is that you can do things... that you’re not simply shuffling pieces that exist in nature but you can create new pieces. A branch of synthetic biology is synthetic genomics which focuses on rewriting and activating entire genomes or chromosomes to produce new ‘synthetic cells’. Synthetic biology postulates an analogy to computers that the genome of a cell is the operating system and the cytoplasm is the hardware. So the DNA genome is simply a piece of software written in a 4 letter code, AGCT, whereas in a computer it’s zeros and ones. The cytoplasm is the hardware and that runs the operating system or the genome. So the cytoplasm contains all of the parts and for example ribosomes, enzymes and proteins that are necessary to express the information in the genome. On the other hand the genome contains the information necessary to produce the cytoplasm and the cell envelop and to replicate itself. So each is worthless without the other. We wouldn’t have any synthetic biology without dramatic advances in sequencing and DNA synthesis that have occurred in the past couple of decades. And this is why it’s uniquely a 21st century field of research and technology. We see on the graph here that the ability to read DNA sequence really began in earnest around 1990 with the introduction of the first semi-automated DNA sequencers. It was still expensive at that stage and you could only produce a limited amount of data. But as these machines became fully automated and had much larger capacity, the cost of reading dropped rapidly and continued to drop. And then all of a sudden in the early 2000s there was a precipitous drop as highly parallel DNA sequencing machines were introduced to the point that now the 1,000 dollar human genome is within reach. On the other hand, writing DNA rather than just reading it, writing for example the synthesis of oligonucleotides has not dropped nearly as dramatically. But I think at some point we’ll experience a much more dramatic drop as this gets to the level of chips. Writing DNA sequences, for example gene synthesis, has dropped about 2 orders of magnitude but it’s still quite expensive. And that’s what’s limiting the development of the field. What we need is cheap DNA synthesis and fast accurate DNA synthesis. Here is another way of looking at things. The blue curve shows the rate at which the number of transistors on electronic chips have increased. This is Moore’s law which states that the number of transistors doubles every 18 months. And that’s been a consistent picture for many years now. On the other hand reading DNA, because of the highly parallel new sequencers, has taken a much more rapid course. And even writing DNA is exceeding the rate of the classic Moore’s law. In addition, the sizes of DNA that can be made is steadily increasing. The largest currently is about a megabase of synthetic DNA. Now, the power of synthetic biology is that you can synthesise any DNA sequence. The older methods of genetic engineering that use restriction enzymes, PCR and oligonucleotide mutagenesis for example always operate on sequences that already occur in nature. With the synthetic biology approach you can take a gene, you can change the codon sequence to that gene to fit it... to adapt it to the codon frequencies for example in coli or whatever. You could chemically synthesise that and you now have a sequence, a DNA sequence that does not occur anywhere else in nature. You can’t do that with any of the older methods of engineering. So it’s very powerful. However we still largely work with what nature has given us, genes, promoters, ribosome binding sites. And I’m talking particularly about single cell organisms which is the major focus currently. Transcriptional terminators, operators and so on. The genes themselves have evolved over millions of years by natural selection. We don’t know yet how to sit at the computer and invent a new gene or amino acid sequence that will fold into a predetermined structure. Let alone have a specific enzymatic activity. That’s in the future. And I don’t know how far in the future. As far as proteins go we can at best modify existing protein designs. And that’s certainly facilitated by the ability to change the DNA sequence that codes for a particular protein. So we’re still limited with adding, deleting, altering or rearranging DNA sequences using parts that generally already exist. Now, I always have trouble understanding what people are telling me unless they give me an example. So I’m going to give a few examples here. One is the introduction of BioBricks which is really an idea developed about 10 years ago by Tom Knight at MIT. And there’s a registry where you can go online and pick out any of a number of promoters with known strength. Or you have a large registry of genes that you can use or other regulatory parts. And these are provided. They’ll actually send you the DNA or the sequences involved. And you can put together various logical circuits with these pieces. So there has developed kind of an international competition among students every year. It’s called iGEM where student teams are given kits of parts and they have to come up with novel new circuitry and put it into a biological system for example coli and demonstrate that it does some particular operation. That’s become quite popular. Another example is what we call refactoring of existing pathways and genomes. It’s a term that comes from software developers where you take for example a code that was written perhaps by some amateurs, a spaghetti code that is very hard for somebody else to come and make sense out of it. But if you refactor it and put it into a more logical group of functions without changing the output of the system, that’s called refactoring. Refactoring in the biological system can improve on evolution by arranging genes in a more logical and modular fashion. Here’s an example. This is from Chris Voigt’s lab at MIT published a couple of years ago. This is the classic example of refactoring. He took the nitrogen fixation gene cluster from Klebsiella oxytoca which has about 20 genes in it. It’s a cluster. Not all the genes in the cluster have to do with nitrogen fixation. So he threw those away, he took the genes that were relevant to nitrogen fixation, resynthesized them with codon frequencies appropriate for coli, he eliminated non-coding DNA, removed transcription factors and basically randomized the codons but in an appropriate fashion. He then organised into 4 operons, whereas the original cluster had 7 operons. He added synthetic regulation and then some controlling and synthetic circuits and comes up with a nice logical looking group of genes that people can understand. And it’s something you can plug into an organism if you want to achieve nitrogen fixation. You can also refactor genomes of various sorts, particularly viral genomes. One of the first examples was refactoring T7 phage. Here’s an example of refactoring of PhiX174. And there are 6 genes that are overlapping. And you simply refactor it by putting them all into a linear array without overlaps. Building of synthetic bacterial and yeast genomes has come into the limelight recently. Our group synthesised a complete bacterial genome and assembled it in yeast and propagated it as DNA in a yeast cell and then transplanted it into a bacterial cytoplasm to produce a ‘synthetic cell’. Just a couple of months ago an article was published in which chromosome 3 of yeast was completely replaced with synthetic DNA. And they made some rather dramatic changes in the sequence and reduced the size of it by about 14%. This opens up the ability now to completely remake the yeast chromosomes. So our work in the past 10 years has been focused on what we call the minimal cell concept. We’re interested in using synthetic genomics to build a minimal cell that has only the core machinery of life. If you look at bacteria as they exist in nature, they often have fairly large genomes, several million base pairs. The core machinery to run the cell is a very small fraction of that, maybe a few hundred genes. Most of the DNA is occupied in various adaptive functions that enable the cells to adapt to many different issues in nature. What we want to do is throw away all the adaptive functions and take only the core functions. And we want to create a minimal cell with those core functions with the idea that we’ll hopefully understand life better when we achieve that. Richard Feynman has a famous quote: “What I cannot create I do not understand.” We hope that if we create we will understand. Our target for minimisation is mycoplasma mycoides which already in nature... It’s a goat pathogen by the way. But it’s a small cell. You can culture it readily in the laboratory. And it makes colonies on an agar plate. It’s capable of totally independent growth. It has all of the requirements for free life. It has a genome that’s a little over a million base pairs. There are 865 protein coding genes and 43 RNA genes. And it grows at a respectable rate of 60 to 70 minutes doubling time. So if we’re going to take this cell and try to strip away unnecessary genes and build a minimal cell, we need to be able to do 3 things. The first thing, the thing that we were most worried about was whether we would be able to chemically synthesise the genome and have it as free DNA in a test tube and then bring it back to life. We had to develop a method to transform it into a receptive compatible cytoplasm of a recipient cell and have it take over that cell, a process we call transplantation. We also had to develop methods to build large DNA molecules. And thirdly we had to have methods to identify what genes to keep and which to throw away. Genome transplantation in our original conception... I think this model is probably fairly accurate. We would take naked donor DNA genomes -for example extracted from a mycoplasma donor cell or perhaps extract it from yeast- and introduce it by methods that are similar to regular DNA transformation into the recipient cell. And then using selection for the donor genome after a number of generations every part of the cell that came from the original genome is replaced and you have a cell now that has only the donor genome. And all the parts in the cytoplasm are specified by that donor genome. Just very briefly, the key here was to be able to extract the large DNA molecules intact and then be able to somehow get them across the recipient cell membrane and to establish themselves. So we took recipient cells, we took very gently extracted donor DNA, combined them together in the presence of polyethylene glycol which facilitates the uptake and then grow for a period on the plate. And we were successful after a year or 2’s work in getting a procedure that’s quite robust and yields a couple of hundred transplants typically. We also learned how to put our mycoides genome into a yeast cell using yeast vector sequences that we added to the genome. And then we learned how to extract the DNA intact out of a yeast cell and transplant it. It took us a while to realise that in the yeast the methylation would be lost. And so the genome was subject to restriction then by the recipient. But we overcame that in either of 2 ways. We removed the restriction systems from the recipient cell or we methylated the DNA. And both of those worked. So we had a means of reasonably efficient ability to take DNA in the test tube, a whole genome, and bring it to life. We also at the same time were working on chemical synthesis and assembly of the whole genome. And this was done in steps starting with oligonucleotides, building one kilobase pieces which overlapped each other by 80 base pairs so they could be stitched together. And then we went to 10 Kb pieces, 100 Kb pieces and finally the complete genome which was assembled in yeast. In fact all of the last 3 assembly steps occurred in yeast which has a very powerful recombination system that can operate on the overlaps to assemble the molecules together. Now I turn to how we determined what genes we want to throw away and which ones we want to keep. So we’ve developed to a high degree a process called global transposon mutagenesis. If you introduce a transposon carrying an antibiotic resistance marker into a cell, it will jump somewhere into the genome. If it goes into a gene, it will disrupt that gene and knock it out. If the gene is essential, then you won’t get any colonies from that particular event, whereas if it goes into a non-essential gene, you will get colonies which you can recover. And then you can determine where the insertion site is by sequencing. So using all of that methodology that we developed we’re ready to now start designing a minimal genome and then building it and assembling it in yeast and then testing to see whether what we design works. If it doesn’t, we make additional changes to the circuit again. If we get something that does work but not very well, we can do modifications and just keep doing this design-build-test cycle. So, first let me elaborate more on our results of our transposon mutagenesis. We used Tn5 because you have... you can purchase the transposase. And so we constructed a small transposon that has just a puromycin resistance gene flanked by terminators and the 19 basepair sequences that are required for transposition. We take that DNA which is about a kilobase in size and add stoichiometric amounts of the transposase which binds to the ends and now makes it a very active transposon. You prevent it from jumping into itself or into other DNA in the test tube by excluding, by having no magnesium present. But once you introduce it into a cell, it’s now a very active transposon and will jump into the cell, into some place in the genome. So we prepared a library. We introduced the transposon into our mycoplasma mycoides, so-called wild-type cell, and allowed it to insert. And then we plated and obtained about 80,000 colonies typically on one of several plates. First of all each colony arises from a cell that has a single insertion of a transposon somewhere in the genome. The fact that the colony grows up means that you didn’t go into an essential part of the genome. So we pool the colonies here and make what we call Library 0. We isolate from a sample of that pool, we isolate DNA. And then another sample of that pool we passage 4 times for about 50 doublings with the idea that at the end of those 50 doublings only the fast growing cells will predominate. In other words if our transposon jumped into a gene that’s absolutely non-essential, that will appear in this final library which we call Library 4. We then take those libraries and use inverse PCR to determine the junction between the ends of the transposon and the genomic sequence. Here’s a 19 base pair sequence. And this is genomic DNA here. So we were able to find the insertion points of the transposons. And if you then map those on to a gene map... Here for example is a cluster of genes that are obviously non-essential. And we confirm that by deleting those and showing the cell was viable. Here’s genes that are essential. These have to do with initiating of DNA replication for example. And you look through. There are various clusters of genes that are non-essential with a few genes that are essential and so on. So we can catalogue all of that in an excel sheet. So, we saw 3 types of patterns. Here is a gene CTP synthase which is not hit at all. There are no transposons either in the 0 Library or the Library 4. That’s an essential gene. Here’s a gene that is hit by both libraries so it’s represented well. It’s a fast growing knock out so that’s a non-essential gene. And here’s one that’s hit heavily in the first library but it’s totally lost in the L4 library. So it’s growing slowly, its impaired. Whatever that gene does it’s not essential for life but it affects the viability of the cell. And so we could classify all of our genes. And we are able to put them into this large group of non-essential genes. Here’s the core set of essential genes. And here are the ones that are impaired. So our design will focus on this set of genes. And so we simply took all of the genes that we wanted to keep and put these purple arrows over them. The ones we’re going to throw away are the yellow areas. And we then just reduce the genome by putting together all of the genes that we want to keep. So we have a genome that we call reduced genome design. It’s about half the size of the original genome. And here are sizes of the... So an important thing is that we... the designs are made on 1/8th sections of the genome. So that we can troubleshoot each section if it doesn’t work very well. And here’s a relative size of the wild-type genome in our reduced design. So we went back to our next stage which is synthesis. And Dan Gibson at our company, Synthetic Genomics Inc. has developed automated DNA synthesising machines which can fairly quickly assembly each of the 8 reduced genome design pieces which he then ships to Rockville. You see in San Diego where I am we do the design and the building, Rockville does the testing. So we just send the pieces of DNA there. So, this is just briefly the 8 piece strategy. We wanted to test each of the individual pieces. So we combined each reduced piece with 7 wild-type pieces and then tested whether that genome is viable. And it turns out all of the 8 pieces we designed work. Some of them give a cell that’s a little bit slow in growth but they’re all quite viable. So the idea now is can we combine all those together and be finished basically, have our reduced genome. And the answer is no. We couldn’t put them all together but we could put different groups of them together. For example, here we have 2, 4, 6, 7 and 8 together and produce those colonies that are a little bit slow growing. Why doesn’t it work? We think it’s because there are undiscovered functional redundancies. In other words there are essential functions that are... So maybe fragment 6 has an essential function that if you knock it out by itself, the cell is ok because the essential function is also carried by a gene on segment one. But if you knock out both of those... In other words if we combine segment 1 with segment 6, that vital function is knocked out. And so we’re in the process now of discovering those few redundancies and correcting them. So, in summary then we’ve designed 8 reduced segments that are viable. And they work in several different combinations. And eventually we hope to get a cell that has no genes that you can remove without severely effecting the growth. Best case we think perhaps 50% reduction with a doubling time that’s not too far off from the wild-type. And it will have a genome that’s smaller than any free living cell that’s found in nature. That’s our goal. And just finally what can we do with a minimal cell? There are a number of different things. One that we have a lot of interest in is reorganising or defragging the cell so to speak. Bringing all the genes that have common... that are involved in common processes would be brought together so that you have a genome that’s very understandable. Here are some of the people that have worked on this. Thank you. Applause.

Eines der ersten Dinge, die mir Freunde nahelegten, als ich den Nobelpreis erhielt, war, dass ich unbedingt zu den Lindauer Treffen kommen sollte. Und das tue ich jetzt seit 30 Jahren und es ist jedes Mal wieder eine wundervolle Erfahrung. Ich treffe alte und neue Kollegen und natürlich all die jungen Studenten. Ich rede hier heute über die synthetische Biologie. Und das bedeutet für jeden etwas anderes. Für mich bedeutet das: Wenn man in seiner Arbeit chemisch synthetisierte Gene oder DNA einsetzt, ist man im Wesentlichen ein „Synthetischer Biologe“. Das ist in etwa so wie die Tatsache, dass man früher als Molekularbiologe galt, wenn man mit DNA und RNA arbeitete. Das ist also eine sehr einfache Art, es auszudrücken. Eine ausführlichere Definition von synthetischer Biologie bezeichnet sie als das Forschungsfeld, das sich mit dem Design und der Herstellung von Genen und genetischen Codes aus chemisch synthetisierter DNA beschäftigt, um Organismen mit neuen, verbesserten Funktionen herzustellen, die in der Natur noch nicht vorkommen. Das Entscheidende an der synthetischen Biologie ist, dass man Dinge tun kann … dass man nicht nur in der Natur vorkommende Bestandteile umgestaltet, sondern etwas Neues kreiert. Ein Zweig der synthetischen Biologie ist die synthetische Genomik, die schwerpunktmäßig ganze Genome oder Chromosomen umarbeitet und aktiviert, um neue „synthetische Zellen“ herzustellen. Die synthetische Biologie postuliert in Analogie zu Computern, dass das Genom einer Zelle das Betriebssystem ist und das Zytoplasma die Hardware. Das DNA-Genom ist also einfach eine Software, die in einem 4-Buchstaben-Code, AGCT, geschrieben ist, während sie bei einem Computer aus Nullen und Einsen besteht. Das Zytoplasma ist die Hardware, auf der das Betriebssystem oder das Genom läuft. Das Zytoplasma enthält also Teile, beispielsweise Ribosomen, Enzyme und Proteine, die erforderlich sind, um die Information im Genom zu exprimieren. Andererseits enthält das Genom die erforderlichen Informationen, um das Zytoplasma und die Zellhülle zu erzeugen und sich selbst zu replizieren. Also ist jedes ohne das andere wertlos. Ohne die enormen Fortschritte in der Sequenzierung und der DNA-Synthese, die in den letzten Jahrzehnten eingetreten sind, gäbe es keine synthetische Biologie. Und das ist auch der Grund dafür, warum dieses Gebiet ein Forschungs- und Technologiefeld des 21. Jahrhunderts ist. Wir sehen auf der Grafik hier, dass die Möglichkeit, eine DNA-Sequenz zu lesen, tatsächlich ernsthaft um 1990 herum mit der Einführung der ersten halbautomatischen DNA-Sequenzierer begann. Das war damals noch sehr teuer und man konnte nur begrenzte Datenmengen erzeugen. Aber mit zunehmender Vollautomatisierung dieser Maschinen und wesentlich größeren Kapazitäten sanken die Kosten für das Lesen der DNA kontinuierlich und in erheblichem Ausmaß. Und als Anfang der 2000er Jahre hochparallele DNA-Sequenziermaschinen auf den Markt kamen, sind die Kosten noch einmal rasant gesunken – bis hin zu dem Punkt heute, wo das Humangenom für 1.000 Dollar in Reichweite ist. Auf der anderen Seite sind die Kosten für das Schreiben von DNA im Gegensatz zum einfachen Lesen, beispielsweise die Synthese von Oligonukleotiden, nicht annähernd so dramatisch gesunken. Aber ich denke, dass wir irgendwann, wenn die Ebene der Chips erreicht ist, einen wesentlich deutlicheren Kostenrückgang erleben werden. Das Schreiben von DNA-Sequenzen, beispielsweise die Gen-Synthese, ist bereits um rund zwei Größenordnungen preisgünstiger geworden, aber immer noch relativ teuer. Und das begrenzt die Entwicklungsmöglichkeiten auf diesem Gebiet. Was wir brauchen, sind eine preisgünstige DNA-Synthese und eine schnelle, exakte DNA-Synthese. Das hier ist eine andere Möglichkeit, die Dinge zu betrachten. Die blaue Kurve zeigt die Zunahme der Anzahl von Transistoren auf elektronischen Chips. Das ist das Mooresche Gesetz, wonach sich die Anzahl der Transistoren alle 18 Monate verdoppelt. Und diese Entwicklung zeichnet sich jetzt bereits seit vielen Jahren ab. Andererseits zeigt das Lesen von DNA aufgrund der hochparallelen neuen Sequenzierer einen wesentlich schnelleren Verlauf. Und selbst das Schreiben von DNA übertrifft die Geschwindigkeit des klassischen Mooreschen Gesetzes. Darüber hinaus nehmen die DNA-Größen, die erzeugt werden können, ständig zu. Die derzeit größte synthetische DNA ist etwa 1 Megabase groß. Die Stärke der synthetischen Biologie besteht darin, dass man jede DNA-Sequenz synthetisieren kann. Die älteren gentechnischen Methoden, die mit Restriktionsenzymen, PCR und Oligonukleotid-Mutagenese arbeiten, nutzen beispielsweise immer bereits in der Natur vorkommende Sequenzen. Mit dem Ansatz der synthetischen Biologie kann man beispielsweise die Codon-Sequenz eines Gens so anpassen, dass sie zu den Codon-Frequenzen in Coli oder so passt. Man könnte das chemisch synthetisieren und hätte dann eine Sequenz, eine DNA-Sequenz, die nirgendwo sonst in der Natur vorkommt. Mit den älteren technischen Methoden ist so etwas nicht möglich. Das ist also wirklich ein sehr leistungsstarkes Konzept. Allerdings arbeiten wir nach wie vor größtenteils mit dem, was uns die Natur gegeben hat, also Genen, Promotoren, Ribosomenbindungsstellen – und ich rede insbesondere von einzelligen Organismen, die heute der Hauptfokus sind – transkriptionelle Terminatoren, Operatoren und so weiter. Die Gene selbst haben sich über Millionen von Jahren durch natürliche Selektion entwickelt. Wir wissen noch nicht, wie wir am Computer ein neues Gen oder eine Aminosäuresequenz mit einer Faltung in einer fest vorgegebenen Struktur, ganz zu schweigen davon, mit einer spezifischen enzymatische Aktivität erfinden können. Das ist Zukunftsmusik. Und ich weiß nicht, wie fern diese Zukunft liegt. Was Proteine betrifft, können wir höchstens bestehende Protein-Designs modifizieren. Und das wird sicherlich durch die Möglichkeit vereinfacht, die DNA-Sequenz zu verändern, die für ein bestimmtes Protein codiert. Wir sind also beim Hinzufügen, Entfernen, Verändern und Neuanordnen von DNA-Sequenzen nach wie vor auf die Verwendung von Bestandteilen begrenzt, die grundsätzlich bereits vorhanden sind. Ich finde es immer schwierig nachzuvollziehen, was Menschen erzählen, wenn sie das nicht anhand eines Beispiels verdeutlichen. Deshalb möchte ich hier einige Beispiele nennen. Eines ist die Einführung von BioBricks, eine Idee, die vor rund 10 Jahren von Tom Knight am MIT entwickelt wurde. Es gibt ein Register, auf das man online Zugriff nehmen kann und aus dem man verschiedene Promotoren in bekannter Stärke wählen kann. Oder es gibt ein riesiges Gen-Register, das man verwenden kann, und weitere andere regulatorische Elemente. Und die werden dann geliefert. Man verschickt tatsächlich die DNA oder die beteiligten Sequenzen. Und man kann dann verschiedene logische Schaltungen aus diesen Elementen zusammensetzen. Es hat sich auch eine Art von internationalem Wettbewerb unter Studenten entwickelt, der jedes Jahr stattfindet. Bei diesem Projekt, das unter der Bezeichnung iGEM läuft, erhalten Studententeams Elementesätze in Verbindung mit der Aufgabe, eine neuartige Schaltung zu entwickeln und diese in ein biologisches System, zum Beispiel Coli einzubringen und nachzuweisen, dass sie eine bestimmte Funktion erfüllt. Das ist inzwischen ziemlich populär geworden. Ein anderes Beispiel ist das, was wir als Refaktorisierung bestehender Signalwege und Genome bezeichnen. Dieser Begriff stammt aus der Welt der Software-Entwickler. Dabei nimmt man beispielsweise einen Code, der vielleicht von Amateuren geschrieben wurde, einen so genannten Spaghetti-Code, der für Außenstehende kaum zu verstehen ist. Wenn man ihn aber refaktorisiert und – ohne die Ausgabe des Systems zu verändern Die Refaktorisierung im biologischen System kann die Entwicklung verbessern, indem Gene in einem logischeren und modulareren Muster angeordnet werden. Hier ein Beispiel dazu: Dies stammt aus dem Labor von Chris Voigt beim MIT und wurde vor mehreren Jahren veröffentlicht. Es ist ein klassisches Beispiel für die Refaktorisierung. Er nahm das Gencluster für Stickstofffixierung von Klebsiella oxytoca, das rund 20 Gene enthält. Es ist ein Cluster. Nicht alle Gene im Cluster haben mit der Stickstofffixierung zu tun und die hat er entfernt und nur die Gene genommen, die für die Stickstofffixierung relevant waren und sie mit für Coli geeigneten Codon-Frequenzen resynthetisiert. Er hat nicht-codierende DNA entfernt, Transkriptionsfaktoren entfernt und im Wesentlichen die Codone randomisiert Er hat dann 4 Operone gebildet, wogegen das Original-Cluster aus 7 Operonen bestand. Er ergänzte eine synthetische Regulierung und noch einige steuernde und synthetische Schaltungen. Das Ergebnis war eine wirklich logisch angeordnete Gruppe von Genen, die die Menschen verstehen können. Und man kann das in einen Organismus einbringen, wenn man eine Stickstofffixierung erreichen möchte. Man kann auch Genome unterschiedlicher Art, insbesondere virale Genome refaktorisieren. Eines der ersten Beispiele dieser Art war die Refaktorisierung von T7-Phage. Hier ist ein Beispiel für die Refaktorisierung von PhiX174. Und da gibt es 6 überlappende Gene. Man refaktorisiert das einfach dadurch, dass man das linear ohne Überlappungen anordnet. Jetzt ist die Konstruktion von synthetischen Bakterien- und Hefegenomen ins Rampenlicht gerückt. Unser Team hat ein komplettes bakterielles Genom synthetisiert und es in Hefe zusammengebaut und es dann als DNA in einer Hefezelle vermehrt und in ein bakterielles Zytoplasma transplantiert, um eine „synthetische Zelle“ zu erzeugen. Erst vor einigen Monaten wurde ein Artikel darüber veröffentlicht, dass das Chromosom 3 von Hefe komplett durch eine synthetische DNA ersetzt wurde. Und man hat einige ziemlich drastische Veränderungen in der Sequenz vorgenommen und ihre Größe um rund 14% verringert. Dies eröffnet die Möglichkeit, die Hefe-Chromosomen komplett zu erneuern. Unsere Arbeit hat sich also in den letzten 10 Jahren auf das konzentriert, was wir das Minimalzellenkonzept nennen. Uns interessiert der Einsatz der synthetischen Genomik für den Bau einer Minimalzelle, die nur aus der zentralen Maschine des Lebens besteht. Wenn man in der Natur existierende Bakterien betrachtet, so verfügen sie oft über ziemlich riesige Genome, die aus mehreren Millionen von Basenpaaren bestehen. Die zentrale Maschine, die für den Betrieb der Zelle benötigt wird, macht einen sehr geringen Bruchteil dessen aus, vielleicht einige 100 Gene. Ein Großteil der DNA ist durch verschiedene Adaptionsfunktionen besetzt, die es den Zellen ermöglichen, sich in der Natur an verschiedene Gewebe anzupassen. Wir wollen die gesamten adaptiven Funktionen entfernen und nur die Kernfunktionen verwenden. Und wir wollen eine Minimalzelle mit diesen Kernfunktionen kreieren, damit wir hoffentlich endlich, wenn wir das erreicht haben, besser verstehen, was das Leben ausmacht. Richard Feynman hat den bekannten Ausspruch getan: „Was ich nicht erschaffen kann, kann ich nicht verstehen.“ Wir hoffen, dass wir das, was wir möglicherweise erschaffen, verstehen werden. Unser Target für eine Minimierung ist Mycoplasma mycoides, das bereits in der Natur ... das ist übrigens ein Krankheitserreger bei Ziegen … aber es ist eine kleine Zelle. Man kann sie einfach im Labor kultivieren. Und sie erzeugt auf einer Agarplatte Kolonien. Sie kann völlig unabhängig wachsen. Sie verfügt über alle Voraussetzungen für ein freies Leben. Ihr Genom umfasst etwas mehr als 1 Million Basenpaare. Es gibt 865 protein-kodierende Gene und 43 RNA-Gene. Und sie wächst in einer respektablen Geschwindigkeit von 60 bis 70 Minuten Verdopplungszeit. Wenn wir diese Zelle nehmen und versuchen, unnötige Gene zu entfernen und eine Minimalzelle zu konstruieren, müssen wir drei Dinge können: Die erste Sache, die uns die meisten Sorgen bereitet hat, war die Frage, ob es uns gelingen würde, das Genom chemisch zu synthetisieren, es als freie DNA in ein Reagenzglas zu geben und es dann wieder zum Leben zu erwecken. Wir mussten eine Methode entwickeln, es in ein rezeptives, kompatibles Zytoplasma einer Empfängerzelle zu transformieren und eine Übernahme durch diese Zelle zu gewährleisten – einen Prozess, den wir als Transplantation bezeichnen. Wir mussten zudem Methoden für den Bau riesiger DNA-Moleküle entwickeln. Und drittens brauchten wir Methoden, um identifizieren zu können, welche Gene behalten und welche entfernt werden sollen. Die Genom-Transplantation in unserem ursprünglichen Konzept … Ich glaube, dieses Darstellung ist ziemlich präzise. Wir wollten nackte Spender-DNA-Genome nehmen – beispielsweise aus einer Mykoplasma-Spenderzelle extrahieren oder vielleicht ein Extrakt aus Hefe – und diese mit Methoden, die der regulären DNA-Transformation ähneln, in die Empfängerzelle einbringen. Und durch Selektion beim Spendergenom ist nach einigen Generationen jeder Teil der Zelle, der vom Ursprungsgenom stammt, ersetzt und es ist eine Zelle entstanden, die nur aus dem Spendergenom besteht. Und alle Teile im Zytoplasma werden dann durch dieses Spendergenom spezifiziert. Kurz zusammengefasst, lag der Schlüssel hier in der Fähigkeit, die riesigen DNA-Moleküle intakt zu extrahieren und sie irgendwie über die Empfängerzellmembran einzubringen und ihre Etablierung zu initiieren. Wir nahmen also Empfängerzellen und sehr vorsichtig extrahierte Spender-DNA, kombinierten sie unter Zugabe von Polyethylenglycol, was die Aufnahme erleichtert, und ließen sie dann eine Zeitlang auf der Platte wachsen. Und nach ein oder zwei Jahren Arbeit gelang uns die Entwicklung eines Verfahrens, das relativ robust ist und typischerweise mehrere 100 Transplantate ergibt. Wir lernten, wie wir unser Mycoides-Genom mit Hilfe von Hefevektorsequenzen, die wir in das Genom integrieren, in eine Hefezelle einbringen können. Und dann fanden wir heraus, wie man die DNA intakt aus einer Hefezelle extrahiert und transplantiert. Wir brauchten etwas Zeit, bis wir feststellten, dass die Methylierung in der Hefe verloren geht. Und deshalb war das Genom der Restriktion durch den Empfänger ausgesetzt. Aber wir überwanden dieses Problem auf 2 unterschiedlichen Wegen: Wir entfernten die Restriktionssysteme aus der Empfängerzelle oder wir methylierten die DNA. Beide Wege funktionierten. So standen uns also wirksame Möglichkeiten zur Verfügung, die DNA, ein ganzes Genom, in das Reagenzglas zu bringen und es zum Leben zu erwecken. Gleichzeitig arbeiteten wir auch an der chemischen Synthese und dem Zusammenbau des gesamten Genoms. Das geschah in mehreren Schritten, beginnend mit Oligonukleotiden, dem Bau von 1-Kilobase-Stücken, die sich um 80 Basenpaare überlappten und deshalb zusammengeheftet werden konnten. Und dann machten wir weiter mit 10-kb-Stücken, 100-kb-Stücken und schließlich mit dem kompletten Genom, das in Hefe zusammengebaut wurde. Die letzten 3 Schritte erfolgten in Hefe, die über ein sehr wirksames Rekombinationssystem verfügt, das auf den Überlappungen eingesetzt werden kann, um Moleküle zusammenzubauen. Jetzt komme ich zu dem Punkt, wie wir festgelegt haben, welche Gene wir entfernen und welche wir behalten wollten. Wir haben dazu in einem hohen Maße einen Prozess entwickelt, der als globale Transposon-Mutagenese bezeichnet wird. Bringt man ein Transposon, das einen Antibiotikaresistenzmarker trägt, in eine Zelle ein, springt es irgendwo in das Genom. Wenn es in ein Gen eindringt, stört es dieses Gen und schaltet es aus. Wenn es sich um ein essentielles Gen handelt, erhält man aus diesem speziellen Ereignis keine Kolonien. Handelt es sich jedoch um ein nicht-essentielles Gen, erhält man Kolonien, die sich rückgewinnen lassen. Und dann lässt sich die Einfügestelle durch Sequenzierung ermitteln. Mit diesen von uns entwickelten Methoden konnten wir die Entwicklung eines Minimalgenoms starten, es in Hefe bauen und zusammensetzen und es dann testen, um zu sehen, ob unser Design funktioniert. Ist dies nicht der Fall, nehmen wir weitere Änderungen an der Schaltung vor. Wenn wir etwas erhalten, das zwar einigermaßen, aber nicht sehr gut funktioniert, können wir Änderungen vornehmen und diesen Zyklus von Entwickeln-Bauen-Testen immer weiter fortsetzen. Zunächst möchte ich noch etwas über die Ergebnisse unserer Transposon-Mutagenese berichten. Wir verwendeten Tn5, weil man … weil man Transposase kaufen kann. Und so haben wir ein kleines Transposon konstruiert, das gerade ein puromycin-resistentes Gen hat, flankiert von Terminatoren und 19 Basenpaare-Sequenzen, die für die Transposition erforderlich sind. Wir nehmen diese DNA, die ungefähr eine Kilobase groß ist, und fügen stöchiometrische Mengen der Transposase zu, die an die Enden bindet und es jetzt zu einem sehr aktiven Transposon macht. Man verhindert ein Überspringen auf sich selbst oder eine andere DNA im Reagenzglas durch Ausschluss von… indem man Magnesium ausschließt. Aber wenn man es einmal in eine Zelle einbringt, ist es ein sehr aktives Transposon und springt an irgendeine Stelle des Genoms in die Zelle. Wir erstellten dann eine Bibliothek. Wir brachten das Transposon in unser Mycoplasma mycoides, eine so genannte Wildtyp-Zelle, ein und ermöglichten seine Einnistung. Dann plattierten wir das aus und erhielten typischerweise auf einer von mehreren Platten rund 80.000 Kolonien. Zunächst entsteht jede Kolonie aus einer Zelle, in die eine einzige Transposon-Einschleusung irgendwo im Genom erfolgt ist. Wächst die Kolonie, weiß man, dass man keinen essentiellen Teil des Genoms getroffen hat. Wir fügen die Kolonien zusammen und erstellen das, was wir als Bibliothek 0 bezeichnen. Aus einer Probe dieser Gruppe isolieren wir DNA. Und eine andere Probe aus diesem Pool schleusen wir dann viermal durch, um rund 50 Verdopplungen zu erhalten. Dahinter steht die Vorstellung, dass am Ende dieser 50 Verdopplungen nur die schnellwachsenden Zellen dominieren werden. Mit anderen Worten: Wenn unser Transposon in ein Gen gesprungen ist, das absolut nicht essentiell ist, taucht es in dieser letzten Bibliothek auf, die wir als Bibliothek 4 bezeichnen. Wir nehmen diese Bibliotheken und wenden dann die inverse PCR an, um die Verbindung zwischen den Enden des Transposons und der genomischen Sequenz zu ermitteln. Hier ist eine 19-Basenpaare-Sequenz. Und das hier ist eine genomische DNA. So konnten wir die Einfügestellen der Transposonen herausfinden. Und wenn man sie dann auf einer Genkarte abbildet … hier ist beispielsweise ein Cluster von Genen, die offensichtlich nicht essentiell sind. Wir verifizieren das, indem wir sie entfernen und nachweisen, dass die Zelle lebensfähig ist. Diese Gene hier sind essentiell. Diese beispielsweise sind an der Initiierung der DNA-Replikation beteiligt. Und dann schaut man weiter. Es gibt verschiedene Cluster von Genen, die nicht essentiell sind und einige wenige essentielle Genen enthalten usw. Und das Ganze können wir dann in einer Excel-Tabelle katalogisieren. Wir entdeckten drei verschiedene Arten von Mustern. Hier ist eine Gen-CTP-Synthase ohne jeglichen Treffer. Es gibt weder in Bibliothek 0 noch in Bibliothek 4 Transposonen. Das ist ein essentielles Gen. Hier ist ein Gen, das beide Bibliotheken betrifft, sodass es gut repräsentiert ist. Es handelt sich um ein schnell wachsendes Knock-out-Exemplar, also ist es ein nicht essentielles Gen. Und hier ist eines, das eine starke Trefferquote in der ersten Bibliothek hat, aber in der L4-Bibliothek ganz verschwunden ist. Es wächst also langsam, ist beeinträchtigt. Was immer dieses Gen macht, es ist nicht lebenswesentlich, sondern beeinträchtigt die Überlebensfähigkeit der Zelle. Und so konnten wir unsere gesamten Gene klassifizieren und sie in diese riesige Gruppe nicht-essentieller Gene einordnen. Hier sehen Sie den Kernsatz an essentiellen Genen. Und hier sind die Gene, die beeinträchtigt sind. Unser Design wird sich also auf diesen Satz von Genen konzentrieren. Und so haben wir einfach alle Gene genommen, die wir behalten wollten und diese violetten Pfeile darüber angebracht. Und die, die wir beseitigen wollen, sind die gelb markierten Bereiche. Und wir reduzieren dann das Genom einfach, indem wir alle Gene zusammenstecken, die wir behalten wollen. So haben wir ein Genom, das wir als reduziertes Genom-Design bezeichnen. Es hat ungefähr die Hälfte der Größe des Originalgenoms. Und hier sind die Größen der ... wichtig ist also, dass wir … die Designs werden auf 1/8-Abschnitten des Genoms hergestellt. So können wir die Fehlersuche auf jeden einzelnen Abschnitt beschränken, wenn er nicht gut funktioniert. Und hier sehen Sie eine relative Größe des Wildtyp-Genoms in unserem reduzierten Design. Dann gingen wir zu unserer nächsten Phase über, die Synthese. Und Dan Gibson hat in unserem Unternehmen Synthetic Genomics Inc. automatisierte DNA-Synthetisierungsmaschinen entwickelt, die relativ schnell jedes der 8 reduzierten Genom-Designelemente zusammenbauen können, die er dann nach Rockville schickt. In San Diego sorge ich bzw. sorgen wir für das Design und den Zusammenbau. Getestet wird dann in Rockville. Wir senden also die DNA-Elemente einfach dorthin. Das ist in Kürze die 8-Elemente-Strategie. Wir wollten jedes der einzelnen Elemente testen. Deshalb kombinierten wir jedes reduzierte Element mit 7 Wildtyp-Elementen und testeten dann, ob das Genom überlebensfähig war. Und es hat sich herausgestellt, dass alle 8 Elemente, die wir entwickelt haben, funktionieren. Einige von ihnen ergeben eine Zelle, die etwas langsam wächst, aber sie sind alle durchaus lebensfähig. Jetzt stellt sich die Frage, ob wir sie alle miteinander kombinieren können und dann im Grunde genommen fertig sind und unser reduziertes Genom erhalten haben. Die Antwort lautet: Nein. Wir konnten sie nicht alle zusammensetzen, aber wir konnten verschiedene Gruppen davon zusammensetzen. Hier haben wir beispielsweise eine Zusammensetzung von 2, 4, 6, 7 und 8 und damit erzeugen wir die Kolonien, die etwas langsam wachsen. Warum funktioniert das nicht? Wir denken, dass das mit unentdeckten funktionalen Redundanzen zusammenhängt. Mit anderen Worten: Dies sind essentielle Funktionen, die … es kann also sein, dass Fragment 6 eine essentielle Funktion hat und die Zelle, wenn man den Knock-out durch sich selbst initiiert, trotzdem okay ist, weil die essentielle Funktion auch von einem Gen auf Segment 1 unterstützt wird. Aber wenn man aber diese beiden ausschaltet … mit anderen Worten, wenn wir Segment 1 mit Segment 6 kombinieren, wird die lebenswichtige Funktion abgeschaltet. Und deshalb beschäftigen wir uns jetzt damit, diese wenigen Redundanzen herauszufinden und zu korrigieren. Wir haben insgesamt 8 reduzierte Segmente entwickelt, die lebensfähig sind. Sie funktionieren in mehreren verschiedenen Kombinationen. Und wir hoffen, dass wir letztendlich eine Zelle erhalten, die keine Gene mehr hat, die man ohne schwerwiegende Auswirkungen auf das Wachstum entfernen könnte. Im besten Fall halten wir bei einer Verdopplungszeit, die nicht so weit vom Wildtyp entfernt liegt, eine Reduzierung von 50% für möglich. Und das Resultat wird ein Genom sein, das kleiner ist als jede frei lebende, in der Natur vorkommende Zelle. Das ist unser Ziel. Und zum Schluss die Frage: Was können wir mit so einer Minimalzelle anstellen? Es gibt verschiedene Dinge. Sehr interessiert sind wir daran, die Zelle sozusagen zu reorganisieren oder zu defragmentieren. Die Zusammenführung aller Gene, die gemeinsame Prozesse…die an gemeinsamen Prozessen beteiligt sind, würde dazu führen, dass man ein sehr verständliches Genom erhält. Hier sind einige der Menschen, die an diesem Projekt gearbeitet haben. Danke. Applaus.