Eric Betzig

Working Where Others Aren't

Category: Lectures

Date: 29 June 2015

Duration: 33 min

Quality: HD MD SD

Subtitles: EN DE

Eric Betzig (2015) - Working Where Others Aren't

I went into science drawn by the desire to do transformative rather than incremental work. I attribute my success to choosing projects having high potential “bang for the buck” that few others have identified as such, and moving on to new challenges when the field grows too crowded

I'd just like to thank the Foundation for their hospitality and all of you for being here today. I'm a tool builder by instinct and inclination. I got my start as a tool builder as a graduate student at Cornell when my advisers were working on an idea to basically shine light through a hole that's much smaller than a wavelength of light and use that as a little nano-flashlight to drive across the sample point by point and beat that diffraction limit that you heard about from Stefan and get a super-resolution image. I worked on that technology for six years in graduate school and was fortunate enough to kind of get it sort of working to the point where I got my foot in the door at Bell Labs and then had my own lab at Bell Labs, and proceeded to work on it for another six years. During that time, we did a number of applications eventually as the technology slowly improved. We could use polarization contrast to look at magneto-optic materials or use fluorescence to be able to look at phase transitions and Langmuir-Blodgett monolayers, do super-resolution lithography, histology, and low temperature cryogenic spectroscopy of quantum wells. So the technique started to take off, but the reason I got into near field was two-fold. I wanted to get into science not to do incremental things, but to do really impactful big things, and it seemed like near field was a possible way of doing that kind of thing. But the other thing I really liked about it was, at the time we started we didn't know anybody doing this. And I really liked the idea of going in a field from its birth and not having a bunch of elbows to bang up against while I'm trying to do my work. It turned out there were a couple of other groups working on it, and the idea goes all the way back to the twenties, but still it was pretty wide open territory at that time, and that felt a lot of fun. As it continued to develop, though, and as we started to have successes the field got more and more crowded. Particularly with two applications that we demonstrated. In '92, we were able to basically have the world record of data storage density by writing bits with near field as small as 60 nanometres. This started a whole big area with people jumping into this. I was under a little gentle pressure to start a commercialization programme based on this, but I didn't really want to go and do that. I didn't want to lead a big group. I wanted to still just explore where near field might go. Fortunately, my bosses at Bell were conducive to that and so I was able to do that. And it paid off because very quickly we were able to do what I dreamed of doing which was biology, which was, in this case, to be able to look at the actin cytoskeleton at about 50 nanometre resolution back in 1993. The problem is this was a fixed cell, and the dream really was to be able to have an optical microscope that could look at living cells with the resolution of an electron microscope, and we still weren't there. There was one thing about this experiment, which is that these single actin filaments had high enough signal-to-noise that it suggested that we could even see single molecules. And so, this was pretty much in the air in this era because a few years earlier W. E. Moerner had seen at cryogenic temperatures the spectral signature of single molecules. And you'll hear about that in a few days. And it turned out to be actually very easy to see single molecules with near field because the focus is so small that you reduce the background to near zero, and then it becomes very easy to see these single molecules, but there were surprises like their shapes were different and so forth. It turned out this was due to the orientations of the molecules, so we could measure the orientations and even determine their positions down to about a 40th of the wavelength of light. So at this time, this takes us up to '94, many people jumped into the field because of the spectroscopy applications, the data storage applications, the potential biology and single molecule applications, and I was basically really, really sick of doing near field at this time, and part of it was because of the fundamental limitations of the technology. The worst of them is that the light that comes out of that sub-wavelength hole spreads extremely rapidly. And if you're even about ten molecules away, you get a significant loss of resolution. Well, if the dream is to look at living cells, a cell is a lot rougher than that. But it had many other limitations, but at the same time so many people were jumping in the field and saying that, you know, it would cure cancer or that the moon was made of green cheese, or whatever. And what I basically learned in a career in science is that science has all of these fads, where there are these booms and busts, and so forth. And near field became one of these fads. And technologies basically go like this, and this is where I like to get in. This is where it's really fun, where it starts to pay off on the investment, and this is the time I found where you want to bail because this is where basically, you know, people go crazy, you know, with these things. This is where you'd like to believe it will go, but every new technology to me is like a new-born baby, and you think that it's going to become president or that it's going to cure cancer, win a Nobel prize, but usually you're happy if it just stays out of jail in the end. (laughing) So this is basically where most technologies end up, with some level that's above zero so it was a net gain, but not so much. And with near field, I felt like every good paper I was doing was just providing the justification for a hundred pieces of crap that followed. And I really felt like, what I was doing was a net negative to society because it was a waste of time and a waste of taxpayer's money. So basically I up and quit, and I quit not just Bell, I quit science. And so, I didn't have any idea what I wanted to do so I became a house husband. And a few months later while I was pushing my daughter around in a stroller, I realized that there was a way of taking some of the experiments I had done previously to come up with a different way of beating the diffraction limit. So the idea is if we care about fluorescence, which Stefan told you, why fluorescence is so important, the problem is that each of the molecules makes a little fuzzy ball, and those fuzzy balls overlap, and you got nothing but a mush. But if those molecules were different from one another in some way, say that they glowed in different colours, then I could look at them by their different colours in a higher dimensional space of XY and wavelength in that axis. Once they were isolated from one another, then I can just find the centroid, find the centre of those fuzzy blobs to much better precision than the diameter of the fuzzy blob and hence get with near molecular precision the coordinate of every molecule in the sample. So that was the basic idea. I was really excited about that for a month, but then I realized the catch is that even with the best focus you can create with a conventional microscope, there might be hundreds or thousands of molecules in that diffraction limited spot. And so you need ridiculously good discrimination be it wavelength or whatever in that third dimension to be able to turn on and see one molecule on top of hundreds or thousands of others. So I didn't really know how to do that, so I just published that while unemployed and left it at that. And so in the end, I fell back on my backup plan which was: my dad had started a machine tool company in '85 which by '94 had grown to about 50 million in sales. What they did is, they would make these very customized very large machines to make in very high volume a single part, customized for that part, for the auto industry. And so, this was a successful technology, but I had so much ego and still do, and so much naivety and still do, that I believe that if a single physicist when to the Rust Belt he could save it from the Japanese. So I went there and tried to see if I could do something to improve upon this technology. So I developed this machine which used an old technology called hydraulics, married it to energy storage principles you have in hybrid cars and also nonlinear control algorithms, and was able to make a machine that would take something the size of the width of this auditorium and collapse it to something the size of a compact car. And it would move four tons at eight g's of acceleration and position it to five micron precision. It was an amazing thing that I was very proud of. I spent four years developing it, three years trying to sell it, and in that time I sold two of them. And so, I learned that while I may not be an academic scientist, I'm a really horrible business man. And so, after blowing through over a million dollars of my dad's money, I went to him and I apologized, and I said, "I'm sorry, I gave this everything I had, but I just can't sell this thing." And so, I quit again. So then, it's the blackest time in my life because not only had I pissed away my academic career, I had also thrown away my backup plan of working for my family. And so, I needed to find something, and so I reconnected with my best friend at Bell, Harald Hess, who had also left Bell as Bell continued to shrink in the 90s and went to work in industry. And he was suffering the same sort of midlife crisis I was. He was more successful in business than I was, but still unsatisfied. That we really wanted to go back and do curiosity driven research and be able to work with our own hands and not be managers or anything like that, which typically is what starts to happen to you when you're in your 40s. We wanted to live like graduate students basically, okay. So we started to meet at various national parks and start to plan out what could we do in order to get back into a lab. And so, I started reading the scientific literature for the first time in a decade, and the first thing I ran across that just knocked me out was green florescent protein. The idea that you could snip some DNA out of a glowing jellyfish, and get that any organism you want to express any protein you want in a live organism, and have that fluorescence specific, 100% specificity, to the protein, was magic to me because it was so difficult in that actin experiment I showed, to get the labelling in there well enough to be able to see the actin without seeing a whole bunch of nonspecific crap besides. And so, I said, "Damn it. I guess I got to be a microscopist again." But I had a problem in that in ten years of not doing any physics, all my physics knowledge had flown straight out of my head. I couldn't remember anything. Well, I would take the kids to school. I would then go down to the cottage that we had nearby and sit out on the lake, and just start relearning physics from freshman textbooks onward, but within three months, it pretty much all fell back into place. I hadn't really forgotten it. It was just kind of blocked. And I started trying to figure out how I could use light in order to make a better microscope. Not a super-resolution microscope at this time but a better microscope that would exploit the advantages of live cell imaging of GFP. So I started thinking in fundamental terms from initially two wave vectors creating a standing wave. I added more wave vectors, got these weird periodic patterns, looked in the literature and heard about these things called optical lattices, which are used in quantum optics to trap and cool atoms. And I eventually came up with new classes of optical lattices that would actually be really good as a 3D multifocal excitation field to do massively parallel imaging at high speed of live cells. So I called that optical lattice microscopy, and that was the idea I wanted to pitch to get back into science. So Harald was helping me in this task of getting back in, and one of the places we went to visit to sell this idea was Florida State University where we met Mike Davidson. And Mike told us about not just fluorescent proteins but there was a very new type of fluorescent protein on the scene, which initially if you shine blue light on it, nothing happens. But if you shine purple light on it first, you activate the molecules, and then blue light causes it to turn green or to emit green light. And so, basically, it's a fluorescent molecule that you can turn on and off. So Harald and I were sitting in the airport in Tallahassee, and it struck us that this the missing link to make that idea that I had pitched in my first round of unemployment ten years earlier to work. So the idea is you turn the violet light down so low that only a few molecules come on at a time. And statistically they're likely to be separated by more than the diffraction limit so then you can find the centres of those fuzzy balls. Those molecules either turn off or bleach. You turn on the violet again to turn on another subset and round and round and round you go until you bleed out every molecule from the sample. So it was the idea I had in '95 except with time as the discriminating dimension, and that violet light is the knob by which we could get higher and higher resolution across that time axis. So obviously we had another problem in that I had convinced Harald on the basis of the lattice microscope, although he wasn't convinced to do it with me, to quit his job so now you got to unemployed guys. So how are we going to implement this idea because we think it's too ridiculously simple and a lot of people have to be thinking of it, and we were right. There were a lot of people just right on our heels. The good news is that Harald is a lot smarter than I am. So when I left Bell, I told them to go to hell, but when Harald left Bell, he was able to take all of his equipment with him. So we pulled that out of the storage shed, and then normally you do this type of work in the garage, but we were able to do it in his living room because he wasn't married, and it was a lot more comfortable there. In a couple of months, we had the scope built, and then I was scheduled to give a talk at NIH about about my lattice microscope, and I begged Jennifer Lippincott-Schwartz and George Patterson, who invented this photoactivated protein to come to my talk. Took them to lunch, swore them to secrecy, told them the idea, and that's the last missing link that needed to be filled, because Harald and I knew zip about biology. But Jennifer is one of the best cell biologist in the world and so she said just bring it here. So we packed up the scope, went to Jennifer's dark room, and within another couple months after that, we went from this sort of... This is looking at a slice through a cell at two lysosomes, little protein degradation bags, and then this is the diffraction limit and that's the photoactivated localization microscope or PALM image, and the resolution went from this to this. So two things, one Harald and I went from the concept of this idea to having the data in our science paper in six months, and we were able to do that because everybody left us alone. We were able to work just by ourselves. The second thing is that this type of work really requires that sort of solitude that you get in that sort of situation. That ability to focus 100%, and that's again and again I have found in my career critical, is to not be in academia for me has been key. Because whether I was at Bell, working for my father or working there, or working where I work now, it's the idea of just being left alone and focused with 100% attention on a problem is what allows me to get things done. So that's all the good news about super-resolution, but every new stage of my career has been influenced by the limitations of the thing I was doing before. And super-resolution has a crap-load of limitations. The first is that again we're looking at fluorescence, and if you don't decorate your fluorescence molecules densely enough, then you can completely miss a feature if you're at less than half a period in the spacing. And so, this is called the Nyquist criterion. You can see here that if you want to sample this image it doesn't matter what the intrinsic resolution of the microscope is, you don't have enough information. The bad news is that if you relate this to super-resolution if you don't have on the order of 500 molecules to get 20 nanometre resolution, you're done. It turns out that's a very high standard of labelling density compared to what most biologist had done previously for doing diffraction limited work. And what it means is that the ownness in making these technologies work is not on the tool developer it's, unfortunately, all on the biologist to figure out sample prep procedures that will work properly for this. And so now, you can also ask what is the big deal about super-resolution. I mean we've had EM for a long time, and its' pretty damn good. Well, there's two main reasons which Stefan hit upon. First is to do protein specific contrast, usually that's done by structural imaging on fixed cells. But the problem is that 95% of what we think we learned by super-resolution has been from chemically fixed cells, and their purpose is to cross-link proteins so they screw up the ultrastructure, and so it means we have to put an asterisk next to almost everything we learn when we look at fixed cells. The other more exciting application would be to do live cell imaging, but the problem is you can think if I want even just a factor of two resolution improvement in each of three dimensions, it means my voxels are eight times smaller. It means I have one eighth as many molecules in each voxel. If I want to get the same number of photons to get the same signal and noise as in a diffraction limited experiment, I either need to bang my cell with eight times as much light which it's not going to like, or else I'm going to have to wait eight times as long for those photons to come out. And the whole damn image will get smeared by motion artefacts. So there's claims in the literature of resolution for live cell imaging that require just by this back of the envelope calculation of a thousand to over ten thousand times as many photons from the cell as in a diffraction limited experiment. This is almost fantasy again. So I'm basically sometimes, with super-resolution, I felt like I was living the same bad nightmare all over again that I was in the near field era. By 2008, there were all sorts of crazy claims in terms of what could be done with super-resolution. And I knew just from my experience that this was not possible. And so, other problems are the intensities that are required for STED or for PALM are anywhere from kilowatts to gigawatts per square centimetre. But life evolved at a tenth of a watt per square centimetre. So we have to ask ourselves if we're doing live cell imaging, are we looking at a live cell or are we looking at a dead cell or a dying cell from the application of all this light. And these methods take a long time to create an image, and the cell is moving, and so you end up getting motion artefacts. So the moral of the story is I don't care what method you want to use, if you want higher spacial resolution you need more pixels. More pixels means more measurements. That takes more time. It means throwing more potentially damaging light at the specimen, and so if you're going to be honest your always playing with trade-offs between spatial resolution toxicity, temporal resolution, and imaging depth. The guy who really understood these trade-offs better than all of us, earlier than all of us, was Swedish native Mats Gustafsson who developed a third method of far field super-resolution, called structured illumination microscopy. And this technique you use a standing wave of excitation rather than uniform illumination of the sample which creates these Moiré fringes against the information in the sample to create lower spatial frequencies that the microscope can detect. One of the arguments in the Nobel committee's report as to why this did not share the Nobel prize, is it's limited to a factor of two in resolution gain, whereas STED's localization is diffraction unlimited. But in my opinion, this weakness of SIM is actually its strength. Because, first off, you need much lower labelling densities to achieve that which is much more compatible with current technology. And second, it requires orders of magnitude less light, and is orders of magnitude faster than the other methods. So here are a couple of examples. Here you're looking at the endoplasmic reticulum in a live cell, and yes the resolution is only you have because you're able to look at this cell for 1800 rounds of imaging at subsecond intervals. You get this dynamic aspect that you can't get with the other methods. Here is another example of showing the dynamics of actin in a T-cell after it's provoked the immunological synapse. So the good news is we were able to recruit Mats from UCSF to Janelia in 2008, but he was diagnosed with... Oops, that was interesting. So he was diagnosed with a brain tumour in 2009, and he ended up dying in 2011. So I ended up inheriting much of his group and his technology, and we've been trying to extend his legacy with this tool, too. Key to that is, if the argument is that SIM doesn't deserve to be spoken of in the same breath with STED and PALM because it doesn't have the same resolution, how can we get past that 100 nanometre barrier? Well, the simple and stupid way is to just increase the numerical aperture of your lens. So recently a 1.7 NA lens came onto the market which allows you with the GFP channel to push to 80 nanometre resolution. And then you can study for dozens or hundreds of time points in multiple colours because it doesn't require specialised labels. Dynamics in this case looking at clathrin-mediated endocytosis, and its interaction with the cortical actin, and how that helps to pull in these pits to bring cargoes inside of the cell. We've also developed recently another technique, a nonlinear structured illumination technique, that uses again this photo switching principle to put on a standing wave to generate the activation light in a spatially patterned way and read out the detection the same way to go from twice beyond the diffraction limit to three times beyond the diffraction limit. And then, that has gotten us to 60 nanometre resolution. Not as many time points and not quite as fast, but still allows us to look at live cells. So if, again, the knock has been that it doesn't have the resolution of other methods: Here we've compared this nonlinear SIM to RESOLFT and to localization microscopy, and basically we have resolution every bit as good, if not better with SIM now than we have with these other tools, but with hundreds of times less light and hundreds of times faster than these other methods. So I really think for live imaging between 60 and 200 nanometres SIM is going to be the go-to tool, and for structural imaging below 60 nanometres, PALM will be the tool. So the moral of the story is that while, again, everybody is crowding up against this goal of getting the highest spatial resolution, Mats wanted a space for himself working where others aren't and by pulling a little bit back, he had this whole play area where he could develop this tool. So it begs the question of, what if we go back all the way to the diffraction limit. Is there something we can do as physicists to make microscopes better for biologist and particularly, is there a way that we can increase the speed and noninvasiveness of imaging and live cell imaging to improve it by that same order of magnitude that PALM does in spatial aspect? And so, why do you want to do that? Well, the hallmark of life is that it's animate. And every living thing is a complex thermodynamic pocket of reduced entropy through which matter and energy is flowing continuously. So while structural imaging like super-resolution or electron microscopy will always be important, the only way we're going to understand how inanimate molecules self-assemble to create the animate cell is by studying it across all four dimensions of space time at the same time. So when I got as sick of super-resolution in 2008 as I was of near field in 1994, that's what I set out as my goal. The good news is that there was a new tool on the market that we could exploit which is the light sheet microscope. So what it does is it shoots a plane of illumination through a 3D sample to only illuminate one plane at once, so there's no damage to the regions above and below, and you can take a very quick picture cause the whole plane is illuminated then go plane by plane through the specimen. It's been transformative for understanding embryogenesis at single cell resolution, but it has a limitation in that the light sheets are pretty darn thick on the single cell level. We were able, basically, to then bring some physics tricks called nondiffracting beams. First these were Bessel beams, and eventually I was able to dust off my old ten-year-old lattice theory because two dimensional optical lattices are nondiffracting beams and create a light sheet that's much thinner, to then be able to look at the dynamics inside of single cells. So here are a bunch of examples of this. We've had about 50 different groups come to our lab to use this microscope and almost everyone has left with big smiles and ten terabytes of data. We never hear from them after that because they don't know what to do with ten terabytes of data. But in any case, I'm very proud of what we've done with PALM, but I'm morally convinced at this point that this will be the high water technique of my career. So one of the other things that that light sheet turned up, the lattice light sheet as we called it, turned out to be good for is that single molecule techniques in general have been limited to very thin samples because out of focus molecules obscure the signatures of the ones in focus. But the lattice light sheet is so thin that only in focus molecules are illuminated. And so that allowed us to apply another method of localization microscopy, developed by Robin Hochstrasser's group in the same year we developed PALM, where instead of prelabelling your cell and having a fixed number of molecules. Remember I said the basic problem is getting enough molecules in there to get the resolution you want. Well with PAINT, instead of prelabelling, the whole media around the cell is labelled with fluorophores. They're whizzing usually too fast to see, but when they stick they glow as a spot and then you localize those. So the advantage to this is there's an infinite army of molecules that can keep coming and coming and coming and decorate your cell. The disadvantage is because the media is glowing the SNR normally is too poor to do much single molecule imaging. So lattice light sheet with this PAINT technology is a marriage made in heaven. So here you're seeing 3D imaging over large volumes by using this method, and we're able to basically see. Now, basically, take localization microscopy to much thicker specimens at orders of magnitude higher density, and basically make something so we don't need to use EM to do sort of global contrast to combine with a local contrast we get from PALM. So the last thing Astrid, and then I'll be then off. I got two minutes and 22 seconds it says. You're early. Okay, is that we still have to deal with taking cells away from the cover slip. So much of what we've learned have been from immortalized cells, and all of these methods, if you take them from single cells and try to put them in organisms, they're incredibly sensitive to the refractive index variations that scramble the light as you go in and out with the fluorescent photons. So with STED, you have to have that perfect node in that doughnut. That's very sensitive to aberrations. With SIM, that standing wave gets corrupted. With confocal, your focus gets corrupted. With localization, your PSF, you have to have knowledge of the shape of that spot in order to find its centroid properly. And all of those things get screwed up by aberrations. Light sheet this is not showing, but as you go into an embryo. Right now, light sheet is in that same bullshit phase that other techniques are in, where people are saying: by using light sheet", but it just isn't so because the aberrations make the resolution so poor, you can't resolve single somas in certain areas of the brain. So what we've also been working on, is stealing from astronomers and using the tools of adaptive optics to allow us then to be able to look deep into live organisms. So this is an example here of looking in the brain of a developing zebrafish. In this case we had to develop a very fast AO technique because as you move from place to place the aberration is different so this represents 20,000 different adaptive optic corrections to cover this large volume. And as we go deep into the midbrain of the zebrafish, about 200 microns deep, we'll turn the adaptive optics off. That's what you would see with a state of the art microscope today, and then you turn the AO on and you get back to recovering the diffraction limit and recovering the signal. So for my group, what I really believe at this point is that we are on the cusp of a revolution in cell biology, because we still have not studied cells as cells really are. We need to study the cell on its own terms, and there's three parts of that puzzle. While GFP is great, it's largely been uncontrolled in its expression. So in the last couple years, these genome editing techniques have come on the scene to allow these proteins to be expressed at endogenous levels. These end up to be typically low levels so now confocal microscopy and these other techniques are far too perturbative to study dynamics, and you need things like lattice light sheet to be able to do that. But again, you can't look at cells in isolation and really see the whole story. You need to see all the cell-cell interactions, all the signalling that happens inside, where they actually evolved, and that's where the adaptive optics plays a part. So the future of my group is to develop adaptive optics to get that to work, to combine it with the lattice light sheet so we have a fast and noninvasive tool to look at dynamics. And then scroll in the super-resolution methods like SIM and PALM to add the high resolution on top of that. And with that, I thank you for your time.

Mein Dank geht an die Stiftung für ihre Gastfreundschaft und an Sie alle für Ihre Anwesenheit hier. Ich bin Maschinenbauer aus Instinkt und Neigung. Ich begann mit dem Maschinenbau als Doktorand in Cornell, als meine Betreuer an einer Idee arbeiteten, Licht durch ein Loch zu senden, das sehr viel kleiner als die Lichtwellenlänge war, und dies als ein kleine Nanolampe zu verwenden, um Punkt für Punkt durch die Probe zu fahren. Die Beugungsgrenze sollte überwunden werden, von der Stefan sprach, um ein Höchstauflösungsbild zu erreichen. Ich arbeitete an der Hochschule für Aufbaustudien sechs Jahre lang an dieser Technologie und hatte das Glück, sie solange weiterzuentwickeln bis zum Tage, an dem ich meinen Fuß in die Tür der Bell Labs bekam, dort schließlich mein eigenes Labor erhielt und weitere sechs Jahre an dieser Technologie arbeitete. In dieser Zeit entwickelten wir, während die Technologie langsam verbessert wurde, einige Anwendungen. Wir konnten Polarisationskontraste verwenden, zum Betrachten magneto-optischer Materialien, oder wir verwendeten Fluoreszenz, um Phasenübergänge und Langmuir-Blodgett Monoschichten sehen zu können, und Höchstauflösungslithografie, Histologie und kryogene Spektroskopie von Quantentöpfen vorzunehmen. Die Technologie gewann zunehmend an Bedeutung, aber zweierlei Gründe brachten mich zum Nahfeld. Ich wollte mich in der Wissenschaft nicht mit inkrementellen Dingen sondern mit wirklich Großem und Wirkungsvollem befassen und dafür schien Nahfeld eine Möglichkeit zu bieten. Das andere, was ich daran mochte war, als wir damit begannen, war uns keiner bekannt, der daran arbeitete. Ich mochte den Gedanken, ein noch unerforschtes Feld zu betreten, in dem es nicht jede Menge Ellbogen gab, die mir in die Seite stießen, während ich versuchte meine Arbeit zu tun. Es zeigte sich, dass ein paar andere Gruppen bereits daran arbeiteten. Die Idee reicht bis in die zwanziger Jahre zurück, damals war es dennoch ein ziemlich offenes Territorium und es fühlte sich faszinierend an. Allerdings, im Laufe der Entwicklung und mit dem Beginn unsers Erfolgs drängten immer mehr in das Feld. Besonders mit zwei Anwendungen, die wir im Jahr 1992 vorstellten, erreichten wir den Weltrekord bei der Datenspeicherdichte durch das Schreiben von Bits mit Nahfeld im 60-Nanometer-Bereich. Damit eröffnete sich ein großer Bereich, auf den sich die Leute stürzten. Ich stand unter dem Druck auf dieser Basis ein Programm zur späteren Vermarktung zu starten, was ich aber nicht wirklich wollte. Ich wollte keine große Gruppe leiten. Ich wollte noch immer einfach erkunden, wohin das Nahfeld führen könnte. Zum Glück hatten meine Vorgesetzten bei Bell Verständnis dafür und so konnte ich dies verfolgen. Es zahlte sich aus: Wir waren nämlich sehr schnell zu dem in der Lage, von dem ich geträumt hatte, nämlich im Bereich Biologie im Jahre 1993 das Aktinzytoskelett in einer etwa 50-Nanometer-Auflösung anzusehen. Das Problem war, es handelte sich um eine fixierte Zelle; der Traum war aber ein optisches Mikroskop, mit dem man sich lebenden Zellen mit der Auflösung eines elektronischen Mikroskops ansehen kann, und da waren wir noch nicht. Es gab eine Sache bei diesem Experiment: diese einzelnen Aktinfilamente hatten einen ausreichend großen Signal-Rausch-Abstand, der nahelegte, wir könnten sogar einzelne Moleküle sehen. Zu dieser Zeit war das noch ziemlich ungewiss, einige Jahre zuvor hatte nämlich W. E. Moerner bei kryogenen Temperaturen die spektrale Signatur einzelner Moleküle gesehen. Sie werden davon in wenigen Tagen hören. Es zeigte sich, dass es in der Tat sehr leicht war, einzelne Moleküle mit Nahfeld zu sehen, da der Brennpunkt so klein ist, dass man den Hintergrund nahezu auf Null reduziert und danach ist es sehr leicht, die einzelnen Moleküle zu sehen. Doch gab es Überraschungen, etwa dass die Formen unterschiedlich waren und so weiter. Als Ursache dafür stellte sich die Ausrichtung der Moleküle heraus, wir konnten also die Ausrichtungen messen und sogar ihre Positionen bis hinunter auf ein Vierzigstel der Lichtwellenlänge bestimmen. Damals, das führt uns ins Jahr ’94, stürzten sich viele Leute wegen der Spektroskopie-Anwendungen, der Datenspeicheranwendungen, der potentiellen biologischen und einzelmolekularen Anwendungen auf diesen Bereich und ich war es damals wirklich überdrüssig, mich mit Nahfeld zu befassen und das zum Teil auch wegen den fundamentalen Grenzen der Technologie. Das Schlimmste daran ist, dass das Licht, das aus dem Sub-Wellenlängen-Loch tritt, sich extrem schnell ausbreitet. Selbst wenn man nur zehn Moleküle entfernt ist, erhält man einen signifikanten Auflösungsverlust. Wenn man davon träumt, lebende Zellen zu sehen, so ist eine Zelle sehr viel gröber. Doch es gibt sehr viele andere Grenzen, zudem stürzten sich so viele Leute auf diesen Bereich und meinten, sie könnten Krebs heilen oder der Mond sei aus grünem Käse, oder was auch immer. Ich lernte in meiner wissenschaftlichen Laufbahn, dass es in der Wissenschaft alle diese Modeerscheinungen gibt, mit ihrem Auf und Ab und so weiter. Und Nahfeld wurde zu einer dieser Modeerscheinungen. Technologien entwickeln sich in etwa so, und hier möchte ich ansetzen. Hier macht es wirklich Freude und der Einsatz beginnt sich auszuzahlen und das ist die Zeit, in der man abspringen möchte, weil die Leute bei diesen Dingen ausflippen. Man möchte dann gerne glauben, es würde aufhören. Aber für mich ist jede neue Technologie wie ein Neugeborenes, man glaubt, es wird Präsident werden, oder den Krebs heilen, einen Nobelpreis gewinne, doch meist ist man nur froh, wenn es schließlich nicht im Gefängnis landet. So ist es im Grunde, wie die meisten Technologien enden, mit einem Niveau, das etwas über Null liegt, es gab also einen Nettogewinn, aber eben doch nicht allzu viel. Beim Nahfeld hatte ich das Gefühl, jedes gute Paper, das ich schrieb, war nur eine Rechtfertigung für hunderte Paper sinnlosen Quatsches, die dann folgten. Ich hatte wirklich das Gefühl, was ich tat war ein Negativbeitrag für die Gesellschaft, weil es Zeitverschwendung und eine Vergeudung von Steuergeldern war. Also stieg ich aus, und ich stieg nicht nur bei Bell aus, ich gab auch die Wissenschaft auf. Und da ich keine Ahnung hatte, was ich wollte, wurde ich Hausmann. Ein paar Monate später, ich fuhr gerade meine Tochter in ihrem Kinderwagen spazieren, erkannte ich, es gab eine Möglichkeit sich bei einige Experimente, die ich kürzlich durchgeführt hatte, einen anderen Weg einfallen zu lassen, um die Beugungsgrenze zu überwinden. Der Gedanke war, ob wir uns um Fluoreszenz kümmern. Stefan hat davon gesprochen, weshalb Fluoreszenz so wichtig ist. Das Problem ist, jedes Molekül ist eine kleine unscharfe Kugel und diese unscharfen Kugeln überlagern sich und man erhält nur einen Brei. Würden sich diese Moleküle irgendwie voneinander unterscheiden, zum Beispiel in unterschiedlichen Farben leuchten, könnte ich sie auf ihre unterschiedlichen Farben hin in einem höher-dimensionalen Raum von XY und der Wellenlänge in dieser Achse ansehen. Sobald sie voneinander isoliert sind, kann ich den Zentroid, das Zentrum dieser unscharfen Kugeln, sehr viel präziser finden, anstelle des Durchmessers der unscharfen Kugel, und erhalte so mit beinahe molekularer Präzision die Koordinate jedes Moleküls in der Probe. Das war also die Grundidee. Ich war etwa einen Monat ganz begeistert davon, erkannte dann aber, der Haken ist, selbst mit dem besten Brennpunkt, den man bei einem konventionellen Mikroskop erhalten kann, kann es in diesem beugungsbegrenzten Punkt Hunderte oder Tausende von Molekülen geben. Daher braucht es eine absurd gute Auflösung, sei es bei der Wellenlänge, oder was auch immer es in dieser dritten Dimension ist, um einschalten zu können und ein Molekül auf innerhalb von Hunderten oder Tausenden zu sehen. Ich wusste nicht wirklich, wie das erzeugt werden kann. Ich publizierte das einfach während meiner Arbeitslosigkeit und beließ es dabei. Am Ende griff ich auf meinen Absicherungsplan zurück. Mein Vater hatte im Jahre 1985 ein Unternehmen für Werkzeugmaschinen gegründet, das bereits 1994 einen Umsatz von 50 Millionen erzielte. Das Unternehmen stellte sehr kundenspezifische, sehr große Maschinen für sehr große Losgrößen eines einzelnen Teils her. Die Maschinen werden für die Automobilindustrie genau für ein Teil kundenspezifisch hergestellt. Es handelte sich um eine erfolgreiche Technologie. Ich hatte aber ein so großes Ego und hab es immer noch, und sehr viel Naivität, die ich auch immer noch habe, dass ich der Meinung war, wenn ein einzelner Physiker in die alte Industrieregion der USA ginge, könnte er sie vor den Japanern retten. Also ging ich dorthin, um zu sehen, ob ich etwas zur Optimierung dieser Technologie tun könnte. Ich entwickelte diese Maschine, die eine alte Technologie nutzte, Hydraulik genannt, verband diese mit Prinzipien der Energiespeicherung, wie sie bei Hybridautos verwendet werden, sowie mit nichtlinearen Regelalgorithmen und war damit in der Lage eine Maschine herzustellen, die erst in etwa die Breite dieses Hörsaals hatte, und die ich dann in etwa auf die Größe eines Kleinwagens reduzierte. Dazu würde sie vier Tonnen bei 8 G Beschleunigung bewegen und auf 5 Mikrometer genau positionieren. Es war ein erstaunliches Ding, auf das ich sehr stolz war. Ich verbrachte vier Jahre damit, sie zu entwickeln, drei Jahre damit, sie zu verkaufen, und in dieser Zeit habe ich zwei davon verkauft. Ich lernte also, dass ich vielleicht kein Wissenschaftler bin aber sicher ein miserabler Geschäftsmann. Nachdem ich also mehr als eine Million Dollar meines Vaters in den Sand gesetzt hatte, ging ich zu ihm und entschuldigte mich. Ich sagte: “Es tut mir leid, ich habe alles was mir möglich ist gegeben, ich kann das Teil aber einfach nicht verkaufen.“ Und so kündigte ich wieder. Das war die dunkelste Zeit meines Lebens, ich hatte nicht nur meine akademische Laufbahn hingeschmissen sondern auch die Idee in den Sand gesetzt, im Familienbetrieb zu arbeiten. Ich musste also etwas finden und nahm daher wieder Kontakt mit einem Freund, Harald Hess, bei Bell auf. Auch er hatte Bell verlassen, als diese in den 90er Jahren schrumpften, und war in die Industrie gegangen. Er litt an der gleichen Art Midlife-Krise, an der auch ich litt. Im Geschäftsleben war er erfolgreicher als ich, aber eben doch unzufrieden. Wir wünschten uns wieder neugierige Forschung zu betreiben und mit den eigenen Händen zu arbeiten. Wir wollten keine Manager sein, was einem gewöhnlich passiert, wenn man in den 40ern ist. Wir wollten im Grunde wie Doktoranden leben. Wir begannen uns in verschiedenen Nationalparks zu treffen und schmiedeten Pläne, wie wir wieder zurück ins Labor gelangen könnten. Und ich begann nach einem Jahrzehnt wieder damit, wissenschaftliche Arbeiten zu lesen. Das Erste, was mir da begegnete haute mich um. Es war das grüne fluoreszierende Protein. Der Gedanke, man könne etwas DNA aus einer leuchtenden Qualle schneiden und damit jedes Protein in einem gewünschten lebende Organismus spezifisch fluoreszieren lassen, mit 100% Bestimmtheit, das faszinierte mich, da es in dem Aktin-Experiment, das ich gezeigt hatte, so schwierig gewesen war, eine ausreichende gute Markierung zur Betrachtung des Aktins zu erhalten, ohne dass daneben eine Menge unspezifischen Mists auftauchte. Und da meinte ich: “Verdammt, ich glaube, ich werde wieder ein Mikroskopierer.“ Ich hatte aber ein Problem, da ich zehn Jahren lang aus der Physik heraus war, war mir mein ganzes physikalisches Wissen abhanden gekommen. Ich konnte mich an nichts erinnern. Nun, ich brachte die Kinder zur Schule. Danach ging ich zu dem Häuschen, das wir in der Nähe hatten, setzte mich am See hin und begann Physik neu zu lernen, ab den Lehrbüchern der Erstsemester und dann weiter. Innerhalb von drei Monaten fügte sich alles wieder zusammen. Ich hatte es nicht wirklich vergessen. Ich war nur irgendwie blockiert. Und ich versuchte herauszufinden, wie ich das Licht dazu verwenden könnte, um ein besseres Mikroskop zu erhalten. Damals ging es nicht um ein super-auflösendes Mikroskop, sondern um ein besseres Mikroskop, welches die Vorteile des Live Cell Imaging von GFP nutzen würde. Ich begann in grundlegenden Begriffen zu denken, von anfänglich zwei Wellenvektoren, die eine stehende Welle erzeugen. Ich fügte weitere Wellenvektoren hinzu und erhielt diese merkwürdig periodischen Muster, sah in der Literatur nach und hörte von etwas, das optische Gitter genannt wurde, die in der Quantenoptik dazu verwendet werden, Atome einzufangen und zu kühlen. Schließlich dachte ich mir die neuen Arten optischer Gitter aus, die sich wirklich gut als ein 3D multifokales Erregerfeld eignen würden, um bei lebenden Zellen eine sehr leistungsfähige Bildgebung in hoher Geschwindigkeit zu erhalten. Ich nannte dies optische Gitter-Mikroskopie und wollte es mit dieser Idee schaffen, wieder zur Wissenschaft zurückzukehren. Harald half mir bei der Aufgabe mich wieder hineinzuarbeiten und ein Ort, den wir aufsuchten, um diese Idee vorzustellen war die Florida State University, wo wir auf Mike Davidson trafen. Mike erzählte uns nicht nur von fluoreszierendem Protein, sondern von einer ganz neuen Art fluoreszierenden Proteins, bei dem, wenn man es zuerst mit blauem Licht anstrahlt, nichts geschieht. Wenn man es aber zuerst mit violettem Licht anstrahlt, die Moleküle aktiviert werden und blaues Licht daraufhin verursacht, dass es grün wird oder grünes Licht ausstrahlt. Im Grunde ist es ein fluoreszierendes Molekül, das man ein- und ausschalten kann. Da saßen Harald und ich also im Flughafen von Tallahassee, und uns wurde klar, dass dies das fehlende Glied war, um jene Idee, die ich während meiner ersten Arbeitslosigkeit zehn Jahren zuvor umrissen hatte, zu realisieren. Der Gedanke war, das violette Licht so niedrig zu fahren, dass sich jeweils nur wenige Moleküle einschalten. Rein statistisch werden sie wahrscheinlich durch mehr als die Beugungsgrenze getrennt, sodass man die Zentren der unscharfen Kugeln finden kann. Diese Moleküle schalten sich entweder aus oder verblassen. Man fährt das Violett wieder hoch, um eine andere Teilmenge anzuschalten und so geht es in einem fort weiter, bis man aus der Probe alle Moleküle extrahiert hat (Bleed-Out). Das war die Idee, die ich 1995 hatte, ausgenommen der Zeit als kritischer Dimension und dem violetten Licht als Knopf, mittels dessen wir immer höhere Auflösungen entlang dieser Zeitachse erhielten. Wir hatten ein weiteres Problem, da ich Harald auf der Grundlage des Gittermikroskops überzeugt hatte, obgleich er nicht davon überzeugt war, es mit mir zu versuchen, und er hatte seine Arbeit gekündigt und da gab es jetzt zwei arbeitslose Typen. Wie also setzen wir diese Idee um, denn wir waren der Meinung, dass es so lächerlich einfach ist und bereits eine Menge Leute darüber nachgedacht haben, und darin hatten wir recht. Es gab eine Menge Leute, die uns unmittelbar auf den Fersen waren. Die gute Nachricht ist: Harald ist sehr viel klüger als ich. Als ich Bell verließ, sagte ich ihnen, sie sollten sich zum Teufel scheren. Als Harald Bell verließ, konnte er seine gesamte Ausrüstung mitnehmen. Wir holten sie also aus dem Lagerschuppen und normalerweise macht man solche Arbeiten in der Garage, aber wir konnten es in seinem Wohnzimmer tun, denn er war nicht verheiratet und dort war es sehr viel gemütlicher. In wenigen Monaten hatten wir das Mikroskop gebaut und dann hatte ich einen Termin bei NIH, bei dem ich über mein Gittermikroskop berichtete und ich bat Jennifer Lippincott-Schwartz und George Patterson, die das photoaktivierte Protein erfunden hatten, auf ein Gespräch ein. Wir aßen zusammen zu Mittag, verpflichtete sie zum Stillschweigen und ich erzählte ihnen von meiner Idee, und dass dies das letzte fehlende Glied sei, Harald und ich hatten nämlich keine Ahnung von Biologie. Jennifer ist jedoch eine der besten Zellbiologen der Welt und meinte, ich solle es eben mal mitbringen. Wir packten unser Mikroskop ein und gingen in Jennifers Dunkelkammer und danach, innerhalb von zwei Monaten, kamen wir von dieser Art von… Hier sieht man auf eine Scheibe durch eine Zelle auf zwei Lysosome, kleine Beutel mit Proteinabbau, dann ist da die Beugungsgrenze und das ist das photoaktivierte Lokalisierungsmikroskop oder PALM Image und die Auflösung verlief von hier nach hier. Also zwei Dinge, einmal, Harald und ich wollten vom Konzept dieser Idee ausgehend, die Daten innerhalb von sechs Monaten in unserer wissenschaftlichen Schrift vorlegen, und wir konnten es, weil uns alle ließen. Wir konnten einfach für uns arbeiten. Das Zweite ist, diese Art Arbeit erfordert diese Abgeschiedenheit, die man in einer solchen Situation nun mal hat. Die Fähigkeit sich 100% zu konzentrieren, und das immer wieder, habe ich in meiner Laufbahn als essentiell erfahren; nicht im akademischen Betrieb zu sein, das war für mich der Schlüssel. Denn ob es bei Bell war, bei der Arbeit für meinen Vater, oder da, wo ich jetzt arbeite, es ist der Gedanke alleine zu sein und sich mit Das sind also alle guten Nachrichten über die Superauflösung, doch jedes neue Stadium meiner Laufbahn wurde durch die Einschränkungen der Dinge beeinflusst, an denen ich zuvor gearbeitet hatte. Superauflösung war ein Haufen voller Einschränkungen. Zuerst schauen wir uns wieder Fluoreszenz an, und wenn man seine fluoreszierenden Moleküle nicht dicht genug umkleidet, kann man eine Eigenschaft völlig übersehen, wenn man nicht weniger als eine Halbwertzeit in den Abständen ist. Das also nennt man das Nyquist-Kriterium. Sie sehen, will man von diesem Bild eine Stichprobe nehmen, ist die intrinsische Auflösung des Mikroskops unwesentlich; Sie haben nicht genug Informationen. Die schlechte Nachricht ist, wenn man dies auf die Superauflösung bezieht, sofern man nicht den Auftrag hat, von 500 Molekülen eine 20-Nanometer-Auflösung zu erhalten, ist man erledigt. Es zeigte sich, dies ist ein sehr hoher Standard für Dichte ist, verglichen mit dem was die meisten Biologen zuvor an beugungsbegrenzter Arbeit getan haben. Dies bedeutet, die Realisierung dieser Technologien liegt nicht beim Werkzeugentwickler, leider, sondern beim Biologen, der Vorbereitungsverfahren für Proben finden muss, die dafür funktionieren. Sie können jetzt natürlich fragen, was das Besondere an der Superauflösung ist. Wir verwendeten lange Zeit EM, und das war verdammt gut. Es gibt zwei Hauptgründe, auf die Stefan bereits hingewiesen hat. Der erste ist der proteinspezifische Kontrast, der gewöhnlich mit struktureller Bildgebung an fixierten Zellen eingestellt wird. Das Problem jedoch ist, 95% von dem, was wir glauben durch Superauflösung gelernt zu haben, geschah mit chemisch fixierten Zellen, deren Zweck ist das Vernetzen von Proteinen, wodurch die Ultrastruktur vermasselt wird. Das bedeutet, wir müssen fast alles, was wir beim Ansehen von fixierten Zellen erfahren, mit einem Sternchen versehen. Aufregender wäre es, Live Cell Imaging vorzunehmen. Das Problem ist, wie Sie sich denken können, selbst wenn ich nur einen Faktor von zwei Auflösungsverbesserungen möchte in jeder der drei Dimensionen, bedeutet dies meine Voxel sind acht Mal kleiner. Also habe ich in jedem Voxel ein Achtel so viele Moleküle. Wenn ich die gleiche Anzahl Photonen möchte, um das gleiche Signal und Geräusch wie in einem beugungsbegrenzten Experiment zu erhalten, muss ich auf meine Zelle entweder acht Mal so viel Licht geben, was dieser nicht gefallen wird, oder aber ich muss acht Mal länger darauf warten, dass diese Photonen zum Vorschein kommen und das ganze Bild wird durch Bewegungsartefakte verwischt. Man braucht laut Literatur zur Auflösung von Live Cell Imaging Das wiederum ist beinahe ein Hirngespinst. Manchmal empfinde ich, als würde ich bei der Superauflösung den gleichen Albtraum, den ich beim Nahfeld-Bereich hatte, wieder aufs Neue erleben. Ich weiß aus meiner Erfahrung, dies war nicht möglich. Weitere Probleme sind die Intensität, die für STED oder für PALM irgendwo zwischen Kilowatt bis Gigawatt pro Quadratzentimeter beträgt. Doch Leben entwickelt sich bei einem Zehntel eines Watts pro Quadratzentimeter. Wir müssen uns also fragen, wenn wir Live Cell Imaging vornehmen, schauen wir uns dann eine lebende Zelle an oder eine tote oder eine sterbende, aufgrund der Anwendung all dieses Lichts. Und diese Methoden erfordern viel Zeit, um ein Bild zu erzeugen und die Zelle ist in Bewegung und am Ende erhält man Bewegungsartefakte. Die Moral von der Geschichte ist, mich kümmert es nicht, welche Methode Sie anwenden. Will man eine höhere räumliche Auflösung, braucht man mehr Pixel. Mehr Pixel bedeutet mehr Messungen. Das dauert länger. Es bedeutet, die Probe mehr potentiell schädigendem Licht auszusetzen und wenn Sie ehrlich sind, man hat es immer mit Abwägungen zwischen räumlicher Auflösung, zeitlicher Auflösung und Abbildungstiefe zu tun. Jemand, der diese Abwägungen besser und früher als wir alle wirklich verstanden hatte war der gebürtige Schwede Mats Gustafsson, der eine dritte Methode der Fernfeld-Superauflösung entwickelte, genannt "strukturierte Beleuchtung". Bei dieser Technik verwendet man eine Anregung per stehender Welle statt einer einheitlichen Beleuchtung der Probe, wodurch diese Moiré-Effekte aus den Informationen in der Probe entstehen, die wiederum niedrigere Frequenzen bewirken und so vom Mikroskop erkennbar werden. Ein Argument im Bericht des Nobelpreis-Komitees, weshalb dies keinen Nobelpreis erhielt war, dies sei auf einen Faktor zwei beim Auflösungsgewinn begrenzt, wohingegen die Lokalisation von STED beugungsunbegrenzt sei. Doch ich meine, diese Schwäche von SIM ist eigentlich eine Stärke. Denn erstens, man benötigt sehr viel niedrigere Kennzeichnungsdichten, was mit der derzeitigen Technologie sehr viel kompatibler ist. Und zweitens erfordert es um Größenordnungen weniger Licht und ist um Größenordnungen schneller als andere Methoden. Hier sind ein paar Beispiele. Sie sehen hier das endoplasmatische Retikulum einer lebenden Zelle und ja, die Auflösung beträgt nur 100 Nanometer, Sie sehen aber die Detailfülle an Informationen, die man erhält, weil man in der Lage ist, diese Zelle 1800 Umläufe lang bei der Bildverarbeitung in Subsekunden-Intervallen anzusehen. Man erhält diesen dynamischen Aspekt, den man mit den anderen Methoden nicht bekommt. Hier ist ein weiteres Beispiel, das Verhalten von Aktin in einer T-Zelle, nachdem sie die immunologische Synapse ausgelöst hat. Die gute Nachricht ist, wir konnten 2008 Mats von der UCSF für Janelia anwerben, aber es wurde diagnostiziert… Ich übernahm viel aus seiner Gruppe und seiner Technologie und wir versuchen auch, mit diesem Instrument sein Vermächtnis weiterzuführen. Der Schlüssel dazu ist: Wenn der Einwand, weshalb man SIM nicht im gleichen Atemzug mit STED und PALM nennt, der ist, dass es nicht die gleiche Auflösung hat, wie können wir dann diese 100 Nanometer-Barriere überwinden? Der einfache und dumme Weg ist, einfach die numerische Apertur des Objektivs zu erhöhen. Vor kurzem kam ein 1,7 NA Objektiv auf den Markt, mit dem man mittels des GFP-Kanals bis zur 80 Nanometer-Auflösung klettern kann. Dann kann man dutzende oder hunderte Zeitpunkte mehrfarbig studieren, da keine speziellen Markierungen notwendig sind. Bewegung heißt hier, sich die clathrin-vermittelte Endozytose und seine Interaktion mit dem Cortactin anzusehen, und wie dies dazu beiträgt, diese Vertiefungen hineinzuziehen, um Material in die Zelle zu bekommen Kürzlich haben wir eine weitere Technik entwickelt. Eine nichtlineare strukturierte Beleuchtungstechnik, die wieder dieses Photo-Schaltprinzip verwendet, um eine stehende Welle aufzustellen, um das Aktivierungslicht auf eine räumlich gestaltete Art zu generieren und auf die gleiche Art die Erkennung vorzunehmen. Hier hebt man die Auflösung von der doppelten Beugungsgrenze zur dreifachen Beugungsgrenze. Das brachte uns zu einer 60-Nanometer-Auflösung. Nicht so viel Zeitpunkte und nicht ganz so schnell, aber man kann damit lebende Zellen sehen. Nochmal, wenn es das war, dass es nicht die Auflösung anderer Methoden hatte: Wir haben dieses nichtlineare SIM mit RESOLFT und Lokalisationsmikroskopie verglichen. Im Grunde haben wir jetzt mit SIM eine ebenso gute Auflösung, wenn nicht sogar eine bessere, als wir dies mit den anderen Instrumenten haben, doch mit hunderte Male weniger Licht und hunderte Male schneller als mit diesen anderen Methoden. Ich glaube wirklich, für die Lebendzellenbeobachtung zwischen 60 und 200 Nanometer wird SIM das Go-to-Instrument und für die strukturelle Bildgebung unter 60 Nanometer wird es PALM sein. Die Moral von der Geschichte ist, während jedermann sich um dieses Ziel drängte, um die höchste räumliche Auflösung zu erhalten, wünschte sich Mats einen eigenen Raum zum Arbeiten, da wo andere es nicht tun. Und indem er sich etwas zurücknahm, hatte er diese ganze Spielwiese, auf der er sein Instrument entwickeln konnte. Es stellt sich also die Frage, was ist, wenn wir den ganzen Weg zur Beugungsgrenze zurückgehen. Gibt es da etwas, was wir als Physiker tun können, um für Biologen bessere Mikroskope zu entwickeln und insbesondere, gibt es eine Möglichkeit die Geschwindigkeit zu erhöhen und Nichtinvasivität bei der Bildgebung und dem Live Cell Imaging zu haben, um es in der gleichen Größenordnung zu optimieren, wie PALM dies hinsichtlich räumlicher Auflösung leistet? Und warum würde man dies tun wollen? Nun, das Kennzeichen von Leben ist: es ist lebendig. Und alles Lebendige ist eine komplexe thermodynamische Melange verringerter Entropie, durch welche fortlaufend Materie und Energie strömen. Auch wenn strukturelle Bildgebung wie Superauflösung oder Elektronenmikroskopie immer wichtig bleiben werden, die einzige Möglichkeit, wie wir verstehen können, wie sich leblose Moleküle miteinander verbinden, um eine lebendige Zelle zu schaffen ist, dies quer über alle vier Dimensionen von Raum-Zeit gleichzeitig zu studieren. Als mir 2008 Superauflösung ebenso zuwider wurde wie das Nahfeld 1994, habe ich mir dies zum Ziel gesetzt. Die gute Nachricht ist, es gab auf dem Markt ein neues Instrument, das wir nutzen konnten, das Lichtscheibenmikroskop. Es schießt eine Beleuchtungsebene durch eine 3D Probe, damit nur eine Ebene auf einmal beleuchtet wird. Es werden also keine Bereiche darüber und darunter beschädigt und man kann ein sehr schnelles Bild aufnehmen, denn die gesamte Ebene ist beleuchtet, dann führt man das Ebene für Ebene durch die Probe fort. Dies war für das Verständnis der Embryogenese bei einer einzelnen Zellenauflösung sehr wichtig, hatte aber eine Einschränkung dadurch, dass die Lichtscheiben auf dem Einzel-Zell-Level ziemlich dick sind. Wir konnten dann einige Physik-Tricks einsetzen, nämlich sogenannt nicht-brechende Strahlen. Zuerst waren es Bessel-Strahlen und schließlich konnte ich meine zehn Jahre alte Gittertheorie aus der Versenkung holen, denn die zweidimensionalen optischen Gitter sind nicht-brechende Strahlen, die eine Lichtscheibe erzeugen, die viel dünner ist, und man kann sich dann die Bewegungen innerhalb einzelner Zellen ansehen. Hier sind einige Beispiele dafür. In unser Labor kamen etwa 50 verschiedene Gruppen, um dieses Mikroskop zu nutzen und fast jeder verließ das Labor mit einem breiten Lächeln und zehn Terabytes an Daten. Danach hören wir nichts mehr von ihnen, denn sie wissen nicht, was man mit zehn Terabytes an Daten anfangen soll. Ich bin aber auf jeden Fall sehr stolz darauf, was wir mit PALM zuwege gebracht haben, an diesem Punkt bin ich aber überzeugt, dass dies die Spitzentechnik meiner Laufbahn sein wird. Eine weitere Sache, die Klarheit brachte, tauchte auf, die Gitter-Lichtscheibe, wie wir sie nannten, erwies sich als für Einzelmolekül-Techniken geeignet, da sich diese allgemein auf sehr dünne Proben beschränken, da unscharfe Moleküle die Signatur der scharf eingestellten Moleküle verdunkeln. Die Gitter-Lichtscheibe ist aber so dünn, dass nur die scharf eingestellten Moleküle beleuchtet werden. Dadurch konnten wir eine andere Methode der Lokalisationsmikroskopie anwenden, die die Gruppe Robin Hochstrassers im gleichen Jahr entwickelt hatte in dem wir PALM entwickelten, statt der Vormarkierung der Zelle und einer festgelegten Anzahl von Molekülen... Erinnern Sie sich, ich sagte, das Grundproblem ist, ausreichend Moleküle zu erhalten, um die gewünschte Auflösung zu bekommen. Bei PAINT wird statt der Vormarkierung das ganze Medium um die Zelle mit Fluoreszenz-Farbstoffen markiert. Gewöhnlich schwirren die Farbstoffe zu schnell herum, als dass man sie sehen könnte, wenn sie aber haften, leuchten sie wie ein Fleck und man kann sie dann lokalisieren. Der Vorteil hiervon ist, es gibt eine unendliche Armee an Molekülen, die ständig hinzukommen und Ihre Zelle umkleiden. Der Nachteil ist, da das Medium leuchtet, ist SNR normalerweise zu schwach, um viel an Einzel-Molekül-Imaging vorzunehmen. Die Gitter-Lichtscheibe zusammen mit dieser PAINT-Technologie ist eine höchst wundervolle Kombination. Sie sehen hier den Einsatz dieser Methode die 3D-Bilderfassung bei großen Volumina, und prinzipiell können wir das sehen. Nehmen Sie Lokalisierungsmikroskopie für viel dickere Proben in der Größenordnung hoher Dichte und wir haben etwas, damit wir kein EM für den allgemeinen Kontrast benötigen, um es mit einem lokalen Kontrast zu kombinieren, den wir von PALM erhalten. Noch eine letzte Sache, Astrid, und dann mache ich Schluss. Ich habe noch zwei Minuten und 22 Sekunden zum Reden. Sie sind früh dran. Es geht darum, wir müssen immer noch die Zellen vom Deckglas nehmen. Vieles was wir gelernt haben, haben wir durch immortalisierte Zellen gelernt und alle diese Methoden, versucht man sie von der Einzelzelle auf den Organismus anzuwenden, sind unglaublich empfindlich hinsichtlich der Variationen des Brechungsindexes, die das Licht beim Hinein- und Hinausgehen der fluoreszierenden Photonen verwischen. Bei STED haben Sie diesen perfekten Knoten im Doughnut. Der ist bei Abweichungen sehr empfindlich. Bei SIM wird die stehende Welle beschädigt. Bei konfokal wird der Brennpunkt beschädigt. Bei Lokalisierung, ihrer PFS, benötigt man die Kenntnis über die Form jenes Flecks, damit man seinen Zentroid genau findet. Alles das wird durch Abweichungen vermasselt. Lichtscheibe wird nicht gezeigt, aber wenn man es mit einem Embryo zu tun hat... Die Lichtscheibe ist in der gleichen miserablen Phase, in der sich andere Techniken befinden, bei denen die Leute sagen: wenn wir die Lichtscheibe verwenden“, doch dem ist nicht so, da durch die Abweichungen die Auflösung so schlecht wird. Man kann einzelne Zellsoma in bestimmten Bereichen des Gehirns nicht auflösen. An was wir gearbeitet haben war, Anleihen bei Astronomen zu machen und die Instrumente der adaptiven Optik zu verwenden, damit wir tiefer in die leben Organismen hineinsehen können. Dies ist das Beispiel für den Blick in das Gehirn eines sich entwickelnden Zebrafisches. In diesem Falle mussten wir eine sehr schnelle AO-Technik entwickeln, da beim Wechsel von einem Ort zum andern die Abweichung sich ändert. Das hier repräsentiert 20.000 verschiedene adaptive optische Berichtigungen, damit dieses große Volumen abgedeckt wird. Wenn wir tiefer in das Mittelgehirn des Zebrafisches gehen, etwa 200 Mikrometer tief, schalten wir die adaptive Optik aus. Das würden Sie mit einem modernen Mikroskop sehen und dann schalten Sie die AO ein und man ist wieder da, wo man die Beugungsgrenze erhält und das Signal erhält. Was meine Gruppe betrifft und an was ich derzeit wirklich glaube ist, wir stehen am Scheitelpunkt zu einer Revolution in der Zellbiologie, denn wir haben Zellen noch immer nicht so untersucht, wie sie in Wirklichkeit sind. Wir müssen die Zelle unter ihren eigenen Bedingungen studieren und bei diesem Rätsel gibt es drei Teile. GFP ist großartig, seine Rohdaten sind aber weitgehend ungeordnet. In den letzten zwei Jahren traten diese Bearbeitungstechniken des Erbguts hervor, mit denen man mit diesen Proteinen auf endogenen Leveln experimentieren kann. Es zeigte sich, dass es typischerweise niedrige Stufen waren, konfokale Mikroskopie und diese anderen Techniken sind viel zu pertubative, um Dynamiken zu untersuchen und man braucht dazu so etwas wie Gitter-Lichtscheiben. Nochmals, man kann Zellen nicht isoliert betrachten und dabei den Gesamtzusammenhang sehen. Man muss alle Zell-Zell-Interaktionen sehen, alle Nachrichtenübermittlungen, die im Innern stattfinden, da, wo sie sich entwickeln, und hier spielt die adaptive Optik eine Rolle. Die Zukunft meiner Gruppe wird sein, adaptive Optik zu entwickeln, damit dies funktioniert, dies mit der Gitter-Lichtscheibe zu kombinieren, damit wir ein nichtinvasives Instrument haben, um Dynamiken anzusehen. Und dann schieben wir die Superauflösungsmethoden wie SIM und PALM mit hinein, um darüber hinaus die höhere Auflösung hinzuzufügen. Damit danke ich Ihnen für ‘s Zuhören.


I went into science drawn by the desire to do transformative rather than incremental work. I attribute my success to choosing projects having high potential “bang for the buck” that few others have identified as such, and moving on to new challenges when the field grows too crowded. I will describe how this strategy has led to a career of both successes and failures, but always filled with fun, excitement, and hope.