Lars Peter Hansen

Uncertainty and Valuation

Category: Lectures

Date: 20 August 2014

Duration: 34 min

Quality: HD MD SD

Subtitles: EN DE

Lars Peter Hansen (2014) - Uncertainty and Valuation

I will explore how alternative sources of uncertainty have an impact on asset valuation. I will show how decision theory, control theory and statistical theory provide valuable tools to model investor behavior and to reveal how uncertainty is reflected in security market prices

Thank you, it’s very nice to have the opportunity to open this session. And to be here in Lindau and to be able to share some economic thinking with all of you. I look forward to conversations later in the day and throughout the week. So what I thought I’d do today is talk about revealing ways to characterise how uncertainty is reflected in security markets. These methods are supposed to be revealing for a couple of reasons. One is they’re going to help us understand how models work. And how model ingredients can have important impacts. They will shed light on empirical challenges and often lead to puzzles. And what are the challenges in building better models going forward. I’m going to take a shortcut in the following sense. I’m going to feature a component of a dynamic stochastic economic model. And this component is going to be typically combined with other model ingredients. And this is going to be a key component. Because this is going to be a component that’s going to have important impacts on investment and capital allocation decisions and the like. But I find it pedagogically valuable and revealing to strip away a piece of a dynamic model without having to analyse the full model simultaneously. Of course that latter step is absolutely critical. And I don’t mean to say we can skip it. But rather I think this helps to understand things at a more general level. I want to get started here. I want to tell you about these models of asset valuation. And let me just lay down some language that I find useful here. As you think about what determines an asset. So let’s think about an asset as something that has a pay-off in the future. And this could be a pay-off that’s growing stochastically. It could be some macro-economic variables. It could be some type of technology process that’s growing or the like. And when I think about that is some type of stochastic growth process. It’s going to be a process such that it’s going to capture stochastic growth between zero and date t. If I take logarithms of this process that might have stationary increments, but it might allow it grow stochastically over time. And so at the same time I’m going to have another process. And this is going to be a key process for me, this so-called stochastic discount factor process which I’m here denoting S. And if I look at the process S(t) here - S(t) is I want to assign an asset price. Say if I go down to this formula right here. If I want to assign an asset price at day 0 to something that pays off G(t) at date t, I have to discount it but it’s uncertain. So I have to also make some type of risk adjustment. A convenient way to think about doing that is the so-called stochastic discount factor. I’m going to discount different realisations of that process in different ways. And that just is a very convenient way to encode so-called risk adjustments or adjustments for the fact that there’s exposure to uncertainty. And the so-called stochastic discount factor is going to be a really critical part of what I’m going to be talking about today. And what it reflects is it reflects investor preferences through so-called intertemporal marginal rate of substitution. So there’s this standard price theoretic insight for what we do is look through things like marginal rates of substitution. And we connect those to prices. And that has a direct extension to the theory of asset prices. And here are these intertemporal marginal rates of substitution which we want to compute. Now, where things get subtle, where things get more complicated is the fact that participation in security markets may change over time. They may be isolated in certain components of the economy. It may not involve everybody. Lots of recent models of financial market frictions. What they do is they segment markets. They isolate certain types of trades within sub-sectors of markets. There may be changes in terms of who the so-called marginal investors are for which these conditions work. In general, I have to combine this with a statement of market structure and corresponding prices. But it’s valuable to think about this stochastic discount factor channel as being an important one. There’s one approach to this that has been used very, very extensively inside the macro asset pricing literature. It builds on recursive utility theory that goes back to Tjalling Koopmans, more recently to Kreps and Porteus. And what this does is, it highlights the role of uncertainty. And how uncertainty about the future affects asset valuation. And so it allows us to do things like explore ways in which expectations and uncertainty about say future growth rates of the macro economy really show up in valuation. As I’ll show you in just a minute there’s this so-called forward-looking component to the recursive utility model which shows up. And this provides an additional channel where things like investor beliefs, investor guesses and speculations about the future matter, even if you’re looking at risk return trade-offs over very short investment horizons. Let me just write down the most commonly used utility recursion. And just talk you through some of the notation here. So think about consumption. There is some underling consumption process for the foreign investor. That says process C(t) here. I’m going to raise this to a power, this power, the parameter rho here. Rho^-1 is typically thought of as the elasticity of intertemporal substitution. But I’m also going to discount the future, the subjective rate of discount. But there’s this risk adjustment of a future continuation value that shows up right here. That’s really the important piece of this. And so I’m going to take a continuation value that tells me how we value future consumption plans. In this case from date t plus epsilon forward. That’s going to be adjusted with a risk adjustment. This shows up in the second formula here. There’s a gamma parameter here which is distinct from the rho parameter. And this allows there to have change investors risk aversion without doing things like changing intertemporal substitution. And this has been used a lot in empirical asset pricing literature. In fact this parameter gamma here is one if you look at lots of papers. It’s a parameter that often gets set to rather sizable amounts. Even though it’s typically called risk aversion. Now what’s going to happen is the continuation value, the continuation value is forward-looking. It depends on what you think is going to happen to your consumption processes going way off into the future here. In general, we’re going to have to compute this as part of the solution to a model. But it’s going to provide a potentially important contribution to valuation which we want to talk about here. I always tell my students I never do algebra in public, and I’m not going to do it today. Basically, if you look at the functional form I wrote down. It involves a couple of CES things and I just need to differentiate to form marginal rates of substitution. You should just do this in private. My advice is that you trust my calculations. These have been repeated by many people, so you don't have to trust me. But anyway, what this leads to is a formula for stochastic discount factor, for here an increment between date t and date t plus epsilon, that has the following piece: A pure subjective discount factor piece. A piece that involves the intertemporal trade-offs between consumption. And this elasticity of substitution parameter. But there’s this additional piece that involves the continuation value, V(t) plus epsilon. This is the future continuation value and that in turn depends on your guesses about what’s going to happen way off in other future dates as well. So beliefs, perceptions and the like about the future show up in this third term here. And that’s a term which is what people have used a lot in the empirical literature. The nice part of this is it gives us a structured way to enhance the impact of things like perceptions about the future. And even if I’m looking at how I’m doing valuation between date t and date t plus epsilon. Now, to build in a stochastic discount factor I have to start compounding these over different investment horizons. So I have to multiply them up together. Now the special case of this leads to something which is used in older literature, in which rho is equal to gamma. You illuminate this piece. And then the stochastic discount factor is just the consumption ratio. And this is what gave rise to the so-called equity premium puzzle in a way. Because the consumption channel alone was just not a very successful one in trying to understand asset prices. Now, if I take a special case of all this. I take the special case in which rho is equal to 1. It’s just pedagogically simple. This last term here - one can actually verify that this has a conditional expectation of 1. Because you end up raising V to a power of 1 minus gamma. And the nominator is just the conditional expectation of that. So this is a random variable with a conditional expectation 1. It’s positive. I multiply it up and I get what’s called a martingale. The best forecast of the future is the current value. It’s a positive martingale. And this martingale contributes to a so-called stochastic discount factor as it gets compounded over time. And this martingale is going to have a very durable impact for the stochastic discount factors. So as I look across different investment horizons, longer investment horizons, this piece is going to come to play a very prominent role in terms of risk pricing. A more general result has to do with this, what I think of as stochastic discount factor factorisation. And that’s given in this line here. So now I’m looking at the valuation between 0 and date t and how I do the stochastic discounting. There's a general depiction of this which has 3 components to it. The first one is a constant discount factor component under which rho plays a role of the yield on a long-term discount bond. There’s a second component, that’s this martingale component. I just gave you an example of a contributor to this in my previous slide. And this can behave like a martingale. And there’s this last piece which is typically built-up from a stationary process. So if I build models with balanced growth paths and the like, then this third piece is a function of some stationary mark-off state. So there’s a sense of what dominates over the long horizons has to do with these first 2 terms and in terms of valuation. In time series we often think about things like permanent and transitory shocks and the like. And this has been a useful way to think about properties of time series. This is a bit of a valuation counterpart to this. This is in levels, not logs. It’s in products and that matters actually in important ways. But there’s a sense in which this term right here, how that behaves, really has big impacts on how I do valuation over longer and longer horizons. And these types of characterisations have been worked out in some stuff I’ve done, some stuff Alvarez and Jermann have done. And it has been used more recently in a variety of asset pricing papers. And this gives us a way to think about what dominates or what forces dominate asset valuation over longer horizons. So what can contribute to this martingale component? This piece that really lasts and is persistent in terms of its impact on valuation. There are 3 things that can show up here. One is macroeconomic growth. So macroeconomies on a stochastic growth trajectory. That alone can contribute to this martingale component to stochastic discount factors. But other stuff can show up here as well. And there are 2 other forces that are of interest. As I showed in that recursive utility model, I constructed a martingale contribution. And that had nothing to do with whether the consumption process was stationary or not. These continuation values coming out of these recursive utility models can contribute to this martingale component. So that's a second source for this. And the third source that I’ll be talking about later today is distorted beliefs. As we look at deviations, departures from the so-called rational expectations models, where investors have things figured out, it’s handy to have ways to think about how we might have investor beliefs that depart from that. And so there are differences between the econometricians model and investors model. And those also can contribute to these martingale components. I want to talk a little bit more generally, go beyond what happens over long horizons and what happens over short horizons. Before doing that though let me just summarise a couple of things that come out of the empirical asset pricing literature. One is that these increments in stochastic discount factors are known empirically to be highly volatile. And that’s going to mean that there’s this price channel in asset prices that’s known to be very prominent and is known to fluctuate over time in potentially important ways. Also there’s been more recent literature trying to characterise the quantitative importance of this martingale component. And there’s been recent work by Steve Ross and others that have tried to build an asset pricing theory where that is set to unity and degenerate. But for a lot of purposes I think it’s important that there’s some evidence that it could be quite prominent. We want to now go just beyond what happened over long investment horizons. What happens over the immediate investment horizons and generally you want to fill in what goes on in between. If you want to understand how valuation works. You want to understand, what models have to say about valuation. And here I want to draw insight or motivation from earlier literatures. The first one I’m just going to lift a quote out of Irving Fisher: according to the particular periods in the future to which it applies.’ So here I’m looking at ... I want to think about this notion that asset pricing, as I do risk return trade-offs and characterise, how investor’s prices to exposures change over different investment horizons. And there’s a second one, by Ragnar Frisch. I think of Ragnar Frisch as doing one of the first impulse response functions in macroeconomic analysis. He wrote this classic paper on the impulse problem, in which he talks about various ways to characterise it. And he says that one way would be to look what happens to a dynamic system if it were exposed to a stream of erratic shocks. And then to characterise what those shocks do. How does a shock today get transmitted over into the overall economy, over all the different future time periods? These impulse response methods have been demonstrably very, very successful in empirical macroeconomics in trying to characterise which shocks have the biggest impact on different macroeconomic variables. It’s become a common tool to use in empirical macroeconomics. I want to take that to a little bit different level. I want to take a different twist on it. Instead what I want to be doing is looking at a valuation counterpart to it. So an impulse response works as follows: I imagine a shock tomorrow and I trace through the consequences of that shock on a bunch of future time periods. So if I take a shock tomorrow: Imagine you’ve got a stochastic cash flow. It’s going to change that cash flow. So it’s going to change the uncertainty of that cash flow. Once I do that and I look at, it’s going to change a risk premium. And once I change a risk premium there’s going to be 2 forces to it. Well I’ve changed the exposure. The exposures now might be more risky along some dimensions. And I’m also going to change price. It’s going to also have implications for how that exposure gets priced. And so what I want to be doing is producing these pricing counterparts whereby I take different shocks that hit the macro economy. I look at their implications in the future. But I look at which shocks investors require the biggest compensations for. And that gives me this valuation counterpart. Now in contrast to Frisch we’re going to have to perturb stochastic paths, not deterministic ones, to make the asset valuation question much more interesting. It's a way to think about intertemporal characterisations of investor risk aversion if you like. So I want to study the consequence on the price today of changing exposure tomorrow on cash flows in the future. And I also want to represent consequences for prices. So by changing that exposure I’m going to change the valuation. And from that I can figure out what the corresponding price component is, because I look at the expected returns. We often talk about risk premia. And I find it very useful to take a risk premia and have 2 components to it. What is the exposure? If I change exposures I’m going to change a risk premia, because I’m more exposed to certain types of risk. But the other channel by which risk premia work is this price channel. Different shocks, different risk exposures get compensated in different ways. And it’s that price channel which I want to be focusing on. And it’s that price channel where the stochastic discount factor is really important. So let me just give you an example. It’s an example that’s been quite prominent in the macro asset pricing literature. It’s going be demonstratively too simple for a lot of purposes, but it's a good illustration. I’m going to introduce 2 state variables. I’m doing to build on some work by Bansal and Yaron. I’m going to build on 2 state variables. One is going to govern predictability of growth rates of the macro economy. And it’s going to be hit by shocks. It’s going to be like a so-called autoregressive process in time series. There’s going to be a second process that’s going to shift macroeconomic volatility. So there’ll be certain times in which volatility is high, certain ones low. It will be a persistent process. And I’m going to have 3 different shocks. I’m going to have a so-called permanent shock that hits this macroeconomy. I’m going to have a transitory shock and a stochastic volatility shock. Now as a macroeconomist you should hate these labels, they’re boring labels. And when you build a fully-fledged macro model it’s going to, along the way, have you think harder about what the underlying shocks are. This is just for way of illustrating a mechanism. So in principle we want better labels than these, and models provide those. What do we do when we take this out and compute these valuation counterparts to impulse response functions? What I want to do is, I want to compare a model where there’s that forward-looking piece coming from recursive utility to one in which it’s absent. So I want to go back to what’s called the power utility model where gamma and rho were the same, that I talked about before, to one in which I’m going to really let this gamma parameter, that is how I adjust, the continuation values, do all the work for me. And what am I be doing then? I’ve got these different shocks. I’ve got a so-called permanent shock. So the permanent shock works through the consumption process and it takes a while to build. A power utility model - everything is proportional to what goes on with consumption. And this red line tells you how the prices of different shocks work. I take the permanent price. These are like compensations per unit of risk, mean compensations per unit standard deviations, so-called sharp ratios from asset pricing. For the power utility model, it tracks how consumption behaves. And it’s given by this red line here. It starts off fairly modest and it builds. Now I’m going to take this recursive utility model with the unitary elasticity of substitution. But the same power as a power utility model has. It’s going to be like 8 or 9 here, I forget which. And that’s going to be this blue line. And the recursive utility model has its forward-looking component to it. You really care. There’s this piece where investors are caring about what’s going to happen in the future. That shows up in introducing this martingale component to stochastic discount factors. And there’s a very flat trajectory. And the key thing here is that I go to even shorter investment horizons, the recursive utility models assigning much, much bigger prices to things here than the power utility model. And then by design they eventually end up at the same point. So what this recursive utility model is doing, is it’s making these long-term considerations show up at even very short investment horizons. Take a temporary shock and look at the pricing implications. Again the red line tracks how consumption responds and makes a proportional adjustment. The blue line now is the transitory shock. This continuation value channel is very inconsequential for it, and the prices there are very tiny. So I take these 2 different models. They have very, very different implications depending upon the nature of the shocks. The third one is for stochastic volatility and again the recursive utility model gives these very flat trajectories because these martingale components end up being really prominent in those models. I’ve highlighted bands here as well. This is a model that has stochastic volatility. Stochastic volatility does 2 things here: If you take a shock to the volatility in the macro economy, exposure to that gets priced. That’s the bottom panel. That shock also shifts around the other prices. This band here gives you core tiles of how much those prices are moving around because of stochastic volatility. So stochastic volatility, as it gets introduced, has these 2 different roles in terms of prices. Now thinking about stochastic volatility for lots of time series work is just an added on separate shock. Of course, we need to think harder about what that really is and what drives that stochastic volatility. So if I look at a model like this, the question is, to what extent is this a success? It turns out this forward-looking mechanism, the way it works is investors have everything figured out. They know parameters of the model. They know how these processes evolve and everything. And so they’re given arguably statistical subtle components of the macro time series. They’re endowed with full confidence in them. And the question is where this confidence might come from. If you look at the primitive statistical evidence for some of this stuff - it's very, very modest and actually quite weak. And so there’s a sense in which a fairly large amount of confidence is built into these calculations on the part of investors. Also, as I indicated, stochastic volatility here is moving exogenously. And it does in lots of models. But really what you want to do is understand what’s driving that source of fluctuation and not just impose it from the outside. And finally, this imposes what I consider to be large risk aversion. The numbers I used here were like about 8 or 9. If you look at the macro finance literature it goes up to 20. There are papers, I’ve seen the numbers as high as 90 or 100 - at which point in time I have no idea what this parameter is. But it’s a parameter that’s used empirically a lot. And so the question is, are there other things that could be intimating what appears to be large risk aversion? So a recursive utility model has been handy. But I think the success requires some very important qualifications. So I think once we start thinking about relaxing investor confidence in their models, which I think is a very fruitful challenge or fruitful modelling approach and a fruitful endeavour, it's handy to think about these different notions of components to uncertainty. One is risk - so I think about risk. As you put a model on the table, you know all the parameters and everything. There are shocks that hit the model. And you take that model and that model generates out probabilities of all the future events. Now, maybe you don’t know parameters. Maybe there are multiple models on the table and the like. And so there’s a second source and that is how much confidence do we place in each of the different models. And there’s a third piece - I think that’s the hardest one to really consider. But it may be one that’s in many respects the most important piece. When we write down models, when we use them sensibly, we know they’re not perfect. And the models are demonstratively very, very simple. They abstract from various different things. This notion of how you use seemingly simple revealing models in ways that are sensible and acknowledge that they may be misspecified along some dimensions. And that’s perhaps the hardest thing to capture formally. Anyway, these things, these alternative sources of uncertainty, once they go beyond the usual risk story, they themselves can contribute to this martingale component, to these stochastic discount factors. Moreover, there are examples where they contribute to stochastic volatility. This belief channel that there’s uncertainty about the model channel itself can be a contributor to uncertainty in financial markets. So we might read in the press that markets look very risk-averse one day and more bold on other days. The question is what’s really driving this type of fluctuations. And it’s beyond having to impose stochastic volatility. So there’s a very rich literature, modern, coming out of statistics, coming out of control theory, coming from a variety of sources about how to address, confront different forms of uncertainty, and in ways that are tractable. There are axiomatic foundations to this. Myself, I find axiomatic treatments useful, but I find myself easily persuaded by lots of different axioms. So I have a hard time sorting them all out, but I follow them anyway. They provide tractable representations which is really critical in doing empirical work. And they often involve some type of recursive construction. What is missing but is important to be thinking about going forward, is that a fully fleshed-out theoretical justification for how we use potentially misspecified models in sensible ways. Whenever we push these new applications of decision theory, new parameters start popping up and start showing up. And what’s the right way to think about the source of parameters? So any time you enrich a model and add new parameters, you want to also want to think about, what a reasonable magnitude and the like. And that’s been an interesting challenge. And third, part of what the rational expectations paradigm did for us, is it gave us ways to say – suppose I want to look at long-term consequences of policy changes. And so I imagine one environment where investors have things figured out in one way. And another environment where they have it figured out in a different way. And work out policy conclusions. And that’s useful if I want to close down this channel of systematically fooling people. But once I start opening up this, there’s a clear discussion of, as you change environments, which parameters you import and which ones you need to modify. So there are some important challenges using this. But it’s very fertile ground to be thinking about. More generally this can imitate things like asset pricing under distorted beliefs. And so let me just go through this quickly as my time is running a bit short here. Suppose now what I do is I imagine that investor’s beliefs may differ from those coming out of the econometric model. So the notation here is to pick up the fact that investors are using a different expectation. And when they’re using a different expectation then I’m going to use a corresponding stochastic discount factor that goes along with it, S tilde. What’s convenient is to use these martingales to represent potential changes and beliefs. And that’s all that’s given here by this middle slide. And then what I can do is, I can rewrite the basic asset pricing equation under which the stochastic discount factor I was talking about before has these 2 components. One is this martingale component, now motivated by belief differences as well as a stochastic discount factor component, conditional on those beliefs. For instance, now I can produce a stochastic discount factor as distorted beliefs: martingale times risk preferences. And, as I talked about before, these martingale components might be quite important for valuation. They have long term consequences. This was one channel in order to get some action out of them. So M is this interpretation of likelihood ratios and that opens up possibilities of using statistical methods to quantify how big they are. I find it useful to think about, well, yes let’s introduce these different models from the table that investors might be considering. But it still may be useful to say, these are models which may be more reasonable if we leave them on the table. Even if it takes like many, many decades of data to sort them out rather than something which we can try to figure out very, very quickly. And the fact that I can have links to likelihood ratios and statistical criterion allows me to think about how hard models are to tell apart as for exploring these potential distortions and beliefs. I think it’s almost handy to use statistical methods to try to get some guide as for how big or small these things are. And there’s formal ways to do precisely this. So I find it useful then, as you're looking through these beliefs as a potential source of martingales, to think about, when historical evidence is very informative and when it’s not. And statistical methods are very valuable in doing exactly that. I think this can provide a certain type of discipline. If we allow beliefs to just be arbitrary then we can resolve asset pricing challenges and puzzles very, very quickly. But the question is, what kind of a resolution is that? So it’s handy to try to limit the belief distortions we consider motivated by more general models of uncertainty, by so-called animal spirits. In general, I think models with heterogeneous beliefs are important. But the belief heterogeneity may be more reasonable when it's beliefs that are hard to tell apart statistically. Subjective concerns about rare events. It also opens the door to thinking about models. Of which some investors are over confident, take their model too literally and other ones use them more cautiously. So there’s fertile ground to thinking through this. And again this martingale component to stochastic discount factors provides a very productive and instructive way to think about things. Just in closing here I find this factorisation to be useful. It’s useful to add structure and content to these belief distortions and not just let them be arbitrary. And I find it useful to explore how things like concerns about model misspecification might well contribute to these things. But there are other motivations one could consider as well. Let me just close by saying I find the type of tools I talked about to be very useful. Stochastic discount factors are a good way to frame empirical evidence. Their increments can be highly volatile. We need to have good stories for why that’s the case. They may have these martingale components that have these durable impacts to them. And it’s then useful to have theories that help us to think to those challenges. Thank you very much.

Vielen Dank! Es freut mich, dass ich diese Sitzung eröffnen und hier in Lindau sein darf. Und dass ich mit Ihnen allen einige Gedanken zur Wirtschaft austauschen kann. Ich freue mich schon auf die Gespräche, die später an diesem Tag und während dieser Woche stattfinden werden. Für heute habe ich mir vorgenommen, über aufschlussreiche Methoden zu sprechen, die beschreiben, wie sich Unsicherheit auf dem Wertpapiermarkt widerspiegelt. Diese Verfahren werden vermutlich aus einer Reihe von Gründen aufschlussreich sein. Ein Grund ist, dass sie uns dabei helfen zu verstehen, wie Modelle funktionieren. Und wie die Bestandteile des Modells wesentliche Auswirkungen haben können. Aber es hat sich gezeigt, dass sie auch über empirische Probleme Aufschluss geben und häufig zu Ungereimtheiten führen. Und was die Herausforderungen sind, künftig bessere Modelle zu konstruieren. Ich werde das folgendermaßen verkürzen: Ich werde eine Komponente eines dynamischen stochastischen Wirtschaftsmodells darstellen. Und diese Komponente wird wie üblich mit anderen Modellbestandteilen verknüpft. Es geht dabei um eine wesentliche Komponente. Es wird eine Komponente sein, die großen Einfluss auf Investitionsentscheidungen und Entscheidungen über Kapitalzuweisung und dergleichen hat. Aber ich finde es pädagogisch wertvoll und erhellend, wenn man einen Teil des dynamischen Modells einfach weglässt und nicht das ganze Modell auf einmal analysieren muss. Natürlich ist dieser letzte Schritt absolut entscheidend. Und ich will auch nicht sagen, dass wir ihn weglassen können. Aber ich denke, es wird uns dabei helfen, die Dinge auf einer allgemeineren Ebene zu verstehen. Lassen Sie mich hier beginnen. Ich möchte Ihnen von diesen Modellen zur Vermögensbewertung berichten. Und lassen Sie mich einen Teil der Sprache definieren, die ich hier dienlich finde. Zum Beispiel: Was glauben Sie, was einen Vermögenswert ausmacht? Lassen Sie uns einen Vermögenswert als etwas definieren, das in der Zukunft zu einer Art Ertrag führt. Dieser Ertrag könnte zum Beispiel zufällig wachsen. Es könnte sich dabei um einige makroökonomische Variablen handeln. Es könnte eine Art von Technologieverfahren sein, das sich entwickelt oder ähnliches. Wenn ich darüber nachdenke, ist das eine Art zufälliger Entwicklungsprozess. Es ist ein Prozess, der eine zufällige Entwicklung nimmt, die zwischen Null und dem Zeitpunkt t liegt. Wenn ich auf diesen Prozess Logarithmen anwende, könnte er feste Wachstumsraten aufweisen, aber ich lasse es zu, dass er im Laufe der Zeit zufällig wächst. Und somit habe ich gleichzeitig einen anderen Prozess. Und dieser Prozess ist für mich ein wesentlicher, nämlich der sogenannte stochastische Diskontierungsfaktor-Prozess, den ich hier mit S bezeichne. Und wenn ich hier den Prozess S(t) betrachte – so bedeutet S(t), dass ich einen Vermögenswert zuordnen möchte. Nehmen wir an, ich gehe auf diese Formel hier zurück. Wenn ich einer Sache, die sich zum Zeitpunkt t mit G(t) amortisiert, am Tag 0 einen Vermögenswert zuordnen möchte, müsste ich diskontieren, aber das wäre unsicher. Also muss ich zudem eine Art Risikoanpassung vornehmen. Eine bequeme Weise, das zu tun, ergibt sich mit dem sogenannten stochastischen Diskontierungsfaktor. Ich diskontiere verschiedene Durchführungen dieses Prozesses auf verschiedene Weisen. Und das genau ist eine sehr bequeme Möglichkeit, sogenannte Risikoanpassungen oder Anpassungen zu kodieren, die der Tatsache geschuldet sind, dass eine Unsicherheit besteht. Dieser sogenannte stochastische Diskontierungsfaktor ist ein wirklich wichtiger Teil dessen, über was ich heute sprechen werde. Er spiegelt Anlegerpräferenzen durch die sogenannte intertemporale Grenzrate der Substitution wider. Es liefert für das, was wir tun, eine Art von standardpreistheoretischen Erkenntnissen, um Dinge wie die Grenzrate der Substitution zu durchschauen. Und wir verknüpfen sie mit Preisen. Und das erstreckt sich direkt zur Theorie der Vermögenswerte. Hier ist eine dieser intertemporalen Grenzraten der Substitution, die wir errechnen wollen. Wo die Dinge aber nun spitzfindiger und komplizierter werden, ist der Tatsache geschuldet, dass die Teilnahme an Wertpapiermärkten sich im Laufe der Zeit ändern kann: Sie kann einige Teile der Wirtschaft isolieren. Es muss nicht jeder einbezogen sein. Viele der jüngsten Modelle zu Spannungen auf dem Finanzmarkt segmentieren die Märkte. Sie isolieren bestimmte Arten von Geschäften innerhalb der Teilsektoren des Marktes. Es mag Veränderungen hinsichtlich der Frage geben, wer diese sogenannten Grenzanleger sind, auf die diese Bedingungen zutreffen. Im Allgemeinen muss ich dies mit einer Erklärung zur Marktstruktur und den entsprechenden Preisen verbinden. Aber es ist hilfreich, wenn man diesen stochastischen Diskontierungsfaktor als einen wichtigen Weg betrachtet. Es gibt einen Ansatz dafür, der im Rahmen der makroökonomischen Literatur zur Vermögensbewertung sehr, sehr ausgiebig verwendet wurde. Er baut auf die rekursive Nutzentheorie auf, die auf Tjalling Koopmans, und in jüngerer Zeit auf Kreps und Porteus zurückgeht. Bei diesem Ansatz wird die Rolle der Unsicherheit betont. Und wie Unsicherheit in der Zukunft die Vermögensbewertung beeinflusst. Somit können wir mit seiner Hilfe Möglichkeiten untersuchen, bei der Erwartungen und Unsicherheiten über beispielsweise künftige Wachstumsraten für die Makroökonomie sich tatsächlich in der Bewertung widerspiegeln. Wie ich Ihnen gleich zeigen werde, gibt es die sogenannte zukunftsgerichtete Komponente, die sich im Modell der rekursiven Nutzentheorie zeigt. Dadurch bietet sich ein zusätzlicher Kanal, in dem Dinge wie Anlegerüberzeugungen, Anlegervermutungen und Spekulationen über die Zukunft eine Rolle spielen, auch wenn man Risiko/Rendite-Verhältnisse über sehr kurze Investitionszeiträume betrachtet. Lassen Sie mich kurz die üblicherweise verwendete Nutzen-Rekursion aufschreiben. Ich werde mit Ihnen kurz einige der Bezeichnungen hier durchgehen. Denken wir also an Konsum. Für den ausländischen Anleger gibt es einen zugrundeliegenden Konsumprozess. Das ist Prozess C(t) hier. Ich werde dies potenzieren, diesen Parameter Rho hier. Rho^-1 wird typischerweise als die Elastizität der intertemporalen Substitution bezeichnet. Aber ich werde auch die Zukunft diskontieren, den subjektiven Diskontierungsfaktor. Hier ist jedoch die Risikoanpassung für einen künftigen Fortführungswert, der sich hier zeigt. Das ist wirklich der wichtige Teil des Ganzen. Ich nehme also einen Fortführungswert, der mir sagt, wie wir künftige Konsumpläne bewerten. In diesem Fall von Zeitpunkt t plus Epsilon in die Zukunft. Das wird mit einer Risikoanpassung angepasst. Und das zeigt sich in der zweiten Formel hier. Es gibt hier einen Parameter Gamma, der sich von Parameter Rho unterscheidet. Und dadurch wird zugelassen, dass sich die Risikoaversion der Anleger ändert, ohne dass man dabei die intertemporale Substitution verändern müsste. Das wurde sehr häufig in der Literatur zur empirischen Vermögensbewertung eingesetzt. Eigentlich ist dieser Parameter Gamma hier eins, wenn man eine Menge Dokumente gelesen hat. Es handelt sich um einen Parameter, der häufig mit beträchtlichen Beträgen versehen wird. Obwohl er typischerweise als Risikoaversion bezeichnet wird. Was nun geschieht ist, dass dieser Fortführungswert zukunftsgerichtet ist. Er hängt von der Annahme dessen ab, was weit entfernt in der Zukunft mit dem Konsumprozess geschehen wird. Im Allgemeinen müssen wir dies als Teil der Lösung eines Modells berechnen. Aber es liefert einen möglicherweise wichtigen Beitrag zur Bewertung, über den wir hier sprechen wollen. Ich sage immer zu meinen Studenten, dass ich niemals in der Öffentlichkeit algebraische Rechnungen durchführe. Und ich werde es auch heute nicht tun. Schauen Sie also hauptsächlich auf die Funktionsform, die ich aufgeschrieben habe. Es geht um CES, die konstante Substitutionselastizität. Ich muss nur noch differenzieren, um Grenzraten der Substitution zu bilden. Man sollte das nur im Privaten tun. Ich gebe Ihnen den Rat, meinen Kalkulationen zu vertrauen. Diese wurden schon von vielen Menschen wiederholt. Also müssen Sie mir nicht vertrauen. Wie auch immer, dies führt zu einer Formel für den stochastischen Diskontierungsfaktor, denn hier gibt es eine Zunahme zwischen Zeitpunkt t und Zeitpunkt t plus Epsilon, die den folgenden Teil ausmacht. Ein Teil, der vom reinen subjektiven Diskontierungsfaktor abhängt. Ein Teil, das die intertemporalen Zielkonflikte zwischen dem Konsum und dieser Art von Parameter für die Substitutionselastizität beinhaltet. Aber es gibt noch diesen zusätzlichen Teil, der den Fortführungswert einschließt: V(t) plus Epsilon. Dies ist der künftige Fortführungswert, der wiederum von Ihren Schätzungen, was zu anderen weit entfernten Zeitpunkten in der Zukunft geschehen wird, abhängt. Demnach zeigen sich Meinungen und Vorstellungen über die Zukunft und dergleichen in dieser dritten Größe hier. Dies ist eine Größe, die häufig in der empirischen Literatur verwendet wurde. Und sie bietet uns – das ist das Schöne an dieser Größe – eine strukturierte Möglichkeit, die Auswirkungen wie zum Beispiel Meinungen über die Zukunft zu verbessern. Selbst wenn ich betrachte, wie die Bewertung zwischen Zeitpunkt t und Zeitpunkt t plus Epsilon vorgenommen wurde. Um nun einen stochastischen Diskontierungsfaktor zu bilden, muss ich diese über verschiedene Anlagehorizonte aufzinsen. Ich muss sie miteinander multiplizieren. In diesem Spezialfall, der in der älteren Literatur verwendet wird, führt es dazu, das Rho gleich Gamma ist. Man schaut sich diesen Teil genau an. Und dann entspricht der stochastische Diskontierungsfaktor genau der Konsumquote. Und genau das hatte das sogenannte Equity Premium Puzzles zur Folge. Denn der Konsum allein war nicht besonders dienlich, um die Preise von Vermögenswerten erklären zu können. Wenn ich nun einen Spezialfall von all dem betrachte: Ich betrachte den Spezialfall, bei dem Rho gleich 1 ist. Das ist pädagogisch einfach. Diese letzte Größe hier – man kann tatsächlich beweisen, dass sie einen bedingten Erfahrungswert von 1 besitzt. Denn Sie potenzieren V mit 1 minus Gamma. Und der Zähler ist lediglich der bedingte Erfahrungswert davon. Dies ist also eine Zufallsvariable mit dem bedingten Erfahrungswert 1. Sie ist positiv. Ich multipliziere sie und erhalte ein sogenanntes Martingal. Die beste Prognose für die Zukunft ist der aktuelle Wert. Es ist ein positives Martingal. Dieses Martingal trägt zum sogenannten stochastischen Diskontierungsfaktor bei, da es über die Zeit aufgezinst wird. Und dieses Martingal hat einen sehr beständigen Einfluss auf die stochastischen Diskontierungsfaktoren. Wenn ich also verschiedene Anlagehorizonte betrachte, längere Anlagehorizonte, so wird dieser Faktor eine sehr wichtige Rolle in Bezug auf die Risikobewertung spielen. Ein allgemeineres Ergebnis hat mit dem zu tun, was ich als Faktorisierung des stochastischen Diskontierungsfaktors betrachte. Und das ergibt diese Linie hier. Ich schaue mir nun also die Bewertung zwischen dem Zeitpunkt 0 und dem Zeitpunkt t an und wie ich diese stochastische Abzinsung vornehme. Es gibt dazu eine allgemeine Darstellung, die aus drei Komponenten besteht. Die erste Komponente ist ein konstanter Diskontierungsfaktor, bei dem Rho eine Rolle für die Rendite einer abgezinsten langfristigen Anleihe spielt. Es gibt eine zweite Komponente, die ist das Martingal. Ich habe Ihnen gerade mit der vorigen Darstellung ein Beispiel dafür gegeben, welchen Beitrag es leistet. Dies kann sich wie ein Martingal verhalten. Und es gibt diesen letzten Teil, der üblicherweise durch Stationarität gebildet wird. Wenn ich also Modelle mit ausgewogenem Wachstum und dergleichen bilde, so ist dieser dritte Teil eine Funktion eines stationären Abgrenzungszustands. Man spürt also, dass das, was über längere Zeiträume hinweg dominiert, mit diesen ersten beiden Größen und mit der Bewertung zu tun hat. Bei Zeitreihen denken wir häufig an Dinge wie permanente und temporäre Erschütterungen und dergleichen. Es hat sich als nützlicher Weg erwiesen, wenn man über die Eigenschaften von Zeitreihen nachdenken will. Es fungiert ein wenig als Bewertungsgegenstück für das hier. Es ist in Ebenen, nicht in Logarithmen. Es ist in Produkten, und das ist tatsächlich aus verschiedenen Gründen von großer Bedeutung. Diese Größe hier, die Art und Weise, wie sie sich verhält, hat in gewissem Sinn einen großen Einfluss auf meine Bewertung über längere Zeiträume hinweg. Diese Art von Beschreibung habe ich in einigen Ausarbeitungen vorgenommen, sie wurde auch von Alvarez und Jermann vorgenommen. Und sie kam in jüngster Zeit in einer Reihe von Dokumenten zur Vermögensbewertung vor. Daraus ergibt sich eine Möglichkeit zu überlegen, was oder welche Kräfte die Vermögensbewertung über längere Zeithorizonte dominieren. Was kann also zu diesem Martingal beitragen? Diesem Teil, der wirklich Bestand hat und einen beständigen Einfluss auf die Bewertung hat. Es gibt drei Dinge, die hier erscheinen könnten. Eins ist gesamtwirtschaftliches Wachstum. Also die Gesamtwirtschaft auf einer Art stochastischer Wachstumskurve. Das allein kann zu diesem Martingal beitragen, zu den stochastischen Diskontierungsfaktoren. Es können sich aber auch noch andere Dinge zeigen. Und es gibt zwei weitere Kräfte, die von Interesse sind. Wie ich im Modell der rekursiven Nutzentheorie gezeigt habe, habe ich einen Beitrag des Martingals konstruiert. Und das war unabhängig davon, ob der zugrundeliegende Prozess, der Konsumprozess stationär war oder nicht. Diese Fortführungswerte, die aus diesen Modellen der rekursiven Nutzentheorie stammen, können zum Martingal beitragen. Sie sind somit eine zweite Quelle hierfür. Und die dritte Quelle, über die ich später noch sprechen werde, sind verzerrte Überzeugungen. Wenn wir uns also Abweichungen ansehen, Abweichungen von den sogenannten rationalen Modellen der Erwartungen, bei denen die Anleger verstanden haben, worum es geht, dann wäre es praktisch, wenn wir wüssten, wie Anlegerüberzeugungen zustande kommen können, die von diesen Modellen abweichen. Es gibt also Unterschiede zwischen dem Modell der Ökonometriker und dem der Anleger. Und auch diese können zum Martingal beitragen. Ich möchte ein wenig allgemeiner werden und über das hinausgehen, was über längere Zeithorizonte und über kürzere Zeithorizonte geschieht. Zuvor lassen Sie mich kurz einiges zusammenfassen, was der empirischen Literatur zur Vermögensbewertung entstammt. Zum einen ist bekannt, dass diese Zuwachsraten der stochastischen Diskontierungsfaktoren erfahrungsgemäß sehr stark schwanken. Und das bedeutet, dass es bei den Vermögenspreisen diesen Preiskanal gibt, der bekanntlich sehr bedeutend ist und im Laufe der Zeit bekanntlich auf potenziell wichtige Weise schwankt. Auch in der neueren Literatur wurde versucht, die quantitative Bedeutung dieses Martingals zu charakterisieren. Und es gibt neuere Arbeiten von Steve Ross und anderen, die versucht haben, eine Asset-Pricing-Theorie zu entwickeln, wo die Komponente auf Eins gesetzt und ausgeartet wurde. Aber aus vielerlei Gründen bin ich der Meinung, dass es wichtig ist zu wissen, dass es Hinweise gibt, dass sie sehr bedeutend sein könnte. Wir wollen aber über das, was über lange Anlagehorizonte geschieht, hinausgehen. Was geschieht über unmittelbare Anlagehorizonte? Und in der Regel will man das einfügen, was zwischendrin geschieht, wenn man verstehen will, wie Bewertung funktioniert. Man will verstehen, was Modelle über die Bewertung aussagen können. Und hier möchte ich auf Erkenntnisse und Motivation aus der früheren Literatur zurückgreifen. Zunächst ein Zitat von Irving Fisher: „Die Art und Weise, wie sich das Risiko auf die Zeitpräferenz auswirkt, unterscheidet sich unter anderem in Abhängigkeit von bestimmten Zeiträumen in der Zukunft, die es betreffen.“ Ich betrachte also hier ... Ich möchte über die Auffassung nachdenken, dass der Vermögenswert, während ich das Verhältnis zwischen Rendite und Risiko betrachte und beschreibe, wie sich die Preise der Anleger bei Risikogefährdung über verschiedene Anlagehorizonte verändern. Und hier ist ein zweites Zitat von Ragnar Frisch. Ich finde, dass Ragnar Frisch eine der ersten Impulsantwortfunktionen der makroökonomischen Analyse durchgeführt hat. Er schrieb dieses klassische Dokument über das Impulsproblem, in dem er über die verschiedenen Möglichkeiten spricht, es zu beschreiben. Und er sagt, ein Weg wäre es zu schauen, was mit einem dynamischen System geschieht, wenn es einem Strom ungleichmäßiger Erschütterungen ausgesetzt würde. Und dann zu beschreiben, was diese Erschütterungen bewirken. Wie wird eine Erschütterung von heute auf die Gesamtwirtschaft übertragen, über sämtliche verschiedenen zukünftigen Zeiträume hinweg? Diese Impulsantwort-Verfahren waren nachweislich in der empirischen Makroökonomie sehr, sehr erfolgreich, wenn es darum ging zu beschreiben, welche Erschütterungen den größten Einfluss auf verschiedene makroökonomische Variablen haben. Es ist zu einem allgemein gebräuchlichen Werkzeug in der empirischen Makroökonomie geworden. Ich will das auf eine etwas andere Ebene bringen. Ich möchte dem eine andere Wendung geben. Was ich stattdessen tun möchte, ist, ein Bewertungsgegenstück dazu zu betrachten. Eine Impulsantwort funktioniert also folgendermaßen: Ich stelle mir eine Erschütterung vor, die morgen stattfindet und verfolge sämtliche Konsequenzen, die diese Erschütterung auf mehrere künftige Zeiträume hat. Wenn ich also für morgen einen Schock annehme: Stellen Sie sich vor, Sie haben einen stochastischen Cashflow. Dieser Cashflow wird dadurch verändert. Damit verändert sich die Unsicherheit für diesen Cashflow. Und wenn ich das getan habe und es mir anschaue, so verändert sich die Risikoprämie. Und wenn ich die Risikoprämie verändere, hängt sie mit zwei Kräften zusammen. Wir haben das Gefährdungspotenzial verändert. Das Gefährdungspotenzial könnte nun für einige Dimensionen deutlich höher sein. Und ich verändere auch den Preis. Es gibt also auch Auswirkungen darauf, mit welchem Preis dieses Gefährdungspotenzial bewertet wird. Ich möchte nun diese Bewertungsgegenstücke erhalten, indem ich verschiedene Erschütterungen der Gesamtwirtschaft betrachte. Ich schaue auf ihre Auswirkungen in der Zukunft. Aber ich schaue danach, bei welchen Erschütterungen die Anleger die höchsten Kompensationen fordern. Und dadurch erhalte ich das Bewertungsgegenstück. Im Gegensatz zu Frisch werden wir nun die stochastischen Wege stören, nicht die deterministischen, um die Frage der Vermögensbewertung interessanter zu gestalten. Es ist eine Möglichkeit, über intertemporale Beschreibungen für die Risikoaversion der Anleger nachzudenken, wenn Sie so wollen. Ich möchte im Grunde die Folgen auf den heutigen Preis untersuchen, die ein sich morgen veränderndes Gefährdungspotenzial auf die künftigen Cashflows hat. Und ich möchte auch die Konsequenzen für die Preise darstellen. Indem ich also das Gefährdungspotenzial verändere, verändere ich auch die Bewertung. Und so kann ich herausfinden, wie die entsprechende Preiskomponente aussieht, da ich erwartete Renditen betrachte. Wir reden häufig von Risikoprämien. Ich finde es sehr nützlich eine Risikoprämie zu betrachten, die aus zwei Komponenten besteht. Was ist das Gefährdungspotenzial? Wenn ich das Gefährdungspotenzial verändere, verändere ich eine Risikoprämie, da ich bestimmten Risikoarten stärker ausgesetzt bin. Aber die Risikoprämien funktionieren auch über einen weiteren Kanal, den Preiskanal. Verschiedene Erschütterungen, verschiedene Gefährdungspotenziale werden auf verschiedene Weisen kompensiert. Und ich möchte mich auf diesen Preiskanal konzentrieren. Bei diesem Preiskanal spielt der stochastische Diskontierungsfaktor nämlich eine wichtige Rolle. Lassen Sie mich kurz ein Beispiel geben: Es ist ein Beispiel, das in der makroökonomischen Literatur zur Vermögensbewertung recht herausragend war. Es ist aus verschiedenen Gründen nachweislich zu einfach, aber es ist ein gutes Beispiel. Ich stelle Ihnen zwei Zustandsgrößen vor. Dabei baue ich auf Arbeiten von Bansal und Yaron auf. Ich baue auf zwei Zustandsgrößen auf. Die eine steuert die Vorhersehbarkeit der Wachstumsraten in der Gesamtwirtschaft. Und sie wird von Erschütterungen getroffen. Es wird wie ein sogenannter autoregressiver Prozess in Zeitreihen sein. Und es wird einen zweiten Prozess geben, der die makroökonomische Volatilität verschieben wird. Es wird also bestimmte Zeiten geben, in denen die Volatilität hoch ist, und welche, in denen sie gering ist. Es wird ein anhaltender Prozess sein. Und ich werde drei verschiedene Erschütterungen haben. Ich habe eine sogenannte permanente Erschütterung, die die Gesamtwirtschaft trifft. Ich habe eine temporäre Erschütterung und eine stochastische Volatilitäts-Erschütterung. Als Makroökonom sollten sie diese Bezeichnungen hassen, sie sind langweilig. Und wenn Sie ein vollwertiges makroökonomisches Modell errichten, wird es dazu führen, dass Sie währenddessen stärker darüber nachdenken, worin diese zugrundeliegenden Erschütterungen bestehen. Dies dient nur dazu, einen Mechanismus darzustellen. Im Prinzip möchten Sie also bessere Bezeichnungen als diese haben, und die Modelle liefern sie Ihnen. Was machen wir, wenn wir dies herausnehmen und diese Bewertungsgegenstücke zu Impulsantwortfunktionen weiterrechnen? Ich möchte ein Modell mit einem zukunftsgerichteten Teil, das aus der rekursiven Nutzentheorie stammt, mit einem anderen vergleichen, das keinen zukunftsweisenden Teil aufweist. Also möchte ich auf das sogenannte isoelastische Nutzenmodell zurückkommen, in dem Gamma und Rho gleich waren und über das ich vorhin gesprochen habe, zu einem Modell, in dem ich diesen Parameter Gamma, das heißt, wie ich die Fortführungswerte anpasse, die ganze Arbeit für mich machen lasse. Und was mache ich dann? Ich habe hier diese verschiedenen Erschütterungen. Ich habe eine sogenannte permanente Erschütterung. Die permanente Erschütterung arbeitet sich durch den Konsumprozess und braucht eine Weile, um sich aufzubauen. Ein isoelastisches Nutzenmodell – alles verläuft im Grund proportional zum Konsum. Und diese rote Linie zeigt Ihnen, wie die Preise bei verschiedenen Erschütterungen funktionieren. Ich nehme den permanenten Preis. Dies ist eine Art Kompensation pro Risikoeinheit, das heißt die Kompensation für eine Standardabweichungseinheit, die sogenannte Sharpe-Ratio aus der Vermögensbewertung. Für das isoelastische Nutzenmodell verfolgt sie, wie sich der Konsum verhält. Und das ergibt diese rote Linie hier. Sie beginnt recht mäßig und baut sich dann auf. Nun nehme ich dieses rekursive Nutzenmodell mit der unitären Substitutionselastizität, das aber über die gleiche Potenz verfügt wie ein isoelastisches Nutzenmodell. Es wird hier ungefähr 8 oder 9 sein, ich weiß nicht mehr genau. Und das ergibt diese blaue Linie hier. Das rekursive Nutzenmodell besitzt die zukunftsgerichtete Komponente. Man ist wirklich interessiert. Hier ist der Teil, wo sich die Anleger sich für das interessieren, was in der Zukunft geschieht. Es zeigt sich, indem es den stochastischen Diskontierungsfaktoren dieses Martingal hinzufügt. Und es ergibt eine sehr flache Kurve. Und das Entscheidende hier ist, dass das rekursive Nutzenmodell auch bei kurzen Anlagehorizonten den Dingen viel, viel höhere Preise zuordnet als es beim isoelastischen Nutzenmodell der Fall ist. Und dann enden sie absichtlich am gleichen Punkt. Was das rekursive Nutzenmodell also tut: Es stellt langfristige Betrachtungen an, die sich bereits bei sehr kurzen Anlagehorizonten zeigen. Und nun eine temporäre Erschütterung und wir sehen die Auswirkungen auf den Preis. Wieder verfolgt die rote Linie, wie der Konsum reagiert und sich proportional anpasst. Die blaue Linie zeigt nun die temporäre Erschütterung. Dieser Kanal des Fortführungswerts ist dafür unbedeutend und die Preise sind äußerst gering. Also nehme ich diese beiden verschiedenen Modelle. Sie zeigen sehr, sehr verschiedene Folgen, die von der Art der Erschütterung abhängen. Die dritte Erschütterung betrifft die stochastische Volatilität, und wiederum zeigt das rekursive Nutzenmodell diese sehr flache Kurve, da das Martingal am Ende für diese Modelle sehr bedeutsam ist. Ich habe hier auch Bandbreiten hervorgehoben. Dies ist ein Modell, das eine stochastische Volatilität aufweist. Die stochastische Volatilität macht hier zwei Dinge: Wenn die Volatilität in der Gesamtwirtschaft von einer Erschütterung getroffen wird, so wird das entsprechende Gefährdungspotenzial mit einem Preis versehen. Das zeigt das untere Feld. Diese Erschütterung verschiebt auch die anderen Preise. Diese Bandbreite zeigt Ihnen, wie sehr sich die Preise infolge der stochastischen Volatilität bewegen. Somit nimmt die stochastische Volatilität, sobald man sie einfließen lässt, zwei verschiedene Rollen in Bezug auf die Preise ein. Wenn man nun über die stochastische Volatilität für viele Zeitreihen nachdenken will, führt das zu einer zusätzlichen, separaten Erschütterung. Selbstverständlich müssen wir genauer darüber nachdenken, was das wirklich ist und was diese stochastische Volatilität verursacht. Wenn ich also ein Modell wie dieses betrachte, stellt sich die Frage, in welchem Maße es als Erfolg zu sehen ist. Es verfügt über den zukunftsgerichteten Mechanismus, und es funktioniert so, dass die Anleger alles verstanden haben. Sie kennen die Parameter des Modells. Sie wissen, wie sich diese Prozesse entwickeln und so weiter. Und so erhalten sie wohl raffinierte statistische Komponenten der makroökonomischen Zeitreihe. Sie haben also volles Vertrauen in diese Berechnungen. Die Frage ist, wo dieses Vertrauen herkommen könnte. Betrachtet man den primitiven statistischen Beweis für diese Dinge, so ist er sehr, sehr mäßig und eigentlich recht schwach. Also wird gewissermaßen seitens der Anleger eine recht große Menge an Vertrauen in diese Berechnungen gesetzt. Wie ich gezeigt habe, bewegt sich die stochastische Volatilität zudem exogen. Und sie macht das in vielen Modellen. Was Sie aber wirklich wollen: Sie wollen verstehen, was diese Quelle der Fluktuation antreibt und sie nicht nur von außen aufgezwungen bekommen. Und schließlich wird einem das aufgezwungen, was ich als hohe Risikoaversion bezeichne. Die Zahlen, die ich hier verwendet habe, waren 8 oder 9. Wenn Sie die makroökonomische Literatur oder Makrofinanzliteratur anschauen, geht diese Zahl bis hoch zu 20. Es gibt Dokumente, in denen ich Zahlen von 90 oder 100 gesehen habe. Zu dem Zeitpunkt hatte ich keine Ahnung mehr, was dieser Parameter sein soll. Aber es ist ein Parameter, der erfahrungsgemäß häufig genutzt wird. Und so stellt sich die Frage: Gibt es andere Dinge, die das erklären könnten, was eine hohe Risikoaversion zu sein scheint? Also war ein rekursives Nutzenmodell praktisch. Jedoch denke ich, der Erfolg erfordert einige sehr wichtige Voraussetzungen. Ich denke, wenn wir einmal anfangen, über ein entspanntes Vertrauen der Anleger in ihre Modelle nachzudenken, was ich für eine sehr nutzbringende Herausforderung oder einen nutzbringenden Modellansatz oder ein nutzbringendes Unterfangen halte, wäre es praktisch, über diese verschiedenen Vorstellungen von den Komponenten der Unsicherheit nachzudenken. Eine ist Risiko – also denke ich über Risiko nach. Wenn Sie ein Modell auf den Tisch legen, kennen Sie alle Parametern und so weiter. Es gibt die Erschütterungen, von denen das Modell getroffen wird. Man nimmt also dieses Modell und es generiert Wahrscheinlichkeiten für alle künftigen Ereignisse. Nun, vielleicht kennen Sie die Parameter nicht. Vielleicht liegen mehrere Modelle auf dem Tisch oder ähnliches. Also gibt es eine zweite Quelle und die besteht darin, wie viel Vertrauen wir in jedes einzelne der verschiedenen Modelle setzen. Und es gibt einen dritten Teil – ich denke, das ist der, der am schwierigsten zu berücksichtigen ist. Aber es kann derjenige sein, der in vielerlei Hinsicht der wichtigste Teil ist. Wenn wir Modelle konstruieren, und wenn wir sie sinnvoll einsetzen, wissen wir, dass sie nicht perfekt sind. Die Modelle sind nachweislich sehr, sehr einfach. Sie abstrahieren viele verschiedene Dinge. Es ist diese Vorstellung, wie man scheinbar einfache aufschlussreiche Modelle so einsetzt, dass sie Sinn machen. Und erkennt, dass sie in einigen Dimensionen falsch beschrieben werden könnten. Das ist vermutlich das, was formal am schwierigsten zu erfassen ist. Wie auch immer, diese alternativen Quellen der Unsicherheit können, wenn sie über das übliche Risiko hinausgehen, selbst zum Martingal, zu diesen stochastischen Diskontfaktoren beitragen. Es gibt zudem auch Beispiele, wo sie zur stochastischen Volatilität beitragen. Der Glaube, dass Unsicherheit hinsichtlich des Modells besteht, kann selbst ein Beitrag zur Unsicherheit an den Finanzmärkten sein. So kann es sein, dass wir in der Presse lesen, dass die Märkte an einem Tag sehr risikoscheu sind und wagemutiger an anderen Tagen. Die Frage ist: Was löst diese Art von Schwankungen aus? Und es geht darüber hinaus, stochastische Volatilität zu erheben. Es gibt ergiebige moderne Literatur, die aus der Statistik, aus der Kontrolltheorie stammt. Sie stammt auch aus anderen Quellen zum Umgang mit verschiedenen Formen der Unsicherheit. Und die Vorgehensweisen sind steuerbar. Es gibt dafür axiomatische Grundlagen. Ich finde axiomatische Methoden nützlich. Aber ich lasse mich auch leicht von vielen verschiedenen Axiomen überzeugen. Also fällt es mir schwer, sie alle zu sortieren, aber ich berücksichtige sie trotzdem. Sie liefern steuerbare Darstellungen, was für empirische Arbeit wirklich entscheidend ist. Und sie beinhalten oft eine Art rekursiver Konstruktion. Was fehlt, aber wichtig ist, wenn man über die Zukunft nachdenken will, ist eine vollständig ausgearbeitete theoretische Begründung für die Art und Weise, wie wir möglicherweise falsch beschriebene Modelle sinnvoll nutzen können. Immer, wenn wir diese neuen Anwendungen der Entscheidungstheorie einsetzen, so tauchen plötzlich neue Parameter auf. Und wie denkt man richtig über die Quelle der Parameter nach? Also, jedes Mal, wenn Sie ein Modell verbessern und neue Parameter hinzufügen, wollen Sie auch über eine realistische Größenordnung und dergleichen nachdenken. Und das ist eine interessante Herausforderung. Und drittens, ein Teil dessen, was das Paradigma der rationalen Erwartungen für uns getan hat, es hat uns Möglichkeiten gegeben zu sagen: Angenommen ich möchte die langfristigen Folgen von Änderungen in der Politik betrachten. Ich stelle mir ein Umfeld vor, in dem die Anleger auf eine Weise herausgefunden haben, wie die Dinge laufen. Und ein anderes Umfeld, wo sie es auf eine andere Weise herausgefunden haben. Und ich arbeite politische Schlussfolgerungen aus. Und das ist sinnvoll, wenn ich den Kurs, die Menschen systematisch zu täuschen, beenden will. Aber sobald ich anfange, dies zu eröffnen, gibt es die Diskussion, welche Parameter man einführen muss und welche man verändern muss, wenn man das Umfeld verändert. Demnach gibt es bei der Nutzung wichtige Herausforderungen. Aber es bietet sich ein fruchtbarer Boden, um darüber nachzudenken. Ganz allgemein kann man damit so etwas wie die Vermögensbewertung unter verzerrten Überzeugungen nachstellen. Und lassen Sie mich das kurz zu Ende führen, denn meine Zeit wird etwas knapp. Nehmen wir an, ich stelle mir vor, dass die Überzeugungen der Anleger von denen abweichen, die aus dem ökonometrischen Modell stammen. Die Darstellung hier nimmt also die Tatsache auf, dass Anleger eine andere Erwartung haben. Und wenn sie eine andere Erwartung haben, werde ich einen entsprechenden stochastischen Diskontierungsfaktor einsetzen, der dazu passt: S Tilde. Es ist bequem, diese Martingale zu nutzen, um mögliche Veränderungen und Überzeugungen darzustellen. Und das ist alles auf dieser mittleren Darstellung zu sehen. Was ich dann tun kann: Ich kann die grundlegende Gleichung für die Vermögensbewertung neu schreiben, so dass der stochastische Diskontierungsfaktor, über den ich gerade gesprochen habe, aus diesen beiden Komponenten besteht. Eine Komponente ist das Martingal, das nun durch andere Überzeugungen begründet ist, und die weitere Komponente ist der stochastische Diskontierungsfaktor, der durch diese Überzeugungen bedingt wird. Zum Beispiel kann ich einen stochastischen Diskontierungsfaktor für verzerrte Überzeugungen errechnen: Martingal mal Risikopräferenzen. Und, wie ich zuvor schon angemerkt hatte: Diese Martingale können für die Bewertung sehr wichtig sein. Sie haben langfristige Folgen. Dies war eine Möglichkeit, um eine Aktion aus ihnen herauszuholen. M ist die Interpretation der Wahrscheinlichkeitsverhältnisse und eröffnet Möglichkeiten, mit statistischen Methoden zu quantifizieren, wie groß sie sind. Also finde ich es sinnvoll, darüber nachzudenken. Lassen Sie uns nun diese verschiedenen Modelle, die Investoren in Betracht ziehen könnten, auf den Tisch legen. Aber es könnte immer noch hilfreich sein zu sagen: Dies sind Modelle, bei denen es sinnvoll erscheint, sie auf dem Tisch liegen zu lassen. Wenn es viele, viele Jahrzehnte und Daten braucht, um sie zu sortieren, ist das nichts, was wir sehr, sehr schnell herausfinden werden. Und da ich Verknüpfungen zu Wahrscheinlichkeitsverhältnissen und statistischen Kriterien habe, bin ich in der Lage, darüber nachzudenken, wie schwer Modelle zu unterscheiden sind, um diese möglichen Verzerrungen und Überzeugungen zu untersuchen. Ich glaube, es ist beinah praktisch, statistische Verfahren zu verwenden, um einen Anhaltspunkt dafür zu bekommen, wie groß oder klein diese Dinge sind. Und es gibt formale Möglichkeiten, genau dies zu tun. Ich finde es also nützlich, durch diese Überzeugungen als eine potenzielle Quelle für Martingale zu sehen, um darüber nachzudenken, wann ein historischer Beweis sehr informativ ist und wann nicht. Und statistische Verfahren sind sehr wertvoll, um genau das zu tun. Ich denke, das kann eine bestimmte Art von Disziplin schaffen. Wenn wir es zulassen, dass Überzeugungen nur willkürlich sind, dann können wir Probleme und Rätsel der Vermögensbewertung sehr, sehr schnell zu lösen. Aber die Frage ist, was für eine Art von Lösung ist das? Daher ist es praktisch zu versuchen, die Verzerrungen der Überzeugung, von denen wir glauben, dass sie durch allgemeinere Modelle von Unsicherheit motiviert sind, durch sogenannte Lebensgeister zu begrenzen. Generell denke ich, dass Modelle mit heterogenen Überzeugungen wichtig sind. Aber heterogene Überzeugungen könnten sinnvoller sein, da die Überzeugungen statistisch schwer zu unterscheiden sind. Subjektive Bedenken über seltene Ereignisse. Es öffnet auch die Tür, über Modelle nachzudenken, denen einige Investoren überdurchschnittlich vertrauen, indem sie ihr Modell zu wörtlich nehmen, und andere setzen sie vorsichtiger ein. Es gibt also fruchtbaren Boden, dies zu durchdenken. Und wieder liefert das Martingal als Komponente des stochastischen Diskontierungsfaktors eine äußerst produktive und lehrreiche Möglichkeit, darüber nachzudenken. Zum Abschluss finde ich diese Faktorzerlegung sehr nützlich. Sie ist nützlich, um diesen Verzerrungen der Überzeugung Struktur und Inhalt zu verleihen und sie nicht nur willkürlich sein zu lassen. Und ich finde es nützlich, um zu untersuchen, wie beispielsweise Bedenken über fehlerhafte Beschreibungen von Modellen zu diesen Dingen beitragen können. Aber es gibt auch andere Beweggründe, die man berücksichtigen könnte. Lassen Sie mich abschließend sagen, dass ich die Art von Werkzeugen, über die ich gesprochen habe, sehr nützlich finde. Stochastische Diskontierungsfaktoren sind eine gute Möglichkeit, um empirischen Beweisen einen Rahmen zu verleihen. Ihre Zuwachsraten können stark schwanken. Wir müssen gute Erklärungen bereithalten, um das zu begründen. Sie könnten über Martingale verfügen, die beständigen Einfluss auf sie haben. Und dann ist es nützlich, wenn man über Theorien verfügt, die uns dabei helfen, über diese Probleme nachzudenken. Vielen Dank.

Abstract

I will explore how alternative sources of uncertainty have an impact on asset valuation. I will show how decision theory, control theory and statistical theory provide valuable tools to model investor behavior and to reveal how uncertainty is reflected in security market prices. In intertemporal environments, risk-return tradeoffs depend on the payoff or investment horizon. To study these tradeoffs, I will construct pricing counterparts to impulse response functions. Recall that impulse response functions measure the importance of next-period shocks for future values of a time series. The asset-pricing counterparts are shock elasticities which measure the expected contribution to a cash flow from a shock in the next period shock and the price of that shock.