There is a VaR beyond usual approximations. Towards a toolkit to compute risk measures of aggregated heavy tailed risks
Marie Kratz September 2013
SWISS FINANCIAL MARKET SUPERVISORY AUTHORITY FINMA Bern - Z¨urich
1 Acknowledgement.
This work has been carried out during my internship (July-December 2012) at the Swiss Financial Market Supervisory Authority (FINMA). I would like to thank FINMA for its hospitality and rich environment, and ISFA (Univ. Claude Bernard, Lyon 1) for having given me the opportunity to learn more about actuarial sciences and finance, in view of becoming an IA - actuary.
A special thanks to Dr. Hansj¨orgFurrer (Head of the QRM department, FINMA) for having made this stay possible and for bringing to my attention this interesting practical issue.
Thanks to all of my colleagues from the Quantitative Risk Management (QRM) - Fi- nancial Risk SST department, for making my stay at FINMA a rich, pleasant and fruitful experience. Besides the study presented in this report, it was very interesting to get the chance to participate in the review process, discussion and report of some company, to learn more about the Swiss Solvency Test (SST) through discussions with colleagues and the revision of the french translation of SST.
My warm thanks also to Dr. Michel Dacorogna, for stimulating and interesting discus- sions on this study.
2 Abstract Basel II and Solvency 2 both use the Value-at-Risk (VaR) as the risk measure to compute the Capital Requirements. In practice, to calibrate the VaR, a normal approximation is often chosen for the unknown distribution of the yearly log re- turns of financial assets. This is usually justified by the use of the Central Limit Theorem (CLT), when assuming aggregation of independent and identically dis- tributed (iid) observations in the portfolio model. Such a choice of modeling, in particular using light tail distributions, has proven during the crisis of 2008/2009 to be an inadequate approximation when dealing with the presence of extreme returns; as a consequence, it leads to a gross underestimation of the risks. The main objective of our study is to obtain the most accurate evaluations of the aggregated risks distribution and risk measures when working on financial or insurance data under the presence of heavy tail and to provide practical solutions for accurately estimating high quantiles of aggregated risks. We explore new ap- proaches to handle this problem, numerically as well as theoretically, based on properties of upper order statistics. We compare them with existing methods, for instance with one based on the Generalized Central Limit Theorem.
R´esum´e Les r`eglesde BˆaleII et de Solvabilit´e2 sont toutes deux bas´eessur le choix de la Value-at-Risk (VaR) comme mesure de risque pour calculer le capital de solvabilit´e. En pratique, il est souvent d’usage de choisir une approximation normale pour estimer la distribution sous-jacente des log-returns annuels d’actifs financiers, en vue de l’´evaluation de la VaR. Cela est justifi´epar l’utilisation du TLC lorsqu’on suppose le mod`eledu portefeuille constitu´ede l’aggr´egation d’observations iid. Un tel choix de mod´elisation,reposant sur l’utilisation d’une distribution `aqueue dite ’l´eg`ere’,s’est av´er´etotalement inappropri´elors de la crise financi`erede 2008/09 durant laquelle la pr´esencede returns extrˆemesest devenue manifeste. Cette erreur de mod`elea conduit `aune sous-estimation cons´equente des risques. L’objectif principal de cette ´etudeest d’obtenir une ´evaluation de la distribution des risques aggr´eg´eset des mesures de risque associ´ees,la meilleure possible, lorsqu’on traite des donn´eesfinanci`eresou d’assurance `aqueue de distribution lourde, et de proposer des solutions pratiques pour estimer de fa¸conla plus op- timale possible les quantiles extrˆemesdes risques aggr´eg´es. Nous explorons de nouvelles approches pour appr´ehenderce probl`eme,d’un point de vue th´eorique comme num´erique,bas´eessur les propri´et´esdes plus grandes statistiques d’ordre. Nous comparons ensuite ces approches avec les m´ethodes existantes, telle celle reposant sur le TLC g´en´eralis´e.
Keywords: aggregated risk, (refined) Berry-Ess´eeninequality, (generalized) central limit theorem, conditional (Pareto) distribution, conditional (Pareto) moment, convo- lution, expected shortfall, extreme values, financial data, high frequency data, market risk, order statistics, Pareto distribution, rate of convergence, risk measures, stable distribution, Value-at-Risk
3 Synopsis
• Motivation Toute institution financi`ere,banque ou assurance, doit g`ererun portefeuille de risques. Ces risques agr´eg´es,mod´elis´espar des variables al´eatoires,constituent la base de tout mod`eleinterne. On constate qu’il est encore tr`esfr´equent, en pratique, d’utiliser une approximation normale pour estimer la distribution (in- connue) des rendements logarithmiques annuels d’actifs financiers. Cela est jus- tifi´epar l’application du Th´eor`eme de la Limite Centrale (TLC) sous l’hypoth`ese d’observations ind´ependantes et identiquement distribu´ees(iid) `avariance finie. Un tel choix de mod´elisation,utilisant une loi `aqueue de distribution dite l´eg`ere, s’est av´er´einappropri´epour l’´evaluation de mesures de risque, car elle sous estime le risque. Deux probl`emesessentiels se posent lors de l’application du TLC lorsqu’on con- sid`erece type de donn´ees `aqueue de distribution relativement lourde (par exem- ple de type Pareto ayant un param`etrede forme sup´erieur`a2). Le premier con- cerne la qualit´ede l’approximation li´eeaux moments de la variable parente, le sec- ond la pertinence d’une m´ethode graphique pour d´ecelerune distribution `aqueue ´epaisselorsqu’on agr`egeles donn´eeset que l’on obtient ainsi des ´echantillons de taille plus r´eduite.
,→ Revenons sur la 1`erequestion soulev´ee. Il ne faut pas perdre de vue que le TLC est un th´eor`emepermettant d’´evaluer le comportement moyen d’un ph´enom`eneet non celui des extrˆemes(localis´esen queue de distribution). Il a ´et´ed´emontr´e,depuis les ´etudesdes ann´ees80, en particulier celle de Hall ([27]), qu’enlever les extrˆemesde l’´echantillon peut am´eliorerla vitesse de convergence (variance plus faible) de la moyenne lors de l’application du TLC. De plus, mˆemesi l’on ne s’int´eressaitqu’au comportement moyen, on sait qu’il s’agit d’un th´eor`emeasymptotique fonction de la taille de l’´echantillon et que l’on peut obtenir une mauvaise approximation pour des ´echantillons de taille r´eduite. Pour am´eliorerla qualit´ede l’approximation, l’existence de moments d’ordre sup´erieur`a2 s’av`eren´ecessaire,comme l’atteste le d´eveloppement de Edgeworth. ,→ Concernant le second probl`emeli´e`al’agr´egation, notons que l’existence d’une distribution sous-jacente `aqueue lourde peut se d´ecelerpar des m´ethodes empiriques/graphiques, telles le QQ-plot, - clairement sur des donn´ees`ahaute fr´equence (par exemple des donn´ees journali`eres) - et non plus sur des donn´eesagr´eg´ees,par exemple des donn´eesannuelles (´echantillons de petite taille)
4 alors qu’il est bien connu, depuis le th´eor`emede Fisher, que l’indice de queue de la distribution sous-jacente reste invariant apr`esagr´egation.C’est un ph´enom`enesur lequel ont insist´ebien des auteurs (cf. par exemple [13]). Ce second probl`emes’illustre tr`esbien par les QQ-plots obtenus pour les ren- dements S&P 500 figurant dans la section Introduction. En effet, alors que le QQ-plot effectu´esur des donn´eesjournali`eresde 1987 `a2007 permet de d´etecter une distribution `aqueue lourde, il n’en est pas de mˆemelorsqu’on agr`egeces donn´eesmensuellement. Dans ce cas, le QQ-plot apparaˆıtplutˆotcomme normal, et inciterait alors `aconsid´ererles crises financi`eresde 1998 et 1987 comme des valeurs aberrantes. Mˆemeen consid´erant les donn´eesagr´eg´eesmensuellement sur une p´eriode un peu plus longue, `asavoir de 1987 `a2013, le QQ-plot reste plus ou moins inchang´e, i.e. normal, sauf que cette fois un autre point ’aberrant’ apparaˆıt, avec la date de ... Octobre 2008 ! Sans revenir aux donn´eesjournali`eresmais en augmentant sensiblement la taille de l’´echantillon, avec des donn´eesmensuelles de 1791 `a2013, il devient `anouveau manifeste que la distribution sous-jacente est `aqueue lourde. La crise financi`erede 2008 est un ´ev´enement apparaissant dans la queue de distribution et ne peut alors plus ˆetre´ecart´ede l’analyse en tant que point aberrant. Ces diff´erentes figures illustrent bien l’importance de la taille d’´echantillon, lorsque nous devons ´evaluer des risques en pr´esencede distri- bution `aqueue relativement lourde. Il s’av`eredonc fondamental de proposer une m´ethode qui ne d´epende pas de la taille de l’´echantillon pour d´ecelerla forme de la queue de distribution.
• Objectif La recherche de telle(s) approche(s) afin d’obtenir les ´evaluations les plus fines possibles des mesures de risque lorsque nous analysons des donn´eesfinanci`eres en pr´esencede queues de distribution ´epaissesconstitue notre principal objectif. Nous allons explorer diverses m´ethodes, existantes et nouvelles, pour r´esoudrece probl`eme,th´eoriquement et num´eriquement. Ayant en vue des applications financi`eres ou actuarielles, nous utiliserons des mod`eles de loi puissance pour les marginales des risques, telle la loi de Pareto de param`etre α d´efiniepar F (x) := 1 − F (x) = x−α, α > 0, x ≥ 1 (1) Nous d´efinironsles rendements selon (n) Xi := ln Pi − ln Pi−n, n ≥ 1
o`u Pi est le prix journalier et n le facteur d’agr´egation. Notons que nous pouvons aussi ´ecrire n (n) X (1) Xi = Xi i=1
5 (1) Nous simplifierons la notation de Xi en Xi et consid´ereronsalors un n-´echantillon (Xi, i = 1, . . . , n) de variable parente X suivant une loi de Pareto, de statistiques d’ordre associ´ees X(1) 6 ··· 6 X(n). • Questions ou remarques Lorsque nous abordons la recherche de m´ethodes appropri´ees,plusieurs questions se posent de suite, dont certaines sur le choix des hypoth`eses.
– Pourquoi consid´ererdes donn´eessimul´eesselon une loi de Pareto? Cette hypoth`esese justifie par la Th´eoriedes Valeurs Extrˆemes(TVE). En effet, il suffit de rappeler les deux r´esultatsfondamentaux suivants. ∗ D’une part, le th´eor`emede Pickands ´etablitque pour un niveau u assez ´el´ev´e,la loi de Pareto G´en´eralis´ee(GPD) Gξ,σ(u) (de param`etrede forme ξ et de param`etred’´echelle σ(u)) est une tr`esbonne approximation de la loi des exc`esau del`ade ce niveau d´efiniepar Fu(x) = P[X − u ≤ x|X > u]: Fu(y) ≈ Gξ,σ(u) (y) u→∞ ∗ D’autre part, pour ξ > 0, la queue de la GPD est asymptotiquement ´equivalente `aune queue de Pareto:
−1/ξ Gξ,σ(u)(y) := 1 − Gξ,σ(u)(y) ∼ cy (c > 0 some constant) y→∞ Ces deux rappels montrent qu’il est donc tout `afait naturel et relativement g´en´eralde consid´erercomme loi sous-jacente une Pareto, lorsque nous tra- vaillons sur des donn´eesen pr´esencede queues lourdes, et que nous avons en vue l’´evaluation des mesures de risque (risque extrˆemes). – La condition ’iid’ est-elle trop restrictive pour notre ´etude? Nous pouvons r´epondre `acette question quelque peu provocatrice en faisant appel `anou- veau `ala TVE, ainsi qu’`aune ´etuder´ecente de Embrechts et al. ([19]). ,→ Nous savons, via la TVE, que l’indice de queue de la loi des risques agr´eg´escorrespond `acelui de la marginale ayant la queue la plus lourde, cela ne d´epend donc pas du probl`emede d´ependance. ,→ R´ecemment, un nouvel algorithme num´eriquea ´et´eintroduit par Em- brechts et al. ([19]) pour le calcul des bornes inf´erieureet sup´erieurede la Value-at-Risk (VaR) de portefeuilles (ie risques agr´eg´es)inhomog`enes de dimension ´elev´ee,quelle que soit la structure de d´ependance. (Rap- pelons que la VaR `al’ordre q d’une variable correspond au quantile d’ordre q de cette variable.) Les auteurs remarquent que la qualit´ede ces bornes d´epend essentiellement de l’information marginale disponible pour le mod`ele,et de fa¸consurprenante, nettement moins de l’information sur la structure de d´ependance. De plus, dans le cas de Pareto, ces bornes s’av`erent ˆetretr`esproches.
6 Aussi est-il naturel de simplifier notre ´etudeen supposant les variables iid.
D’autres questions seront abord´eeslors de la construction de nos m´ethodes, par exemple:
– D`eslors que nous consid´eronsdes donn´eesagr´eg´ees,ce qui signifie une taille d’´echantillon plus faible, est-il raisonnable de proposer des m´ethodes bas´ees sur des th´eor`emesasymptotiques pour ´evaluer la distribution sous-jacente? – Quel type d’approximation peut ˆetreutilis´elorsque nous sommes en pr´esence de queues lourdes? cela d´epend-t-il de l’indice de queue?
Notons enfin que cette ´etudepermet de remplir la derni`ere’brique’ manquante sur le comportement de la somme de variables iid dans le cas de queue de dis- tribution ’mod´er´ement’ lourdes, pour lesquelles le TLC s’applique (pour le com- portement moyen!) mais avec une vitesse de convergence pouvant ˆetre lente et dont l’approximation pour la queue de distribution n’est pas satisfaisante.
• Sommaire Nous passerons en revue les m´ethodes existantes, depuis celle bas´eesur le TCL g´en´eralis´e(GCLT) (avec convergence vers une loi stable si le param`etrede forme de la loi de Pareto est inf´erieur`a2 et vers une loi normale sinon), jusqu’`ala m´ethode du maximum (TVE). Nous proposerons ensuite deux m´ethodes, toutes deux inspir´eesd’une ´etudede Zaliapin et al.’s ( [49]) dans laquelle la somme de n variables iid est r´e´ecritecomme la somme des statistiques d’ordre associ´eespour lesquelles on peut ´etudier les moments. La premi`erem´ethode, appel´ee Normex, est d´evelopp´eeth´eoriquement et num´eri- quement, et permet de comprendre la divergence entre la distribution sous- jacente `aqueue mod´er´ement lourde et l’approximation normale, lorsque le TLC s’applique. Elle identifie le nombre de statistiques d’ordre les plus grandes `a extraire de la somme totale afin de proposer une loi m´elangeentre une nor- male appliqu´ee`ala somme ´ecrˆet´ee(avec une bonne vitesse de convergence) et la distribution exacte du reste de la somme. Ce nombre de statistiques d’ordre les plus grandes varie selon la valeur du param`etrede forme de la loi de Pareto, mais est tr`espetit et ind´ependant de la taille de l’´echantillon! Parmi les diff´erentes m´ethodes test´ees,Normex donne en g´en´eralles meilleurs r´esultats, ind´ependamment de la taille de l’´echantillon et de l’´epaisseurde la queue de dis- tribution. Nous faisons une comparaison analytique entre la distribution exacte des risques agr´eg´eset celle obtenue via Normex, puis d´eveloppons l’application de Normex pour l’´evaluation des mesures de risque. La seconde m´ethode propos´eeest empirique et consiste en une approximation normale `aparam`etrespond´er´es,dans le cas o`ule param`etre de forme de la loi de Pareto est sup´erieur`a2. Cette m´ethode a le m´erite de constituer un outil tr`es simple, permettant de rester dans le cadre Gaussien, mais avec termes correctifs
7 tant pour la moyenne que pour la variance. C’est en g´en´eralla 2nde meilleure m´ethode apr`esNormex. Finalement, nous terminons cette ´etudepar l’application des diff´erentes m´ethodes `al’´evaluation des mesures de risque, afin de les tester et de les comparer num´eriquement. Nous prenons comme exemple de mesure de risque la VaR et consid´eronsles quantiles extrˆemes(aux ordres 95%, 99% et 99,5%) utilis´esdans les calculs de solvabilit´e.Les diff´erentes ´evaluations, assorties de leur erreurs relatives, figurent dans les tableaux de la section 4.2.
• Principaux r´esultats Citons, pour clore ce synopsis, le principal r´esultatli´e`achacune des 2 m´ethodes propos´ees.
Th´eor`eme1 - Normex. La distribution de la somme de Pareto Sn peut ˆetre approch´eepar la distribution Gn,α,k, d´efiniepour tout x ≥ 1 par
x x−y ?(k−1) R f (y) R ϕ ? h (v)dv dy si k ≥ 2 1 (n−k+1) 0 m1(y),σ(y) y G (x) = n,α,k R x f(n)(y) R x−y v−m1(y) 1 σ(y) 0 ϕ σ(y) dv dy si k = 1
Pour k = 1, la distribution de Sn est donn´eepar Z x Z x−y 1 −(1+α) −α n−1 v − m1(y) Gn,α,1(x) = nα y (1 − y ) ϕ dv dy 1 σ(y) 0 σ(y) Pour k ≥ 2 (mais petit), nous avons Z x Z x−yZ v f(n−k+1)(y) v − u − m1(y) ?(k−1) Gn,α,k(x) = ϕ hy (u)du dv dy 1 σ(y) 0 0 σ(y)
?(k−1) o`ule produit de convolution hy peut ˆetreais´ement ´evalu´enum´eriquement en util- isant l’´equation de convolution r´ecurrente appliqu´ee`a h, ou par une formule exacte dans les cas α = 1, 2.
R´esultat2. Consid´erons k = k(n, γ) avec γ = 0.9, tel que
k = k(n, γ) = [n(1 − γ)] = [n/10]
La distribution de Sn peut ˆetreapproch´ee,pour tout n et tout α > 2, par la loi normale `aparam`etrespond´er´es
2 2 2 N m1(α, n, k) + k ESγ(X) , σ (α, n, k) × γ ESγ α o`u ES (X) = (1 − γ)−1/α, et m (α, n, k), σ2(α, n, k) sont les param`etres γ (α − 1) 1 de la loi normale de la somme ´ecrˆetr´eedes k statistiques d’ordre les plus grandes.
8 Contents
1 Introduction 10 1.1 Motivation and objective ...... 10 1.2 Preliminaries ...... 13
2 Existing methods 17 2.1 A GCLT approach ...... 17 2.1.1 Limit theorems ...... 17 2.1.2 Evaluation of Risk measures ...... 18 2.2 An EVT approach ...... 19 2.2.1 GEV approach ...... 20 2.2.2 Mean Excess Plot approach ...... 21
3 New approaches - mixed limit theorems 23 3.1 Introduction ...... 23 3.1.1 On the selection of the threshold for the best mean behavior of aggregated heavy tail distributed risks ...... 25 3.1.2 Order statistics ...... 27 3.2 Method 1: Normex - a mixed normal-extremes limit ...... 31 3.2.1 A conditional decomposition ...... 31 3.2.2 On the quality of the approximation of the distribution of the Pareto sum Sn ...... 38 3.3 Method 2 : a weighted normal limit ...... 46
4 Application to risk measures 50 4.1 Possible approximations of VaR ...... 50 4.2 Numerical study - comparison of the various methods ...... 52 4.2.1 Presentation of the study ...... 52 4.2.2 Estimation of the VaR with the various methods ...... 53 4.2.3 Discussion of the results ...... 61
5 Conclusion 62
6 Bibliography 64
7 Appendix 67 7.1 Numerical study of K(α, n)...... 67 7.2 Results concerning VaR ...... 69 7.3 R codes ...... 70
9 1 Introduction
1.1 Motivation and objective • Main issue / Motivation:
– A normal approximation is often chosen in practice for the unknown distri- bution of the yearly log returns of financial assets, justified by the use of the CLT, when assuming independent and identically distributed (iid) observa- tions. Such a choice of modeling, in particular using light tail distributions, has been revealed to be an inadequate approximation when dealing with risk measures; as a consequence, it leads to underestimate the risk. – Recently, a study was done by Furrer ([23]) on simulated iid Pareto random variables (rv’s) to measure the impact of the choice and the use of the lim- iting distribution of aggregated risks, in particular for the computation of standard risk measures (VaR or ES). In this study, the standard General Central Limit Theorem (GCLT) (see e.g. [44]) is recalled, providing a limit- ing stable distribution or a normal one, depending on the value of the shape parameter of the Pareto rv’s. Then, considering Pareto samples of various sizes and for different values of the shape parameter, Furrer compared the distance between the empirical distribution and the theoretical limiting dis- tribution, then computed the empirical VaR and TVaR and compared them with the ones computed from the limiting distribution. It appeared clearly that not only the choice of the limiting distribution matters, but also the rate of convergence, hence the way of aggregating the variables. From this study, we also notice that the normal approximation appears really inade- quate when considering aggregated risks coming from a moderately heavy tail distribution, i.e. a Pareto with a shape parameter or tail index larger than 2, but below 4. – A few comments can be added to this study. First, the numerical results obtained in [23] confirm what is already known in the literature. In particular, there are two main drawbacks when using the CLT for moderate heavy tail distributions (e.g. Pareto with a shape parameter larger than 2). On one hand, if the CLT may apply to the sample mean because of a finite variance, we also know that it provides a normal approximation with a very slow rate of convergence, that may be improved when removing extremes from the sample (see e.g. [27]). Hence, even if we are interested only in the sample mean, samples of small or moderate sizes will lead to a bad approximation. To improve the rate of convergence, existence of moments of order larger than 2 is necessary (see e.g. §3.2 in [20], or, for more details, [39]). On the other hand, we know that it has also been proved theoretically (see
10 e.g. [11]) as well as empirically (see e.g. [13], §5.4.3) that the CLT approach applied to a heavy tail distributed sample does not bring any information on the tail, therefore should not be used to evaluate risk measures. Indeed, a heavy tail may appear clearly on high frequency data (e.g. daily ones) but become not visible anymore when aggregating them in e.g. yearly data (i.e. short samples), although it is known, by Fisher theorem, that the tail index of the underlying distribution remains constant under aggregation. It is a phenomenon on which many authors insisted, as eg in [13]. The figures on the S&P 500 returns illustrate very clearly this last issue.
On these figures above, the QQ-plot of the S&P 500 daily returns from 1987 to 2007, helps to detect a heavy tail. When aggregating the daily returns into monthly returns, the QQ-plot looks more as a normal one, and the financial crises of 1998 and 1987 could be on this graph considered as outliers. Now, look at the figures below. When adding data from 2008 to 2013, the QQ plot looks pretty the same, i.e. normal, except that another ”outlier” appears ... with the date of October 2008! Instead of looking again on daily data for the same years, let us consider a larger sample of monthly data from 1791 to 20131. With a larger sample size, the heavy tail becomes again visible. And now we see that the financial crisis of 2008 does belong to the heavy tail of the distribution and cannot be considered anymore as an outlier. So we clearly see the importance of the sample size, when dealing with moderately heavy tails to estimate the risk. Thus we need a method that does not depend on the sample size, but look at the shape of the tail.
1as compiled by Global Finance Data (https://www.globalfinancialdata.com/index.html)
11 • Objective. The main objective is to obtain the most accurate evaluation of the distribution of aggregated risks and of risk measures when working on financial data under the presence of fat tail. We explore various approaches to handle this problem, theoretically, as well as empirically and numerically.
• Plan. After reviewing briefly the existing methods, from the General Central Limit Theorem (GCLT) to Extreme Value Theory (EVT), we will propose and develop two new methods, both inspired by the work of Zaliapin et al.’s (see [49]) in which the sum of n iid rv’s is rewritten as the sum of the associated order statistics. The first method, named Normex, answers the question of how many largest order statistics would explain the divergence between the underlying moderately heavy tail distribution and the normal approximation, whenever the CLT applies, and combines a normal approximation with the exact distribution of this number (independent of the size of the sample) of largest order statistics. It provides in general the sharpest results among the different methods, whatever is the sample size and for any heaviness of the tail. The second method is empirical and consists of a weighted normal approximation. Of course, we cannot expect such a sharp result as the one obtained with Normex. However it provides a simple tool allowing to remain in the Gaussian realm. We introduce a shift in the mean and a weight in the variance, as correcting terms for the Gaussian parameters. Then we will proceed to an analytical comparison between the exact distribution of the Pareto sum and its approximation given by Normex, before turning to the
12 application to the evaluation of risk measures. Finally a numerical study will follow, applying the various methods on simulated samples to compare the accuracy of the extreme quantiles, used as risk measures in solvency calculation. With financial/actuarial applications in mind, and without loss of generality, we will use power law models for the marginal distributions of the risks such as the Pareto distribution.
1.2 Preliminaries • Main notation Let Φ and ϕ denote, respectively, the cdf and the density function of the standard normal distribution N (0, 1).
Let X be a random variable (r.v.), Pareto (type I) distributed with shape pa- rameter α and cumulative distribution function (cdf) F defined by
F (x) := 1 − F (x) = x−α, α > 0, x ≥ 1 (2)
and probability density function (df) denoted by f. Note that the inverse function F ← of F is given by
← − 1 F (z) = (1 − z) α , for 0 < z < 1 (3) α α Recall that for α > 1, (X) = and for α > 2, var(X) = . E α − 1 (α − 1)2(α − 2) n X We denote by Sn the Pareto sum Sn := Xi ,(Xi, i = 1, . . . , n) being an i=1 n-sample with parent r.v. X, and by X(1) 6 ··· 6 X(n) the order statistics of (Xi)16i6n.
When dealing with financial assets (market risk data), we define the returns as
(n) Xi := ln Pi − ln Pi−n, n ≥ 1
Pi being the daily price, and n representing the aggregation factor. Note that we can also write
n (n) X (1) Xi = Xi i=1
(1) In what follows, we will denote Xi by Xi.
13 • Risk measures
– Definitions Let us introduce the risk measures used in solvency calculations, namely the Value-at-Risk, denoted VaR, and the Expected Shortfall Expected (named also Tail-Value-at-Risk) ES (or TVaR), of a rv X with cdf FX (and inverse ← function denoted by FX ).
∗ The Value-at-Risk of order q of X is simply the quantile of FX of order q, q ∈ (0, 1):
← V aRq(X) = inf{y ∈ R : P [X > y] ≤ 1 − q} = FX (q)
∗ If E|X| < ∞, the expected shortfall (ES), at confidence level q ∈ (0, 1) is defined as 1 Z 1 ESq(X) = V aRβ(X) dβ or ESq(X) = E[X | X ≥ V aRq] 1 − q q
It can also be thought as an average over all risks exceeding V aRq(X). This risk measure does depend only on the tail cdf of X and satisfies ESq(X) ≥ V aRq(X).
Note that we will simplify the notation of those risk measures writing V aRq or ESq when no confusion is possible. – Pareto risks In the case of a α-Pareto distribution, we deduce from (3) analytical expres- sions of those two risk measures, namely
← − 1 V aRq(X) = F (q) = (1 − q) α (4)
and, if X ∈ L1, i.e. if α > 1, then α α ES (X) = (V aR (X))1−α = (1 − q)−1/α (5) q (α − 1)(1 − q) q (α − 1)
For α-Pareto iid rv’s, the risk measure VaR is asymptotically superadditive if α ∈ (0, 1) and subadditive if α ≥ 1.
Recall also that the shape parameter α determines totally the ratio ESq/V aRq when we go far enough out into the tail: ES lim q = (1 − 1/α)−1 if α > 0 and 1 otherwise. q→1 V aRq Note that this result holds also for the Generalized Pareto Distribution with shape parameter ξ = 1/α, which will be defined later.
14 – Aggregated risks Pn When looking at aggregated risks i=1 Xi, it is well known that the risk measure ES is coherent (see [2]). In particular it is subadditive, i.e.
n n X X ESq Xi ≤ ESq(Xi) i=1 i=1 whereas VaR is not a coherent measure, because it is not subadditive. In- deed many examples can be given where VaR is superadditive, i.e.
n n X X V aRq Xi ≥ V aRq(Xi) (see e.g. [18], [14]) i=1 i=1 We have the following property. Proposition 1.1 ([18]) Consider i.i.d. rv’s Xi, i = 1, . . . , n with parent rv X and cdf FX . Assume they are regularly varying with tail index β > 0, which means that the right tail 1 − FX of its distribution satisfies 1 − F (ax) lim X = a−β, ∀a > 0 x→∞ 1 − FX (x)
Then the risk measure VaR is asymptotically subadditive for X1,...,Xn if and only if β ≥ 1: