• eie.financial@gmail.com

Nowy Jork

Londyn

Warszawa

Moskwa

Tokio

Metodologia Value at Risk w praktyce, szacowanie wielkości VaR dla indeksu WIG20.

Michał Gołębiewski

pomoc programistyczna oraz numeryczna: Marek Zieliński

17.09.2017

Główne pytania badawcze pracy:

  • czy modele klasy ARCH są odpowiednie do szacowania wielkości VaR?

  • czy dodanie zmiennych objaśniających wpływa korzystnie na jakość oszacowań VaR?

  • czy zastosowanie innych rozkładów warunkowych niż normalny w modelach klasy ARCH poprawia jakość oszacowań VaR?

  • czy rozszerzenie podstawowego modelu ARCH o element autoregresyjny w równaniu warunkowej wariancji poprawia jakość oszacowań VaR?

 

Jednym z najpopularniejszych sposobów szacowania ryzyka na rynkach finansowych jest metodologia Value at Risk. Swoją popularność zawdzięcza prostocie w interpretacji i nieskomplikowanej konstrukcji. Wartość narażona na ryzyko (VaR) to próba wskazania pojedynczej wartości określającej całkowite ryzyko danego instrumentu (portfela). Obecnie miara ta jest powszechnie stosowana przez osoby odpowiedzialne za finanse przedsiębiorstw, zarządzających funduszami inwestycyjnymi oraz przez instytucje finansowe.

Czym jest VaR? Skorzystajmy z definicji (def. VaR):

PW-W0VaR=α pozycja długa

PW-W0VaR=α pozycja krótka

gdzie:
W– wartość instrumentu na końcu okresu T 
W0 – początkowa wartość instrumentu 
α – poziom istotności

Jesteśmy na (1- α) procent pewni że w okresie T nie stracimy więcej niż VaR.

Istnieje wiele metod wyznaczania VaR. Są to metody nieparametryczne - symulacje historyczne. Metody symulacyjne, oparte na symulacjach Monte Carlo. Metody semiparametryczne - do tej grupy zaliczamy teorie wartości ekstremalnych. Ostatnią grupą są metody parametryczne, do niej  zaliczamy metodologie Risk Metrics oraz parametryczne modele zmienności, tj. wyznaczanie VaR w oparciu m.in. o modele zmienności stochastycznej (SV) oraz modele klasy ARCH i EWS-GARCH. Dodatkowo w modelach klasy ARCH istnieje możliwość zastosowania innych rozkładów warunkowych (innych niż rozkład normalny) o grubszych ogonach co często wpływa na polepszenie modelowanych zależności. W tym artykule zajmiemy się wyznaczaniem wartości narażonej na ryzyko za pomocą modeli klasy ARCH. Czemu akurat te modele? Aby odpowiedzieć na to pytanie warto się przyjrzeć charakterystyce finansowych szeregów czasowych. Pierwszym bardzo charakterystycznym zjawiskiem jest grupowanie się wariancji. Widać to na poniższym wykresie.

 

Jest to wykres stóp zwrotu indeksu WIG20. Małe i duże zmiany kursu występują seriami. Wyraźnie widać, że są okresy zwiększonej oraz zmniejszonej zmienności.

 

 

 

 

Drugą charakterystyczną cechą rozkładów temp wzrostu kursów instrumentów finansowych jest leptokurtoza oraz występowanie tzw. grubych ogonów. Oznacza to, że prawdopodobieństwo wystąpienia nietypowych zmian kursów jest większe niż w przypadku gdyby miały one rozkład normalny. Zjawisko to widać na poniższych wykresach.

 

Wykresy ukazują funkcję gęstości rozkładu normalnego dopasowaną do danych empirycznych (są to returny indeksów WIG20 i DJIA) oraz bardzo dobrze dopasowaną do danych empirycznych funkcję gęstości wyznaczoną za pomocą algorytmu Epanechnikova. Obserwacje nietypowe (duże i małe zmiany kursów) występują częściej niż wynika to z rozkładu normalnego. Rozkłady temp wzrostu są także prawostronnie skośne, co oznacza, że wzrosty kursów występują częściej niż spadki. Na rynkach finansowych ponadto często występuje związek pomiędzy wariancją temp wzrostu kursów giełdowych i ich autokorelacją. Autokorelacja towarzyszy zwykle małej wariancji kursowej, zaś duża zmienność powoduje brak autokorelacji. Na giełdach występuje również efekt który, polega na tym, że okresy podwyższonej zmienności na giełdzie często rozpoczynają się od dużych zwrotów ujemnych, co sugerowałoby, że dodatnie i ujemne zwroty wywierają asymetryczny wpływ na poziom przyszłej zmienności. Modele klasy ARCH bardzo dobrze nadają się do modelowania finansowych szeregów czasowych ponieważ ich konstrukcja uwzględnia zjawisko grupowania się wariancji. Dodatkowo jeśli jako warunkowe rozkłady zastosujemy rozkłady o mniejszej kurtozie i o „grubszych ogonach” niż rozkład normalny uzyskamy następną pożądaną cechę. Istnieje również pewna podgrupa modeli ARCH, która uwzględnia skośność rozkładów. Problem występowania związku pomiędzy wariancją temp wzrostu a ich autokorelacją wydaje się, że mógłby być z kolei rozwiązany za pomocą modeli klasy EWS-GARCH (jednak zagadnienie modeli EWS-GARCH nie będzie dalej rozwijane w niniejszym artykule). Do  rozwiązania problemu asymetrycznego wpływu dodatnich i ujemnych zwrotów na poziom przyszłej zmienności można wykorzystać specjalną podgrupę modeli ARCH (chociażby modele GJR czy EGARCH, lecz nie będzie to tematem tego artykułu).

 

 

Modele klasy ARCH:

Zmienna w czasie wariancja stóp zwrotu przekłada się na zmienną w czasie wariancję składnika losowego (występuje tzw. heteroskedastyczność składnika losowego). Z reguły problemu nie można wyeliminować nawet poprzez zmianę specyfikacji podstawowego równania regresji. Wynika to z charakterystyki finansowych szeregów czasowych. Rozwiązaniem problemu są modele klasy ARCH. Modele ARCH zostały po raz pierwszy przedstawione w 1982 roku przez amerykańskiego ekonomistę, Roberta Engle, za co został on uhonorowany w 2003 roku Nagrodą Nobla w dziedzinie ekonomii. W modelach tych zaproponowano aby wariancję składnika losowego opisać za pomocą schematu autoregresyjnego rzędu S:

ξt2=γ0+s=1Sγsξt-s2+ϑt                  γ0>0,  γs0

gdzie:ϑt:IID(0,σϑ2)

W literaturze często stosuje się alternatywny zapis:

ξt=htηt

ht=γ0+s=1Sγsξt-s2

 gdzie:ηt:IID(0,1)   ξt:IID(0,σξ2)

Uogólnieniem modelu ARCH(S) jest model GARCH(S,Q), dla którego funkcja wariancji warunkowej ht jest następująca:

ht=γ0+s=1Sγsξt-s2+q=1Qϕqht-q               γ0>0,  γs0,  ϕq0

 

W stosunku do modelu ARCH(S) w modelu GARCH(S,Q) w ht wprowadzony został proces autoregresyjny. Badania empiryczne dowiodły, że GARCH(1,1) dla którego: 
γ^1+ϕ^1  jest bliskie jedności, umożliwia zwykle dokładny opis modelowanych zjawisk finansowych.

 

Jaki rozkład warunkowy wybrać? Jako alternatywę dla rozkładu normalnego zastosujemy rozkład t-studenta. Przyjrzyjmy się wykresom, które porównują dopasowanie rozkładów t-studenta i normalnego do danych empirycznych.

Jak widać lepsze dopasowanie do danych empirycznych uzyskano stosując rozkład t-studenta. 

 

W celu potwierdzenia hipotezy, iż lepsze wyniki modelowania daje zastosowanie jako warunkowego rozkładu, rozkładu t-studenta zdecydowano się na wyznaczanie wielkości VaR z wykorzystaniem tak rozkładu normalnego jak i rozkładu t-studenta w celu porównania wyników.

Wielkość VaR będzie liczona na podstawie 12 modeli klasy GARCH:

AR(0)-GARCH(1,0) – rozkład normalny 
AR(0)-GARCH(1,1) – rozkład normalny  *model benchmarkowy

AR(1)-GARCH(1,0) – rozkład normalny
AR(1)-GARCH(1,1) – rozkład normalny

AR(1)-USA(-1)-GARCH(1,0) – rozkład normalny
AR(1)-USA(-1)-GARCH(1,1) – rozkład normalny

gdzie:
AR(1) – opóźniona o jeden okres wartość tempa wzrostu indeksu WIG20
USA(-1) – opóźniona o jeden okres wartość tempa wzrostu indeksu Dow Jones Industrial 

*Jako model wyjściowy (benchmarkowy) do, którego będziemy porównywać inne modele wybrano model GARCH(1,1) z rozkładem normalnym bez dodatkowych zmiennych objaśniających gdyż według teorii ekonometrycznej z reguły daje on zadawalające rezultaty.

Dodatkowo dla każdego modelu warunkowy rozkład normalny zostanie zastąpiony rozkładem t-studenta, tym sposobem powstanie 12 modeli wykorzystanych później do wyznaczania prognoz wielkości VaR. Próba badawcza zawiera 4219 obserwacji, są to dzienne dane za okres 03.01.2000 – 19.04.2107 dla indeksów WIG20, Dow Jones Industrial oraz S&P 500 (dane musiały zostać ujednolicone ze względu na występujące okresowo różne dni handlu w Polsce oraz Stanach Zjednoczonych). Próbę podzielono na dwa podokresy lata 2000-2004 (1219 obserwacji - próba testowa) i 2005 – 19.04.2017 (3000 obserwacji - próba do badań ex ante). Estymowanie parametrów strukturalnych równań będzie dokonywane za pomocą okna ruchomego długości 750 obserwacji. Do modelowania stóp zwrotu indeksu WIG20 wykorzystano opóźnione o jeden okres stopy zwrotu indeksu DJIA, gdyż występuje bardzo silna zależność pomiędzy indeksami WIG20 i DJIA co widać na wykresie poniżej:

 

W modelu jako zmiennej objaśnianej nie będziemy wykorzystywać temp wzrostu indeksu S&P500 gdyż są one bardzo silnie skorelowane z tempami indeksu DJIA. Umieszczenie ich w modelu skutkowałoby wystąpieniem współliniowości zmiennych objaśniających, co jest niepożądaną cechą.

Równania wykorzystane do estymacji modeli klasy GARCH:

 (1)rt=α0+α1rt-1+α2DJIAt-1+ξt

 (2)ξt=htηt

 (3)ht=γ0+ γ1ξt2+θht-1

Tak zdefiniowany model zakłada, że warunkowa wartość oczekiwana stóp zwrotu wynosi: 

μt=α0+α1rt-1+α2DJIAt-1

Natomiast warunkowa wariancja zadana jest wzorem (3)

Poszczególne modele uzyskano nakładając odpowiednie restrykcje na parametry w równaniach (1) i (3)

Zanim przystąpiono do estymowania parametrów zbadano czy dla modelowanych zależności występuje efekt ARCH. Test efektu ARCH polega na sprawdzeniu czy składnik losowy ma stałą wariancję warunkową wobec alternatywy że wariancja warunkowa kształtuje się zgodnie z procesem AR(S)

H0:γ1=γ2=...=γS=0         H1:γs0

gdzie: s=1, 2, , S

Sprawdzianem testu jest statystyka:    TR2:ΧS2 o S stopniach swobody, gdzie T jest liczbą obserwacji, a R2 oznacza współczynnik determinacji z równania:

et2=β0+s=1Sβset-s2+τt

zaś etsą resztami otrzymanymi w wyniku oszacowania MNK parametrów wyjściowego równania.

Test występowania efektu ARCH wykonano dla opóźnień rzędu 5 (S=5). Wartość krytyczna testu przy 5 stopniach swobody i poziomie istotności równym 0,01 wynosi 15,09. Każda wartość statystyki większa od tej wartości będzie oznaczała, że odrzucamy hipotezę zerową na rzecz alternatywnej czyli występuje efekt ARCH. Testu dokonano na próbie testowej.

Model 1:rt=α0+ξt
statystyka testu wynosi: 51,21

Model 2:rt=α0+α1rt-1+ξt
statystyka testu wynosi: 49,85

Model 3:rt=α0+α1rt-1+α2DJIAt-1+ξt
statystyka testu wynosi: 48,2

Wniosek: Efekt ARCH występuje dla każdego z 3 modeli, stąd zastosowanie modeli klasy ARCH jest uzasadnione.

Poniżej przedstawiono wykresy estymacji ruchomej współczynników występujących w równaniach oraz wyestymowanych wartości ilości stopni swobody rozkładu t-studenta dla przykładowego modelu.

W pierwszym etapie obliczania wartości narażonej na ryzyko na podstawie wyestymowanych parametrów modeli klasy ARCH, wyznaczono prognozy wielkości μ oraz h na jeden dzień naprzód. Następnie wykonano obliczenia wielkości VaR dla pozycji długiej i krótkiej jeden dzień naprzód na podstawie następujących wzorów:

VaRt+1l(α)=μt+1+ht+1zα

VaRt+1s(α)=μt+1+ht+1z1-α

gdzie:

VaRt+1l(α) – wielkość VaR przy poziomie istotności α jeden dzień naprzód (pozycja długa)
VaRt+1s(α) – wielkość VaR przy poziomie istotności α jeden dzień naprzód (pozycja krótka)
μt+1 – oszacowna oczekiwana warunkowa wartość stopy zwrotu jeden dzień naprzód
ht+1 – oszacowana warunkowa wariancja jeden dzień naprzód
zα – α-kwantyl zmiennej ηt (np. dla warunkowego rozkładu normalnego dla α = 0,05 , zα=-1,65
z1-α – 1-α-kwantyl zmiennej ηt (dla warunkowego rozkładu normalnego dla α = 0,05 , z1-α=1,65

Tak skonstruowane modele dały 12 wariantów prognoz Value at Risk (6 dla warunkowego rozkładu normalnego i 6 dla warunkowego rozkładu t-studenta). Dodatkowo zdecydowano się na stworzenie „zmiksowanego” wariantu prognoz VaR, który polegał na wykorzystaniu prognoz z modeli z warunkowym rozkładem t-studenta i użyciem przy obliczaniu wielkości VaR wartości kwantyli z rozkładu normalnego (to dało kolejne 6 wariantów). Stworzono ponadto wariant z obliczaniem kwantyli zα i z1-α z wystandaryzowanego rozkładu t-studenta (zagadnienie to szerzej opisuje dr Paweł Lachowicz na swojej stronie www: www.quantatrisk.com/2015/12/02/student-t-distributed-linear-value-at-risk). Tym sposobem uzyskano w sumie 24 warianty prognoz VaR dla 3 poziomów istotności α = (0,01 ; 0,05; 0,1) dla pozycji długiej i krótkiej. 

 

W celu porównania poszczególnych modeli skorzystano z testu ilości przekroczeń oraz testu niezależności przekroczeń Kupca. Statystyka testu na ilość przekroczeń przyjmuje postać:

LRuc=-2ln(1-p)T-NpN+2ln[(1-NT)T-N(NT)N]

gdzie:

N – ilość przekroczeń VaR
T – długość próby testowej
p – poziom tolerancji VaR przyjęty w modelu (nasza α)

Statystyka LRuc ma rozkład Χ2 z jednym stopniem swobody. Test wykonano dla poziomu istotności równego 0,05. Dla takich parametrów wartość krytyczna testu wynosi 3,84. Przyjęcie hipotezy zerowej świadczy o poprawności modelu. Dla wartości statystyki LRuc powyżej 3,84 odrzucamy hipotezę zerową. Należy zwrócić uwagę na fakt, że hipoteza zerowa testu jest odrzucana tak i w przypadku zbyt dużej ilości przekroczeń, jak i w przypadku zbyt małej ilości przekroczeń (zarówno modele, które przeszacowują oraz nie doszacowują wielkości VaR są odrzucane). Dodatkowo na podstawie statystyki  LRuc obliczono przedziały wyznaczające obszar niekrytyczny (obszar przyjęcia hipotezy o poprawności modelu, „przedział od-przedział do”). Statystyka testu na niezależność przekroczeń przyjmuje postać:

LRind=-2lnp1-pv1-1p^11-p^1v1-1+i=2N[-2lnp1-pvi-1p^i1-p^ivi-1]

gdzie:

N – ilość przekroczeń VaR
v1 – czas w dniach do pierwszego przekroczenia
vi – czas pomiędzy (i -1)-ym i i -tym przekroczeniem

p^i=1vi

 

Statystyka LRind ma rozkład Χ2 z N stopniami swobody. Analogicznie jak dla testu LRuc przekroczenie wartości krytycznej jest jednoznaczne z odrzuceniem hipotezy zerowej świadczącej o poprawności modelu. Powyższe statystyki obliczono dla 3000 prognoz VaR, dla 24 wariantów, dla 3 poziomów istotności. Badaniu poddano również moduły:

|a-b|

gdzie:
a – ilość przekroczeń
b – wartość oczekiwana ilości przekroczeń

 

Wyniki przedstawiają poniższe tabele (pogrubioną czcionką wyróżniono wartości statystyk LRuc i LRind, które przekroczyły wartości krytyczne):

 

W celu lepszego porównania modeli i zsyntezowania wyników stworzono klasyfikację punktową. Poszczególnym modelom nadano punkty za zajęcie pierwszych 10 miejsc. 20 pkt za pierwsze miejsce, 18 za drugie, 16 za trzecie, …, 2pkt za 10 miejsce. Dodatkowo nakładano karę (-5 punktów) za przekroczenie obszaru krytycznego. Taką klasyfikację skonstruowano dla statystyki LRuc i LRind. Oto wyniki:

Rzucającym się na pierwszy plan wnioskiem jest fakt, że model benchmarkowy poradził sobie bardzo dobrze. Po drugie warianty z wystandaryzowanym rozkładem t-studenta wyróżniają się z pośród innych modeli. Jest to szczególnie widoczne w klasyfikacji punktowej statystyki LRuc. Wprawdzie wg statystyk LRind modele te plasują się z reguły w dolnej części zestawienia, ale statystyka ta budzi pewne wątpliwości. LRind najprawdopodobniej zawyża na korzyść wyniki dla dużej części modeli gdzie ilość przekroczeń jest niższa od wartości oczekiwanej. Dla poziomu istotności α = 0,01 wielkości wartości LRind również wydają się być niedoszacowane, wynika to najprawdopodobniej z małej ilości przekroczeń VaR dla α = 0,01. Stąd można przypuszczać, iż statystyka LRind ma pewną niedoskonałość, a mianowicie przy małej liczbie przekroczeń wyniki są niedoszacowane. Aczkolwiek aby wyciągnąć jednoznaczne wnioski trzeba by było przeprowadzić szereg badań empirycznych. Nie widać żeby dodanie dodatkowych zmiennych objaśniających do podstawowego równania regresji (AR(1) i USA(-1)) wpływało na polepszenie modelowanych zależności. Zadawalające rezultaty dają warianty „zmiksowane”, natomiast kompletnie zawodzą modele z rozkładem t-studenta, dla których wartości α-kwantyli pobiera się z niewystandaryzowanego rozkładu. Warianty te przeszacowują wielkości VaR, co skutkuje zaniżoną ilością przekroczeń. Modele z rozszerzeniem podstawowego modelu ARCH o element autoregresyjny w równaniu warunkowej wariancji (modele GARCH(1,1)) deklasują podstawowe modele ARCH (GARCH(1,0)), co jest potwierdzeniem wielu teorii ekonometrycznych i innych badań empirycznych.

Przyjrzyjmy się teraz wykresom wielkości Value at Risk dla modelu benchmarkowego:

Na wykresach widać, że nasze wielkości VaR dobrze dopasowują się do występującej zmienności. W okresach mniejszej zmienności VaR-y co do wielkości bezwzględnej są mniejsze, natomiast w okresach większej zmienności są większe (inaczej mówiąc, kanał VaR rozszerza się w okresach podwyższonej zmienności a zwęża się przy zmniejszonej zmienności, co świetnie oddaje wykres. 

Przyjrzyjmy się teraz porównaniu poszczególnych wariantów VaR dla modelu benchmarkowego, oto wykresy:

Na wszystkich trzech wykresach widać jak wielkości VaR wyznaczane z wariantu z rozkładem t-studenta bez standaryzacji a-kwantyli są przeszacowane. Można to szczególnie dostrzec dla poziomu istotności α = 0,01.

Spójrzmy jeszcze na zagęszczenie przekroczeń VaR long dla α = 0,05 dla modelu benchmarkowego.

Jak widać przekroczenia rozkładają się „w miarę” równomiernie w pierwszych i ostatnich 1000-ach obserwacji. Wiele do życzenia pozostawia sytuacja dla środkowego fragmentu badania (o tym szerzej w kolejnym artykule, gdzie szczegółowo będą badane wielkości VaR w kolejnych przedziałach czasu).

 

WNIOSKI KOŃCOWE:

  • Modele klasy ARCH dobrze odzwierciedlają charakterystykę kursów giełdowych i wydają się być odpowiednie do szacowania wielkości Value at Risk.

  • Dodanie dodatkowych zmiennych objaśniających do podstawowego równania regresji nie wpływa na polepszenie oszacowań wielkości VaR.

  • Zastosowanie rozkładu t-studenta jako rozkładu warunkowego poprawia znacząco jakość prognoz, jednak pod warunkiem, że do wyliczania VaR skorzystamy z wystandaryzowanych  α-kwantyli. W przeciwnym razie wyniki będą nawet gorsze, ponieważ wielkości VaR będą przeszacowane.

  • Rozszerzenie podstawowego modelu ARCH o element autoregresyjny w równaniu warunkowej wariancji poprawia znacznie jakość oszacowań VaR.

  • Zadawalające rezultaty dają modele „zmiksowane”.

  • Statystyka LRind najprawdopodobniej ma pewną niedoskonałość, a mianowicie przy małej liczbie przekroczeń wyniki są niedoszacowane. Aczkolwiek aby wyciągnąć jednoznaczne wnioski trzeba by było przeprowadzić szereg badań empirycznych.

 

Poprzednia strona
Następna strona

Giełda

Money.pl - Kliknij po więcej
Giełda
Wspierane przez Money.pl

Indeksy GPW

Money.pl - Kliknij po więcej
Giełda
GPW (2017-10-23 18:59)
WIG 63714.74 -0,01%
WIG20 2473.42 +0,32%
mWIG40 4794.11 -0,78%
sWIG80 14288.06 -0,45%
Wspierane przez Money.pl

Kursy walut

Money.pl - Kliknij po więcej
Forex
 CHF / PLN 3,6461 -0,06% [05:39]
 EUR / JPY 133,3030 -0,01% [05:39]
 EUR / PLN 4,2222 -0,02% [05:37]
 USD / JPY 113,2760 -0,17% [05:39]
 USD / PLN 3,5874 -0,16% [05:39]
Wspierane przez Money.pl

Surcowce - notowania

Money.pl - Kliknij po więcej
Surowce - notowania online
Nazwa Jednostka Wartość [USD] Zmiana Ostatnia zmiana
 Złoto uncja 1284,63 +0,11% [05:38]
 Ropa brent baryłka 57,49 +0,19% [05:37]
 Pallad uncja 962,60 +0,97% [05:38]
 Platyna uncja 932,65 +0,51% [05:38]
 Srebro uncja 17,17 +0,41% [05:38]
Wspierane przez Money.pl

Metodologia Value at Risk w praktyce, szacowanie wielkości VaR dla indeksu WIG20.

Michał Gołębiewski

pomoc programistyczna oraz numeryczna: Marek Zieliński

17.09.2017

Główne pytania badawcze pracy:

  • czy modele klasy ARCH są odpowiednie do szacowania wielkości VaR?

  • czy dodanie zmiennych objaśniających wpływa korzystnie na jakość oszacowań VaR?

  • czy zastosowanie innych rozkładów warunkowych niż normalny w modelach klasy ARCH poprawia jakość oszacowań VaR?

  • czy rozszerzenie podstawowego modelu ARCH o element autoregresyjny w równaniu warunkowej wariancji poprawia jakość oszacowań VaR?

 

Jednym z najpopularniejszych sposobów szacowania ryzyka na rynkach finansowych jest metodologia Value at Risk. Swoją popularność zawdzięcza prostocie w interpretacji i nieskomplikowanej konstrukcji. Wartość narażona na ryzyko (VaR) to próba wskazania pojedynczej wartości określającej całkowite ryzyko danego instrumentu (portfela). Obecnie miara ta jest powszechnie stosowana przez osoby odpowiedzialne za finanse przedsiębiorstw, zarządzających funduszami inwestycyjnymi oraz przez instytucje finansowe.

Czym jest VaR? Skorzystajmy z definicji (def. VaR):

PW-W0VaR=α pozycja długa

PW-W0VaR=α pozycja krótka

gdzie:
W– wartość instrumentu na końcu okresu T 
W0 – początkowa wartość instrumentu 
α – poziom istotności

Jesteśmy na (1- α) procent pewni że w okresie T nie stracimy więcej niż VaR.

Istnieje wiele metod wyznaczania VaR. Są to metody nieparametryczne - symulacje historyczne. Metody symulacyjne, oparte na symulacjach Monte Carlo. Metody semiparametryczne - do tej grupy zaliczamy teorie wartości ekstremalnych. Ostatnią grupą są metody parametryczne, do niej  zaliczamy metodologie Risk Metrics oraz parametryczne modele zmienności, tj. wyznaczanie VaR w oparciu m.in. o modele zmienności stochastycznej (SV) oraz modele klasy ARCH i EWS-GARCH. Dodatkowo w modelach klasy ARCH istnieje możliwość zastosowania innych rozkładów warunkowych (innych niż rozkład normalny) o grubszych ogonach co często wpływa na polepszenie modelowanych zależności. W tym artykule zajmiemy się wyznaczaniem wartości narażonej na ryzyko za pomocą modeli klasy ARCH. Czemu akurat te modele? Aby odpowiedzieć na to pytanie warto się przyjrzeć charakterystyce finansowych szeregów czasowych. Pierwszym bardzo charakterystycznym zjawiskiem jest grupowanie się wariancji. Widać to na poniższym wykresie.

 

Jest to wykres stóp zwrotu indeksu WIG20. Małe i duże zmiany kursu występują seriami. Wyraźnie widać, że są okresy zwiększonej oraz zmniejszonej zmienności.

 

 

 

 

Drugą charakterystyczną cechą rozkładów temp wzrostu kursów instrumentów finansowych jest leptokurtoza oraz występowanie tzw. grubych ogonów. Oznacza to, że prawdopodobieństwo wystąpienia nietypowych zmian kursów jest większe niż w przypadku gdyby miały one rozkład normalny. Zjawisko to widać na poniższych wykresach.

 

Wykresy ukazują funkcję gęstości rozkładu normalnego dopasowaną do danych empirycznych (są to returny indeksów WIG20 i DJIA) oraz bardzo dobrze dopasowaną do danych empirycznych funkcję gęstości wyznaczoną za pomocą algorytmu Epanechnikova. Obserwacje nietypowe (duże i małe zmiany kursów) występują częściej niż wynika to z rozkładu normalnego. Rozkłady temp wzrostu są także prawostronnie skośne, co oznacza, że wzrosty kursów występują częściej niż spadki. Na rynkach finansowych ponadto często występuje związek pomiędzy wariancją temp wzrostu kursów giełdowych i ich autokorelacją. Autokorelacja towarzyszy zwykle małej wariancji kursowej, zaś duża zmienność powoduje brak autokorelacji. Na giełdach występuje również efekt który, polega na tym, że okresy podwyższonej zmienności na giełdzie często rozpoczynają się od dużych zwrotów ujemnych, co sugerowałoby, że dodatnie i ujemne zwroty wywierają asymetryczny wpływ na poziom przyszłej zmienności. Modele klasy ARCH bardzo dobrze nadają się do modelowania finansowych szeregów czasowych ponieważ ich konstrukcja uwzględnia zjawisko grupowania się wariancji. Dodatkowo jeśli jako warunkowe rozkłady zastosujemy rozkłady o mniejszej kurtozie i o „grubszych ogonach” niż rozkład normalny uzyskamy następną pożądaną cechę. Istnieje również pewna podgrupa modeli ARCH, która uwzględnia skośność rozkładów. Problem występowania związku pomiędzy wariancją temp wzrostu a ich autokorelacją wydaje się, że mógłby być z kolei rozwiązany za pomocą modeli klasy EWS-GARCH (jednak zagadnienie modeli EWS-GARCH nie będzie dalej rozwijane w niniejszym artykule). Do  rozwiązania problemu asymetrycznego wpływu dodatnich i ujemnych zwrotów na poziom przyszłej zmienności można wykorzystać specjalną podgrupę modeli ARCH (chociażby modele GJR czy EGARCH, lecz nie będzie to tematem tego artykułu).

 

 

Modele klasy ARCH:

Zmienna w czasie wariancja stóp zwrotu przekłada się na zmienną w czasie wariancję składnika losowego (występuje tzw. heteroskedastyczność składnika losowego). Z reguły problemu nie można wyeliminować nawet poprzez zmianę specyfikacji podstawowego równania regresji. Wynika to z charakterystyki finansowych szeregów czasowych. Rozwiązaniem problemu są modele klasy ARCH. Modele ARCH zostały po raz pierwszy przedstawione w 1982 roku przez amerykańskiego ekonomistę, Roberta Engle, za co został on uhonorowany w 2003 roku Nagrodą Nobla w dziedzinie ekonomii. W modelach tych zaproponowano aby wariancję składnika losowego opisać za pomocą schematu autoregresyjnego rzędu S:

ξt2=γ0+s=1Sγsξt-s2+ϑt                  γ0>0,  γs0

gdzie:ϑt:IID(0,σϑ2)

W literaturze często stosuje się alternatywny zapis:

ξt=htηt

ht=γ0+s=1Sγsξt-s2

 gdzie:ηt:IID(0,1)   ξt:IID(0,σξ2)

Uogólnieniem modelu ARCH(S) jest model GARCH(S,Q), dla którego funkcja wariancji warunkowej ht jest następująca:

ht=γ0+s=1Sγsξt-s2+q=1Qϕqht-q               γ0>0,  γs0,  ϕq0

 

W stosunku do modelu ARCH(S) w modelu GARCH(S,Q) w ht wprowadzony został proces autoregresyjny. Badania empiryczne dowiodły, że GARCH(1,1) dla którego: 
γ^1+ϕ^1  jest bliskie jedności, umożliwia zwykle dokładny opis modelowanych zjawisk finansowych.

 

Jaki rozkład warunkowy wybrać? Jako alternatywę dla rozkładu normalnego zastosujemy rozkład t-studenta. Przyjrzyjmy się wykresom, które porównują dopasowanie rozkładów t-studenta i normalnego do danych empirycznych.

Jak widać lepsze dopasowanie do danych empirycznych uzyskano stosując rozkład t-studenta. 

 

W celu potwierdzenia hipotezy, iż lepsze wyniki modelowania daje zastosowanie jako warunkowego rozkładu, rozkładu t-studenta zdecydowano się na wyznaczanie wielkości VaR z wykorzystaniem tak rozkładu normalnego jak i rozkładu t-studenta w celu porównania wyników.

Wielkość VaR będzie liczona na podstawie 12 modeli klasy GARCH:

AR(0)-GARCH(1,0) – rozkład normalny 
AR(0)-GARCH(1,1) – rozkład normalny  *model benchmarkowy

AR(1)-GARCH(1,0) – rozkład normalny
AR(1)-GARCH(1,1) – rozkład normalny

AR(1)-USA(-1)-GARCH(1,0) – rozkład normalny
AR(1)-USA(-1)-GARCH(1,1) – rozkład normalny

gdzie:
AR(1) – opóźniona o jeden okres wartość tempa wzrostu indeksu WIG20
USA(-1) – opóźniona o jeden okres wartość tempa wzrostu indeksu Dow Jones Industrial 

*Jako model wyjściowy (benchmarkowy) do, którego będziemy porównywać inne modele wybrano model GARCH(1,1) z rozkładem normalnym bez dodatkowych zmiennych objaśniających gdyż według teorii ekonometrycznej z reguły daje on zadawalające rezultaty.

Dodatkowo dla każdego modelu warunkowy rozkład normalny zostanie zastąpiony rozkładem t-studenta, tym sposobem powstanie 12 modeli wykorzystanych później do wyznaczania prognoz wielkości VaR. Próba badawcza zawiera 4219 obserwacji, są to dzienne dane za okres 03.01.2000 – 19.04.2107 dla indeksów WIG20, Dow Jones Industrial oraz S&P 500 (dane musiały zostać ujednolicone ze względu na występujące okresowo różne dni handlu w Polsce oraz Stanach Zjednoczonych). Próbę podzielono na dwa podokresy lata 2000-2004 (1219 obserwacji - próba testowa) i 2005 – 19.04.2017 (3000 obserwacji - próba do badań ex ante). Estymowanie parametrów strukturalnych równań będzie dokonywane za pomocą okna ruchomego długości 750 obserwacji. Do modelowania stóp zwrotu indeksu WIG20 wykorzystano opóźnione o jeden okres stopy zwrotu indeksu DJIA, gdyż występuje bardzo silna zależność pomiędzy indeksami WIG20 i DJIA co widać na wykresie poniżej:

 

W modelu jako zmiennej objaśnianej nie będziemy wykorzystywać temp wzrostu indeksu S&P500 gdyż są one bardzo silnie skorelowane z tempami indeksu DJIA. Umieszczenie ich w modelu skutkowałoby wystąpieniem współliniowości zmiennych objaśniających, co jest niepożądaną cechą.

Równania wykorzystane do estymacji modeli klasy GARCH:

 (1)rt=α0+α1rt-1+α2DJIAt-1+ξt

 (2)ξt=htηt

 (3)ht=γ0+ γ1ξt2+θht-1

Tak zdefiniowany model zakłada, że warunkowa wartość oczekiwana stóp zwrotu wynosi: 

μt=α0+α1rt-1+α2DJIAt-1

Natomiast warunkowa wariancja zadana jest wzorem (3)

Poszczególne modele uzyskano nakładając odpowiednie restrykcje na parametry w równaniach (1) i (3)

Zanim przystąpiono do estymowania parametrów zbadano czy dla modelowanych zależności występuje efekt ARCH. Test efektu ARCH polega na sprawdzeniu czy składnik losowy ma stałą wariancję warunkową wobec alternatywy że wariancja warunkowa kształtuje się zgodnie z procesem AR(S)

H0:γ1=γ2=...=γS=0         H1:γs0

gdzie: s=1, 2, , S

Sprawdzianem testu jest statystyka:    TR2:ΧS2 o S stopniach swobody, gdzie T jest liczbą obserwacji, a R2 oznacza współczynnik determinacji z równania:

et2=β0+s=1Sβset-s2+τt

zaś etsą resztami otrzymanymi w wyniku oszacowania MNK parametrów wyjściowego równania.

Test występowania efektu ARCH wykonano dla opóźnień rzędu 5 (S=5). Wartość krytyczna testu przy 5 stopniach swobody i poziomie istotności równym 0,01 wynosi 15,09. Każda wartość statystyki większa od tej wartości będzie oznaczała, że odrzucamy hipotezę zerową na rzecz alternatywnej czyli występuje efekt ARCH. Testu dokonano na próbie testowej.

Model 1:rt=α0+ξt
statystyka testu wynosi: 51,21

Model 2:rt=α0+α1rt-1+ξt
statystyka testu wynosi: 49,85

Model 3:rt=α0+α1rt-1+α2DJIAt-1+ξt
statystyka testu wynosi: 48,2

Wniosek: Efekt ARCH występuje dla każdego z 3 modeli, stąd zastosowanie modeli klasy ARCH jest uzasadnione.

Poniżej przedstawiono wykresy estymacji ruchomej współczynników występujących w równaniach oraz wyestymowanych wartości ilości stopni swobody rozkładu t-studenta dla przykładowego modelu.

W pierwszym etapie obliczania wartości narażonej na ryzyko na podstawie wyestymowanych parametrów modeli klasy ARCH, wyznaczono prognozy wielkości μ oraz h na jeden dzień naprzód. Następnie wykonano obliczenia wielkości VaR dla pozycji długiej i krótkiej jeden dzień naprzód na podstawie następujących wzorów:

VaRt+1l(α)=μt+1+ht+1zα

VaRt+1s(α)=μt+1+ht+1z1-α

gdzie:

VaRt+1l(α) – wielkość VaR przy poziomie istotności α jeden dzień naprzód (pozycja długa)
VaRt+1s(α) – wielkość VaR przy poziomie istotności α jeden dzień naprzód (pozycja krótka)
μt+1 – oszacowna oczekiwana warunkowa wartość stopy zwrotu jeden dzień naprzód
ht+1 – oszacowana warunkowa wariancja jeden dzień naprzód
zα – α-kwantyl zmiennej ηt (np. dla warunkowego rozkładu normalnego dla α = 0,05 , zα=-1,65
z1-α – 1-α-kwantyl zmiennej ηt (dla warunkowego rozkładu normalnego dla α = 0,05 , z1-α=1,65

Tak skonstruowane modele dały 12 wariantów prognoz Value at Risk (6 dla warunkowego rozkładu normalnego i 6 dla warunkowego rozkładu t-studenta). Dodatkowo zdecydowano się na stworzenie „zmiksowanego” wariantu prognoz VaR, który polegał na wykorzystaniu prognoz z modeli z warunkowym rozkładem t-studenta i użyciem przy obliczaniu wielkości VaR wartości kwantyli z rozkładu normalnego (to dało kolejne 6 wariantów). Stworzono ponadto wariant z obliczaniem kwantyli zα i z1-α z wystandaryzowanego rozkładu t-studenta (zagadnienie to szerzej opisuje dr Paweł Lachowicz na swojej stronie www: www.quantatrisk.com/2015/12/02/student-t-distributed-linear-value-at-risk). Tym sposobem uzyskano w sumie 24 warianty prognoz VaR dla 3 poziomów istotności α = (0,01 ; 0,05; 0,1) dla pozycji długiej i krótkiej. 

 

W celu porównania poszczególnych modeli skorzystano z testu ilości przekroczeń oraz testu niezależności przekroczeń Kupca. Statystyka testu na ilość przekroczeń przyjmuje postać:

LRuc=-2ln(1-p)T-NpN+2ln[(1-NT)T-N(NT)N]

gdzie:

N – ilość przekroczeń VaR
T – długość próby testowej
p – poziom tolerancji VaR przyjęty w modelu (nasza α)

Statystyka LRuc ma rozkład Χ2 z jednym stopniem swobody. Test wykonano dla poziomu istotności równego 0,05. Dla takich parametrów wartość krytyczna testu wynosi 3,84. Przyjęcie hipotezy zerowej świadczy o poprawności modelu. Dla wartości statystyki LRuc powyżej 3,84 odrzucamy hipotezę zerową. Należy zwrócić uwagę na fakt, że hipoteza zerowa testu jest odrzucana tak i w przypadku zbyt dużej ilości przekroczeń, jak i w przypadku zbyt małej ilości przekroczeń (zarówno modele, które przeszacowują oraz nie doszacowują wielkości VaR są odrzucane). Dodatkowo na podstawie statystyki  LRuc obliczono przedziały wyznaczające obszar niekrytyczny (obszar przyjęcia hipotezy o poprawności modelu, „przedział od-przedział do”). Statystyka testu na niezależność przekroczeń przyjmuje postać:

LRind=-2lnp1-pv1-1p^11-p^1v1-1+i=2N[-2lnp1-pvi-1p^i1-p^ivi-1]

gdzie:

N – ilość przekroczeń VaR
v1 – czas w dniach do pierwszego przekroczenia
vi – czas pomiędzy (i -1)-ym i i -tym przekroczeniem

p^i=1vi

 

Statystyka LRind ma rozkład Χ2 z N stopniami swobody. Analogicznie jak dla testu LRuc przekroczenie wartości krytycznej jest jednoznaczne z odrzuceniem hipotezy zerowej świadczącej o poprawności modelu. Powyższe statystyki obliczono dla 3000 prognoz VaR, dla 24 wariantów, dla 3 poziomów istotności. Badaniu poddano również moduły:

|a-b|

gdzie:
a – ilość przekroczeń
b – wartość oczekiwana ilości przekroczeń

 

Wyniki przedstawiają poniższe tabele (pogrubioną czcionką wyróżniono wartości statystyk LRuc i LRind, które przekroczyły wartości krytyczne):

 

W celu lepszego porównania modeli i zsyntezowania wyników stworzono klasyfikację punktową. Poszczególnym modelom nadano punkty za zajęcie pierwszych 10 miejsc. 20 pkt za pierwsze miejsce, 18 za drugie, 16 za trzecie, …, 2pkt za 10 miejsce. Dodatkowo nakładano karę (-5 punktów) za przekroczenie obszaru krytycznego. Taką klasyfikację skonstruowano dla statystyki LRuc i LRind. Oto wyniki:

Rzucającym się na pierwszy plan wnioskiem jest fakt, że model benchmarkowy poradził sobie bardzo dobrze. Po drugie warianty z wystandaryzowanym rozkładem t-studenta wyróżniają się z pośród innych modeli. Jest to szczególnie widoczne w klasyfikacji punktowej statystyki LRuc. Wprawdzie wg statystyk LRind modele te plasują się z reguły w dolnej części zestawienia, ale statystyka ta budzi pewne wątpliwości. LRind najprawdopodobniej zawyża na korzyść wyniki dla dużej części modeli gdzie ilość przekroczeń jest niższa od wartości oczekiwanej. Dla poziomu istotności α = 0,01 wielkości wartości LRind również wydają się być niedoszacowane, wynika to najprawdopodobniej z małej ilości przekroczeń VaR dla α = 0,01. Stąd można przypuszczać, iż statystyka LRind ma pewną niedoskonałość, a mianowicie przy małej liczbie przekroczeń wyniki są niedoszacowane. Aczkolwiek aby wyciągnąć jednoznaczne wnioski trzeba by było przeprowadzić szereg badań empirycznych. Nie widać żeby dodanie dodatkowych zmiennych objaśniających do podstawowego równania regresji (AR(1) i USA(-1)) wpływało na polepszenie modelowanych zależności. Zadawalające rezultaty dają warianty „zmiksowane”, natomiast kompletnie zawodzą modele z rozkładem t-studenta, dla których wartości α-kwantyli pobiera się z niewystandaryzowanego rozkładu. Warianty te przeszacowują wielkości VaR, co skutkuje zaniżoną ilością przekroczeń. Modele z rozszerzeniem podstawowego modelu ARCH o element autoregresyjny w równaniu warunkowej wariancji (modele GARCH(1,1)) deklasują podstawowe modele ARCH (GARCH(1,0)), co jest potwierdzeniem wielu teorii ekonometrycznych i innych badań empirycznych.

Przyjrzyjmy się teraz wykresom wielkości Value at Risk dla modelu benchmarkowego:

Na wykresach widać, że nasze wielkości VaR dobrze dopasowują się do występującej zmienności. W okresach mniejszej zmienności VaR-y co do wielkości bezwzględnej są mniejsze, natomiast w okresach większej zmienności są większe (inaczej mówiąc, kanał VaR rozszerza się w okresach podwyższonej zmienności a zwęża się przy zmniejszonej zmienności, co świetnie oddaje wykres. 

Przyjrzyjmy się teraz porównaniu poszczególnych wariantów VaR dla modelu benchmarkowego, oto wykresy:

Na wszystkich trzech wykresach widać jak wielkości VaR wyznaczane z wariantu z rozkładem t-studenta bez standaryzacji a-kwantyli są przeszacowane. Można to szczególnie dostrzec dla poziomu istotności α = 0,01.

Spójrzmy jeszcze na zagęszczenie przekroczeń VaR long dla α = 0,05 dla modelu benchmarkowego.

Jak widać przekroczenia rozkładają się „w miarę” równomiernie w pierwszych i ostatnich 1000-ach obserwacji. Wiele do życzenia pozostawia sytuacja dla środkowego fragmentu badania (o tym szerzej w kolejnym artykule, gdzie szczegółowo będą badane wielkości VaR w kolejnych przedziałach czasu).