6 Introduzione al Value at Risk per i rischi di mercato · Introduzione al Value at Risk ......

192
6 Introduzione al Value at Risk per i rischi di mercato 6.1 Metodi convenzionali 6.1.1 Introduzione al Value at Risk 6.1.2 Il VaR e l’approccio delta – 6.1.2.1 Il modello prezzo-rendimento 6.1.2.2 L’intervallo di confidenza – 6.1.2.3 L’orizzonte temporale 6.1.2.4 Previsione della volatilità 6.1.2.5 L’approccio delta-normal: mapping dei flussi e criticità 6.1.3 Il VaR in opzioni e l’approccio delta-gamma: cenni 6.1.4 Simulazioni storiche 6.1.5 Simulazione MonteCarlo 6.1.6 L'analisi degli scenari (stress test) 6.1.7 I limiti dei metodi convenzionali - 6.1.8 La teoria dei valori estremi: cenni 6.2 Gli utilizzi della metodologia del Value-at-Risk 6.3 Utilizzo delle misure VaR: criticità 6.4 I modelli interni ai fini della vigilanza 6.4.1 Introduzione 6.4.2 Procedura di riconoscimento 6.4.3 Requisiti patrimoniali nell’ottica di Vigilanza – 6.4.4 Per una vigilanza incentive-compatible nello sviluppo dei modelli interni - 6.4.5 Prove di stress - Appendici al capitolo cap. 6 Appendice 6.A Value at Risk di un portafoglio azionario - Appendice 6.B Requisiti a fronte dei rischi di posizione su titoli, di cambio e di posizioni su merci Appendice 6.C Requisiti qualitativi dei modelli interni 6.1 Metodi convenzionali 6.1.1 Introduzione al Value at Risk I Modelli Valore a rischio (VaR) rappresentano un tentativo di misurare il rischio di mercato associato all’intero portafoglio di attività di una istituzione finanziaria mediante un’unica misura quantitativa. A differenza dei sistemi di misurazione tradizionali (ad esempio duration e convexity per i titoli a reddito fisso; le lettere greche per le opzioni) che tendono a focalizzare l’attenzione sui rischi dei singoli strumenti in maniera isolata, ignorando gli effetti della correlazione, il VaR riassume tramite un singolo numero, che esprime una misura monetaria, il rischio di mercato globale

Transcript of 6 Introduzione al Value at Risk per i rischi di mercato · Introduzione al Value at Risk ......

6

Introduzione al Value at Risk

per i rischi di mercato

6.1 Metodi convenzionali – 6.1.1 Introduzione al Value at Risk – 6.1.2 Il VaR

e l’approccio delta – 6.1.2.1 Il modello prezzo-rendimento – 6.1.2.2

L’intervallo di confidenza – 6.1.2.3 L’orizzonte temporale – 6.1.2.4 Previsione

della volatilità – 6.1.2.5 L’approccio delta-normal: mapping dei flussi e

criticità – 6.1.3 Il VaR in opzioni e l’approccio delta-gamma: cenni – 6.1.4

Simulazioni storiche – 6.1.5 Simulazione MonteCarlo – 6.1.6 L'analisi degli

scenari (stress test) – 6.1.7 I limiti dei metodi convenzionali - 6.1.8 La teoria

dei valori estremi: cenni – 6.2 Gli utilizzi della metodologia del Value-at-Risk

– 6.3 Utilizzo delle misure VaR: criticità – 6.4 I modelli interni ai fini della

vigilanza – 6.4.1 Introduzione – 6.4.2 Procedura di riconoscimento – 6.4.3

Requisiti patrimoniali nell’ottica di Vigilanza – 6.4.4 Per una vigilanza

incentive-compatible nello sviluppo dei modelli interni - 6.4.5 Prove di stress -

Appendici al capitolo cap. 6 – Appendice 6.A Value at Risk di un portafoglio

azionario - Appendice 6.B Requisiti a fronte dei rischi di posizione su titoli, di

cambio e di posizioni su merci – Appendice 6.C Requisiti qualitativi dei

modelli interni

6.1 Metodi convenzionali

6.1.1 Introduzione al Value at Risk

I Modelli Valore a rischio (VaR) rappresentano un tentativo di

misurare il rischio di mercato associato all’intero portafoglio di

attività di una istituzione finanziaria mediante un’unica misura quantitativa.

A differenza dei sistemi di misurazione tradizionali (ad esempio

duration e convexity per i titoli a reddito fisso; le lettere greche per

le opzioni) che tendono a focalizzare l’attenzione sui rischi dei

singoli strumenti in maniera isolata, ignorando gli effetti della

correlazione, il VaR riassume tramite un singolo numero, che

esprime una misura monetaria, il rischio di mercato globale

288 Capitolo 6

dell’istituzione, tenendo in considerazione l’interdipendenza tra i singoli tipi di rischio.

Il concetto alla base del modello consiste nel voler misurare

statisticamente il rischio di mercato associato ad una determinata

attività finanziaria. Si definisce, pertanto, il valore a rischio come la

massima perdita attesa che una certa posizione può subire a fronte

di movimenti avversi dei fattori di rischio rilevanti in un

determinato orizzonte temporale in corrispondenza di un certo

intervallo di confidenza.

Ciò comporta per le istituzioni finanziarie il passaggio da una

classificazione delle posizioni di bilancio per categorie di strumenti

finanziari (azioni, obbligazioni, opzioni, ecc.) a una classificazione

per categorie di rischio (tassi di interesse, tassi di cambio, prezzi o

indici azionari, ecc.).

Per ogni categoria di rischio è, pertanto, possibile quantificare

l’esposizione complessiva al rischio mediante la seguente relazione

basata sulle assunzioni di metodi parametrici:

trMMVAR )))((( [6.1]

dove MM esprime il valore delle posizioni, la sensibilità del

valore della posizione rispetto ad un fattore di rischio specifico, (r)

il suddetto fattore di rischio, la volatilità identificata come la deviazione standard dei rendimenti rispetto al loro valore medio ed

è la costante che individua l’intervallo di confidenza (una coda)

di una distribuzione normale standardizzata e t l’holding period.

Per una maggiore comprensione della formula, supponiamo di

misurare il VaR giornaliero di un investimento in zero coupon

bond per un importo di 50 milioni di euro con vita residua 15 anni,

tasso di rendimento effettivo a scadenza 6,35%. Nella fattispecie il

è rappresentato dalla duration modificata ed è pari a 14 anni,

mentre la volatilità dei tassi è dello 0,30%. Il calcolo del VaR viene

implementato in due fasi: nella prima, si verifica la sensibilità

dell’esposizione dell’investimento al rischio di mercato attraverso

la ponderazione del market to market della posizione al fattore di

rischio r)); nella seconda, si focalizza l’attenzione sulla variabilità, espressa in funzione delle previsioni di volatilità

giornaliera del tasso. Pertanto, ipotizzando una distribuzione

Introduzione al Value at Risk per i rischi di mercato 289

normale dei tassi di interesse ed un intervallo di confidenza di 2,33 la massima variazione del prezzo attesa in un giorno nel 99%

dei casi è:

VaR =(50*14,104*0,0635*2,33*0,30)= 3,130 mln di euro

Il che equivale ad affermare che le oscillazioni del prezzo

giornaliero si dovrebbero mantenere nell’area indicata dalla stima

del VaR nel 99% dei casi e solo nel 1% le perdite potranno risultare

superiori a 3,130 milioni di euro. Tale sistema di misurazione

consente, pertanto, non solo di riassumere attraverso un singolo

numero il rischio di una posizione ma di comparare i rischi di

mercato fra posizioni diverse all’interno della stessa banca e fra

banche diverse.

A titolo esemplificativo, supponiamo che la banca A presenti un

VaR giornaliero (ossia riferito a un holding period di un giorno) di

50 milioni di euro in corrispondenza di un intervallo di confidenza

del 95%, mentre la banca B rileva un VaR settimanale di analogo

importo per un eguale livello di confidenza del 95%. Quale

portafoglio delle due banche risulta essere più rischioso? La banca

A sarà soggetta ad una massima perdita probabile di 50 milioni di

euro ogni 20 giorni; la banca B presenta un profilo di rischio pari

ad una massima perdita probabile di 50 milioni di euro ogni 20

settimane, ciò significa che il rischio di mercato con riferimento a

periodi di osservazione rispettivamente di 20 giorni e di 20

settimane sottostima le perdite effettive non più di una volta (20 x

0,05). La banca A è, pertanto, esposta a perdite superiori ai 50

milioni di euro 12,5 volte in un anno (ossia 250/20, il che equivale

al 5% di 250 con manifestazione temporale ogni 20 giorni), mentre

la banca B 2,6 volte l’anno (52/20). Questo non significa, però, che

l’intermediario A rilevi una rischiosità 4,8 (12,5/2,6) volte

superiore a quella di B.

Ai fini di una efficace confronto dei valori forniti dal modello

VaR, la stima ottenuta dalle due banche dovranno essere proiettate

in un periodo di osservazione omogeneo, nel caso specifico un

anno. Per cui con t = 1 anno e = 95%, la perdita massima probabile per A è di 793,7 milioni di euro in un anno, mentre per B

è di 360,55 milioni di euro. L’intermediario A dispone, pertanto, di

290 Capitolo 6

un portafoglio due volte circa più rischioso di quello di B. Dal punto di vista metodologico, per la quantificazione dell’esposizione

al rischio occorre formulare alcune ipotesi:

sulla forma della distribuzione di probabilità;

sull’intervallo di confidenza;

sull’orizzonte temporale.

Per quanto concerne la forma della distribuzione di probabilità

dei rendimenti di periodo si assume o meno, a seconda dei modelli,

una forma della funzione di distribuzione dei movimenti attesi dei

rendimenti con possibilità di applicare soluzioni parametriche o di

valutare direttamente la distribuzione di frequenze dall’analisi dei

dati per la metodologia di calcolo del valore a rischio.

La scelta dell’intervallo di confidenza esprime il grado di

protezione desiderato nei confronti di movimenti avversi nei fattori

di mercato rilevanti, ossia la percentuale di copertura che si intende

garantire rispetto agli eventi indesiderati. Gradi di protezione

differenti riflettono livelli diversi d’avversione al rischio da parte di

un intermediario e costi diversi connessi alla probabilità di

variazione del prezzo superiore a quello stimato dal VaR.

Occorre, infine, definire l’orizzonte temporale lungo il quale

misurare la perdita1. A tale scopo, vengono presi in considerazione

fattori di tipo oggettivo, indipendenti dalle aspettative della banca o del

singolo operatore, come, ad esempio, lo spessore e la profondità del

mercato nel quale lo strumento viene negoziato. In altri termini, la

liquidabilità dello strumento stesso, definito come tempo

necessario ai fini di una normale transazione o ai fini di una

copertura della posizione. Un secondo fattore che può essere

1 E’ intuitivo come la scelta del periodo di osservazione influenzi direttamente la misura del

valore a rischio. Un breve orizzonte temporale riflette correttamente gli andamenti recenti del

mercato, ma proprio a causa di questa estrema fedeltà, o rispondenza, a ciò che è accaduto

nell’immediato passato il valore a rischio potrebbe venire determinato in modo scorretto, in

particolare se sul mercato imperversassero situazioni turbolente o fortemente volatili: in questo caso

la misura del valore a rischio sarebbe sovrastimata.

Al contrario, un periodo di osservazione più lungo, nel caso di squilibri negli andamenti dei

fondamentali, medierebbe la misurazione del rischio con i dati più lontani nel tempo, appartenenti a

momenti di normalità dei mercati, anche se in questo caso si tratterebbe di un modello meno sensibile

ai mutamenti dello scenario ambientale.

Introduzione al Value at Risk per i rischi di mercato 291

considerato nella determinazione dell'orizzonte temporale è invece di tipo soggettivo, nel senso che scaturisce direttamente dagli

obiettivi del singolo operatore e/o dell'istituzione finanziaria. Si

tratta del periodo di detenzione (holding period) della singola

posizione. In tal senso, una posizione di trading, assunta con

un'ottica di tipo speculativo di brevissimo periodo, dovrebbe essere

valutata con un orizzonte temporale più breve rispetto a quello

relativo ad una posizione, sul medesimo strumento finanziario,

considerata di investimento (e, dunque, misurata su un orizzonte di

tempo più lungo).

6.1.2 Il VaR e l’approccio delta

Tra i diversi metodi di calcolo del VaR quello più applicato

presso le istituzioni finanziarie è il “metodo delle varianze e

covarianze”, a volte chiamato anche metodo analitico o

parametrico. Esso rappresenta la versione originale dei modelli

VaR ossia quella sviluppata per prima e, come tale, quella più

rapidamente diffusasi presso le banche anglosassoni.

I modelli appartenenti a questa categoria si caratterizzano per

due principali elementi. Anzitutto, il rischio viene misurato sulla

base della sensibilità della posizione (portafoglio di posizioni) a

variazioni dei fattori di mercato, e del grado di correlazione fra gli

stessi. La determinazione del livello di confidenza desiderato è

subordinata all’ipotesi di una distribuzione normale delle

variazione dei rendimenti della posizione o del portafoglio.

La diffusione del metodo parametrico nell’ambito dei sistemi di

Risk Management si riconduce al modello probabilistico Risk

Metrics, elaborato e messo a disposizione della comunità

finanziaria da J.P. Morgan2 per la valutazione e gestione del rischio

2 Nelle intenzioni di J.P. Morgan la metodologia di Risk Metrics è stata resa di pubblico

dominio per tre principali motivazioni:

Interesse a promuovere una maggiore trasparenza in materia di rischi di mercato;

Stabilire un benchmark, un indice di riferimento, un comune termine di paragone per

la misura dei rischi di mercato;

Rendere disponibili sofisticati strumenti di misurazione del rischio al altri potenziali

utenti, operatori del mercato, che non hanno le risorse e le capacità per sviluppare

propri sistemi di misurazione .

Cfr. J.P. Morgan, Technical Document (1996).

292 Capitolo 6

di mercato generato da portafogli composti da attività finanziarie a reddito fisso, titoli azionari, tassi di cambio, merci e da tutti i

prodotti derivati collegati a queste attività. A tale modello si

ispirano i tanti prodotti sviluppati dalla software industry.

Si fa notare, che l’approccio varianze-covarianze si caratterizza

per una certa semplicità, relativa, non tanto al profilo concettuale,

quanto all’onerosità dei calcoli e dunque dei sistemi informativi di

supporto. A fronte di tali vantaggi, l’approccio in questione

presenta diverse critcità , principalmente legate all’impianto teorico

che sta alla base dell’intera metodologia di calcolo del VaR di una

posizione o di un portafoglio di posizioni. Tali ipotesi riguardano in

particolare due aspetti:

la distribuzione dei rendimenti dei fattori di mercato;

il grado di sensibilità delle posizioni di rischio al variare dei fattori di mercato.

6.1.2.1 Il modello prezzo-rendimento

Un’ipotesi alla base del modello riguarda proprio i movimenti

dei prezzi; che si muovono in modo casuale e con una distribuzione

delle variazioni assimilabile a una funzione di tipo normale

standardizzata:

Per valutare analiticamente i movimenti potenziali dei prezzi, e

la loro incidenza sul valore delle posizioni in portafoglio, in modo

da ottenere una misura della massima perdita potenziale, si ipotizza

di misurare il rischio in termini di variazioni di prezzo, espresse

come rendimenti logaritmici.

Il rendimento di un singolo strumento3 viene pertanto definito

con la seguente espressione:

3 Per descrivere i cambiamenti nelle variabili di mercato, data una serie storica Pt dei prezzi di

una attività finanziaria, il logaritmo del rapporto tra il prezzo al tempo t e il prezzo al tempo t-1, per

piccoli cambiamenti, si approssima alle variazioni percentuali del prezzo (Pt-Pt-1)/Pt. Data, ad

esempio, una serie composta da 3 prezzi relativi ad un ipotetico titolo, (P1 = 100, P2 = 108, P3 = 100),

le variazioni percentuali rispettivamente al tempo 2 e al tempo 3 risultano differenti, sebbene il valore

iniziale e quello finale siano coincidenti (P2-P1)/P1= 8% e (P3-P2)/P2 = -7,4%. Esprimendo i

rendimenti alle epoche 2 e 3 con l’operatore logaritmico, si osserva che essi tendono ad assumere

valori che si approssimano essendo ln(108/100)=7,696 e ln(100/108)=-7,696.

Introduzione al Value at Risk per i rischi di mercato 293

1

ln

t

tt

P

Pr [6.2]

dove rt è il rendimento al tempo t e P è il prezzo di uno strumento finanziario valutato rispettivamente in t e t-1: pertanto, il

rendimento di un portafoglio (rpt) composto da n strumenti

finanziari analiticamente è dato:

iti

n

1i

pt rwr

[6.3]

ove wi rappresenta il peso del rendimento logaritmico dell’iesima

attività.

Tale scelta è da attribuirsi alle proprietà statistiche della

distribuzione di r nel tempo che si configura come una

distribuzione di tipo normale.

Il prezzo di un’attività finanziaria risulta coerente con un

processo diffusivo continuo di tipo logaritmico qui di seguito

descritto:

ttr t,it,iiit [6.4]

ove i è il rendimento annuo atteso dell’attività iesima per una

unità di tempo; t è un intervallo di tempo; i,t è la volatilità del

prezzo dell’attività iesima al tempo t ed è una estrazione casuale di

una distribuzione normale standardizzata, ossia una distribuzione

normale con media nulla e deviazione standard pari a 1, del

rendimento dell’attività iesima. Si ha, quindi, chet è il tasso di

rendimento atteso e t rappresenta la componente stocastica

(ossia la variabilità del sentiero temporale seguito da rit ).

L’assunzione è che le variazioni del tasso di rendimento in un

breve periodo di tempo t siano le stesse, indipendentemente dal

livello dei prezzi dell’azione.

294 Capitolo 6

Per un portafoglio composto da tre titoli, per volatilità di tempo più prolungate rispetto a quella giornaliera, la stima del VaR è

misurabile con il seguente metodo di calcolo4.

Dato la sequenza dei rendimenti dei tre titoli:

ttr t,1t,11t,1

ttr t,2t,22t,2

ttr t,3t,33t,3 [6.5]

il rendimento del portafoglio è dato

t,33t,22t,11t,p rwrwrwr [6.6]

e la varianza

t,1331t,2332t,1221t,3

2

3

2

t,2

2

2

2

t,1

21

2

t,p

2 ww2ww2ww2www [6.7]

ove:

1w ,2w , 3w sono le quote di portafoglio investite nei tre titoli;

12 , 2

2 , 32 sono rispettivamente le varianze dei rendimenti dei

singoli titoli;

12 , 23 , 13 indicano le correlazione5 rispettivamente tra il

rendimento della posizione 1 con la 2, della posizione 2 con la 3 e,

infine, della posizione 1 con la 3.

4 Risk Metrics (1996), p. 72. 5 Il coefficiente di correlazione tra la variabile x e la variabile y applicato nei metodi parametrici

è dato dalla seguente formula:

(y)Varianza*(x)Varianza

y)(x, Covarianza Corr. coeff.

La covarianza, espressione del movimento congiunto di due variabili, è data dalla seguente

espressione:

n

yx

yxCov i

yixi

))((

),(

dove:

xi = valore i-esimo assunto dalla variabile x

yi = valore i-esimo assunto dalla variabile y

x = valore medio della variabile x

y= valore medio della variabile y n = numero delle osservazioni nel campione

Una covarianza positiva indica che le due variabili sono caratterizzate da variazioni di segno

uguale rispetto alla propria media (entrambe al rialzo o entrambe al ribasso). Se le due variabili seguono percorsi inversi, invece, la covarianza assume valori negativi. Infine,

se le due variabili sono tra loro indipendenti, la covarianza è nulla. La covarianza tra due variabili x e

y può esprimersi anche con la formula seguente :

Introduzione al Value at Risk per i rischi di mercato 295

Nel caso di n titoli la volatilità del portafoglio è, pertanto, espressa dalla varianza:

n

1i

ijjijii

2i

2

pˆˆˆww2ˆw [6.8]

ove

wi è la quota di portafoglio investita nell’attività iesima;

2i è la Varianza del rendimento dell’attività iesima;

ij è il grado di correlazione tra il rendimento della posizione

iesima e di quella jesima6.

Il calcolo del valore a rischio di un portafoglio di più posizioni, si fonda sulla teoria di portafoglio originariamente sviluppata da

Markowitz7, e comporta l’analisi dei coefficienti di correlazione fra

i rendimenti delle singole posizioni che compongono il portafoglio. La determinazione del VaR di un portafoglio costituito da più

posizioni finanziarie è agevole quando il portafoglio si compone di

un numero limitato di attività finanziarie, mentre presenta delle

yxyxyxCov ),(

dove xy indica il coefficiente di correlazione fra le due variabili. Esso assume valori compresi

tra –1 e +1.

Se xy = +1 le due variabili sono caratterizzate da correlazione perfetta positiva, ossia le variazioni al rialzo di una variabile sono contestuali ad analoghe variazioni al rialzo dell’altra.

Se xy = -1 le due variabili sono caratterizzate da correlazione perfetta negativa, ossia le due variabili seguono percorsi esattamente opposti.

Se xy = 0 le due variabili sono fra loro indipendenti.

Dalla formula sopraindicata si ha che il coefficiente di correlazione () è dato dalla seguente espressione:

yx

xy

yx

yx

yxCov

),(

6 Il grado di correlazione si desume dalla covarianza delle posizioni iesima e jesima con il prodotto

tra la deviazione standard della posizione iesima e quella della posizione jesima, cioè ij = ij/ij da cui

risulta che ij 7 I fondamenti dell’analisi moderna del rischio sono contenuti in un famoso lavoro del 1952 del

premio Nobel Harry Markowitz, dedicato ai principi per la selezione di portafoglio. Markowitz, in

tale lavoro, ha mostrato la rilevanza di una politica di diversificazione del portafoglio come

strumento per la riduzione del rischio e ha identificato i criteri sulla base dei quali un investitore

razionale dovrebbe compiere le proprie scelte di portafoglio.

296 Capitolo 6

complessità di calcolo quando esso risulta essere caratterizzato dalla presenza di un numero considerevole di strumenti.

Nell’ipotesi di un portafoglio costituito da un numero elevato di

strumenti finanziari, si rende necessario ricorrere all’algebra

matriciale la quale richiede il calcolo di numerose correlazioni (in

numero pari a [n2-n]/2), che può risultare notevolmente oneroso.

In alternativa, selezionati alcuni fattori di rischio di mercato

(tassi di interesse, di cambio, prezzi azionari), è possibile misurare

la volatilità sulla base dei coefficienti di correlazione fra i

rendimenti dei diversi fattori di mercato caratterizzati da una

distribuzione normale congiunta.

In altri termini, selezionate n variabili di mercato, il prezzo di

ogni strumento contenuto nel portafoglio viene espresso come una

funzione lineare del fattore di rischio. Il valore del portafoglio è,

pertanto, la sommatoria del valore dei singoli strumenti :

Posta, quindi, l'ipotesi di normalità della distribuzione dei

rendimenti dei fattori di rischio (i) e di linearità delle relazioni fra

i prezzi delle posizioni e i fattori di mercato, si può assumere che

anche i rendimenti di un portafoglio siano distribuiti normalmente.

Ne consegue che le volatilità risultano proporzionali

i i [6.9]

e le correlazioni invariate

, i j [6.10]

Analiticamente la volatilità del portafoglio è uguale a:

ijjjiii

n

i

ip ))((22

1

2 [6.11]

ove i j rappresentano le singole sensibilità delle variazioni

delle posizioni a variazioni del fattori specifici di mercato.

In particolare, applicando tale formula al calcolo del VaR di un

portafoglio composto da diversi strumenti finanziari, avremo:

Introduzione al Value at Risk per i rischi di mercato 297

2/1

i j ijjjjiiip VMVMVAR [6.12]

cioè

2/1

1221

2

2

2

1p .....VARVAR2....VARVARVAR

[6.13]

dove

VARp Value at Risk del portafoglio

VARi Value at Risk della posizione iesima.

6.1.2.2 L’intervallo di confidenza

La scelta dell’intervallo di confidenza esprime la probabilità di

possibili variazioni sfavorevoli dei fattori di mercato; il livello del

grado di protezione scelto rappresenta, quindi, una misura dello

scenario pessimistico (worst case scenario). Ad elevati intervalli di

confidenza si associa una misura delle perdite che raramente

dovrebbero eccedere il valore a rischio stimato. L'ipotesi di

distribuzione normale dei rendimenti consente di tradurre il fattore

α prescelto nel grado di confidenza della misura di rischio ottenuta

e viceversa8.

Posto che la funzione matematica che descrive l’andamento dei

rendimenti giornalieri s’identifica in letteratura nella curva di tipo

normale, in cui i casi estremi sono i più rari e i valori centrali sono i

più frequenti, analiticamente si ha:

2

2x

2

1

e2

1)x(f [6.14]

8 Si precisa, che la possibilità di associare intervalli di confidenza a multipli della deviazione

standard non riguarda esclusivamente la distribuzione normale.

298 Capitolo 6

dove f(x) rappresenta la funzione di densità, e indicano

rispettivamente la media e la deviazione standard della variabile

casuale x9.

La funzione di densità f(x) può essere utilizzata per stimare la probabilità che la variabile considerata (x) assuma un valore

compreso in un dato intervallo. A tal fine è sufficiente ricorrere al

calcolo dell'integrale della funzione in corrispondenza

dell'intervallo desiderato.

Per rendere più semplice il calcolo dell’integrale si procede ad

una standardizzazione della variabile casuale. La standardizzazione

di una variabile casuale consiste nell’esprimere gli scarti (x-) in

unità di:

x [6.15]

tale che N( , )0 1

per cui x

La media e la varianza della variabile casuale standardizzata

sono pertanto:

22)(V)x(V

)(E)x(E

[6.16]

Si può, quindi, calcolare la probabilità che la variabile casuale

standardizzata (x) assuma valori compresi in un certo intervallo.

Risulta, infatti, che:

9 Gli altri termini della relazione risultano essere valori costanti, essendo =3,14 ed e exp 2,718;

il fattore )2(1 è una costante che permette di rendere l’area totale sottesa alla funzione f(x) pari

all’unità, mentre il numero e, la base del logaritmo Neperiano o naturale descrive l’andamento

campanulare e simmetrico della curva. La funzione di densità è simmetrica rispetto alla retta x=

cresce da 0 a )2(1 per x che passa da a decresce da )2(1 a zero per x che passa

da a ; ha due flessi, ascendente il primo e discendente il secondo, rispettivamente nei punti

e .

Introduzione al Value at Risk per i rischi di mercato 299

il 66% della distribuzione delle frequenze è compreso in

valori di = +1 ed

il95% è compreso in valori di = +2 ed = -2.

Ciò equivale a dire che la probabilità, che una variabile casuale

assuma valori ricompresi intorno alla sua media, più o meno la

deviazione standard presa una volta, è del 68%; ovvero, la

deviazione standard presa una volta ci fornisce la misura del raggio

intorno alla media nel quale è atteso il 68% degli eventi.

Figura 6.1

E’ possibile pertanto definire il numero delle deviazioni

standard per cui l’area sottostante alla coda destra o sinistra sia pari

a c10

.

q

dx)x(f)qX(obPrc [6.17]

ove

10 Volendo stimare i movimenti attesi dei tassi di interesse con media 1% e volatilità 12%

compresi in un intervallo =+2 ed =-2, abbiamo xmin=1%-2*12%=-23%

xmax=1%+2*12%=+25%

Ciò equivale a dire che per un dato intervallo di confidenza, ossia = -2; = +2, vi è una probabilità del 95% che il valore atteso dei prezzi subisca una variazione minima del 23% e massima

del 25%, ed una probabilità del 5% che il prezzo possa assumere una variazione in valore assoluto

superiore alla percentuale stimata.

300 Capitolo 6

x = variabile casuale

q = probabilità sufficientemente piccola

Occorre a questo punto precisare che, pur considerando l'intera

gamma dei possibili rendimenti, se la finalità è quella di

determinare le perdite potenziali e dunque il valore a rischio della

posizione, va tenuto conto che ciascuna di questa è esposta

esclusivamente a metà degli eventi racchiusi nella distribuzione di

probabilità. E’ necessario, quindi, considerare rispettivamente la

sezione della coda destra, per le posizioni corte esposte al rischio di

un rialzo dei prezzi, e la sezione sinistra, per le posizioni lunghe

sensibili a una diminuzione dei prezzi. Ne consegue che il livello di

protezione associato a un certo multiplo della deviazione standard è

più elevato rispetto alle possibilità di considerare sia gli eventi

favorevoli che quelli sfavorevoli.

Scegliere di prendere 2 volte la deviazione standard significa

considerare il 95% degli eventi possibili intorno alla media. Poiché

il restante 5% si distribuisce equamente negli estremi della curva

solo nel 2,5% dei casi si manifestano eventi fortemente avversi.

I livelli di protezione corrispondenti ai diversi multipli di

deviazione standard sono riassunti nella tabella che segue.

Tabella 6.1

PERCENTILE 99.99 99.9 99 97.72 97.5 95 90 84.13 50

VALORE -3.715 -3.090 -2.326 -2.000 -1.960 -1.645 -1.282 -1.000 0.000

La scelta dell’intervallo di confidenza11

è funzione del grado di

avversione al rischio dell’investitore: una maggiore avversione

spinge a selezionare un multiplo della volatilità superiore in modo

da ottenere un maggior grado di protezione e, di converso, una

minore probabilità di realizzare una perdita superiore a quanto

11 In Risk Metrics viene utilizzato un intervallo di confidenza del 90% (1,282 volte la deviazione

standard) che lascia ai movimenti avversi una probabilità di verificarsi del 5%. Questa misura può

anche essere interpretata in un modo diverso ed attribuendogli un altro valore informativo: infatti, il

5% degli eventi non coperti implica che si dovrebbe verificare una forte perdita all’incirca ogni 20

giorni lavorativi; se si decidesse di coprire il 99% degli eventi probabili, bisognerebbe attendere in

media 100 giorni lavorativi per poter accertare la bontà della stima.

Introduzione al Value at Risk per i rischi di mercato 301

stimato con il VaR. Ne consegue che in mercati efficienti ciò si riflette in un minor premio a rischio richiesto dagli investitori,

quindi, in una riduzione del costo dei mezzi propri.

6.1.2.3 L’orizzonte temporale

Per il calcolo del Valore a Rischio occorre definire l'orizzonte

temporale futuro lungo il quale si desidera misurare la perdita

potenziale.

Per la definizione dell’orizzonte temporale, occorre prendere in

considerazione, da un lato, i fattori che incidono sulla liquidabilità

dello strumento, ossia lo spessore, la profondità e la dimensione

del mercato nel quale lo strumento viene negoziato, dall’altro, le

strategie dell’operatore.

Il grado di liquidità di una posizione dipende dal tempo

necessario per una normale transazione, ossia dalla microstruttura

del mercato e dalla dimensione della transazione stessa, giacché

importi elevati rendono meno liquida la posizione. Posizioni

relativamente modeste in titoli benchmark sono facilmente

smobilizzabili; circostanze, invero, non replicabili qualora

l’importo della transazione assuma valori di gran lunga superiore ai

volumi medi giornalieri negoziati.

Per quanto riguarda le strategie, l’operatore può operare in

un’ottica speculativa e di investimento. Portafogli di trading

devono essere naturalmente valutati su un orizzonte giornaliero;

viceversa, per portafogli di investimento è necessario scegliere

holding period più lunghi.

Si discute se la scelta di un arco temporale prolungato soffra o

meno di una minore significatività di natura informativa dei dati.

L’ampiezza dell’arco temporale di previsione dipende dalla

frequenza con cui vengono aggiornate le stime. Orizzonti temporali

di tre mesi utilizzano stime della volatilità e della correlazione

storica di tre mesi da confrontare con la volatilità effettiva dei

successivi tre mesi.

Osservazioni prolungate nel tempo sono più efficaci ai fini delle

previsioni della volatilità. Si è dimostrato che la volatilità degli

strumenti finanziari, in particolare dei prezzi azionari, pur subendo

forti variazioni nel breve periodo, nel medio e lungo termine

302 Capitolo 6

tendono a ritornare al valore medio (mean reversion). Queste affermazioni sono meno verificabili per i mercati dei tassi di

cambio e di interesse sui cui si riflettono le misure di politica

monetaria. Ne consegue che, assumendo campioni più ampi, le

stime risultano più corrette, contraddicendo affermazioni di natura

intuitiva, secondo le quali la maggiore ampiezza del campione

disperde le informazioni sui dati più recenti del mercato. D’altra

parte, è possibile ipotizzare orizzonti temporali di ampiezza diversa

del periodo di rilevazione del campione storico per ridurre l’errore

di campionamento.

Le valutazioni esposte devono trovare corretta applicazione al

mercato di riferimento, ossia non sono traslabili, ad esempio in

mercati come quello dei cambi ove assuma rilevanza preponderante

le condizioni più recenti ai fini di una previsione più efficace12

.

E’ prassi comune che per posizioni aventi un unico fattore di

rischio riferiti ad orizzonti diversi, la volatilità per tempi più

prolungati venga ottenuta dalla volatilità giornaliera. Ciò e

possibile in relazione alle proprietà dei modelli di comportamento

del prezzo, secondo le quali, in un qualsiasi intervallo di lunghezza

T, la variazione del valore di una variabile che segue un processo di

Wiener, si distribuisce in modo normale con media nulla e

deviazione standard pari a T . La volatilità alla fine di un

intervallo T, è misurabile moltiplicando la volatilità giornaliera per

la T , ossia per il numero dei giorni compresi nell’holding period

selezionato.

TGT [6.18]

6.1.2.4 Previsione della volatilità

Il modella delta, basato sulla sensibilità delle variazioni del

valore dello strumento finanziario al fattore di rischio di mercato,

presenta un vantaggio e al tempo stesso uno svantaggio: il primo, è

rappresentato dal fatto che i prezzi e i tassi storici sono facilmente

osservabili per tutti i mercati. Il secondo fa riferimento ai problemi

12 Sironi A. (1996), p. 168.

Introduzione al Value at Risk per i rischi di mercato 303

che si incontrano nel misurare le volatilità e le correlazioni sulla base di andamenti passati, i quali potrebbero non rappresentare al

meglio i possibili andamenti futuri dei rendimenti, in particolare in

situazioni critiche di instabilità ed incertezza. Inoltre, utilizzando il

delta valuation method le posizioni in attività non lineari non

possono essere stimate se non introducendo nel modello fattori di

ordine superiore di correzione (delta, gamma, vega) e, comunque,

per piccoli movimenti dei tassi di cambiamento, quando le opzioni

sono lontane dalla scadenza o quando si trovano in posizioni out

the money.

In generale i modelli previsionali, compreso dunque il Risk

Metrics, presentano delle criticità per cui debbono essere affinati,

da un lato, e raffrontabili con metodologie diverse, dall'altro, al fine

di tener conto, anche di situazioni estremamente pessimistiche. Per

quanto concerne il primo aspetto la stima della volatilità è stata

effettuata in Risk Metrics introducendo il metodo delle medie

mobili esponenziali per attribuire alla volatilità dei fattori di

mercato una ponderazione non uniforme di .

Tradizionalmente, sono state impiegate medie mobili

caratterizzate dalla eguaglianza dei pesi, conseguendo risultati non

sempre soddisfacenti poiché tutti i punti della serie vengono

considerati con lo stesso fattore di ponderazione. Si osservano,

infatti, rapidi movimenti verso l’alto della media mobile quando

nella serie entrano valori molto elevati e allo stesso tempo rapide

discese, quando tali osservazioni escono dal calcolo della media;

gli adeguamenti, inoltre, della media mobile semplice alle

condizioni reali sono molto lenti e spesso distanti, in valore

assoluto, dai valori di osservazione

Per evitare questo problema si impiegano proprio le medie

mobili esponenziali nelle quali le ultime osservazioni della serie

storica (le più recenti) sono considerate, nel calcolo della medie

mobile, con un peso maggiore.

Le medie mobili esponenziali, ossia il metodo Exponentially

Weighted Moving Average (EWMA), forniscono due grandi

vantaggi: le stime della volatilità reagiscono più velocemente agli

shock del mercato (avendo gli ultimi dati più peso nella stima); le

stime decrescono, dopo una forte reazione di prezzo, gradualmente

304 Capitolo 6

al passare del tempo, seguendo la diminuzione di valore dei pesi di ponderazione.

La media esponenziale, al contrario di quella semplice, non

rimane influenzata dai valori di picco per molto tempo e si adegua

molto velocemente.

Essa, infatti, attribuisce un peso maggiore alle osservazioni più

recenti; il peso assegnato ad ogni punto della serie storica dipende

da un valore chiamato decay factor o “discount coefficient”, il

quale indica il “grado di persistenza” delle osservazioni

campionarie passate. Essendo tale costante sempre compresa fra 0 e

1, si può affermare che (1-λ) indica la velocità di decadimento delle

osservazioni passate nella media. Maggiore è la costante λ,

maggiore è la ponderazione attribuita alle osservazioni passate e

dunque meno rapido è l’adeguamento della media alle condizioni

più recenti.

Ogni osservazione della serie storica (composta da n elementi)

che rientra nella media mobile esponenziale viene ponderata in

base alla seguente espressione:

)1(w j

j con 0 1, e j che va da zero a n-1

nella quale gli w j rappresentano la serie dei pesi (la somma dei

quali tende all’unità al crescere dei punti della serie), e è il decay

factor. Nelle medie mobili semplici tutti gli w j sono eguali.

Il valore da attribuire a dovrà essere scelto in modo opportuno

13: la sua misura dipenderà da quanto velocemente si

13 RiskMetricsTm assume un unico e costante fattore di decadimento da applicare all'intera

matrice di covarianza (pari a = 0,94 per la stima VaR giornaliera e = 0,97 per quella mensile). Questa scelta appare un'arbitraria assunzione del modello, sebbene giustificabile in base alla mole di

dati sottostanti la gigantesca matrice di covarianza fornita, in quanto non vi sono le ragioni teoriche

per assumere che le varianze evolvano nel tempo nello stesso modo, in differenti paesi e su diverse

categorie di asset. L'ottimo (unico) della matrice di RiskMetricsTm è trovato con una procedura che utilizza il criterio di minimizzazione dell’errore quadratico medio (RMSE - Root Mean Squared

Prediction Error) connesso alla previsione della volatilità; nella formula che segue, il valore è

funzione del decay factor e il valore per una specifica serie di dati (per ogni fattore di rischio) viene scelto come quello che rende minimo il RMSE:

RMSE=

T

1t

22

t/1t12t )(ˆrT

1

Introduzione al Value at Risk per i rischi di mercato 305

muove la serie storica, ovvero dalla sua variabilità. Più i dati della serie saranno maggiore è la ponderazione attribuita alle

osservazioni più recenti: il valore di sarà allora più vicino allo

zero14

.

E’ inoltre importante determinare la scelta del numero delle

osservazioni passate, per un dato valore del decay factor, affinchè

la somma dei w j tenda all’unità e, quindi, si possa utilizzare

correttamente il metodo esponenziale.

Per determinare questo valore di soglia (K) utilizziamo una

sommatoria dei valori dei pesi (tra K e infinito) e poniamola uguale

ad un fattore di tolleranza (FT) che dovrà essere sufficientemente

vicino allo zero, ovvero risolvendo per K:

FT

FT

FTeK FT

J K

J K K K K

K K K

K

( ) ( ) ....

( ) ...

log( ) / log( )

1 1

1 1

1 2

2

[6.19]

Per un dato valore di e di FT, il numero di giorni di cui si necessita per il metodo E.W.M.A. è K. La relazione che lega il

fattore di tolleranza, il decay factor ed il numero di dati da

impiegare è mostrata nella seguente tabella.

Per esempio, fissando il fattore di tolleranza all’1% e stabilendo

un valore del decay factor pari a 0,92 il numero di dati storici

dove T è il numero di previsioni disponibile. Viene così individuato per ogni fattore di rischio i

del portafoglio un ottimo i; la somma dei i opportunamente pesati consente di ottenere il valore uniforme da applicare a tutti i fattori di rischio della matrice di covarianza.

Vi è da dire che il documento tecnico di RiskMetricsTm non fornisce la dimensione della precisa

riduzione dell'errore ottenuta utilizzando il criterio sopra descritto.

Uno dei motivi della scarsa performance dell'approccio RiskMetricsTm è ascrivibile all'uso di un

unico fattore di decadimento per tutte le serie presenti nella matrice di covarianza. Il ottimo per ogni fattore di rischio di mercato presente nella matrice di covarianza basato sul criterio RMSE è

infatti sensibilmente diverso sia all'interno delle categorie di asset (i stimati per gli indici azionari delle principali 22 economie sembrano quelli con minore dispersione, con valori compresi tra 0,955 e

0,985 più dispersi, e quindi molto meno significativa la previsione ottenuta con il rappresentativo

dell'intera matrice, risultano invece i sulle valute e sui tassi ad un anno, con valori rispettivamente compresi tra 0,92-0,99 e 0,85-0,99) sia tra categorie di asset.

14 Per valori piccoli di , i primi valori di j (quelli da assegnare ai dati più recenti) saranno

più grandi.

306 Capitolo 6

necessario al sistema E.W.M.A. per calcolare correttamente la deviazione standard sarà pari a 55.

Tabella 6.2 Fattore di tolleranza

DECAY

FACTOR

0.00001 0.0001 0.001 0.01

0.85 71 57 43 28

0.86 76 61 46 31

0.87 83 66 50 33

0.88 90 72 54 36

0.89 99 79 59 40

0.90 109 87 66 44

0.91 122 98 73 49

0.92 138 110 83 63

0.93 159 127 95 63

0.94 186 149 112 74

0.95 224 180 135 90

0.96 282 226 169 113

0.97 378 302 227 151

0.98 570 456 342 228

0.99 1146 916 687 458

6.1.2.5 L’approccio delta-normal: mapping dei flussi e criticità

La mappatura dei flussi

Una volta definite le assunzioni distributive e quelle ad esse

correlate sulle funzioni di prezzo, un elemento critico per

l'implementazione dell'approccio delta-normal è individuabile

nell'esatta specificazione dei fattori di rischio sottostanti il

portafoglio. Infatti, accade sovente che le posizioni assunte da una

istituzione finanziaria abbiano un valore di mercato che risulta

funzione di più variabili di mercato. E’ necessario, allora, un

processo di mappatura dei fattori che influenzano il valore del

portafoglio, ovvero una scomposizione della posizione nelle

relative componenti elementari. Un esempio di mapping,

considerando una approssimazione lineare (approccio

delta-normaI), può essere fatto considerando un insieme di

posizioni in titoli a reddito fisso: la banca d'affari J.P.Morgan

Introduzione al Value at Risk per i rischi di mercato 307

adotta un sistema di buckets "disposti"15

su un numero di venti scadenze la cui numerosità dipende dalla segmentazione e dal

grado di liquidità alle varie scadenze del mercato dei titoli. Il

criterio adottato per realizzare il mapping dipende dalla scelta del

fattore di rischio. Nel caso del rischio di interesse, i flussi del

portafoglio obbligazionario sono collocati su una griglia standard

di scadenze e, mediante interpolazione lineare o quadratica

vincolata a un set di condizioni, i flussi con scadenza non

coincidente con i vertici sono attribuiti tra due scadenze16

intermedie.

Il Value-at-Risk relativo alla scadenza j sarà: VaRj = k * (VMj *

MDj *rj * rj ), dove VMj è il valore di mercato del jesimo cash-flow,

MDj la relativa modified duration, rj il tasso d'interesse e rj la sua volatilità. Il VaR del portafoglio sarà quindi il risultato

dell'interazione tra le volatilità di tasso relative alle varie scadenze

(rrj, rrk) e le correlazioni (jk) tra i tassi lungo i vertices della yield

curve, ossia:

m

1j

n

1k

jkrkkkkrjjjj *)*r*MD*VM)(*r*MD*VM(*kVaR

[6.20]

Si può verificare dalla 6.20 che il VaR dipende non solo dalle

variabilità originate da ciascun cash flow (modified duration *

volatilità del tasso) singolarmente preso, ma anche dai coefficienti

di correlazione jk, che, in questo caso, misurano le correlazioni esistenti tra le variazioni dei tassi riferite ai diversi vertices e

l'effetto di diversificazione generato dalla composizione del

portafoglio.

Il metodo analizzato, soddisfa le esigenze di misurazione del

rischio di un portafoglio in base ad una univoca e determinata

selezione dei fattori di rischio, nei mercati rilevanti in cui opera una

banca. Si vuole però mettere in evidenza come uno degli elementi

critici alla base dell'implementazione dell'approccio

varianze-covarianze sia proprio quello della identificazione e della

15 Coerentemente con le disposizioni di vigilanza. 16 I nodi selezionati, denominati vertici, sono 14 e vanno da 1 mese a 30 anni e per ognuno di

essi J.P. Morgan fornisce le volatilità e le correlazioni.

308 Capitolo 6

mappatura esatta dei fattori di rischio sottostanti il portafoglio, in particolare, nel caso in cui gli intermediari finanziari abbiano

portafogli ampi e globalmente diversificati. All'uopo, le principali

banche d'investimento statunitensi17

hanno scelto di ricondurre la

rischiosità delle posizioni detenute ad un insieme di fattori di

mercato (fattori di rischio) quali i tassi di interesse relativi alle

diverse scadenze (con la metodologia, precedentemente analizzata,

di suddivisione dei flussi in bucket rappresentativi delle diverse

scadenze18

), i tassi di cambio, gli indici azionari e delle

commodities. La mappatura del portafoglio non è facile da

implementare in quanto comporta necessariamente un trade-off: nel

caso dei tassi di interesse, ad esempio, una specificazione molto

accurata di tutta la struttura a termine può fornire una

rappresentazione del portafoglio migliore. Il numero di

informazioni diviene, però, estremamente elevato, per cui risulta

arduo stimare e controllare la stabilità delle volatilità e delle

correlazioni sottostanti.

Viceversa, utilizzare un livello di aggregazione troppo sintetico,

stabilendo solo pochi buckets per descrivere l'intera curva dei tassi,

potrebbe invece limitare fortemente l'attendibilità della stima del

rischio del portafoglio. La soluzione al problema di una adeguata

"mappatura", con l’identificazione dei fattori di rischio

effettivamente rilevanti per il portafoglio detenuto, non ha un

algoritmo preciso su cui basarsi. In generale, si dovrebbero

aggregare strumenti i cui flussi, per ogni potenziale bucket,

mostrino volatilità analoghe ed elevati livelli di correlazione. Il

numero di buckets da considerare dipende quindi da quanto la

volatilità varia lungo la struttura a termine e dalle correlazioni tra i

differenti tassi. Al riguardo, nel caso estremo in cui le volatilità

siano uguali tra le diverse scadenze ed i differenti tassi risultino

perfettamente correlati non vi sarà la necessità di effettuare una

mappatura, in quanto il rischio del portafoglio sarà funzione

unicamente della volatilità del tasso e della modified duration del

portafoglio.

17 J.P. Morgan, Goldman Sachs, Salomon Smith Barney. 18 Impostazione condivisa anche nelle regole di vigilanza internazionale inerenti l'utilizzo del

maturity method per il rischio di tasso d'interesse nell'ambito del ed. metodo standardizzato; anche

per i ed. modelli interni vi è la previsione dì un requisito minimo di modellizzazione della yield curve

pari ad almeno 6 segmenti di maturità, cfr. Comitato di Basilea.

Introduzione al Value at Risk per i rischi di mercato 309

I punti di forza e di debolezza del Delta-normal

I punti di forza di questo modello si possono individuare nel

fatto che esso è indipendente dall’oggetto cui è applicato, consente,

quindi, di misurare, confrontare ed aggregare il rischio di prodotti

diversi. Esso fornisce, quindi, uno strumento utile a misurare la

variabilità dei rendimenti delle attività finanziarie, nel periodo di

riferimento, permettendo una corretta allocazione del capitale nella

fascia rischio-rendimento desiderata.

Al contrario, i punti di debolezza risiedono nella utilizzazione di

informazioni passate; le serie storiche dei prezzi non sono sempre

rappresentative dei rischi futuri. Dubbi vengono sollevati sulla

scelta della distribuzione normale delle variazioni dei rendimenti.

Infatti, l’ipotesi di distribuzione normale dei rendimenti delle

attività finanziarie, sebbene abbia fatto registrare molto spesso

opinioni discordanti, è in realtà un punto in comune a molti dei

modelli di analisi finanziaria sviluppati negli ultimi decenni. Il

motivo dei dissensi, da parte della comunità finanziaria, è dovuto al

fatto che questa ipotesi non trova conferma nelle verifiche

empiriche condotte su varie categorie di strumenti finanziari. Le

critiche più ricorrenti, che hanno portato a ricercare soluzioni

alternative alla distribuzione normale, sono rappresentate proprio

dai risultati di questi studi.

In particolare:

la distribuzione dei rendimenti delle attività finanziarie

mostra generalmente code più spesse (fat tails) nella

estrema destra e sinistra della distribuzione, rispetto ad una

curva normale teorica, ovvero, vi sono numerosi valori

cosiddetti outliers. Variazioni di prezzo lontane dal valore

medio hanno, dunque, maggior probabilità di verificarsi

rispetto a quanto implicitamente previsto con una

distribuzione normale. Questa caratteristica prende il nome

di curtosi (una curtosi positiva indica la presenza di code

spesse);

il picco intorno alla media della distribuzione dei rendimenti è generalmente più elevato di quello tipico di

310 Capitolo 6

una distribuzione normale: questa caratteristica viene chiamata leptocurtosi;

la distribuzione dei rendimenti risulta esser generalmente

non simmetrica intorno alla media, ovvero si riscontrano

più osservazioni nella metà sinistra della curva (quelle

inferiori alla media) rispetto al numero di osservazioni

rilevate nella parte destra (negative skewness). Al contrario,

una skewness positiva è indice di una distribuzione

asimmetrica verso destra, con un numero maggiore di

osservazioni superiori alla media.

6.1.3 Il VaR in opzioni e l’approccio delta-gamma: cenni

Il modello descritto presuppone un'approssimazione del primo

ordine nella sensitività ai fattori di rischio: questa stima, nel caso di

opzioni, può realizzare un buon fitting “locale" nelle immediate

vicinanze del punto di valutazione, ossia per piccoli cambiamenti

nel valore del sottostante, ma risulta inadeguata per ampi

movimenti dei prezzi. Poiché la metodologia VaR si propone di

quantificare, con una attendibile stima, il rischio di perdite

connesse a questi ampi movimenti avversi, non tener conto della

curvatura dei profili di payoff degli strumenti del tipo embedded

(ma anche semplicemente di titoli obbligazionari ad elevata

convessità) può dar luogo ad una rappresentazione fortemente

inadeguata del reale rischio cui la posizione è esposta, tanto

maggiore quanto più la curvatura è pronunciata. A questo scopo è

stato proposto19

l'utilizzo di una approssimazione delta-gamma del

valore di mercato del book contenente opzioni valutabili con lettere

greche rispettivamente per ogni asset sottostante e per ogni coppia

di asset sottostanti.

Combinando tutti i delta e i gamma, la variazione totale del

valore del portafoglio avrà la seguente approssimazione:

19 Cfr. Wilson T. (1997), p.75. L’autore è stato il primo a proporre un metodo di

approssimazione delta-gamma per le variazioni di valore del portafoglio. Per un approfondimento

Fallon J. (1996).

Introduzione al Value at Risk per i rischi di mercato 311

k

n

1k

jjk

n

1j

n

1j

jj XX2

1X)(P

[6.21]

dove, i j rappresentano le sensitività (delta) ai cambiamenti Xj

nei fattori dì rischio, e jk i vari gamma dei portafoglio; per j = k il

gamma sarà la variazione relativa del jesimo delta rispetto ad un

cambiamento nel fattore di rischio Xj. Se il prezzo degli asset è

funzione unicamente di un fattore di rischio, si potrebbero ignorare

i termini gamma per j k (questa semplificazione è spesso

effettuata nella realtà operativa20

). Questo approccio non si

dimostra efficace in tutti i casi: ad esempio, per le opzioni molto

vicine alla scadenza e at-the-money il gamma tende ad essere

estremamente grande e quindi non significativo; un problema

simile si ha per le opzioni con barriera, quando l'asset sottostante è

prossimo alla barriera.

L'applicabilità dell'approccio delta-gamma è quindi

condizionato dalla data di scadenza dell'opzione rispetto

all'orizzonte temporale di calcolo del VaR: l'informazione fornita

dal delta-gamma sarà robusta quanto più l'orizzonte temporale è

minore del tempo a scadenza dell'opzione.

Il peso relativo dell'effetto gamma nello spiegare la variazione

del valore di mercato dello strumento è poi tanto maggiore quanto

più lungo è l'orizzonte temporale di riferimento. L'inclusione della

componente gamma nei calcoli comporta, inoltre, che la

distribuzione dei returns del portafoglio venga influenzata dai

quadrati di variabili random ipotizzate normali, i quali danno luogo

ad una asimmetria21

della distribuzione. In questo caso, l'ipotizzata

normalità condizionale e quindi la simmetria della distribuzione

viene meno, invalidando l'utilizzo dei quantili della distribuzione

normale standard. L’aggiunta di un secondo parametro per

correggere la non linearità del delta trasforma gli stessi momenti

dell'analisi statistica: ad esempio, la varianza dei returns di

20 Cfr. Wilson T. (1997),. Il prodotto dei termini gamma quando j k può essere importante per

prodotti strutturati fortemente dipendenti dalle correlazioni di mercato come i differential swaps, le

choosers options e dovrebbe essere inserito ne valutazioni in quanto questi prodotti hanno un valore

della derivata seconda "incrociata" elevato. 21 Posizione gamma negativa (opzione venduta) implicherà asimmetria negativa e viceversa

312 Capitolo 6

un'opzione differisce dalla varianza 2 del relativo strumento

sottostante per un fattore (2 + 0,5

2

2).

L'importanza di un appropriato trattamento del rischio di

mercato delle opzioni è oggi evidenziata anche da esplicite

indicazioni degli organismi di vigilanza bancari internazionali, i quali prevedono una distinzione nelle capacità di monitoraggio e di

gestione delle posizioni in derivati: queste devono essere

commisurate alla dimensione e complessità dell'esposizione

sopportata. In particolare, nell'ambito del metodo cd.

standardizzato è previsto uno specifico onere di capitale da

mantenere a fronte del "gamma impact” calcolato con il secondo

membro dell'espansione in serie di Taylor come: 1/2**(X2), dove

X2 rappresenta la variazione predefinita dell'under1ying

dell'opzione, che secondo le stime della vigilanza, è pari all'8% per

le opzioni su singole azioni, indici azionari e tassi di cambio ed al

15% per le commodities. Per le opzioni sui tassi la variazione da

applicare si deve invece basare su di una griglia temporale di pesi

per il rischio variabili in funzione della scadenza. Nonostante

l'approccio delta-gamma sia, tra i metodi analizzati, il più adeguato

a descrivere la relazione di non linearità tra la variazione del fattore

di rischio22

cui l’opzione è esposta e la variazione del valore di

mercato dell'opzione, esso non coglie un aspetto rilevante della

rischiosità connessa ad opzioni complesse (ma anche a semplici

combinazioni di opzioni plain vanilla, call e put). In particolare,

trascura la caratteristica della non monotonicità della relazione tra

il prezzo dell'underlying e valore della posizione "strutturata" in

opzioni. Questa caratteristica fa si che l'analisi della massima

perdite potenziale svolta, considerando forti variazioni dei prezzi,

porti a risultati non consistenti rispetto al reale profilo di rischio

della posizione: la non monotonicità implica perciò che le perdite

maggiori non si verifichino in corrispondenza di forti shocks dei

prezzi del sottostante. Ad esempio, la massima perdita di una

posizione short in una butterfly23

, si avrà in corrispondenza di un

22 Oltre al delta ed al gamma per una descrizione completa della sensibilità del prezzo di

un’opzione, si dovrebbero considerare anche gli altri coefficienti di sensibilità e di conseguenza i

fattori di rischio a questi corrispondenti: la volatilità attesa del prezzo dell'attività sottostante, il

livello di variazione del tasso di interesse a breve. 23 La butterfly ha una struttura sintetica ottenibile con diversi mix di call e put: ossia vendendo

due call con diversi strike e acquistando due call con identico strike intermedio tra i primi due.

Introduzione al Value at Risk per i rischi di mercato 313

prezzo determinato24

e non di variazioni estreme dei prezzi. Tale limite non consente l’estensione dell'approccio delta-gamma per

tutte le posizioni, favorendo la diffusione dei metodi di valutazione

“piena" (full valuation), ossia dei metodi di simulazione, anche

chiamati modelli “non parametrici”. I modelli rientranti in questa

categoria sono definiti tali in quanto, non formulando alcuna

ipotesi relativa alla forma funzionale della distribuzione dei

rendimenti dei fattori di mercato, non richiedono di stimare i

parametri di tale distribuzione25.

In pratica tali modelli calcolano il

VaR non come prodotto della sensibilità della posizione/portafoglio

per la volatilità della variabile di mercato rilevante, ma

ricalcolando, anzitutto, l'intero valore di mercato della

posizione/portafoglio in base alle nuove condizioni risultanti dalle

variazioni stimate delle variabili di mercato che influenzano tale

valore.

In particolare, fra i modelli non parametrici si possono

individuare due principali approcci per la stima del VaR di un

portafoglio:

le Simulazioni storiche;

le Simulazioni MonteCarlo.

Nonostante le rilevanti differenze fra queste due categorie di

approcci, è possibile individuare alcune caratteristiche che li

accomunano:

a) Full valuation: diversamente dall’approccio varianze-

covarianze, il quale si fonda sui coefficienti di sensibilità, i

modelli di simulazione si basano su una logica di

valutazione piena. Il valore di mercato delle

posizioni/portafogli di cui si intende stimare il VaR viene

rivalutato, mediante opportune formule di pricing, sulla

24 Questo prezzo, nel caso in esame, corrisponde allo strike delle due call acquistate. 25 In realtà, ciò è vero unicamente per le simulazioni storiche, le quali non richiedono

effettivamente di formulare alcuna ipotesi analitica circa le distribuzioni dei rendimenti. Essa non

risulta invece adatta per le simulazioni MonteCarlo, le quali richiedono di selezionare una

distribuzione analitica multivariata per i rendimenti dei fattori di mercato e di stimare i parametri di

tale distribuzione quali medie, varianze e covarianze.

314 Capitolo 6

base delle condizioni simulate dei fattori di mercato. Il meccanismo di full-valuation consente di superare il

problema della non-linearità delle relazioni di pricing che

legano tra di loro le variazioni di prezzo degli strumenti in

portafoglio alle variazioni dei fattori di mercato, restituendo

variazioni del valore del portafoglio vere e non

approssimate. Tale caratteristica è tanto più desiderabile

quanto maggiore é la componente opzionale del portafoglio

di cui bisogna calcolare il Valore a Rischio.

b) Logica del percentile: nei modelli di simulazione il VaR è

stimato tagliando la distribuzione empirica di probabilità

delle variazioni di valore del portafoglio al percentile di

confidenza desiderato. Ad esempio, date 10.000 simulazioni

MonteCarlo dei fattori di mercato che generano 10.000

variazioni del valore del portafoglio in esame, il VaR al

99% è calcolato prendendo la 100-esima peggiore

osservazione. Analogamente si procede per le Simulazioni

storiche.

c) Ipotesi distribuzione normale: l’ultimo tratto comune ai

modelli di simulazione è l’assenza dell’ipotesi di normalità

della distribuzione dei rendimenti di mercato. Tale

caratteristica è auspicabile poiché, come abbiamo già detto,

numerosi studi empirici hanno mostrato come la

distribuzione effettiva dei rendimenti dei fattori di mercato

sia in realtà caratterizzata da code spesse e da un livello di

curtosi superiore a quello di una distribuzione normale.

6.1.4 Simulazioni storiche

La valutazione di un portafoglio/posizione attraverso questa

procedura di calcolo risulta molto semplice e prescinde da

qualunque ipotesi sul tipo di funzione di densità dei rendimenti e,

se effettuata direttamente sui prezzi delle attività, non richiede la

stima dei coefficienti di sensibilità ai fattori di rischio. Il primo

passo da compiere, nel caso del calcolo diretto sui prezzi e, quindi

di full valuation, consiste nel costruire un database dei prezzi, per

ogni istante del periodo di osservazione prescelto. Il secondo,

consiste nel rivalutare il portafoglio/posizione mantenendo ferme le

Introduzione al Value at Risk per i rischi di mercato 315

quote investite, per ogni istante temporale, in modo da pervenire ad una serie storica dei valori dello stesso. Applicando, quindi, la

distribuzione storica al portafoglio analizzato, si ottiene una serie di

profit and loss, P&L (VM1 = VM1 – VM0), che successivamente

ordinata dal peggiore al migliore risultato (ossia dalla massima

perdita al massimo profitto), consente di costruire una distribuzione

empirica delle variazioni di valore del portafoglio. Poiché in questo

caso non vi è alcuna ipotesi circa la natura della distribuzione della

variabile di mercato, l’individuazione dell'intervallo di confidenza

desiderato non avviene sulla base di un multiplo della volatilità

storica,come nei metodi parametrici, ma individuando direttamente

lo specifico percentile, nel senso che la distribuzione dei P&L

storici viene "tagliata" al percentile corrispondente al livello di

confidenza prescelto, cui corrisponderà un valore di P&L che

rappresenta il VaR del portafoglio.

I pregi di tale approccio sono piuttosto evidenti: non prevede la

stima di altri indicatori intermedi (correlazioni e volatilità) almeno

nella versione di calcolo direttamente dai prezzi, cattura la struttura

delle correlazioni riflessa nelle variazioni congiunte dei fattori di

mercato, permettendo di superare il problema di instabilità delle

correlazioni. Inoltre, non fissando a priori nessun modello

distributivo, consente di superare i limiti imposti dall’ipotesi di

normalità dei rendimenti. L'unica ipotesi implicita è che i

rendimenti estratti dalla distribuzione storica siano in realtà estratti

da una distribuzione futura. Ne segue che la corrispondenza

biunivoca fra intervallo di confidenza desiderato e variazioni dei

fattori di mercato non risente di eventuali asimmetrie o leptocurtosi

delle distribuzioni dei rendimenti dei fattori di mercato. Se i

rendimenti dei fattori di mercato non sono distribuiti normalmente,

ma hanno un comportamento probabilistico stabile nel tempo, il

modello delle Simulazioni storiche fornisce, dunque, indicazioni

più precise rispetto ai modelli parametrici.

Nondimeno, effettuando una valutazione piena del

portafoglio/posizione, il metodo delle Simulazioni Storiche

permette di “catturare” anche variazioni di ordine superiore al

primo, come l’effetto gamma per i prodotti derivati, e le

componenti di convessità caratteristici di alcuni titoli strutturati.

Inoltre, la logica sottostante a tale metodo di simulazione risulta

316 Capitolo 6

facilmente comprensibile e comunicabile fra le varie business unit di una banca. A fronte di questi pregi, però, occorre rilevare alcuni

limiti del metodo in questione. In generale, se è vero che il metodo

delle Simulazioni storiche è in grado di cogliere la distribuzione

effettiva dei rendimenti, e dunque l’eventuale presenza di “code

spesse”, esso condurrà, in presenza di una distribuzione

leptocurtica, a misure di VaR più elevate di quelle che si

otterrebbero con il metodo varianze-covarianze. Le Simulazioni

Storiche, inoltre, ipotizzano implicitamente la stabilità temporale

della distribuzione storica dei fattori di mercato, quindi che i dati

della serie siano indipendenti ed identicamente distribuiti. Ma,

nella realtà dei fatti, si riscontra, sovente che la distribuzione

congiunta non osservabile dei rendimenti dei fattori di mercato

cambia nel tempo; è eteroschedastica. In tal caso, i risultati del

modello delle Simulazioni storiche, avranno uno scarso significato

sia concettuale che operativo. I risultati raggiunti, inoltre, con tale

metodo hanno una forte dipendenza dall’intervallo temporale

prescelto, il quale può modificare in maniera sensibile i risultati

stessi.

Un altro problema relativo alla stima del VaR con questo tipo di

approccio è legato all’intervallo di confidenza – il livello di

probabilità p di perdita fissato – se scelto molto alto e avendo pochi

dati per l’analisi, può portare ad una stima non corretta del VaR.

Per esempio, scegliendo come probabilità il valore di 0,99 e avendo

una finestra temporale di 100 dati, il quantile corrispondente

verrebbe posizionato al 99-esimo elemento con un solo valore del

portafoglio al di là di tale limite, quindi sarebbe statisticamente

poco significativo.

E’ opportuno, infine, sottolineare le difficoltà spesso

riscontrabili nel provvedere ad un’accurata raccolta dei dati che tale

approccio richiede. E’ necessario, infatti, poter disporre di un

archivio storico dei prezzi dell’attività presenti in portafoglio

quanto più dettagliato ed aggiornato. Nella realtà operativa, si

dispone sovente di numero limitato di osservazioni storiche, che si

traduce tipicamente in una scarsa definizione delle code della

distribuzione empirica di probabilità. Le uniche variazioni dei

fattori di mercato che il modello considera possibili sono infatti

quelle verificatesi in passato, nell’orizzonte storico preso a

Introduzione al Value at Risk per i rischi di mercato 317

riferimento. Esiste, però, una relazione di trade-off riguardo alla lunghezza ottimale della serie storica di riferimento: incrementare il

più possibile la lunghezza della serie storica di riferimento,

allontanandosi troppo nel tempo, non è consigliabile, perché

diviene più probabile che sia violata l’ipotesi di stabilità della

distribuzione; si rischia di estrarre dei dati da una distribuzione

ormai “obsoleta”.

Una possibile risposta a tale problema è data dall’approccio

ibrido.

L’approccio ibrido combina i pregi delle Simulazioni Storiche

(assenza di ipotesi esplicite circa la forma funzionale della

distribuzione dei rendimenti dei fattori di mercato, valutazione

piena, preservazione della struttura delle correlazioni) con i

vantaggi propri della tecnica delle medie mobili esponenziali per la

stima della volatilità illustrata con riferimento all’approccio

varianze-covarianze (elevato contenuto informativo connesso

all’utilizzo di un ampio campione storico e aggiornamento dei dati

connesso alla tecnica delle ponderazioni decrescenti)26.

6.1.5 Simulazione MonteCarlo

Le Simulazioni MonteCarlo27

rappresentano una delle più

sofisticate ed accurate metodologie di stima del VaR, ma sono

anche le più complesse e costose da implementare. Le simulazioni

MonteCarlo sono state originariamente utilizzate in finanza per il

pricing di strumenti complessi, quali le opzioni esotiche, per i quali non

26 L’approccio Ibrido è stato proposto da Boudoukh, Richardson e Whitelaw (1998). Esso

consente di utilizzare una serie storica relativamente lunga ma attribuisce ad ogni osservazione

passata una ponderazione tanto maggiore quanto più questa è recente, secondo una logica simile a

quella propria delle medie mobili esponenziali utilizzate, sovente, nell’approccio varianze-

covarianze per la stima della volatilità storica. In tal modo, ciascuna osservazione non contribuisce

alla determinazione del VaR unicamente in funzione della propria intensità, ma anche in base alla

propria ponderazione, ossia in base alla relativa lontana/vicinanza temporale rispetto al momento

della valutazione. 27 L’origine del termine MonteCarlo risale agli anni ‘40, quando con tale locuzione venne

designato un piano di simulazioni sviluppato durante la sperimentazione della prima bomba atomica.

Il ricorso a tali simulazioni si rese necessario perché i problemi affrontati dal gruppo di fisici e

matematici avevano raggiunto un livello di sostanziale intrattabilità analitica. Essi si ispirarono, nella

scelta del nome MonteCarlo, all’aleatorietà dei guadagni tipica della casa da gioco del principato

monegasco. Attraverso la generazione dei numeri casuali, essi, determinarono i parametri delle

equazioni che descrivevano la dinamica delle esplosioni nucleari. Il termine MonteCarlo Method

viene, infatti, utilizzato, come sinonimo di simulazione stocastica.

318 Capitolo 6

è possibile ottenere una soluzione attraverso una formula chiusa o quasi

chiusa di valutazione e, quindi si rende necessario ricorrere ad un metodo

numerico che permetta di ottenere una soluzione approssimata

accettabile28

.

Con le simulazioni MonteCarlo si generano un ampio numero di

scenari (nell'ordine di alcune migliaia) in maniera random

basandosi su di una assunta distribuzione di probabilità congiunta

dei fattori di rischio di mercato (in genere si ipotizza una

distribuzione normale): le caratteristiche statistiche dei fattori di

rischio (volatilità e correlazioni29

) sono determinate utilizzando i

dati storici di mercato. Una volta specificata questa distribuzione

congiunta, sono usate delle tecniche30

per generare il set di scenari

in base a dei correlati numeri random: in questo modo gli scenari

generati rifletteranno le caratteristiche statistiche derivate dai dati

storici. L'insieme degli scenari ottenuti costituiscono una

simulazione; la simulazione viene ripetuta numerose volte31

,

utilizzando ogni volta un diverso set di scenari random. Da ognuna

di queste simulazioni si estrae il percentile desiderato, il quale

rappresenterà la massima perdita probabile32

stimata per il

portafoglio, in corrispondenza di quel predeterminato livello di

confidenza. La media aritmetica dei percentili darà la misura VaR

cercata, caratterizzata da una deviazione standard che fornisce la

dimensione dell'errore di convergenza delle simulazioni.

Quest'ultimo potrà essere ridotto semplicemente utilizzando più

28 L’utilizzo della simulazione MonteCarlo per la valutazione del prezzo di un’opzione consiste

nel determinare dei possibili sentieri (path) per il prezzo del bene sottostante per ricavare il valore

dell’opzione come media attualizzata dei payoff, ipotizzando che si operi in un ambiente neutrale al

rischio, in mercati completi, in cui non esistono opportunità di arbitraggio, costi di transazione, e le

attività sono infinitamente divisibile e vendibili allo scoperto. 29 Le volatilità e le correlazioni possono essere predisposte per rappresentare uno scenario

economico specifico rispetto al quale si può implementare una analisi di stress. Lo stress testing è

un'altra tecnica simulativa per analisi di sensitività di portafogli rispetto a ipotizzate variazioni

estreme avverse di mercato e sarà affrontata nella sezione successiva. 30 Ad esempio il documento tecnico RiskMetric 1996 utilizza la decomposizione di Cholesky

della matrice di covarianza tale che =A’ A; viene poi generato un vettore Z = A’Y di variabili

random i cui elementi avranno una distribuzione normale multivariata e covarianza , ed Y è un vettore di variabili standardizzate N ~ (0, 1) con matrice di covarianza identica I, così che var(Z) = A'

E(YY’) A = A’IA = A'A = . 31Generalmente i "simulation paths" sono circa 10.000. 32 Quella in considerazione è solo una delle tipologie di simulazioni di MonteCarlo possibili:

qui la focalizzazione è sulle code estreme della distribuzione del portafoglio; altri tipi di simulazione

sono ad es. dirette al pricing di strumenti finanziari individuando il valore medio futuro dell'insieme

di strumenti detenuti. Altre ancora fanno ipotesi diverse sul tipo di distribuzione sottostante il vettore

Y.

Introduzione al Value at Risk per i rischi di mercato 319

scenari33

in quanto il suo valore è inversamente proporzionale alla

radice quadrata del numero degli scenari utilizzati ( n/1 ): ad

esempio34

, un VaR calcolato come media aritmetica degli

appropriati percentili di 50 simulazioni, ognuna costituita da un

differente set di 1500 scenari, ha un errore di convergenza

(deviazione standard) del 4%; per ridurre l'errore al 2% bisognerà

utilizzare 6000 scenari per ogni simulazione.

Oltre alla velocità di convergenza, la selezione stessa degli

scenari può comportare altri tipi di problemi: la specificata

distribuzione assunta per i fattori di rischio (ad es. la lognormale)

può riflettere in maniera non adeguata la vera distribuzione q dei

fattori di rischio stessi; essendo stimate da un limitato set di dati

storici, le volatilítà e le correlazioni possono essere

significativamente differenti dalle reali volatilità e le correlazioni di

q (il cosiddetto sampling error); i dati storici, dai quali sono

desunte le volatilità e correlazioni, possono non riflettere

perfettamente le condizioni del mercato correnti, poiché queste

sono non stazionarie (variano nel tempo).

Aumentando la dimensione delle serie storiche dei dati si riduce

l'errore di convergenza, ma aumenta l'errore dovuto alla non

stazionarietà della serie; d’altro canto, basando la stima unicamente

sui dati più recenti si ipotizza un miglioramento sulle

rappresentazioni della effettiva distribuzione dei fattori di rischio.

Il metodo MonteCarlo, pur consentendo una valutazione piena35

di strumenti finanziari con caratteristiche di payoff anche

abbastanza complesse36

, non produce stime stabili in quanto sono

condizionate ogni volta dal risultato delle simulazioni. Il numero

delle simulazioni effettuabili, e quindi la possibile riduzione

dell'errore di convergenza, è influenzato, tra l'altro, dal

33Non c'è un limite teorico al numero degli scenari utilizzabili: i vincoli reali sono dovuti alle

velocità di calcolo offerte dai computer e dalla necessità di conoscere le stime VaR in tempi brevi. 34 L'esempio è tratto da Holton C. (1998), p. 61. 35 Le variazioni del portafoglio sono determinate, con riferimento agli scenari utilizzati per

descrivere le variazioni dei fattori di mercato, mediante riprezzamento in base ad opportune formule

di pricing degli strumenti che caratterizzano il portafoglio. 36 Come le opzioni con barriera (barrier option tipo knock-in etc.) il cui valore dipende dalla

probabilità che il prezzo dell'asset sottostante superi o meno una predeterminata soglia: per questo

tipo di opzioni è importante l’intero sentiero temporale dei prezzi (sono path dependent) il quale si

presta ad essere simulato con le tecniche MonteCarlo.

320 Capitolo 6

dimensionamento del portafoglio sul quale le simulazioni sono implementate.

La fase probabilmente più critica del metodo MonteCarlo è

quella della simulazione degli scenari evolutivi del risk factor

individuato. Essa necessita di ricorrere a un generatore di numeri

casuali o pseudo-casuali37. Il criterio più frequentemente utilizzato

è rappresentato dall’estrazione da una distribuzione uniforme con

valori compresi nell’intervallo fra zero e uno38. Quando la

posizione di cui si intende stimare il Valore a Rischio è sensibile a

più risk factor, oppure si tratta, non più di una singola posizione,

ma di un intero portafoglio la stima del VaR richiede, inoltre, di

tenere in considerazione la struttura delle correlazioni fra i

rendimenti di tali fattori. Diversamente da quanto accade per il

metodo delle Simulazioni Storiche, infatti, il metodo MonteCarlo,

essendo fondato sulla generazione di un numero elevato di scenari

per ogni fattore di mercato, non è in grado di catturare

automaticamente tali correlazioni. Si dovrà procedere, quindi, come

segue:

Stima della matrice varianze-covarianze dei rendimenti dei

fattori di mercato ();

Scomposizione della stessa in due matrici simmetriche, A e

AT, con = A AT, dove A è una matrice triangolare con dei

valori nulli nel quadrante superiore destro e AT è la sua

trasposta, mediante la cosiddetta “scomposizione di

Cholesky”;.

Generazione degli scenari relativi alle variazioni dei fattori di mercato moltiplicando la matrice AT , la quale riflette le

correlazioni storiche fra i rendimenti dei fattori di mercato,

37 I numeri pseudo casuali permettono di “riempire” il dominio di riferimento in modo più

uniforme ed evitare così i fenomeni di concentrazione in alcune sotto-aree che sovente si

accompagnano all’utilizzo di numeri casuali.. 38 I passi da compiere sono i seguenti:

-Estrazione di un numero U da una distribuzione uniforme [0,1].

-Determinazione dell’inversa della funzione di ripartizione- della distribuzione da cui si desidera

effettuare il campionamento.

-Calcolo del valore x di tale funzione f(x) corrispondente al numero U estratto.

-Ripetizione delle precedenti fasi un numero molto elevato di volte.

Introduzione al Value at Risk per i rischi di mercato 321

per un vettore di numeri casuali z. In pratica, tenendo in considerazione la struttura delle correlazioni, si estrae,

mediante il ricorso a un generatore di numeri casuali, un

elevato numero di valori (solitamente 10.000) per ogni

fattore di mercato;

Calcolo della variazione del valore di mercato del

portafoglio in esame in corrispondenza di ognuno degli

scenari simulati costruendo in questo modo la distribuzione

empirica di probabilità delle variazioni del valore di

mercato del portafoglio.

Determinazione del VaR tagliando la distribuzione empirica di probabilità dei valore di mercato del portafoglio in esame

in corrispondenza del percentile relativo al livello di

confidenza prescelto.

Il metodo descritto necessita, dunque, diversamente dalle

Simulazioni storiche, di stimare la matrice delle varianze-

covarianze dei fattori di mercato; si ripresenta dunque il problema

della stabilità di tale matrice. Ma questo non è il solo svantaggio di

cui soffre tale metodo. Esso, essendo generalmente basato

sull’utilizzo di un numero particolarmente elevato di scenari, al fine

di stimare nel modo più accurato possibile la distribuzione empirica

di probabilità delle variazioni dei fattori di mercato, tende a fondare

le misure di VaR su variazioni che raramente rappresentano valori

estremi. Nondimeno, va ricordato che il metodo MonteCarlo, pur

essendo numericamente efficiente, se confrontato con altre

procedure numeriche, risulta comunque oneroso, in termini di

tempo e di risorse informatiche richieste, rispetto al modello

varianze-covarianze.

Non vanno taciuti, tuttavia, i vantaggi connessi al ricorso al

metodo MonteCarlo. Anzitutto, simulando l'evoluzione dei fattori

di mercato e ricalcolando il valore di mercato delle posizioni che

compongono l'intero portafoglio alle nuove condizioni di simulate,

permette di superare il problema della non linearità e/o non

monotonicità dei payoff delle posizioni. Esso, si presta, inoltre, ad

essere utilizzato con qualunque forma funzionale della

distribuzione dei rendimenti dei fattori di mercato lascia, quindi, il

Risk manager libero di scegliere la distribuzione ritenuta più idonea

322 Capitolo 6

a spiegare le variazioni dei fattori di mercato in esame. Infine, il

metodo MonteCarlo simulando, non solo il valore finale che ogni

singola variabile di mercato subisce nel corso del periodo

considerato, ma anche il percorso evolutivo di tale variabile nello

stesso periodo, offre il vantaggio di consentire di analizzare anche

il rischio connesso a particolari categorie di opzioni, le cosiddette

opzioni esotiche path dependent, il cui payoff dipende non solo dal

valore che le variabili di mercato assumono a scadenza ma anche

dal percorso evolutivo che le stesse seguono nel periodo oggetto di

simulazione.

6.1.6 L'analisi degli scenari (stress test)

Le prove di stress rappresentano un'ulteriore tecnica simulativa

raccomandata dagli organi di Vigilanza come integrativa e di

supporto alle stime di VaR prodotte dai modelli interni. La

necessità di affiancare le stime del rischio di mercato prodotte dai

modelli interni con prove di stress è legata ai limiti metodologici

che questi ultimi presentano, come , ad esempio, l'instabilità delle

correlazioni, l'ipotesi di distribuzione normale dei rendimenti,

empiricamente confutata dalla presenza di code più spesse (fat

tails) e da fenomeni di leptocurtosi e asimmetria negativa. I modelli

del Value-at-Risk tentano di misurare il rischio connesso ad eventi

estremi, ma sulla base delle ipotesi limitative descritte. In

considerazione di ciò, il Comitato di Basilea ha raccomandato

l'utilizzo continuo di prove di stress, da implementare mediante il

ricorso a tecniche di simulazione basate sulla costruzione di scenari

pessimistici di evoluzione dei mercati (crollo dei mercati azionari,

interventi strutturali sul mercato dei cambi, ecc.). Lo stress test

dovrebbe essere implementato in modo da riflettere periodi di

movimenti estremi di mercato. Il Comitato raccomanda, infatti, di

testare la robustezza del portafoglio rispetto a periodi particolari di

tensione dei mercati, quali il crash dei mercati azionari del 1987

(con un movimento negativo dell'indice S&P500 pari ad oltre 20

deviazioni standard), la crisi valutaria europea del 1992, la crisi dei

pesos messicani (18 deviazioni standard). Lo scenario dovrebbe

comunque essere costruito in funzione del particolare tipo di

esposizioni del portafoglio. Ad esempio, una banca italiana con un

Introduzione al Value at Risk per i rischi di mercato 323

consistente portafoglio di titoli di debito dovrebbe verificare gli effetti sul portafoglio anche della caduta dei mercato

obbligazionario italiano del 15 agosto 1994 (10 deviazioni

standard). Questi periodi hanno in comune ampi ed inusuali

movimenti dei fattori di rischio sottostanti ai portafogli ad essi

esposti, spesso accoppiati a drastici cambiamenti (anche di segno)

nelle correlazioni e negli spread39

(in particolare, numerose

verifiche empiriche condotte su differenti mercati hanno

evidenziato come in periodi di stress i diversi mercati tendano ad

essere maggiormente correlati e le correlazioni stesse approssimano

i loro valori massimi40

). All'uopo vi è una generale “regola del

pollice”41

(rule of thumb) che assegna ad ogni mercato finanziario

la probabilità che almeno una volta l'anno si registri un movimento

pari a 4 o più deviazioni standard, ed in ogni anno vi sarà almeno

un mercato che subirà un movimento giornaliero più grande di 10

deviazioni standard.

Per gli intermediari autorizzati all'uso dei risultati prodotti dai

modelli proprietari ai fini della determinazione del proporzionale

patrimonio di vigilanza, la metodologia di stress testing42

, è

prevista, nelle intenzioni di vigilanza, al fine di includere il rischio

di mercato e gli aspetti di liquidità connessi ai low-probability

events incluse le varie componenti dei rischi di credito e operativo,

e quindi di valutare la capacità dell'intermediario di assorbire le

potenziali grandi perdite e identificare le azioni da adottare per

ridurre i rischi in questione. Le prove di stress dovrebbero essere

indirizzate anche ad identificare gli scenari capaci di cogliere i

rischi maggiori cui l'intermediario è esposto in base alle particolari

caratteristiche del proprio portafoglio: se le prove rivelano una

significativa vulnerabilità ad un identificato set di eventi, questa

deve essere gestita attivamente tramite un appropriato hedging o

con la riduzione della dimensione dell'esposizione.

39Cfr. Dumbar N. (1998), pp 32-36. Una forte variazione degli spreads provocata dalla crisi

russa del 1998 ha portato ad una fortissima riduzione del valore del portafoglio del fondo Long Term

Capital Management (LTCM). 40 Cfr. Bookstaber R. (1997), pp. 103-104. 41 Cfr. Bookstaber R., op.cit.. 42 Cfr. Basle Committee on Banldng Supervision (2001 a), op. cit, p. 46.

324 Capitolo 6

Numerose sono le motivazioni alla base della necessità di un'integrazione delle stime VaR con i risultati delle prove di stress:

per la loro stessa natura, gli "stress events" sono improbabili, e i

dati usati per le stime VaR non incorporano molte informazioni

riguardo questi potenziali eventi, i quali risultano spesso “fuori del

campione” (outliers); il loro impatto sul valore del portafoglio,

infatti, giace frequentemente oltre il 99° percentile tipicamente

usato nelle stime VaR. In questa direzione, le prove di stress

potrebbero dare una misura della perdite che ci si può attendere nel

rimanente 1 % dei casi. Inoltre, le situazioni di "stress" dei mercati

si evolvono tipicamente su periodi più lunghi di quello giornaliero,

mentre è la distribuzione giornaliera dei rendimenti quella

generalmente usata per le stime VaR, le quali sono poi "scalate" per

la radice di T per raggiungere l'orizzonte temporale desiderato

(ipotesi questa valida in assenza di correlazione seriale). I modelli

VaR quindi necessitano, nelle previsioni degli organi di Vigilanza,

di uno strumento di integrazione affinché possano essere utilizzati

nella determinazione di un patrimonio adeguato a fronteggiare le

perdite inattese e a garantire la sopravvivenza dell'istituzione

finanziaria. Lo strumento di integrazione previsto si sostanzia nelle

prove di stress fin qui descritte che, tentando di cogliere il rischio

connesso agli eventi remoti presenti nelle code delle distribuzioni

dei rendimenti dei fattori di mercato, integrano, l'analisi statistica

alla base del VaR, con un forte elemento di soggettività nella

definizione degli scenari worst case, ossia proprio dove i rischi

sono più grandi e andrebbero in qualche modo analizzati in base ad

assunti parametrici e con una base di fondatezza statistica.

Le prove di stress, allo stato attuale, benché previste e validate

dagli organi di Vigilanza, non sono senza svantaggi come fonte di

informazioni: oltre alla già accennata soggettività (e quindi non

fondatezza sul piano statistico) esse rappresentano infatti solo un

limitato numero di scenari possibili, con la probabilità di ogni

scenario impossibile da stimare esattamente e con il rischio di non

individuare gli scenari con un'incidenza potenziale maggiore sul

valore del portafoglio e nello stesso tempo più plausibili di altri. In

questo senso, per portafogli ad elevato contenuto di opzionalità

embedded, spesso il worst case scenario, basato su movimenti

estremi di mercato, è inadatto a rappresentare le più grandi perdite

Introduzione al Value at Risk per i rischi di mercato 325

cui si è esposti, le quali possono invece situarsi in corrispondenza di contenute variazioni di mercato.

6.1.7 I limiti dei metodi convenzionali

I metodi convenzionali di stima dei rischio di mercato descritti

finora sembrano fallire il loro scopo proprio su un punto critico:

l'identificazione dei rischi connessi ad eventi anche molto remoti,

che sono quelli verso i quali la Vigilanza si è ispirata nel

regolamentare sia i requisiti quantitativi dei modelli proprietari

delle istituzioni finanziarie che l'elevato fattore di moltiplicazione

da applicare alle stime prodotte dai modelli stessi.

Un limite comune ai modelli VaR analizzati è che essi si basano

tutti, in maniera più o meno accentuata, sulle ipotesi di normalità

dei rendimenti.

Le evidenze empiriche43

, al contrario, mostrano che le

distribuzioni dei rendimenti dei fattori di mercato sono

caratterizzate da fat tails, ossia vi è una dispersione degli eventi

estremi nelle "code" delle distribuzioni più ampia di quanto

suggerito dalla distribuzione normale, da asimmetria negativa,

derivante dalla presenza di un maggior numero di osservazioni

nelle code sinistre delle distribuzioni rispetto alle code destre, e da

un addensarsi delle osservazioni nelle prossimità del valore medio.

Ignorando tali caratteristiche non si attribuisce la dovuta

importanza alle osservazioni che si concentrano sulle code della

distribuzione, contrariamente a quello che suggerirebbe un

prudente sistema di Risk Management 44.

43 In particolare, tra le numerose ricerche in merito, Cfr. Duffle D. e Pari J. (1997);gli autori

hanno misurato i momenti terzo e quarto delle variazioni giomaliere di 33 serie finanziarie sul

periodo 1986-1996, verificando la presenza di valori di skewness e kurtosis significativamente diversi

dai valori della normale. 44 Accettare l’assunzione di normalità, infatti, comporta che la probabilità di osservare un

evento a 4 deviazioni standard dal valore medio sia pari a circa 3 su 100.000 – circa una in 130 anni

(considerando 250 giorni lavorativi in un anno se ne hanno infatti circa 32.500 in 130 anni). In

pratica, però, questi movimenti di mercato insoliti si osservano nella maggior parte dei principali

mercati quasi ogni anno. Si consideri, ad esempio, il tasso di cambio della lira con il dollaro nel

periodo che va dal 9-feb-1973 al 22-ott-1996. La volatilità su base giornaliera è risultata pari allo

0,71%. Negli oltre 23 anni considerati, le variazioni giornaliere superiori a 4 deviazioni standard

dalla media, superiori cioè al 2,85%, sono state ben 27. Si è avuto in media 1,14 eventi a 4 deviazioni

standard ogni anno. Cfr., Barone E., Bragò A. (1996), Lavoro preparato per la Vª Tor Vergata

Financial Conference, Roma 28-30 Nov..

326 Capitolo 6

L'ipotesi di normalità caratterizza fortemente i modelli parametrici, che derivano la distribuzione del valore del portafoglio

dalla normalità multivariata dei fattori di mercato ad esso

sottostanti. Il legame con la normalità di questi modelli è poi

rinforzato dalla creazione di intervalli di confidenza che

soggiacciono ad appropriati valori della normale standard.

I modelli di simulazione tipo MonteCarlo invece hanno una

minore dipendenza dagli assunti di normalità.Questi selezionano i

percentili corrispondenti agli intervalli di confidenza usuali

dell'analisi VaR in base alla tecnica del "taglio" delle distribuzioni

simulate agli appropriati livelli. Le simulazioni però richiedono che

venga definita una distribuzione sulla base della quale generare

numeri casuali ed è frequente che a tale scopo venga la

distribuzione normale anche se, in questo modo, si rinuncia a una

gran parte del valore aggiunto che la tecnica MonteCarlo può

offrire rispetto ai modelli parametrici.

Un secondo problema che coinvolge ambedue le tecniche

simulative analizzate ed i modelli parametrici è individuabile nella

dipendenza dall'utilizzo di input storici: in particolare i modelli

sono limitati dalla scarsa aderenza alla realtà delle ipotesi di

stazionarietà. Tutti i modelli del VaR, infatti, fondano le stime

prodotte in base alla considerazione della storia passata delle

variazioni dei risk factors45

.

Critiche sono, quindi, le scelte inerenti il tipo di set di dati da

utilizzare e la frequenza di campionamento da considerare, in

quanto agiscono fortemente sulla sensitività del VaR. Set

alternativi possono produrre configurazioni di rischio molto

diverse: una serie giornaliera potrebbe comporsi di tutti i dati di

chiusura del mercato, oppure basarsi su dati intraday come i

massimi e i minimi registrati nel corso di ogni giornata di mercato

aperto. La misura di rischio ne sarà influenzata in misura maggiore

per livelli di volatilità elevati. Una volta scelto il set di

informazioni, il periodo di osservazione rappresenta un ulteriore

elemento che incide sul valore del VaR. Basilea in merito

suggerisce almeno un anno di dati giornalieri. Un numero limitato

di osservazioni storiche si traduce spesso in una scarsa definizione

45 Ossia sono backward-oriented.

Introduzione al Value at Risk per i rischi di mercato 327

delle code della distribuzione empirica di probabilità ed in una scarsa rappresentazione degli eventi più rischiosi nel campione

prescelto, rispetto ad una loro teorica frequenza di lunghissimo

periodo. A fronte di questo si potrebbe aumentare la dimensione

del campione storico, ma questa scelta è limitata dal problemi già

visti di stabilità della distribuzione.

La frequenza di campionamento (sampling frequency) dovrebbe

essere sufficientemente elevata da consentire di ottenere un set di

dati statisticamente significativo. Questo problema è rilevante

specie se l'orizzonte temporale del VaR è superiore a quello

giornaliero poiché se, ad esempio, si stima il VaR su di un

orizzonte temporale decadale su periodi indipendenti l'uno dall'altro

(non-overlapping), si eviterà di introdurre un effetto artificiale di

autocorrelazione, ma il set di dati disponibile si ridurrà di una

fattore pari a 10, o pari rispettivamente a 22 per la stima mensile e

a 264 circa per quella annuale. Per questo si è diffusa la prassi

(consigliata anche dal Comitato di Basilea nell’"Amendment"), di

effettuare uno scaling delle stime VaR giornaliere per la T, dove

T è l'holding period di riferimento. In questo modo si può utilizzare

un campione di dati basato sulle variazioni giornaliere, e quindi un

numero di dati maggiore sul quale effettuare la stima. Il Comitato

di Basilea si è orientato in questa scelta anche per in considerazione

del fatto che il rischio di uno scenario di mercato estremo, rispetto

al quale le istituzioni finanziarie dovrebbero essere protette da un

adeguato grado di capitalizzazione, è accompagnato da problemi di

scarsa liquidità e dalla conseguente difficoltà di smobilizzare la

posizione, o il portafoglio di posizioni: questo può portare a perdite

più pesanti di quanto non accada in situazioni di normale liquidità,

anche in conseguenza dell'allargamento degli spread di denaro-

lettera. A fronte di questo rischio vi è quindi un legame tra la scelta

dell'holding period e la liquidità delle posizioni: maggiore è il

tempo presumibile di smobilizzo, più lungo dovrà essere l'orizzonte

temporale da considerare. Lo scaling per la radice di T previsto da

Basilea è in generale coerente col fatto che, per quasi tutti i

portafogli, il VaR incrementa con la lunghezza del tempo, poiché la

volatilità assoluta aumenta al crescere dell'orizzonte temporale.

328 Capitolo 6

Purtroppo, unicamente sotto alcune condizioni46

, raramente riscontrabili nella realtà empirica, questo scaling può essere

adeguato:

La relazione tra deviazioni standard e probabilità delle code

può essere fissata se i fattori di mercato mostrano una

distribuzione normale congiunta. Comunque, la normalità è,

come già visto, una semplificazione poco aderente alla

realtà fat-tailed, e le VaRiazioni giornaliere non sono

indipendenti nel tempo, ma è invece riscontrabile una

dipendenza seriale47

. Le osservazioni giornaliere risultano

autocorrelate, e si registrano fenomeni di volatility

clustering;

La matrice delle correlazioni non risulta costante nell'orizzonte temporale di riferimento;

Vi è un drift nei fattori di mercato. L'assunzione di media pari a zero (nel caso dell'approccio varianze-covarianze) o

comunque implicitamente considerata fissata (come nel

caso delle Simulazioni storiche) può essere ragionevole solo

per periodi di tempo brevi (ad es. 1 giorno), ma è debole

sugli orizzonti periodali decadali prescritti dagli organi di

vigilanza.

La considerazione dell'operare congiunto dei fattori limitanti

analizzati condiziona la bontà dei risultati ottenibili dai diversi

modelli VaR in relazione al rischio insito nelle code estreme: le

stime VaR si dimostrano estremamente sensibili non solo alle

assunzioni di distribuzione, ed al tipo di dati che ne determinano le

diverse possibili implementazioni, ma anche alle ipotesi sulle

misure di correlazione da considerare. Le implicazioni di queste

discrepanze si riflettono nel dettato "prudenziale" di Basilea e sono

particolarmente rilevanti dato l'uso della metodologia VaR ai fini

della determinazione dell'adeguatezza patrimoniale.

La protezione da eventi estremi, fonti possibili di default

individuali e/o di una destabilizzazione sistemica (effetto domino)

46 Cfr. Iacono F. Skeie D, (1996). 47 Cfr. Sironi A. e Saita F. (1998) verificano una dipendenza seriale su diversi indici di mercato.

Introduzione al Value at Risk per i rischi di mercato 329

del sistema finanziario, e la loro accurata individuazione è uno dei problemi più rilevanti dell'attività di Vigilanza, che è indirizzata a

rendere maggiormente consapevoli le banche, correlandone

proporzionalmente il livello di patrimonializzazione (secondo un

fattore, considerando una distribuzione normale standard, pari ad

almeno: * 2,33* 10 * 3 = 22,1 deviazioni standard) alle stime di

rischiosità prodotte dai modelli proprietari. In contrasto, l'ottica

degli intermediari finanziari è sensibilmente diversa, ed è il frutto

della percezione di un trade-off tra il costo della protezione rispetto

ad eventi estremi (e connesso rischio di default) ed il costo di

operare con un livello di patrimonio da remunerare eccessivamente

elevato. Queste prospettive alternative possono essere parzialmente

riconciliate assicurando che i requisiti di capitale, a fronte dei rischi

sostenuti, siano determinati con la più efficiente metodologia

disponibile48

.

I modelli "convenzionali" del valore a rischio finora trattati49

falliscono nel fornire questa riconciliazione. Questi modelli sono

nati nelle istituzioni finanziarie più sofisticate, con l'obiettivo di

gestire il rischio di eventi riferibili ad un "normale" andamento

delle variabili fonti di rischio, e non con la finalità di definire un

qualche grado di adeguatezza patrimoniale, garanzia di solvibilità a

fronte di eventi estremi.

E' infatti vero che gli eventi estremi "non normali" sono

trascurati dai modelli del VaR, ma è nello stesso tempo vero che

tali eventi estremi non fanno parte della gestione corrente del

rischio rispetto alla quale tali modelli sono stati implementati

inizialmente. In questo senso, è identificabile uno scollamento

nell'azione degli organi di vigilanza, che da un lato "garantiscono"

l'uso dei modelli interni, dall'altro sottopongono l'utilizzo di questi

ad uno stringente set di condizioni di validazione moltiplicative dei

risultati prodotti (lo scaling per la radice dell'orizzonte temporale

decadale, il fattore di moltiplicazione pari almeno a tre,

l'integrazione con le prove di stress), in quanto ne riconoscono

esplicitamente l'inadeguatezza rispetto alle finalità dì una prudente

48 Ossia le diverse parti dovrebbero preferire una metodologia che garantisca, per un dato

margine di sicurezza, i requisiti di capitale più bassi, o che per un dato livello di capitale fornisca il

più ampio margine di sicurezza. 49 Identificabili peraltro negli stessi suggeriti nell"'Amendment" come base metodologica dei

modelli proprietari.

330 Capitolo 6

calibrazione dell'adeguatezza patrimoniale e di identificazione dei grandi rischi (model risk).

Ciò che si intende porre in dubbio non sono le finalità degli

organi di Vigilanza, che si sostanziano tra l'altro in una spinta

all'adeguamento della struttura organizzativa, dei sistemi

informativi e dei controlli interni50

delle banche affinché siano

altamente affidabile nella gestione e controllo dei rischi, né

tantomeno il meccanismo "prudenziale" di supervisione che si è

sostituito all'approccio normativo precedente, quanto lo strumento

(i modelli interni) utilizzato per cogliere gli eventi estremi, rispetto

ai quali la Vigilanza ha predisposto tutto il set di condizioni di

validazione descritto. In questo contesto, si pone un problema di

carenza di incentivi per le istituzioni finanziarie a migliorare i

modelli VaR: infatti, nonostante un'istituzione finanziaria riesca a

sviluppare un modello VaR che più correttamente stimi gli eventi

di mercato con bassissima probabilità di accadimento, questa si

vedrà sempre applicare lo stesso elevato fattore di moltiplicazione

"minimo", a fronte di una stima VaR migliore (presumibilmente

più elevata di quella ottenibile con i metodi convenzionali).

Di fronte a questo meccanismo invariante, l’istituzione

finanziaria non avrà convenienza a migliorare il suo modello

proprietario, venendosi a creare, così, un effetto perverso che è

funzione del sistema stesso di incentivi risultante dagli elevati

livelli del fattore di moltiplicazione. Una proposta innovativa è da

collegarsi all'intenso sforzo di ricerca che negli ultimi tempi è stato

fatto per il miglioramento delle metodologie quantitative alla base

dei modelli VaR. Rispetto ai modelli convenzionali, a fronte dei

quali Basilea ha prescritto il set di condizioni di utilizzo, sono ora

disponibili applicazioni, come quelle fondate sui risultati di recenti

ricerche di applicazione dell'extreme value theory alla metodologia

del VaR, che più correttamente si focalizzano sulle code estreme

delle distribuzioni del rendimenti di mercato. La considerazione dei

miglioramenti nella stima VaR dovrebbe dunque riflettersi in una

diminuzione del fattore di moltiplicazione.

50 Cfr. Basel Committee on Banking Supervision (1998), Framework for Internal Control

System in Banking Organizations, September; Banca d'Italia (1998), Sistema dei controlli interni,

compiti del collegio sindacale, G.U. 20 ottobre.

Introduzione al Value at Risk per i rischi di mercato 331

6.1.8 La teoria dei valori estremi: cenni

Si è visto come i modelli più diffusi di stima del VaR siano

riferibili a due categorie principali: la prima categoria utilizza la

modellizzazione parametrica di una distribuzione condizionale

(usualmente la normale), facendo una previsione dell'intera

distribuzione dei rendimenti, dalla quale solo le code sono il

riferimento per il VaR. Questi modelli stimano i parametri

pesandoli sul centro della distribuzione, quindi con un riferimento

specifico ad eventi "comuni", mentre il VaR è una misura tipica

degli eventi estremi presenti nelle code delle distribuzioni. I limiti

maggiori dei modelli parametrici sono riscontrabili non solo

nell’ipotizzata normalità51

, ma anche nelle tecniche utilizzate per

tenere conto della eteroschedasticità condizionale delle variazioni

dei fattori di mercato. Mentre le variazioni giornaliere sono

influenzate dal fenomeno della eteroschedasticità, la presenza di

questo effetto su di un holding period decadale (che è quello

previsto dalle autorità di vigilanza) è meno evidente; inoltre

l'effetto di eteroschedasticità è legato a variazioni nella volatilità di

breve termine, mentre gli eventi estremi, riferiti ad un intervallo di

confidenza pari o maggiore al 99%, sono molto più indipendenti52

nel tempo. La seconda categoria di modelli, invece, non necessita

di una predeterminata forma parametrica per la distribuzione da

utilizzare, ma si basa su di un approccio non parametrico fondato

sulle Simulazioni storiche, nelle quali i pesi correnti del portafoglio

sono applicati alle serie di osservazioni storiche dei returns

registrati dai fattori di mercato sottostanti il portafoglio stesso.

Anche questa categoria di modelli non si dimostra robusta nella

stima dei percentili e delle probabilità inerenti gli eventi estremi a

causa dei problemi già visti, ed, in particolare, per la presenza,

nelle serie storiche, di poche osservazioni rappresentative dei tail

events, che rendono la stima discreta e con una varianza elevata.

Inoltre, la distribuzione empirica dei returns storici non può fornire

51 Contraddetta dalle evidenze empiriche. Anche ipotizzando altre distribuzioni dei fattori di

mercato, ad es. la Student-t o la lambda generalizzata, si dovrebbe comunque considerare la non

stazionarietà delle serie finanziarie. 52 Cfr. Danielsson J., De Vries C., Hartmann P. (1998), p. 101.

332 Capitolo 6

la probabilità di subire perdite più grandi di quelle presenti nella finestra di dati utilizzata, la quale è assegnata pari a zero.

La conseguenza di quanto esposto si manifesta nella scarsa

attendibilità dei modelli VaR proprio dove sono più importanti. La

protezione dagli eventi estremi di mercato è infatti uno degli

obiettivi dell'attività di vigilanza bancaria, nel quale si riconoscono

anche le istituzioni finanziarie53

. Un buon modello VaR dovrebbe

perciò correttamente rappresentare la probabilità di questi eventi

presenti nelle code delle distribuzioni, fornendone stime omogenee

e accurate dei percentili e delle correlate probabilità. A questo

scopo alcuni risultati sono ascrivibili ad un'area della statistica

conosciuta come "teoria dei valori estremi" (Extreme Value

Theory). Le caratteristiche di questo approccio includono:

un metodo di stima che è localizzato all'oggetto di interesse

(le code delle distribuzioni) piuttosto che all'intera funzione

di densità di probabilità;

una forma funzionale della coda della distribuzione che può essere formulata a priori

54.

In questo nuovo approccio le distribuzioni heavy-tailed possono

mostrare un comportamento nelle code, ad un primo ordine di

approssimazione, molto simile alla forma della coda della

distribuzione di Pareto. Così, se la distribuzione oggetto di analisi è

conosciuta essere heavy tailed, la probabilità delle perdite più

grandi potrà essere descritta da:

P{R<-r} = F(-r) a•r-

r [6.22]

dove le probabilità di coda dipendono da due parametri, a e ,

rispettivamente una costante di scaling e un cosiddetto indice di

coda (tail index). L'evento estremo diverrà più probabile, e la coda

sarà più spessa, quanto più l'indice di coda è minore. Gli strumenti offerti dalla teoria dei valori estremi consentono di

53 Cfr. Focardi S. e Troiani M. (1997), p. 78. Gli autori presentano una ricerca condotta da The

Intertek Group su un campione internazionale di 80 banche: i risultati pongono in evidenza come la

protezione da eventi estremi, la risposta agli organi di vigilanza e l'ottimizzazione delle attività sono i

tre obiettivi principali di gestione del rischio. 54 Cfr Diebold F.X., Schuennann T. e Stroughair J.D. (1998).

Introduzione al Value at Risk per i rischi di mercato 333

stimare i parametri della coda. A differenza degli approcci tradizionali alla stima del VaR, i risultati statistici basati sulla teoria

dei valori estremi forniscono la possibilità di strutturare una forma

parametrica alle code delle distribuzioni empiriche, dalla quale

stimare le probabilità ed i quantili relativi senza dover ricorrere ad

arbitrarietà nelle assunzioni sulle distribuzioni o sui pesi da

adottare. Un modello VaR può così essere costruito

semiparametricamente combinando la simulazione storica per

1"'interno" della distribuzione dei rendimenti (di un fattore di

mercato, di un portafoglio) insieme alla stima parametrica per le

code. Uno dei problemi rilevanti da risolvere, e che per lungo

tempo ha limitato le possibilità di implementazione di questo

metodo, riguarda la determinazione del punto d'inizio della coda,

oltre il quale si trovano le osservazioni estreme sulle quali stimare i

parametri della coda stessa. Recenti ricerche55

hanno individuato

una efficiente metodologia basata su un ricampionamento

bootstrap.

6.2 Gli utilizzi della metodologia del Value-at-Risk

A fronte di una comune definizione di rischio basata sul VaR,

sono stati analizzati i diversi approcci di misurazione allo stadio

attuale maggiormente implementati. Nonostante lo scopo principale

dei modelli proprietari delle istituzioni finanziarie sia quello di

gestire il rischio, sono emerse negli ultimi anni diverse finalità e

implicazioni operative nell'utilizzo dei risultati che scaturiscono da

questi modelli, insieme ad un'estensione del loro ambito di

applicazione: da una prima fase di applicazione, limitata ai rischi di

mercato del portafoglio di negoziazione, gli intermediari hanno

iniziato ad estendere l'utilizzo della metodologia al portafoglio

immobilizzato fino alla inclusione di tutte le poste di bilancio attive

e passive, stimando ogni tipologia di rischio. Ed è proprio la

versatilità di utilizzo delle stime VaR e la sua relativa facilità di

comprensione ad aver contribuito alla sua rapida diffusione ed

accettazione da parte degli intermediari finanziari, degli organismi

di vigilanza ed in diverse applicazioni nelle corporate. Le finalità

55 Cfr. Danielsson J. e. De Vries C. (1997).

334 Capitolo 6

principali nell'utilizzazione delle misure VaR sono riconducibili al percorso logico di seguito analizzato, in ordine di progressività nel

loro livello di utilizzo all'interno delle istituzioni finanziarie.

a) Confronto e aggregazione fra tipologie di rischio ed

istituzioni differenti.

L'esposizione al rischio di mercato del portafoglio di un

intermediario è stata precedentemente definita nei termini di

volatilità dei sottostanti fattori di rischio e sensitività del

portafoglio stesso a questi fattori, i quali sono soggetti ad un

livello di specificazione tale che sia rappresentativo del

rischio in ogni singolo mercato. Ogni metodo è

profondamente associato con il suo specifico mercato e non

può essere applicato direttamente ad altri mercati. Ad

esempio, il rischio di tasso d'interesse di un titolo di stato

può essere misurato nella sua formulazione più semplice

dalla duration. Una approssimazione più corretta della

stima si ha mediante la determinazione dalla convessità o

dalla sensitività a shift non paralleli (ad es., con le key rate

durations di Ho56

). Per il portafoglio azionario il rischio

sistemico può essere stimato mediante il beta. I rischi

associati ad una opzione, o ad un portafoglio di opzioni,

possono essere misurati dall'intero set delle "lettere greche",

ognuna espressione delle variazioni del prezzo rispetto a

cambiamenti nei parametri della formula di pricing. Anche

queste ultime misure di rischio non possono essere applicate

direttamente ad altri strumenti, in quanto costruite sulla base

di criteri metodologici fra loro differenziati, che rendono

non confrontabile l'importanza relativa dei rischi di mercato

assunti su mercati diversi. L'introduzione del VaR, come

rilevato all’inizio del capitolo, ha colmato questo divario di

raffronto: basandosi sul livello di esposizione delle singole

posizioni, individuabile con le misure di sensitività appena

descritte o tramite una rivalutazione delle posizioni alle

condizioni di mercato simulate57

, e sulla volatilità di ogni

56 Cfr. Dattatreya R.E. e Peng S. Y. (1995). Gli Autori presentano un'estensiva applicazione

delle key rate duration nella valutazione della rischiosità di obbligazioni strutturate. 57 Cfr. Sironi A. e Saita F. (1998).

Introduzione al Value at Risk per i rischi di mercato 335

fattore di rischio. La misura di rischio VaR viene, pertanto, calcolata in base a criteri metodologici omogenei (livello di

confidenza, holding period, etc.) che forniscono una

approssimazione unidimensionale dei rischi ai quali un

portafoglio di strumenti finanziari globalmente diversificato

è esposto.

Sintetizzando in un unico valore la massima perdita

probabile cui esposta la posizione, il VaR soddisfa due

importanti esigenze; consente infatti sia di confrontare fra

loro strumenti rischiosi diversi sia, soprattutto, di aggregare

rischi diversi agevolando il calcolo del rischio complessivo

di portafoglio. L'aggregazione dei rischi può essere

implementata con criteri diversi, dipendendo dal tipo di

modello (tra quelli già visti) adottato: con la matrice di

correlazione dei fattori di mercato, nel caso di un approccio

tipo RiskMetrics

scenari evolutivi se si utilizza uno dei metodi di

simulazione. Grazie a queste caratteristiche metodologiche,

si è realizzata una convergenza dell’industria

dell'intermediazione finanziaria e degli organismi di

Vigilanza verso una metrica comune, che consenta una

immediata percezione del profilo di rischio sopportato ed

una sua confrontabilità anche fra istituzioni finanziarie

diverse. Queste ultime, soprattutto investment bank

anglosassoni, negli anni recenti hanno iniziato a rivelare nei

reports annuali e trimestrali anche le loro stime di VaR

medio registrato nel periodo. Il diretto confronto delle stime

VaR tra le varie banche risulta comunque ridotto da alcune

discrezionalità nella scelta di parametri critici del calcolo.

Nei dati della tabella che segue, tratti da un recente articolo

di Hendricks e Hirtle58

, sono descritti i VaR di alcune

grandi banche, i cui reports annuali sono sufficientemente

dettagliati da indicare holding period, percentili sottostanti

la stima e metodologia implementata.

58 Cfr. Hendricks D. e Hirtle B. (1997).

336 Capitolo 6

Tabella 6.3 - Misure di VaR annuale medio riportate da alcune

banche U.S.

BANCA VaR annuale medio

giornaliero

( milioni $)

Percentile

BankAmerica 4259

97.5

Banker Trust 39 99.0

Chase Manhattan 24 95.0

Citicorp 45 2

J.P. Morgan 21 95.0

Come indicato nella tabella, tutte le stime sono basate su

di un holding period giornaliero, ed i percentili sono tutti

compresi tra il 95% e il 99%. Le divergenze in questi

parametri, così come su altri aspetti della stima, quali le

assunzioni sulle correlazioni, danno luogo a difficoltà nel

realizzare una diretta confrontabilità delle stime VaR.

Inoltre i VaR medi annuali potrebbero essere integrati con i

valori massimo e minimo del VaR registrati nel periodo

inerente il report e con la stessa volatilità del VaR, ma

anche con la media e la volatilità dei cambiamenti di valore

del portafoglio.

b) Determinazione dei limiti operativi

La predisposizione di adeguati modelli di misurazione

dell'esposizione al rischio del portafoglio e la

comunicazione del profilo di rischio all’interno

dell'istituzione, e nella reportistica verso l'esterno, è solo il

primo passo verso un adeguato processo interno integrato di

gestione dei rischi finanziari (risk management). Infatti, la

pura quantificazione della rischiosità delle posizioni gestite

in termini di perdita potenziale (risk measurement), per

quanto fornita da un modello accurato, è da considerarsi

unicamente come una prima fase logica di un processo più

ampio di gestione e di controllo delle posizioni a rischio. A

questo scopo, la struttura del modello interno ed i suoi

59 La stima è fatta sotto l'assunzione di un coefficiente di correlazione tra le categorie di asset

pari a 1. Assumendo una correlazione nulla si sarebbe ottenuta una stima pari a 18 mil.$. 60 Il livello di confidenza 2 è pari al 97.7 percentile ipotizzando una distribuzione normale.

Introduzione al Value at Risk per i rischi di mercato 337

output dovrebbero configurarsi, a sua volta, come un input per un ulteriore livello di utilizzazione rispetto a specifiche

finalità gestionali. Queste sono individuabili: nella

fissazione di limiti all'operatività delle singole unità risk-

taking ai fini del controllo dell’esposizione. Fornire limiti

adeguati a supportare le scelte di risk taking consente

correttamente di misurare la redditività corretta dal rischio

in relazione al capitale assorbito, nell’ambito di un processo

sistematico di allocazione del capitale tra le varie unità

all'interno dell'istituzione finanziaria (capital allocation), al

fine di massimizzare la redditività, complessiva e di ogni

singola unità, rispetto ai rischi sostenuti (performance

measurement). Tale soluzione potrebbe produrre l’effetto di

una specializzazione di ogni operatore per ogni tipologia di

rischio, con una concentrazione dell’operatività sul proprio

core business, rendendo più affidabile il processo di

auditing. L’introduzione di un simile meccanismo non è di

facile attuazione, laddove le unità operano in prodotti

multirischio, rispetto ai quali si deve procedere alla

determinazione di ogni tipologie di rischio accessorio per

avviare operazioni di copertura interne. Si può intuire come

tali operazioni di hedging richiedano criteri oggettivi per la

determinazione del tasso di trasferimento di non sempre

facile realizzazione.

L'utilizzo dei limiti di assunzione dei rischi, in termini di

un denominatore comune, consente di sfruttare le proprietà

di aggregazione e confrontabilità del VaR con riferimento,

però, a un preciso orizzonte temporale in funzione della

propensione al rischio del management e degli azionisti.

La determinazione di un sistema di limiti standardizzato,

il suo continuo aggiornamento ed il connesso sistema di

reporting può essere molto difficile in relazione ad una forte

complessità dell'operatività della banca, ma è proprio in

relazione a questa operatività che esso diventa

maggiormente indispensabile. Il sistema dei limiti deve

comunque essere costruito secondo una logica gerarchica61

,

61 Cfr. ABI (1996), p. 57.

338 Capitolo 6

che permetta l'aggregazione ai livelli superiori dei limiti assunti dalle varie unità operative assoggettate ai limiti

stessi, tenendo presente che le misure VaR incorporano un

effetto di diversificazione del rischio dovuto alle

correlazioni. Considerare questo effetto porta ad una

impostazione della struttura gerarchica dei limiti tale che i

limiti di rischio al livello superiore potranno essere minori

della somma dei limiti di rischio delle unità ad esso

sottostanti.

Vi è però una differenza nel governo dei rischi tramite il

set dei limiti riferibile all'orizzonte temporale ed al livello

gerarchico considerato: nel medio termine (pianificazione

strategica) e a livello di alta direzione, possono essere

considerate stabili sia la propensione al rischio che il livello

del limiti; invece nel breve termine, e a livello di unità risk-

taking operative (specie all'interno dell'area finanza), la

revisione dinamica dei limiti è fondamentale per il governo

dei rischi finanziari e va monitorata frequentemente. In

questo senso, la singola unità risk-taking, sulla base del

VaR assegnato, del grado di sensibilità delle posizioni ai

fattori di rischio di mercato e del livello di volatilità di

questi ultimi, può determinare il limite di posizione

massima da assumere.

Eventuali variazioni nei livelli di volatilità generano

corrispondenti variazioni dei limiti62

di posizione

assumibili, dando luogo ad un adeguamento automatico dei

limiti operativi coerentemente con le condizioni di volatilità

dei singoli mercati (se la volatilità diminuisce, il limite

aumenta, e viceversa), favorendo una riallocazione

dinamica del capitale verso strumenti e mercati meno

volatili. A causa di questa relazione diretta volatilità-limite

di posizione, una scelta importante nel settare il sistema dei

limiti è da rilevarsi nella frequenza dell’aggiornamento

delle volatilità: l'eteroschedasticità dei rendimenti degli

strumenti finanziari comporta una modificazione della

volatilità nel tempo, così che una revisione istantanea dei

62 Cfr. Sironi A. e Saita F. (1998), p. 69; gli autori presentano un esempio dei limiti di

posizione su BTP decennali.

Introduzione al Value at Risk per i rischi di mercato 339

limiti di posizione, ogni qualvolta il livello di volatilità muta, avrebbe la conseguenza di un'incertezza continua

sull'entità delle posizioni assumibili, con l'effetto di

mantenere le unità coinvolte sempre molto distanti dai limiti

massimi nominali; questa eventualità, sebbene "migliori" il

profilo di rischio, può portare però ad una strutturale

sottoutilizzazione (e quindi ad una minore remunerazione)

del VaR disponibile.

La soluzione adottata da molte banche internazionali, per

le esigenze dì una maggiore certezza operativa, si sostanzia

nell'estensione dell'orizzonte temporale (ad es., adottando

un aggiornamento mensile63

) di revisione degli input di vo

latilità in un’ottica di compromesso tra la necessità di

tracking dei mercati e le esigenze rilevate.

Oltre alle variazioni della volatilità dei diversi fattori di

rischio, occorre tenere in considerazione anche l'impatto

delle correlazioni tra i diversi rischi, tanto più importante se

i limiti stessi sono stati definiti in base anche alle

correlazioni tra i rischi sostenuti dalle singole unità.In

questo caso, l'accentuarsi del grado di correlazione positiva

tra due mercati può far diminuire il limite di VaR massimo

assegnato alle due unità, proprio in conseguenza della

riduzione dei benefici derivanti dalla diversificazione del

rischio.

Le finalità esposte sono riconosciute dalle autorità di

Vigilanza, le quali, nel definire i requisiti qualitativi dei

modelli interni delle banche, ai fini della determinazione del

patrimonio di vigilanza, hanno indicato l'importanza

dell’interrelazione tra il sistema interno di misurazione dei

rischi ed i limiti di esposizione e di trading.

c) Misure di risk-adjusted performance e allocazione del

capitale.

Ulteriore finalità di tipo gestionale perseguibile con i

modelli Var è la costruzione di misure di performance

correte per il rischio attraverso la quantificazione del

63 L’intervallo minimo di revisione è comunque fissato dalle autorità di vigilanza, che

richiedono una revisione delle volatilità e correlazioni almeno trimestrale.

340 Capitolo 6

capitale a rischio e la sua allocazione alle aree di affari. Al fine di consentire al top management di valutare la

performance in termini di rischio-rendimento occorre,

infatti, introdurre misure di Risk-Adjusted Performance

(RAPM) per determinare la contribuzione di ciascuna linea

di business alla creazione del valore complessivo. I metodi

utilizzati si focalizzano sul concetto di allocazione del

capitale, basandosi sul rapporto tra risultato reddituale e

relativo capitale economico a rischio, quantificato ex post,

sulla base dei rischi assunti, oppure ex ante, in sede di

pianificazione.

In generale, si può osservare come le opportunità di

investimento dipendono dal trade-off rischio rendimento,

ossia dalla capacità del business di originari profitti

crescenti rispetto al livello di capitale assorbito a fronte del

rischio associato. La performance di due o più attività

riproduce nei RAPM, di cui sono state fornite nozioni

introduttive nel capitolo 1, gli effetti della volatilità e delle

correlazioni sul livello di rendimento. Per poter apprezzare,

invero, il contributo di uno strumento finanziario alla

redditività del portafoglio e, quindi, valutare la sua

attrattività, occorre prendere in considerazione tre elementi

la rischiosità dello strumento, il grado di correlazione con il

rendimento del portafoglio e il premio offerto dallo

strumento rispetto al free risk.

La logica di tale approccio si racchiude su una semplice

intuizione, ossia, che la volatilità della distribuzione dei

rendimenti dei singoli strumenti contribuisce alla volatilità

complessiva di un portafoglio, che, non essendo

diversificabile, deve trovare copertura nella variabile

strategica mezzi propri. In prima approssimazione, è lecito

affermare che lo strumento piu appetibile, secondo

l’approccio del CAPM, potrebbe individuarsi in quella

attività che offre il maggior extrarendimento rispetto al

tasso free risk per unità di rischio complessiva. Posto che il

rendimento in eccesso di una singola transazione può essere

espressa da r’-rf, ove r’ indica il rendimento conseguito

dalla transazione ed rf il costo del capitale preso a prestito

Introduzione al Value at Risk per i rischi di mercato 341

dalla banca., si può assumere che il portafoglio attivo della banca rappresenti una buona proxi del portafoglio ottimale

di mercato cui comparare l’opportunità di investimento

disponibile. Indichiamo tale portafoglio che massimizza il

rischio rendimento con M e formalizziamo il CAPM come

segue:

E r r E r rf m f( ) ( )

[6.23]

ove rm identifica il mix delle attività bancarie.

La precedente relazione può essere riscritta:

E r rr r

rE r r

ossia

E r rE r r

r

r r

r

fm

m

m f

f

m f

m

m

m

( )cov( , )

( )( )

( )( )

( )

cov( , )

( )

[6.24]

ove

E(rm-rf)/(rm) = indice di Sharpe

Cov(r,rm)/(rm) = contribuzione marginale della attività al portafoglio ottimale per cui

R E r rE r r

r

r r

rEE f

m f

m

m

m

( ) ( )( )

( )

cov( , )

( )

[6.25]

La tangente al portafoglio ottimale M rappresenta la

market line, ove si colloca il set di opportunità che

forniscono il rendimento più alto per ogni livello di rischio.

Il valore di R(EE) esprime il di rendimento in eccesso e gli

asset che registrano il più elevato R(EE) sono quelle

maggiormente appetibili perché forniscono al portafoglio il

più alto rendimento rispetto alla medesima contribuzione di

rischio. Tale indicatore dipende quindi dalla misura dello

Sharpe ratio, di difficile utilizzazione operativa a causa

delle segmentazioni di mercato, delle differenti avversioni

342 Capitolo 6

al rischio per livelli di rischi diversi e non diversi. Tale misura esprime anche le opportunità di investimento in

grado di creare valore per l’azionista. Esso offre

informazioni sulle relazioni rendimento rischio e

correlazione con il portafoglio della banca: il set di

investimenti da selezionare sono quelli che a parità di

rendimento e rischio presentano un basso grado di

correlazione con il portafoglio di mercato; d’altra parte,

attività che presentano rendimenti più bassi e rischi più

bassi, ma livelli di correlazione più elevati, non risultano

essere appetibili.

6.3 Utilizzo delle misure VaR: criticità

Nonostante la generale diffusione ed accettazione della

metodologia VaR presso tutte le maggiori banche (ed il crescente

utilizzo anche in applicazioni corporate), vi sono diversi elementi

che dovrebbero essere tenuti in considerazione per evitarne un

utilizzo acritico. La stesso Comitato di Basilea suggerisce di gestire

la "non robustezza" del VaR con l'aggiunta di stress testing e con

politiche dei limiti. Vengono di seguito analizzate le principali

criticità che emergono nell’utilizzo delle misure VaR.

Sensitività di implementazione. Mentre l’impianto teorico

sottostante la metodologia VaR è abbastanza diretto e consente lle

diverse Risk Unit di utilizzare un linguaggio comune, l’i

implementazione di questa ha generato divergenze in merito alla

congruità dei risultati. Vi sono stati numerosi studi tendenti a

confrontare la bontà dei diversi modelli VaR64

su portafogli dalle

caratteristiche molto differenti ed è stata notata una forte variabilità

delle stime VaR (identificabile nel model risk) in relazione ai

parametri, al periodo di osservazione del campione, alle assunzioni

64 Cfr. ad esempio Hendricks D., Hirtle B. (1997) e Beder S.T. (1995), pp. 12-24. Nel suo

studio, Hendricks confronta 12 modelli VaR su 1000 portafogli valutari scelti in maniera random

utilizzando nove criteri di valutazione della bontà delle performance. Dall’analisi risultano

scostamenti di entità poco rilevante, in relazione anche alla semplicità del portafoglio utilizzato.

Beder ha invece applicato modelli di simulazione del tipo Storiche e MonteCarlo, differenti per i data

set e le correlazioni utilizzate con riferimento a 3 portafogli ipotetici composti rispettivamente di

titoli di debito, opzioni, e una combinazione dei due precedenti. L'autrice ha ottenuto risultati VaR

differenti per un fattore pari a 14 sul portafoglio più complesso.

Introduzione al Value at Risk per i rischi di mercato 343

sulle correlazioni tra strumenti di classi di asset, alla tecnica di mapping utilizzata. Il rischio di implementazione (implementation

risk) è più specifico: è riconducibile alle differenze nelle misure

VaR dovute, appunto, alle diverse modalità di implementazione

dello stesso modello sullo stesso portafoglio. Così il rischio di

implementazione può essere considerato "interno" al model risk65

.

Un modello formale (tipo RiskMetric) non potrà mai fornire una

descrizione completa e valida per ogni situazione a causa della

varietà potenzialmente infinita di strumenti finanziari e delle

diverse tecniche istituzionali e statistiche di ogni mercato. Così un

modello sarà sempre incompleto ed implicherà delle decisioni di

implementazione che sono fonte di variazioni nell'output. Questa

fattispecie di rischio dovrebbe essere considerata al fine di evitare

un utilizzo acritico del modello VaR: una condizione necessaria

nell'uso di ogni modello dovrebbe quindi fare riferimento ad una

quantificazione e limitazione del rischio implementazione, al fine

di consentire una più consistente comparazione tra intermediari.

Diversità di orizzonti temporali di riferimento e problemi di

armonizzazione. Il passaggio dalla semplice misurazione e

quantificazione dei rischi all’implementazione, comporta numerosi

problemi di tipo organizzativo e di selezione dell’unita temporale

cui la gestione del rischio deve fare riferimento, finalizzato, nel suo

stadio più evoluto, all'allocazione del capitale ed alla definizione di

limiti operativi per ogni unità di business.

Ogni unità infatti tende a misurare il VaR coerentemente con il

proprio orizzonte temporale di riferimento: le misure VaR per il

rischio di mercato hanno in genere un orizzonte giornaliero o

decadale. Di converso, le modellizzazioni del rischio di default o

del rischio di credito legate a variazioni nella matrice di transizione

delle probabilità di cambiamento dei rating66

, utilizzano

tipicamente un periodo di osservazione annuale, poiché la

frequenza di default o di cambiamento del merito di credito, di un

emittente o di un affidato, hanno un più lungo orizzonte temporale

rispetto al rischio di mercato. Aggregare questi differenti rischi in

65 Cfr. Marshall C. e Siege M. (1997), p. 92. 66 Queste modellizzazioni sono riferite alle due principali metodologie di assessment del rischio

di credito, individuabili rispettivamente nel modello Credit Plus (Credit Swiss First Boston) e

CreditMetrics (J.P.Morgan).

344 Capitolo 6

una singola misura VaR riferita ad un unico orizzonte temporale, persino assumendo che il rischio di credito e di mercato siano

indipendenti, può non fornire soddisfacenti indicazioni riguardo al

rischio globale cui l’intermediario è esposto. In particolare, le

ipotesi di indipendenza sono critiche: rischio di mercato e di credito

sono interrelati e dovrebbero essere valutati congiuntamente,

poiché una variazione di mercato ampia può influenzare il rischio

di credito di una posizione, così come una variazione nel merito di

credito di un emittente è correlata a variazioni nei valori di

mercato. Tuttavia, alcune istituzioni (ad es. Banker Trust) hanno

optato per un holding period annuale, per entrambe le aree dei

rischi di mercato e rischi di credito.

Tale scelta presuppone il cumulo dei rischi con orizzonte

temporale breve con quelli di lungo periodo, con effetti di

accentuazione del rischio dovuto alla non linearità delle posizioni

detenute. Una posizione in opzioni, come abbiamo già detto, è

caratterizzata dalla presenza di un effetto di secondo ordine nella

relazione tra fattore di rischio e valore di mercato per cui si

verrebbero a configurare situazioni anomale in presenza di uno

shock annuale.

L'armonizzazione dei diversi orizzonti temporali può avvenire in

modi diversi. Una prima modalità è quella, già vista, di scalare le

misure di volatilità giornaliera, tipiche dell'area finanza, mediante

la radice di T, valida sotto le ipotesi restrittive di indipendenza

seriale e le altre già analizzate.

Un'altra possibile soluzione è quella di calcolare la massima

perdita probabile sull'orizzonte di riferimento scelto per l'intera

istituzione (mensile, annuale) direttamente sulla base della serie

storica delle variazioni calcolate sull'orizzonte selezionato. Questo

evita la necessità di basarsi sull'ipotesi di indipendenza seriale, ma

si riduce la lunghezza, e quindi anche la significatività, della serie

storica proporzionalmente all'holding period ipotizzato, in quanto i

rendimenti vanno calcolati su periodi non-overlapping, al fine di

evitare di introdurre effetti di autocorrelazione. Ci si dovrebbe

basare quindi su serie storiche molto lunghe, purtroppo non sempre

disponibili.

Introduzione al Value at Risk per i rischi di mercato 345

La necessità di armonizzazione temporale delle misure VaR tra le diverse unità della banca, pur apparendo in letteratura di difficile

soluzione., è oggetto di alcune riflessioni.

E' importante, prima di qualsiasi aggregazione, quantomeno

stabilire gli holding period corretti per ogni area, che dovrebbero

essere individuati in funzione:

della tempestività con la quale è possibile effettuare il mark-

to-market delle posizioni assunte. I maggiori problemi si

hanno per il portafoglio di crediti immobilizzati, per i quali

non vi è una valutazione al mercato, ma sui quali

dovrebbero essere sviluppati meccanismi di valutazione

differenti dalla logica di contabilizzazione. Una banca potrà

avere una percezione dei rischi cui è esposta solo

monitorando di continuo l'insieme delle posizioni che

generano rischi;

della frequenza con la quale sono monitorate effettivamente le posizioni di ogni unità;

dei tempi ritenuti necessari per lo smobilizzo delle posizioni

67 che sono funzione sia della liquidità del

mercato, che della dimensione relativa delle posizioni

assunte.

In particolare, il problema della esatta considerazione delle

differenze di liquidità tra diversi mercati è un'ulteriore elemento di

criticità delle misure VaR.

Infatti, qualora si assuma una posizione su due titoli simili per

tipologia, scadenza, e con identica misura di VaR, ma negoziati su

due differenti mercati con diverso grado di liquidità, si rimarrà

esposti al rischio in misura differente, che il VaR da solo non riesce

ad individuare. I due titoli, con analoghe misure di VaR, non

presentano lo stesso livello di rischio a causa dei differenti tempi e

costi dì smobilizzo a fronte di situazioni avverse dei mercati.

67 Un possibile orizzonte di riferimento per il portafoglio crediti può essere individuato nei

tempi necessari alla strutturazione di una operazione di securitization. In Italia i tempi di riferimento

di operazioni di questo tipo possono ammontare a diversi mesi poiché la rarità di questo tipo di

operazione non consente di avere a disposizione un sufficiente numero di parametri per la loro

valutazione.

346 Capitolo 6

Una soluzione intuitiva, in tal senso, si ravvisa nella scelta di rapporto inverso tra liquidità della posizione ed holding period: ad

una maggiore illiquidità di una posizione, si fa corrispondere un

periodo di detenzione più lungo. E’ una scelta, però, che poggia su

ipotesi irrealistiche68

, in particolare, nel caso di un movimento

avverso, anche protratto per più giorni, difficilmente la posizione è

lasciata immutata, ma viene almeno progressivamente ridotta

anche considerando costi di transazione non nulli (costi nulli

vengono invece ipotizzati nel caso di semplice aumento

dell'holding period). Il costo dell'esposizione che residua man

mano che la posizione viene liquidata e i costi dì transazione

all'uopo sostenuti sono però legati da una relazione di trade-off.

Infatti, lo smobilizzo tempestivo della posizione dà luogo ad una

minore esposizione residua, ma genera maggiori costi di

transazione dovuti all'allargamento degli spreads che si registrano

nei momenti di tensione dei mercati.

6.4 I modelli interni ai fini della Vigilanza

6.4.1 Introduzione

La regolamentazione finalizzata ad incentivare il contenimento

del rischio attraverso l’introduzione di livelli minimi di patrimonio

si riconduce, nella sua formulazione originaria, all’Accordo del

15/7/1998, realizzato dal Comitato di Basilea per la Vigilanza

Bancaria. L’estensione della regolamentazione ai trattamenti di

rischi di mercato si è avuta con la direttiva europea 93/6 per

l’adeguatezza del capitale (CAD) e nell’Emendamento all’Accordo

sul capitale del Gennaio 1996.

I rischi di mercato, in generale, comprendono sia il rischio

generico che il rischio specifico. Il primo si riferisce a cambiamenti

nel valore di mercato degli strumenti di bilancio e fuori bilancio

risultanti da movimenti dei prezzi di mercato, come i cambiamenti

nei tassi di interesse e delle valute, nei prezzi delle azioni o delle

commodities. Il rischio specifico si origina per effetto di variazioni

nel valore di mercato delle singole posizioni da attribuirsi alla

68 Cfr. Sironi A. e Marsella M. (1997), op. cit., p. 478.

Introduzione al Value at Risk per i rischi di mercato 347

solvibilità dell’emittente. L’Emendamento prevede che i rischi in questione, possano essere misurati secondo due metodologie

alternative: il metodo cosiddetto standardizzato ed i modelli

interni. Il primo si basa sull’approccio del tipo building blocks,

secondo il quale i requisiti di capitale sono prima determinati

separatamente, mercato per mercato, con algoritmo standard per

ogni categoria di asset (tassi di interesse, azioni, valute, merci),

successivamente, sono sommati per determinare l’onere globale

relativo al rischio di mercato. Vi è da rilevare che gli organismi di

vigilanza riconoscono la possibilità di compensazione tra le

posizioni long e short, all’interno di una classe di asset, ma non tra

classi diverse. Questa scelta additiva sottende ad una visione molto

prudente del rischio da parte delle Autorità di Vigilanza, le quali

implicitamente assumono che ampi movimenti avversi di mercato

possono avvenire contemporaneamente in ogni classe di asset,

senza riconoscere peraltro i benefici della diversificazione dovuti

alle correlazioni tra le classi. Il metodo standardizzato utilizza,

inoltre, un sistema di ponderazioni che, benché basato

sull’esperienza storica e in funzione della volatilità dei rendimenti,

risulta invariato, non considerando l’evoluzione nel tempo delle

volatilità dei fattori di rischio.

L’introduzione di modelli proprietari per il controllo delle

esposizioni ai rischi di mercato, e la successiva conversione del

valore a rischio complessivo in requisito patrimoniale, rappresenta,

forse, l’innovazione più significativa nelle regole di vigilanza

prudenziale. Viene in tal modo ad instaurarsi, tra regulators ed

intermediari, una struttura contrattuale di delega, sottoposta a

condizioni che garantiscono la trasparenza e l’omogeneità di

trattamento tra i diversi delegati. Affinché il meccanismo di delega

funzioni, ossia influenzi e favorisca un comportamento degli

intermediari consono con gli obiettivi di vigilanza, la struttura del

contratto dovrebbe essere incentivante. Poiché lo scopo della

normativa di vigilanza è l’imposizione di dotazioni di capitale

continuamente proporzionale ai rischi assunti (conseguibile

unicamente tramite il monitoraggio continuo ed accurato degli

stessi), le nuove disposizioni costituiscono un incentivo generale

alla predisposizione di specifici sistemi di rilevazione e

modellizzazione dei rischi di mercato. Le Autorità di Vigilanza

348 Capitolo 6

hanno riconosciuto alle istituzioni finanziarie la possibilità di utilizzare propri modelli interni di valutazione di rischio,

individuando nella metodologia di Value at Risk l’impianto

quantitativo fondante dell’implementazione di questi modelli.

Al fine, però, di conciliare l’esigenza di mantenere la flessibilità

e l’integrità delle diverse modellizzazioni del rischio adottate

autonomamente dagli intermediari con la necessità di assicurare la

coerenza, la trasparenza e l’omogeneità dei requisiti patrimoniali

tra banche che utilizzano modelli diversi, la regolamentazione

definisce una serie di standard qualitativi e quantitativi che i

modelli devono possedere per poter essere utilizzati nella

determinazione del requisito patrimoniale.

La Banca d’Italia, con l’Aggiornamento dell’11 febbraio 2000

alla circolare n.229 del 21 aprile 1999, ha recepito nella normativa

interna, le innovazioni introdotte nella regolamentazione

internazionale sui requisiti patrimoniali di vigilanza69

. In

particolare, le principali modifiche inerenti i rischi di mercato

possono essere riassunte nei seguenti punti:

viene finalmente consentito alle banche, previo

riconoscimento (validazione) da parte delle Autorità di

Vigilanza, l’uso di modelli interni per il calcolo dei requisiti

patrimoniali sui rischi di mercato, in alternativa a modelli

standard troppo penalizzanti, al fine di incentivarle a dotarsi

di strumenti avanzati di misurazione e controllo dei rischi;

viene ampliata la metodologia standardizzata al fine di considerare anche il rischio di posizione su merci e di

introdurre nuovi criteri per la valutazione delle opzioni;

viene previsto l’obbligo di applicare il metodo del valore corrente per il calcolo del rischio di controparte su contratti

derivati su tassi di interesse e di cambio a partire da gennaio

2001.

Tralasciando, in questa sede, gli ultimi due punti, nella

circolare n. 229 è disciplinata la procedura per il

riconoscimento dei modelli interni da parte della Banca

69 Comitato di Basilea: Emendamento all’Accordo sul capitale per incorporarvi i rischi di

mercato del gennaio 1996. Unione Europea: direttiva 98/31/CE, direttiva 98/32/CE, direttiva

98/33/CE.

Introduzione al Value at Risk per i rischi di mercato 349

d’Italia per il calcolo dei requisiti patrimoniali sui rischi di mercato

70.

I modelli interni riconosciuti validi devono calcolare

l’esposizione quotidiana al rischio attraverso l’approccio del valore

a rischio, anche se la stessa Banca d’Italia richiede che le banche

continuino a misurare e controllare il rischio di mercato con

strumenti di misurazione di tipo tradizionale (ad esempio analisi di

sensitivity).

6.4.2 Procedura di riconoscimento

Le Autorità di Vigilanza riconoscono i modelli interni, quali

stimatori dei requisiti patrimoniali a fronte dei rischi di mercato,

subordinatamente alla verifica di specifici requisiti qualitativi di

tipo organizzativo e di requisiti quantitativi rappresentati dalle

condizioni minime di solidità e affidabilità statistica del modello

adottato. La procedura di riconoscimento, che comporta

un’approfondita analisi di tutti gli aspetti relativi al processo di

gestione dei rischi (operatività della banca sui mercati, assunzioni

statistiche del modello, sistemi informativi, modelli di pricing,

analisi delle performance aziendali su basi giornaliera, ecc.),

s’inquadra nell’attività di supervisione sulle banche, coerentemente

con l’approccio cartolare che negli ultimi anni ha privilegiato le

analisi e gli incontri settoriali. Nel concreto, è prevista una fase

preliminare di confronto con la banca, attraverso l’esame della

documentazione e lo svolgimento di incontri con i responsabili del

processo di gestione del rischio al fine di verificare la coerenza del

modello al dettato normativo e di richiedere alla banca tutte le

necessarie modifiche. Tale fase si conclude con la redazione di una

70 Tale disciplina normativa è suddivisa nelle seguenti sezioni:

Sezione I: “Disposizioni di carattere generale”.

Sezione II: “Procedura di riconoscimento”.

Sezione III: “Criteri per il riconoscimento del modello interno”.

Sezione IV: “Calcolo dei requisiti a fronte dei rischi di posizione su titoli, di cambio e di

posizione su merci”.

Sezione V: “Prove di stress”.

Banca d’Italia, (1999), Istruzioni di Vigilanza per le Banche, Circolare n. 229 del 21 aprile,

Titolo IV (Vigilanza regolamentare), Capitolo 3 (Requisiti patrimoniali sui rischi di mercato), Parte

Seconda (Modelli interni per il calcolo dei requisiti patrimoniali a fronte dei rischi di mercato).

350 Capitolo 6

relazione, nella quale si esprime un giudizio sulla idoneità della banca a presentare la domanda per il riconoscimento del modello.

La normativa prevede che tale procedura si sviluppi sulla base di

tre fasi.

a) Presentazione della domanda di riconoscimento del

modello.

b) Esame del modello.

c) Comunicazione dell’esito della domanda.

L’attività di validazione svolta dall’Authority, in definitiva, si

sostanzia nel verificare la conformità del modello a specifici

requisiti qualitativi di tipo organizzativo e quantitativi, indicati

nella normativa di vigilanza71

. I primi, in particolare, assumono nel

giudizio una rilevanza maggiore in quanto consentono,

immediatamente, di comprendere le reali intenzioni della banca di

dotarsi di un’efficace strumento di governo del rischio, che non sia

finalizzato esclusivamente alla misurazione, ma che concorra,

unitamente al management, alla creazione di valore per gli

azionisti. La normativa, più precisamente, stabilisce che la banca

possiede un sistema di gestione del rischio concettualmente

corretto, ed applicato in maniera esaustiva, quando sono soddisfatte

una serie di requisiti qualitativi. Da ciò si evince che la misurazione

del rischio rappresenta, nell’ottica della vigilanza, solo una prima

fase di un processo più complesso finalizzato, attraverso il

controllo ed il governo del rischio, all’assunzione, da parte del

management delle banche, di strategie di investimento consapevoli

del correlato profilo di rischio-rendimento.

6.4.3 Requisiti patrimoniali nell’ottica di Vigilanza

Le banche che utilizzano il modello interno devono soddisfare

un requisito patrimoniale corrispondente al maggiore tra i due

importi seguenti:

71 Per approfondimenti si veda l’appendice a questo capitolo.

Introduzione al Value at Risk per i rischi di mercato 351

la misura del valore a rischio (VaR) del giorno precedente;

la media delle misure del VaR giornaliero nei 60 giorni operativi precedenti, moltiplicata per un fattore non

inferiore a 3 (hysteria factor) eventualmente maggiorata

sulla base dei risultati dei test retrospettivi72

.

Per poter calcolare, tramite il modello, il requisito patrimoniale a

fronte del rischio specifico su titoli di debito (rischio idiosincratico)

le banche devono dimostrare che il modello sia in grado di:

spiegare la variazione storica dei prezzi nel portafoglio (una misura in grado di spiegare la variazione storica dei prezzi è

il valore della R2 di una regressione; in questo caso il

modello della banca dovrebbe essere in grado di spiegare

almeno il 90% della variazione storica dei prezzi o di

includere esplicitamente stime della variabilità dei residui

non catturati nei fattori della regressione)73

;

riflettere la concentrazione del portafoglio (il modello

interno della banca deve risultare sensibile alle variazioni

nella composizione del portafoglio in modo da prevedere

requisiti patrimoniali crescenti all’aumentare della

concentrazione del portafoglio);

resistere a una situazione sfavorevole (il modello interno della banca deve essere in grado di segnalare un rischio

crescente nel caso di situazione sfavorevole)74

;

72 Il moltiplicatore hysteria factor intende ovviare ad alcune debolezze dei modelli VaR:

esistenza di fenomeni di fat tails, high peaks, leptocurtosi e asimmetrie delle distribuzioni

dei fattori di rischio;

andamenti futuri delle volatilità e correlazioni diverse da quelle riscontrate in passato;

calcolo del VaR solo sulle posizioni di fine giornata;

incapacità del modello di cogliere nella maniera appropriata eventi di marcato di natura

eccezionale (shock);

utilizzo di ipotesi semplificatrici per il pricing degli strumenti. 73 Per i modelli per i quali non è possibile calcolare un indice della bontà di stima le banche

definiscono, insieme alla Banca d’Italia, misure di valutazione alternative. 74 Tale risultato, può essere ottenuto incorporando nel periodo di stima del modello almeno un

intero ciclo economico e assicurando che il modello si sia rivelato accurato nella fase discendente del

ciclo. Alternativamente, il risultato può essere ottenuto attraverso una simulazione delle situazioni

storicamente o probabilisticamente peggiori.

352 Capitolo 6

essere convalidato da test retrospettivi volti a verificare che il rischio specifico sia valutato in modo adeguato.

Inoltre, le banche devono dimostrare di essere in possesso di

metodologie idonee a valutare adeguatamente il rischio di evento e

di inadempimento per le posizioni in titoli di debito e in titoli di

capitale. Qualora la banca non sia in grado di fornire tale

dimostrazione, il requisito patrimoniale dovrà includere una

maggiorazione. Per la determinazione di tale maggiorazione viene

effettuato un calcolo analogo a quello utilizzato per il modello per

il rischio generale di mercato, nel caso in cui quest'ultimo non

abbia superato i test retrospettivi. In particolare, alla misura del

rischio specifico calcolata dalla banca sulla base del proprio

modello viene applicata una maggiorazione pari a 1 (che si

aggiunge al fattore moltiplicativo di 3)75

.

75 Al momento, non sono conosciuti nell’industria bancaria nazionale e internazionale modelli

in grado di misurare, per le poste del portafoglio non immobilizzato, il rischio di evento e di default.

Pertanto ci si concentra sul solo rischio idiosincratico, dando quindi per scontato che il

riconoscimento di un modello che colga tale rischio sia comunque accompagnato dall’applicazione

della maggiorazione per il rischio di evento (fattore di maggiorazione pari a 1).

Per quanto riguarda il rischio specifico su titoli di capitale, nell’approccio Capital Asset Pricing

Model (CAPM) viene identificato come componente residuale, analiticamente: ifmfi eRRRR

imi eRR 222

dove:

Ri rappresenta il rendimento del titolo di capitale i-esimo.

Rf rappresenta il risk free rate (in genere il rendimento dei titoli di stato ad un anno).

rappresenta il grado del rischio sistematico del titolo azionario i-esimo.

(Rm - Rf ) rappresenta il premio al rischio. ei rappresenta lo scarto.

2(Ri) rappresenta la volatilità del titolo azionario i-esimo (rischio complessivo)

2(ei) rappresenta la volatilità dello scarto (rischio specifico).

Quando invece si utilizza come fattore di rischio le variazioni di prezzo del singolo titolo la

componente individuale di rischio è incorporata nella misura di rischio. L’identificazione della

componente di rischio specifico rispetto al rischio generico avviene attraverso l’ausilio di un modello

CAPM, in base al quale

imi eRR 222

Per quanto concerne invece il rischio specifico per i titoli di debito, questo è rappresentato dallo

spread risk. Tipicamente riguarda i titoli corporate con spread creditizio. Questa componente non è

stata ancora validata a causa di una serie di problemi:

- le quotazioni individuali dei titoli non sono sempre disponibili e spesso poco significative;

- necessario lavoro sui dati individuali per raggrupparli (per classi di rating, settore, ecc);

- problema di disomogeneità dei dati;

- la costruzione di curve di spread non è cosi immediata come per titoli government (non è

applicabile il bootstrapping), si rende quindi necessario utilizzare tecniche di interpolazione;

- difficoltà di individuare la natura del rischio (idiosincratico, di evento, di categoria, residuale);

- forte componente di rischio creditizio.

Introduzione al Value at Risk per i rischi di mercato 353

Analiticamente il requisito patrimoniale calcolato con il modello interno è dato dalla seguente formula:

[6.26] dove:

Ct è il requisito patrimoniale al giorno t.

VaRt-i è il valore a rischio calcolato secondo il modello per il

portafoglio detenuto al giorno t-i.

t è il fattore moltiplicativo, non inferiore a 3 (eventualmente

aumentato a seguito del backtesting).

t rappresenta il fattore moltiplicativo, che varia in relazione

all'adeguatezza del modello interno a calcolare il rischio di evento

o di inadempimento. Tale fattore assume valore 0 oppure 1 a

seconda che la banca dimostri o meno di essere in grado di valutare

adeguatamente tale rischio. Al massimo, quindi, il fattore

moltiplicativo (t + t) può assumere un valore pari a 4.

RSMt-i è l'ammontare di capitale destinato alla copertura dei rischi

specifici degli strumenti finanziari sul portafoglio detenuto il

giorno t-i, calcolato secondo il modello interno.

Ai fini del calcolo della maggiorazione per il rischio specifico, il

fattore moltiplicativo può essere applicato dalla banca a due misure

alternative di valore a rischio (RSMt-i):

la parte di rischio specifico della misura del VaR che

dovrebbe essere isolata conformemente alle norme di

vigilanza76

;

le misure del VaR di subportafogli di debito o di posizioni in titoli di capitale che contengono un rischio specifico.

76 In particolare, per i titoli di capitale, il sistema di misurazione dovrebbe impiegare un fattore

di rischio distinto per ciascuno dei mercati mobiliari nei quali la banca detiene posizioni significative;

mentre per i titoli di debito, il modello dovrebbe incorporare i fattori di rischio relativi ai tassi

d’interesse di ciascuna valuta nella quale la banca detenga posizioni, iscritte in bilancio o fuori

bilancio, che costituiscano un’esposizione al rischio di tasso d’interesse.

60

1

60

1

i-t11-t60

1*VaR

60

1*,*max

i

itt

i

tttt RSMRSMVaRC

354 Capitolo 6

Le banche che utilizzano la seconda opzione individuano la loro struttura di subportafogli e la comunicano alla Banca d’Italia. La

banca che intende modificare tale struttura chiede l’autorizzazione

della Banca d’Italia, la quale si pronuncia entro i 30 giorni

successivi alla richiesta; il termine è sospeso nel caso di richiesta di

informazioni aggiuntive.

Le banche possono utilizzare una combinazione tra metodologia

standardizzata e modello interno a condizione che ciascuna

categoria generale di rischio sia valutata sulla base di un unico

approccio (modelli interni o metodo standardizzato) e che tutti gli

elementi del rischio di mercato siano misurati77

. In particolare:

I coefficienti patrimoniali calcolati in base al metodo

standardizzato e ai modelli interni dovranno essere

aggregati mediante sommatoria semplice.

Le banche che usano modelli interni solo per alcune categorie di rischio dovranno estendere quanto prima i loro

modelli a tutti i rischi di mercato cui sono esposte.

La banca che abbia adottato uno o più modelli interni non può chiedere di tornare a utilizzare la metodologia

standardizzata per la misurazione dei rischi già valutati

mediante tali modelli.

Le banche possono chiedere alla Banca d'Italia di

modificare la combinazione dei due approcci solo nel senso

di un maggiore utilizzo del modello interno. Qualora la

Banca d'Italia non sollevi obiezioni alla modifica nei 60

giorni successivi alla comunicazione, la banca può

utilizzare la nuova combinazione per il calcolo dei requisiti

patrimoniali; il termine è sospeso nel caso di richiesta di

informazioni aggiuntive.

Nel caso in cui la banca adotti una combinazione che preveda il calcolo del rischio specifico di posizione su titoli

secondo la metodologia standardizzata, il requisito

patrimoniale è definito dalla seguente formula78

:

77 Per categoria generale di rischio si intende uno dei rischi per i quali è definito uno specifico

requisito patrimoniale. 78 Si ipotizzi che in data 14 giugno 2002 si abbia un portafoglio composto di azioni con i

seguenti valori di mercato di cui si intende calcolare il requisito patrimoniale per il rischio di

Introduzione al Value at Risk per i rischi di mercato 355

1

60

160

11

ti

itt RSSVaR*,VaRmaxCt [6.27]

dove:

Ct è il requisito patrimoniale al giorno t.

VaRt-i è il valore a rischio calcolato secondo il modello per il

portafoglio detenuto al giorno t-i.

t è il fattore moltiplicativo, non inferiore a 3.

RSSt-1 è l’ammontare supplementare di capitale per la

copertura dei rischi specifici degli strumenti finanziari sul

portafoglio detenuto il giorno t-i, calcolato secondo la

metodologia standardizzata.

Il calcolo del VaR deve essere effettuato su base giornaliera e

deve prevedere un intervallo di confidenza unilaterale del 99 per

cento ed un periodo di detenzione pari a 10 giorni79

.

Inoltre, il periodo storico di osservazione, per il calcolo dei

parametri di volatilità e correlazioni, deve riferirsi ad almeno un

anno precedente, tranne nel caso in cui un aumento improvviso e

significativo delle volatilità dei prezzi giustifichi un periodo di

posizione generico. In particolare, in tale data i valori per le singole azioni e per il portafoglio

complessivo sono dati da:

MTM VaR95%

14 giugno 2002

VaR95%

media ultimi 60 giorni

Max VaR99%,

(VaR95% * 2,33/1,645)

Telecom SpA 840.379 30.618 35.947 48.086

BNL SpA 816.385 32.249 36.207 51.496

FIAT SpA 807.855 33.602 37.425 47.707

Portafoglio 2.464.619 80.632 86.517 122.643

Il requisito patrimoniale per il rischio di posizione generico, calcolato sulla base del modello

interno, risulta essere quindi compreso 367.928 euro (fattore moltiplicativo pari a 3) e 490.570 euro

(fattore moltiplicativo pari a 4) a seconda del giudizio formulato dalla vigilanza sulla rispondenza del

modello ai requisiti qualitativi e quantitativi determinati. Il requisito patrimoniale per il rischio di

posizione specifico, determinato con la metodologia standard, è dato dalla seguente formula:

requisito di vigilanza = [|posizione lunghe| + |posizione corte|] * 8%

Nell’ipotesi analizzata è pari a 197.110 euro (2.464.619 * 8%).

Quindi il rischio di posizione complessivo (generico + specifico) è dato dalla somma dei due

valori. 79 La scelta di richiedere un holding period di 10 giorni è stata una scelta di compromesso. Si è

voluto mediare tra i diversi gradi di liquidità dei mercati su cui vengono negoziati i valori mobiliari.

Alcuni, quelli più liquidi, consentirebbero la chiusura delle posizioni anche prima di 10 giorni,

mentre per altri si pone esattamente il problema opposto.

356 Capitolo 6

osservazione più breve80

. Per le banche che impiegano sistemi di ponderazione, il periodo di osservazione può risalire ai 6 mesi

precedenti in termini di media ponderata (possibilità di applicare

fattori di decadimento in maniera di dare maggiore rilevanza ai dati

più recenti).

Le serie di dati utilizzate devono essere aggiornate con

frequenza almeno trimestrale. Le banche procedono ad

aggiornamenti più frequenti ogniqualvolta le condizioni di mercato

mutino in maniera sostanziale.

Per il calcolo del VaR, le banche possono utilizzare correlazioni

empiriche nell'ambito della stessa categoria di rischio e fra

categorie di rischio distinte. La Banca d'Italia accerta che il metodo

di misurazione delle correlazioni della banca sia corretto e

applicato in maniera esaustiva.

Per quanto riguarda le “analisi retrospettive” (c.d. backtesting)

la normativa richiede che venga effettuato un test che metta a

confronto il VaR, calcolato secondo il modello interno, con la

variazione effettiva del portafoglio, al fine di verificare che le

misure di rischio elaborate dalla banca al 99° percentile coprono

effettivamente il 99% dei risultati di negoziazione, ossia, in termini

statistici, che la percentuale osservata dei risultati economici il cui

valore è inferiore al VaR sia conforme al livello di confidenza del

99%. Peraltro, è richiesto espressamente dalla vigilanza, che il

risultato reddituale possa essere disaggregato per portafogli al fine

di consentire anche lo svolgimento di backtesting per fattori di

rischio. Il test cosi strutturato, però, pone a confronto due

grandezze tra loro disomogenee. Infatti, la misura di rischio

considerata esprime il rischio del portafoglio al tempo 0, mentre il

dato reddituale effettivo posto a confronto è calcolato tenendo

conto delle posizioni al tempo 1 e di altre componenti (quali

l’operatività intraday, ecc.). Il confronto è quindi alterato in quanto

la misura di rischio e la componente reddituale non sono stimati in

riferimento a due portafogli omogenei. Si rende quindi necessario

conciliare le caratteristiche del risultato reddituale gestionale con

80 Il periodo di un anno è ritenuto sufficientemente lungo da ricomprendere shock di mercato

significativi. Il problema, in genere evidenziato dalle banche, è che esso non rende il VaR abbastanza

sensibile ai dati più recenti.

Introduzione al Value at Risk per i rischi di mercato 357

quello utilizzabile ai fini della validazione81

. Stante la difficoltà di riconciliazione dei due risultati reddituali, la stessa Autorità di

Vigilanza può richiedere di effettuare un secondo tipo di test

retrospettivo sulla base di variazioni ipotetiche del valore del

portafoglio, calcolate mantenendo invariate le posizioni di fine

giornata. Tale test valuta, in maniera più rigorosa dal punto di vista

statistico, la capacità previsionale del modello ponendo a confronto

due grandezze calcolate entrambi sulla stessa composizione di

portafoglio82

. La formula per il calcolo dei requisiti patrimoniali

prevede un fattore moltiplicativo (hysteria factor) almeno pari a 3

da applicare al VaR stimato col modello interno. In funzione del

numero degli scostamenti83

– registrati nell’arco di 12 mesi – si

applica un diverso fattore di maggiorazione, riportati nella tabella

seguente, che si aggiunge al fattore moltiplicativo 384

.

Tabella 6.4 - Fattori di maggiorazione.

Numero di scostamenti Fattore di maggiorazione

meno di 5 0,00

5 0,40

6 0,50

7 0,65

8 0,75

9 0,85

10 o più 1,00

La banca deve notificare prontamente alla Banca d’Italia gli

scostamenti risultanti dal programma di test retrospettivi che hanno

81 In particolare, dal risultato reddituale gestionale vanno escluse le seguenti voci:

- commissioni pagate;

- costo del finanziamento;

- operazioni aperte e chiuse nel corso della giornata (operatività intraday);

- operazioni aperte nel corso della giornata;

- cedole maturate (accrual);

- tutte le componenti reddituali che non riguardano il trading book (operazioni di tesoreria che

riguardano il banking book, ecc.). 82 Sebbene del disposto normativo si legge che la vigilanza riconosca pari dignità ai due test

menzionati, in realtà sembrerebbe che attribuisca maggior rilevanza al test di secondo tipo anche se il

test con il reddito effettivo non va trascurato dal momento che mostra il rapporto tra il VaR (sulla

base del quale viene calcolato il requisito patrimoniale) e il reddito effettivamente realizzato dalla

banca quel giorno. 83 Si ha uno scostamento quando la variazione effettiva del valore del portafoglio supera il VaR

calcolato secondo il modello interno. 84 I risultati sono riferiti ad un periodo di osservazione pari a 250 giorni.

358 Capitolo 6

determinato l’aumento del fattore di maggiorazione; peraltro la stessa banca può richiedere all’organo di vigilanza l’esonero dalla

correzione del fattore di moltiplicazione, qualora lo scostamento sia

imputabile a fattori eccezionali.

Quando il numero degli scostamenti risulta essere eccessivo, la

Banca d’Italia può imporre misure correttive al modello al fine di

ottenere una stima del rischio più attendibile. Qualora, nonostante

tali correttivi, il modello produca un numero di scostamenti

superiore a quello atteso, l’organo di vigilanza può revocare il

riconoscimento del modello interno.

La normativa prevede che la Banca d’Italia, pur in caso di

validazione del modello, possa indicare gli eventuali punti non

pienamente conformi con gli standard richiesti e fissare di

conseguenza un requisito patrimoniale aggiuntivo (ulteriore

rispetto all’hysteria factor e alla maggiorazione dovuta dall’esito

del backtesting). La regolamentazione è basata su un sistema di

incentivi, nel senso che tale ulteriore requisito, per il quale non è

stabilito alcun limite minimo o massimo, viene ridotto qualora la

banca abbia rimosso le criticità.

In definitiva, le tre aree che concorrono a determinare il giudizio

sul modello e, quindi, il requisito aggiuntivo sono:

organizzazione e processi di controllo del rischio;

modello di calcolo del rischio;

sistemi informativi. Nella valutazione delle tre aree la vigilanza tiene conto

anche dell’affidabilità dell’attività di internal audit svolta

sull’intero processo di risk management85

.

85 Oltre al requisito aggiuntivo possono essere attivati altri meccanismi compensativi di natura

procedurale-organizzativa che consentono di mantenere sotto controllo il processo di assunzione dei

rischi. Vi è una sorta di trade-off tra criteri quantitativi e qualitativi. Ad esempio eventuali punti

critici del sistema di misurazione dei rischi potrebbero essere ritenuti compensati da un più accurato e

rigoroso sistema di limiti operativi che scenda in profondità nella gestione della banca.

Introduzione al Value at Risk per i rischi di mercato 359

6.4.4 Per una vigilanza incentive-compatible nello sviluppo dei

modelli interni

Il fattore di moltiplicazione è calibrato dalle Autorità di Vigilanza

in funzione della bontà del modello interno valutata con i test

retrospettivi: minore è il numero di “eccezioni” realizzate più

vicino a tre sarà l’elemento moltiplicativo e, quindi minore, sarà il

conseguente requisito di patrimonializzazione. Si fa notare che

l’attuale schema di graduazione del fattore di moltiplicazione può

generare effetti perversi nel comportamento degli intermediari,

rispetto al miglioramento dei modelli proprietari di stima del

rischio. Il contratto implicito tra organo di controllo e soggetto

vigilato prevede, infatti, la possibilità di utilizzare i modelli solo se

questi dimostrano una adeguata capacità di stimare il rischio, in

caso contrario deve esistere un meccanismo di penalizzazione

credibile, disincentivante rispetto all’adozione di modelli

inadeguati. Questo meccanismo è individuato dall’attuale

normativa in una graduazione del fattore di moltiplicazione FM(v),

in funzione del numero v di violazioni realizzate rispetto al VaR

previsto nel modello interno. Il requisito di capitale (RCrm), a

fronte del rischio di mercato, è allora esprimibile come segue:

RCrm VaR T FM v VaR T RSt t

i

t t

1

0

59

1

1

60max ( , ); ( ) ( , )

[6.28]

dove FM(v) è il fattore di moltiplicazione, variabile tra 3 e 4 a

seconda della bontà del modello; VaR(T,) indica il VaR decadale

su un intervallo di confidenza (100-) con = 1; infine RSt è un onere di capitale addizionale a fronte del rischio specifico di

portafoglio86

. Il requisito patrimoniale cui l’intermediario dovrà far

fronte su base giornaliera sarà così pari al maggiore tra le due

quantità in parentesi, ossia al massimo tra il requisito dedotto dal

86 Nel settembre 1997 l’Amendment è stato integrato per tener conto del rischio specifico di

strumenti legati ad azioni e tassi di interesse, consentendo alle banche che già soddisfano i requisiti

quali-quantitativi di calcolo del rischio generale di mercato, di utilizzare i modelli proprietari anche

per il calcolo del rischio specifico, sottoposti ad un ulteriore set di condizioni. Cfr. Basle Committee

on Banking Supervision di Basilea “Modifications to the Market Risk Amendment” Banca dei

Regolamenti Internazionale, settembre, 1997.

360 Capitolo 6

valore a rischio del giorno precedente e quello calcolato sulla media del VaR degli ultimi 60 giorni, maggiorato del fattore

moltiplicativo FM(v). In questo modo, si ottempera sia all’esigenza

di considerare giorni di particolare rischiosità del portafoglio, sia a

quella di mantenere una stabilità dei requisiti patrimoniali, grazie

all’effetto della media. L’effetto dell’elevato fattore di

moltiplicazione FM(v), comunque, fa si che il requisito

patrimoniale venga calcolato essenzialmente in base al secondo

elemento in parentesi. FM(v), nelle previsioni di Amendment, varia

da un minimo assoluto di 3 ad un massimo di 487

(quest’ultimo

valore maggiorabile a discrezione delle singole Autorità di

Vigilanza nazionali). Il Comitato di Basilea ha sottolineato come il

fattore di add-on compreso tra 0 ed 1 fornisca un incentivo alla

costruzione di modelli VaR più accurati: minore è il numero delle

eccezioni realizzate (ossia il numero di volte nelle quali la perdita

effettiva realizzatasi sul portafoglio è maggiore di quanto previsto

nel modello VaR), più vicino a tre sarà l’elemento moltiplicativo e,

quindi, minore il conseguente requisito di patrimonializzazione. Si

vuole qui rilevare, tuttavia, come la struttura dell’incentivo sia

completamente dominata dalla componente fissa pari a tre, la quale

elimina qualsiasi vantaggio potenziale di raggiungere un grado di

precisione del modello tale che l’add-on sia pari a 0.

A tal fine potrebbe ritenersi utile individuare un valore di

indifferenza del fattore di moltiplicazione tra il VaR corrispondente

all’approssimazione normale e il VaR calcolato con un metodo più

sofisticato: questo valore indica il fattore di moltiplicazione Fm(i)

da applicare al metodo semiparametrico affinché i due metodi siano

indifferenti rispetto al requisito di capitale generato.

Posto.

)v(FMVaRRC

)v(FMVaRRC

i)V()V(rm

)N()N(rm

10

10

[6.29]

87 Tale incremento dipende dai risultati dei test retrospettivi e dal conseguente posizionamento

sulle tre zone di classificazione dell’accuratezza del modello.

Introduzione al Value at Risk per i rischi di mercato 361

dove RCrm(N) rappresenta il requisito di capitale corrispondente all’approssimazione normale ed RCrm (v) il requisito

corrispondente all’utilizzo di un metodo alternativo. Uguagliando

le due espressioni ed esprimendole in funzione di FMi(v) si ha

FMi(v)=FM(v)*VaR(N)/VaR(v) [6.30]

ove il rapporto tra le due stime VaR fornisce il fattore di scala da

applicare all’FM(v) per ottenere il fattore di moltiplicazione di

indifferenza. Supponendo che VaR(N) sia eguale a 4,1 e VaR(v) a

5,4, FMi(v) è pari a 2,3 che è significativamente minore a 3. Nello

schema descritto, l’onere di capitale benchmark a fronte del rischio

di mercato è quello individuato con l’utilizzo della distribuzione

normale, ma il fattore di moltiplicazione minimo è in funzione

dell’utilizzo di metodi migliori della normale.

Secondo l’approccio di Vigilanza, ogni metodo di valutazione, per

quanto accurato, poiché comporta stime più elevate della massima

perdita probabile (in % anche non ampie) rispetto ad un modello

più approssimato, non risulta conveniente alla banca di

implementarlo ai fini dei requisiti patrimoniali. L’onere massimo

dell’imprecisione è solo del 33% rispetto all’onere minimo del

capitale, per cui è plausibile ipotizzare che l’intermediario

preferisca la comminazione di una pena da parte della vigilanza,

piuttosto che sopportare immediatamente un aggravio del livello di

patrimonio adeguato ai nuovi rischi stimati dal VaR.

Le considerazione esposte possono essere ulteriormente affinate

considerando l’avversione al rischio dell’organo di Vigilanza..

Riscrivendo il fattore di proporzionalità:

a

)V()N(

)V(

)N(VaR*VaR

VaR

VaR [6.31]

dove l’esponente a, finora considerato implicitamente pari a 1,

esprime l’avversione al rischio dell’organo di Vigilanza. Per valori

di a maggiori di 1 si osserva una diminuzione dell’onere del

capitale rispetto a quello calcolato con shift semplice. Un livello

più elevato di a implica una minore avversione al rischio da parte

dell’organo di Vigilanza. Poiché il fattore Fmi(v) è minore del suo

362 Capitolo 6

valore di indifferenza, il requisito di capitale in corrispondenza di metodologie VaR più esatte risulterà minore. Per una corretta

applicazione occorre stabilire una relazione funzionale tra il

numero di exceptions (ossia il numero di volte, nell’orizzonte

temporale di riferimento dei test retrospettivi, nelle quali la perdita

effettiva registrata sul portafoglio è maggiore rispetto alla massima

perdita probabile prevista nel modello proprietario) ed i valori

dell’esponente. L’individuazione di queste relazioni potrebbe

essere oggetto di un ulteriore approfondimento.

6.4.5 Prove di stress

La natura statistica del VaR e le approssimazioni semplificatrici

adottate dalle banche, nell’implementare i modelli di calcolo,

hanno convinto le Autorità di Vigilanza ad imporre, quale misura

di controllo del rischio complementare al VaR, un adeguato e

completo programma di prove di stress per il presidio di eventi e

fattori che potrebbero incidere gravemente sulla posizione della

banca. Tali prove, che vanno condotte periodicamente al fine di

cogliere i mutamenti nel profilo di rischio del portafoglio, devono

essere comunicati regolarmente all’alta direzione e,

periodicamente, al consiglio di amministrazione. Gli scenari di

stress utilizzati, devono contemplare un’ampia gamma di fattori in

grado di generare perdite e guadagni straordinari nei portafogli di

negoziazione o di rendere particolarmente difficoltoso il controllo

dei rischi. Fra tali fattori rientrano eventi a bassa probabilità

concernenti tutte le principali fattispecie di rischio, ivi incluse le

varie componenti dei rischi di mercato, di credito e operativi. Gli

scenari di stress devono poter mettere in evidenza l'impatto di

questi eventi sulle posizioni con caratteristiche di prezzo sia lineari

che non lineari (ad esempio opzioni e strumenti con

comportamento analogo). Le prove di stress, devono essere di

natura sia quantitativa sia qualitativa e contemplare tanto il rischio

di mercato quanto gli effetti di liquidità generati da turbative di

mercato. La normativa individua due tipologie di prove di stress

a) Prove di stress definite dalla Banca d’Italia;

Introduzione al Value at Risk per i rischi di mercato 363

Prove che non richiedono simulazioni da parte delle banche. Al fine di consentire alla Banca d’Italia di

valutare quanti giorni di perdite massime sarebbero

coperti da una data stima del valore a rischio, le banche

comunicano alla Banca d’Italia i dati sulle perdite più

elevate subite durante il periodo di segnalazione. Questi

dati vengono raffrontati con la copertura patrimoniale

derivante dal modello interno della banca in modo da

valutare la capacità del patrimonio di vigilanza di

assorbire ingenti perdite potenziali.

Prove che richiedono simulazioni da parte delle banche.

Le banche sottopongono i propri portafogli a vari scenari di stress simulati e forniscono i relativi risultati

alla Banca d'Italia. Si tratta di prove volte ad

evidenziare le specificità dei singoli portafogli.

Un primo tipo di scenario, comprende periodi passati di

forte perturbazione tenendo conto sia degli ampi

movimenti di prezzo sia della forte riduzione della

liquidità che si è accompagnata a questi eventi

(historical scenarios).

Un secondo tipo di scenario misura la sensibilità dell'esposizione ai rischi di mercato a determinate

variazioni nei parametri presuntivi di volatilità e

correlazione (historical volatility scenarios).

La normativa non prevede che le prove di stress riguardino scenari standard, anche se ciò sarebbe utile

per confrontare i risultati nel tempo

b) Prove di stress condotte dalle singole banche

Al fine di cogliere le specificità del proprio portafoglio,

ciascuna banca deve individuare situazioni di stress che essa

considera massimamente sfavorevoli. Tali prove dovrebbero

essere effettuate sia a livello di portafoglio complessivo sia a

livello di singoli desk o per fattori di rischio. Le banche

forniscono alla Banca d'Italia una descrizione della

metodologia impiegata per definire e testare gli scenari di

stress e dei risultati ottenuti. Gli scenari dovrebbero descrivere

situazioni straordinarie di mercato ma al tempo stesso risultare

364 Capitolo 6

plausibili88

. La selezione degli scenari deve tener conto del profilo di rischio della banca e delle assunzioni semplificatrici

previste dal modello di calcolo del VaR.

I risultati dei test sono periodicamente riesaminati dall'alta

direzione della banca e devono trovare riflesso nelle linee

operative e nei limiti di esposizione fissati dall’alta direzione e

dal consiglio di amministrazione. Inoltre, se tali risultati

indicassero una particolare vulnerabilità di fronte ad una data

serie di circostanze, la banca sarebbe tenuta ad adottare idonee

misure per gestire adeguatamente i rischi.

Le banche devono combinare le prove di stress definite

dalla Banca d'Italia con quelle da loro elaborate in funzione

alle caratteristiche delle proprie posizioni aperte al rischio e

delle proprie aspettative circa l’evoluzione dei fattori di rischio

rilevanti.

88 Alcune delle tipologie più diffuse di prove di stress, anche a livello internazionale, sono quelle

di seguito riportate:

- movimenti paralleli della curva dei tassi d’interesse;

- cambiamenti di inclinazione della curva dei tassi;

- combinazione dei primi due scenari (cambiamento forma curve);

- cambiamenti delle correlazioni tra curve dei tassi diverse (per divisa);

- mutamenti della volatilità e del livello degli indici dei mercati azionari;

- mutamenti della volatilità e del valore dei principali tassi di cambio;

- mutamento delle correlazioni fra i principali fattori di rischio.

7

Introduzione alle metodologie

di misurazione del rischio di

credito

7.1 Dall’eliminazione alla gestione del rischio di credito – 7.2 Il rischio di

credito nella gestione bancaria – 7.3 Gli elementi caratterizzanti del rischio di

credito – 7.4 La probabilità di default – 7.4.1 La definizione dello stato di

insolvenza – 7.4.2 La scelta dell’orizzonte temporale di riferimento – 7.5 Il

tasso di perdita in caso di insolvenza – 7.5.1 Fattori che determinano il tasso

di perdita in caso di default – 7.5.2 Metodi di stima della LGD: cenni – 7.5.3

La distribuzione della LGD: la Beta – 7.5.4 Modello LossCalc di Moody’s-

KMV: cenni – 7.6 La valutazione dell’esposizione a rischio di default – 7.7 La

perdita attesa e inattesa della singola esposizione – 7.8 Limiti e problemi

dell’approccio binomiale. L’approccio multinomiale – 7.9 Dalla perdita della

singola esposizione alla perdita di portafoglio – 7.10 La distribuzione delle

perdite ed il capitale economico – Appendici al Cap. 7 – Appendice 7.A.

Probabilità di default e time horizon: aspetti formali – Appendice 7.B. La

distribuzione Beta – Appendice 7.C. Derivazione di ULMCi.

7.1 Dall’eliminazione alla gestione del rischio di credito

Il sistema bancario italiano si è storicamente caratterizzato per

un peculiare atteggiamento nelle modalità di assegnazione dei

giudizi di affidamento e nelle politiche dei prestiti, connotato da

due fondamentali linee.

La prima si può individuare nell’onerosa e spesso ingiustificata

richiesta di garanzie reali o personali ai soggetti richiedenti

l’affidamento. Secondo quest’approccio il ”buon” prenditore era

colui il quale fosse disposto ad offrire idonee malleverie, a

prescindere dalla sua solidità patrimoniale o dalla bontà del

progetto da finanziare.

408 Capitolo 7

La seconda si sviluppa con la prassi dei fidi multipli, caratterizzati da un frazionamento spinto del portafoglio

commerciale.

I due approcci, pur comportando una forte inefficienza a livello

di sistema, hanno consentito alle banche di operare in condizioni di

relativa stabilità. Essi hanno anche fortemente sminuito la capacità

del management bancario italiano di valutare progetti e prenditori.

L’accrescimento della competitività nel mercato del credito, a

seguito dell’introduzione dell’euro, ha inciso negativamente su

questo sistema protetto, riducendo gli spread nei tassi attivi e nei

margini di profitto e spingendo le banche ad assumere un

atteggiamento più aggressivo. D’altra parte, la scarsa capacità del

management bancario di selezionare e di monitorare le linee di

credito ha, tuttavia, prodotto un forte deterioramento della qualità

con un aumento sensibile delle sofferenze.

Tali circostanze hanno indotto gli intermediari ad implementare

idonei modelli e procedure in grado di fronteggiare la maggiore

incertezza che caratterizza il mutato contesto competitivo del

mercato finanziario e del credito, consentendo di valutare in

maniera più accurata ed efficiente le condizioni di rischiosità degli

impieghi.

A questo processo evolutivo non sono ovviamente estranee le

Autorità di Vigilanza, che, a partire dalla fine degli anni novanta,

hanno avviato un processo di riforma fortemente innovativo degli

accordi esistenti, che consentirà una più sensibile misurazione e

allocazione del capitale rispetto all’effettivo rischio di credito,

riconoscendo a livello istituzionale la validità dei giudizi espressi

per mezzo di sistemi di rating. In prospettiva, gli intermediari

faranno ricorso a un sistema di valutazione del giudizio di

affidabilità espresso, non più in “forma argomentata” e con

modalità dicotomica, ma attraverso misure multidimensionali in

grado di catturare le diverse variabili che su queste incidono.

Sul piano organizzativo, il fenomeno delineato porterà le

istituzioni creditizie a dotarsi al loro interno di opportune entità

organizzative, quali sistemi di CRM (Credit Risk Management),

caratterizzate da un complesso delle risorse umane, tecniche e

informatiche, finalizzate alla misurazione e gestione del rischio di

credito ed alla allocazione efficiente del capitale d’impresa.

Il rischio di credito 409

La novità più importante di tale cambiamento, che da alcuni viene definito epocale, sta forse nel mutato habitus mentale dei

credit manager nei confronti del rischio. Se in passato il rischio era

concepito come un fattore critico da individuare ed eliminare, oggi

è considerato come una variabile da misurare e gestire.

7.2 Il rischio di credito nella gestione bancaria

La letteratura sul rischio di credito è multidisciplinare, poiché si

avvale sia dell’economia aziendale, che di metodologie, tecniche e

strumenti quantitativi. L’analisi del rischio di credito può svolgersi,

come mostrato nella Fig. 7.1, lungo tre direttrici che individuano:

a) la delimitazione dell’oggetto e l’individuazione delle

variabili-chiave esplicative;

b) la valutazione dell’impatto sulla struttura organizzativa;

c) lo sviluppo e l’analisi dei modelli teorici di misurazione.

Con riferimento al punto sub a), la puntualizzazione può

apparire ridondante: ogni analisi richiede la preventiva

esplicitazione e delimitazione del proprio oggetto d’indagine, che

nel caso del rischio di credito assume particolari connotazioni. In

generale, si può affermare che tale oggetto di indagine dovrebbe

focalizzarsi sulle fonti di incertezza, che generano improvvise

variazioni nel corso del tempo del valore di mercato di un prestito.

Premesso che il rischio trae origine dall’impossibilità di

possedere una perfetta conoscenza delle cause che concorrono alla

determinazione del risultato di un fenomeno posticipato nel tempo,

le problematiche del rischio di credito derivano dalla difficoltà di

individuare la rischiosità di un soggetto e dalle asimmetrie

informative, che sono ampliate anche dalla valutazione dei costi

opportunità. Quest’ultimi si concretizzano in un mancato guadagno

per un finanziamento non concesso ad un soggetto ritenuto

erroneamente non affidabile. Il riconoscimento del livello di rischio

associato ad una controparte, inoltre, non si limita al solo momento

di erogazione del fido, ma deve essere monitorato nel tempo allo

scopo di individuare e valutare eventuali cambiamenti nelle sue

condizioni economico-patrimoniali.

410 Capitolo 7

Figura 7.1 - Le tre dimensioni dell’analisi del rischio di credito

Con riferimento al punto sub b), osserviamo che ogni elemento

di innovazione nei modelli e nei paradigmi gestionali di un’impresa

deve avere un impatto diretto sul suo assetto organizzativo. Ancora

una volta, l’area della gestione del rischio di credito si caratterizza

come più critica e allo stesso tempo molto complessa. La

spiegazione più evidente è legata alla natura delle informazioni che

si collocano “a monte” dei processi di misurazione. Ai fini

dell’affidamento, gli analisti acquisiscono ed elaborano una serie di

informazioni prevalentemente ricercate all’interno della stessa

organizzazione bancaria nell’ambito dei rapporti di clientela. Se nel

lungo periodo la possibilità di elaborare delle serie storiche relative

ai propri affidati, con opportune operazioni di data mining, può

essere di grande ausilio per un corretto apprezzamento del rischio

del portafoglio commerciale, nel breve costituisce una vera e

propria sfida per le banche – specie quelle di piccole dimensioni –

che devono affrontare un radicale re-engineering dei processi. In

particolare, dovranno irrobustire il loro sistema informativo per far

fronte all’enorme onere di dati, sia in termini di volumi di carico,

che di elaborazione degli stessi. La scarsa frequenza del fenomeno

Delimitazione dell’oggetto

di indagine

Impatto organizzativo Modellizzazione

Approccio

matematico-

statistico

Approccio

gestionale-

finanziario

Il rischio di credito 411

del default non fa che aumentare le esigenze dimensionali dei data warehouse bancari.

Il punto sub c), nonostante la sua preminenza nell’ambito delle

analisi sul rischio, appare abbastanza autoesplicante. I modelli per

la gestione del rischio di credito di portafogli commerciali sono

mutuati da quelli per la misurazione del rischio di mercato dei

portafogli di negoziazione. Come osservato, però, la natura del

rischio di credito, e in particolare dei dati in input ai processi di

misurazione, non permette un’immediata traslazione dei modelli di

mercato sulla valutazione dei fidi, anche in ragione della relativa

rarità del default rispetto agli eventi di perdita sui portafogli di

trading.

Come rilevato “a monte” di queste osservazioni, si può indagare

sul fenomeno avvalendosi di adeguati modelli organizzativo-

gestionali supportati da robusti modelli di analisi quantitativa. Al

riguardo, la Figura 7.1 mostra che il problema di una chiara

percezione e formalizzazione del concetto di rischio è essenziale in

entrambi gli approcci, evidenziando un’area d’interposizione,

prodotta dalle interazioni tra i profili gestionali e le valutazioni

sulle problematiche di misurazione e viceversa.

L’analisi successiva s’incentrerà, in particolare, sullo studio dei

modelli di misurazione, pur nella consapevolezza che il rischio di

credito non deve essere concepito in modo autonomo e

completamente svincolato dalle altre forme di rischio.

In effetti, gli accademici e i supervisori prospettano un mondo

ideale in cui, secondo un approccio di tipo top-down, il

management è chiamato ad impostare le linee guida per la gestione

del rischio, che devono poi essere implementate attraverso un

processo integrale lungo tutte le aree d’affari. Tuttavia, la prassi, da

un lato, e lo stato dell’arte della letteratura concernente la

modellistica, dall’altro, pongono forti limitazioni a tale

impostazione. Allo stato attuale delle conoscenze non si dispone di

un modello in grado di affrontare la gestione del rischio su base

consolidata, integrando in un unico processo di valutazione

omogeneo e coerente tutte le tipologie di rischi finanziari (ed

eventualmente non finanziari) a tutti i livelli della struttura

organizzativa. La modellistica all’uopo esistente è di tipo settoriale,

412 Capitolo 7

in grado di valutare l’impatto congiunto di più fonti di incertezza rispetto a specifici business o specifici strumenti finanziari

1.

Una seconda considerazione è di ordine più squisitamente

didattico. Un’analisi puntuale dei modelli e delle procedure di

misurazione e gestione richiede, comunque, una individuazione e

una misurazione singola e congiunta delle diverse tipologie di

rischio, per poi valutarne l’impatto sulle performance e sulla

creazione di valore per l’impresa bancaria.

7.3 Gli elementi caratterizzanti del rischio di credito

Il valore di mercato di un titolo di credito, di qualunque natura

esso sia, può essere espresso come somma dei futuri flussi di cassa

cui il credito dà origine, scontati in base ad un dato tasso

d’interesse. Più formalmente, indicando con F =

{F1,F2,…,Fh,…,FT} il vettore degli importi promessi dal titolo, con

t = {t1,t2,…,th,…,tT} lo scadenziario previsto dal titolo e con i =

{i1,i2,…,ih,…,iT} il vettore dei tassi d’interesse applicati in fase di

valutazione, il valore del titolo (LV0) può essere così espresso:

1 2

0 1 1 2 2

1

( , , ) 1 1 ... 1

1

T

T T

Tt

t t

t

LV i F i F i F i

F i

F T

[7.1]

In realtà, all’apparente semplicità che emerge nella derivazione

del valore di mercato del titolo, si contrappongono importanti

elementi di incertezza sulla futura determinazione delle variabili

prese in considerazione. Come è noto, il tasso di interesse richiesto

per gli investimenti soggetti a rischio di insolvenza è pari al tasso

delle attività prive di rischio, maggiorato di uno spread

direttamente proporzionale al rischio assunto. È evidente, quindi,

che una variazione dei tassi privi di rischio, ovvero del grado di

rischio associato ad una controparte, genera una corrispondente

1 Molto spesso questi modelli sono volti a fissare un sistema di limiti nell’assunzione di

esposizioni verso particolari strumenti derivati da parte delle imprese bancarie. Ad esempio, nel caso

degli swap si cerca di valutare il duplice impatto che può avere sia la variazione dei tassi di mercato

di riferimento sia il fallimento della controparte. Si valuta, cioè, l’intersezione tra rischio di tasso e

rischio di credito.

Il rischio di credito 413

variazione dei fattori di sconto, in funzione dei quali si procede all’attualizzazione dei flussi di cassa. Inoltre, proprio perché

soggetto ad insolvenza, lo stesso vettore dei flussi di cassa può

subire delle variazioni sia in termini di importi, che della cadenza

temporale. Dalle fonti d’incertezza evidenziate se ne deduce che il

valore di mercato di un credito è soggetto ad improvvise variazioni

nel corso del tempo. In tali variazioni si concretizza il rischio di

credito.

In termini più formali il rischio di credito può essere definito

come:

“la possibilità che una variazione inattesa del merito creditizio

di una controparte nei confronti della quale esiste un’esposizione

generi una corrispondente variazione inattesa del valore di

mercato della posizione creditoria”2.

Da tale formulazione discende un importante corollario: il

concetto di rischio di credito non è circoscritto al solo evento

insolvenza (rischio di default), ma si estende anche all’ipotesi di

deterioramento del grado di solvibilità della controparte e al

conseguente alterarsi del valore di mercato dei suoi debiti (rischio

di spread).

Una trattazione del rischio di credito, ai fini di una sua corretta

misurazione, richiede l’analisi dei suoi “driver” fondamentali,

quali:

a) una distribuzione di probabilità sull’evoluzione futura del

merito creditizio del debitore;

b) il tasso di perdita in caso di insolvenza;

c) l’esposizione in caso di default.

7.4 La probabilità di default

7.4.1 La definizione dello stato di insolvenza

Una chiara ed esplicita definizione del concetto d’insolvenza è

essenziale per rimuovere le possibili ambiguità metodologiche.

Con il termine insolvenza si qualificano tutte le situazioni in cui il

2 Cfr. Sironi A. (2000), pp. 42 ss.

414 Capitolo 7

debitore possa essere sia inadempiente, che incapace di onorare le proprie obbligazioni contrattuali.

La capacità del debitore di adempiere le obbligazioni assunte

dipende dall’andamento nel corso del tempo di una serie di

elementi, di natura endogena ed esogena all’impresa stessa. Tra i

primi, figurano la capacità dell’impresa di generare profitti, tali da

permettere il rimborso del debito alle scadenze stabilite e il normale

proseguimento della gestione. Tra i secondi, invece, va annoverato

l’andamento prospettico e congiunturale del mercato in cui

l’impresa opera. Attraverso l’assegnazione di una distribuzione di

probabilità si cerca di formalizzare l’incertezza sugli eventi futuri.

Al riguardo, si pone l’esigenza di individuare, su basi oggettive,

gli eventi che possono avere un potere segnaletico nei confronti

dell’insolvenza e, quindi, di valutare l’intensità del segnale in

funzione della probabilità di default. Ad esempio, atteso il valore

segnaletico dell’irregolarità dei pagamenti, è necessario fissare una

discriminazione tra ritardi che possono definirsi fisiologici e ritardi

patologici, che sono da ritenersi manifestazione di uno stato di

insolvenza del debitore. Dal punto di vista della modellistica, può

essere importante chiarire il legame che sussiste tra l’adempimento

e l’evento o gli eventi segnaletici. Ad esempio, si può ritenere che

l’inizio di un’azione legale, da parte di uno dei creditori nei

confronti dell’obbligato, sia espressione di uno stato di insolvenza

e, quindi, di inadempimento. In effetti, si potrebbe valutare l’ipotesi

che l’azione del creditore non sortisca effetti sul debitore, il quale

potrebbe essere in grado di onorare il debito; ciò equivale a ritenere

che l’inadempimento, in seguito all’azione giudiziaria, sia

semplicemente un evento probabile. Ovviamente, se, dato il

segnale S e l’evento inadempimento A, la dipendenza di A da S è di

tipo logico, allora è possibile ragionare esclusivamente sulla

probabilità di S per avere anche le informazioni sulla probabilità di

A; viceversa, se tra A ed S si assume una dipendenza stocastica,

allora si introduce un grado di difficoltà in più e diventa necessario

stimare P(A | S), ossia la probabilità condizionata di A, dato S. La

valutazione oggettiva di tali eventi3 ha consentito di passare

3 Sotto questo aspetto, come verrà approfondito nel secondo capitolo, le innovazioni maggiori

sono state introdotte nel Nuovo Accordo di Basilea che ha accolto due definizioni di default: di tipo

soggettivo e di tipo oggettivo.

Il rischio di credito 415

dall’impiego di approcci dicotomici, diretti alla previsione di uno dei due soli stati entro cui l’obbligato può ricadere (solvibile/non

solvibile), all’impiego di approcci cardinali o ordinali, mirati

all’individuazione della posizione relativa del cliente all’interno di

una più o meno ampia scala qualitativa o quantitativa atta ad

esprimere la potenziale rischiosità.

L’approccio dicotomico è largamente basato sulle valutazioni

soggettive espresse congiuntamente da più specialisti,

relativamente ad alcuni aspetti dell’obbligato che costituiscono le

quattro C del credito:

la reputazione dell’obbligato (character);

la struttura finanziaria ed il leverage dell’impresa (capital);

la continuità del flusso di reddito (capacity);

la presenza di garanzie (collateral).

In una visione allargata, nell’approccio ordinale/cardinale alla

stima del merito creditizio si possono far confluire tutti i modelli o

sistemi, sviluppati nel corso degli ultimi due decenni, diretti alla

determinazione della rischiosità di una controparte. Naturalmente,

un’analisi esaustiva della letteratura sull’argomento è alquanto

ardua, se si tiene conto della vastità degli ambiti di riferimento. Ai

fini di una corretta esposizione, sembra preferibile adottare, quale

ottica interpretativa della letteratura esistente, l’indagine sugli spazi

di applicabilità dei sistemi di valutazione dei prenditori.

Una volta esplicitata la chiave di lettura della modellistica, è

bene ricordare il significato attribuito ai termini ordinali e cardinali,

nell’ambito delle due dimensioni minime entro cui si misura il

rischio di credito: probabilità dell’evento creditizio di riferimento e

perdita attesa. L’approccio ordinale raccoglie le metodologie dirette

all’assegnazione di un prenditore ad una classe qualitativa, dato che

condivide con questa una serie di caratteristiche predefinite;

l’approccio cardinale, invece, comprende quelle metodologie che

consentono di ottenere una stima quantitativa diretta della

grandezza di riferimento.

Focalizzando l’attenzione sui dati di input richiesti, per

un’effettiva implementazione dei sistemi, è possibile poi

416 Capitolo 7

distinguere tra modelli basati sui dati di bilancio (accounting-based) e modelli basati su quotazioni di mercato (market-based).

Modelli accounting-based

Prendendo in esame dapprima i modelli accounting-based, si

può affermare, nel privilegiare il carattere cronologico della

letteratura, che tali modelli impiegano essenzialmente metodologie

statistiche di analisi multivariata, in cui le variabili contabili di

riferimento vengono tra loro combinate in maniera tale da produrre

un valore numerico, che può essere a sua volta interpretato o come

la probabilità di default dell’obbligato o come un punteggio

(score4) utile ai fini dell’attribuzione dell’obbligato ad una classe in

base a dei range predefiniti5.

I più diffusi sono quelli basati:

sulle tecniche di analisi discriminante, volte a classificare le

imprese sane e insolventi e a confrontare l’indice ottenuto

dalla media ponderata degli indicatori selezionati rispetto a

un valore soglia;

sulle tecniche di analisi logistica, da cui si desume direttamente una stima della probabilità di insolvenza, dati i

valori delle variabili selezionate;

sui modelli di duration, in cui si stima la probabilità di default e la distanza temporale dal verificarsi l’evento;

sui sistemi esperti, ai quali appartengono gli alberi

decisionali e le reti neurali, che hanno contribuito a fornire

utili supporti sia alla valutazione che alla decisione di

affidamenti.

4 Il termine scoring viene utilizzato in senso lato, estendendosi a tutti i modelli che, a partire da

un insieme di dati di input, consentono di ottenere una valutazione numerica della rischiosità

dell’obbligato. Sotto tale profilo si collocano i modelli di scoring da cui si ottengono valutazioni

numeriche generiche, le analisi logit il cui output è interpretabile come la probabilità di default. 5 Vi sono naturalmente anche modelli di scoring univariati, i cui ratios chiave del potenziale

prenditore vengono confrontati con quelli di benchmark riferiti all’industria o gruppo, al fine di

ottenere uno score senza tuttavia adottare alcuna forma di confronto “trasversale” dei dati. Sebbene

questi siano stati i primi modelli statistici effettivamente impiegati per la previsione delle insolvenze,

possono ormai considerarsi superati. Il più noto lavoro condotto facendo uso dell’analisi univariata

viene generalmente riconosciuto in Beaver W. (1966), le cui conclusioni più interessanti sono

riassunte in Szego G. e Varetto F. (1999).

Il rischio di credito 417

Tali modelli, pur avendo una certa validità empirica, in corrispondenza di diverse fasi del ciclo economico e di aree

geografiche, sono stati oggetto di alcune critiche.

In primo luogo, è stato rilevato come tali approcci, basandosi

sulle evidenze contabili, siano fondati sui dati raccolti ad intervalli

temporali discreti ed indicativi della storia passata (backward

looking), al contrario dei dati di mercato che invece sono

maggiormente reattivi nell’anticipare le variazioni delle aspettative

degli operatori (forward looking). In secondo luogo, le

formulazioni analitiche di tali approcci impiegano funzioni lineari

dei dati di base, che contrastano con una realtà la quale raramente

soddisfa questa proprietà. Infine, occorre rilevare come tali modelli

conservino ancora un certo margine di soggettività, in quanto non

sono basati su un modello teorico di riferimento che lega tra loro le

variabili chiave attraverso specifiche relazioni funzionali.

Modelli market-based

I modelli market-based si sviluppano nel corso degli anni ’90,

proprio in risposta a tali criticità. L’obiettivo è quello di definire

modelli di analisi del processo di default del prenditore, attraverso

due approcci fondamentali: strutturale, da un lato, e in forma

ridotta, dall’altro.

Nell’approccio strutturale, che prende avvio dai fondamentali

lavori di Black e Scholes (1973) e Merton (1974), l’evento default

viene ricondotto all’evoluzione della struttura patrimoniale

dell’impresa. Più specificatamente, le azioni di un’impresa possono

essere assimilate ad una opzione call scritta sul valore dell’attivo,

con prezzo di esercizio pari al valore del debito. La probabilità di

default viene ricavata attraverso il valore dell’attivo e della sua

volatilità e viene definita come probabilità che il valore degli asset

scenda sotto il valore nominale del debito. Il legame tra valore

degli asset e solvibilità dell’impresa, che caratterizza i modelli

strutturali, sebbene rappresenti un elemento particolarmente solido

su cui basare la stima della probabilità di default e del recovery

rate, è viziato da un forte limite, riguardante il flusso informativo

418 Capitolo 7

necessario alla stima dei parametri, realisticamente sostenibili solo per le società dotate di una quotazione nei mercati finanziari

6.

I modelli in forma ridotta, invece, cercano di dedurre le

proprietà del processo di default dal differenziale dei tassi che

esiste tra i titoli rischiosi e i titoli privi di rischio, sulla base

dell’assunto che tale differenziale rappresenti il compenso richiesto

dagli investitori per il rischio di insolvenza. Nell’ambito di tale

filone verrà brevemente analizzato, ai fini della stima delle

probabilità default, la struttura a termine degli spread creditizi .

Sebbene tali modelli richiedano un input molto più modesto

rispetto ai modelli strutturali, l’assenza di un legame endogeno alla

struttura dell’impresa ne indebolisce le implicazioni.

Il fondamento teorico dell’approccio basato sulla struttura a

termine degli spread creditizi è costituito dalla determinazione del

tasso di perdita attesa direttamente dalla struttura a termine degli

spread creditizi riferiti a un certo emittente, nell’ipotesi di

investitori neutrali al rischio.

Il punto di partenza di tale metodologia è quindi la costruzione

della curva dei rendimenti zero coupon riferiti a titoli risk free e a

titoli rischiosi appartenenti ad una classe di rating da cui derivare le

rispettive curve dei tassi forward.

Per cui: indicando con 0rt il tasso zero coupon bond valutato in 0

e cadente in t e 0ix,t il medesimo tasso calcolato in corrispondenza

della classe di rischio x, i corrispondenti tassi forward, relativi al

periodo t-1, t, vengono ricavati come segue:

0 ,01 1 ,1 1

0 1 0 , 1

(1 )(1 )1 ; 1

(1 ) (1 )

ttx tt

t t t x tt t

t x t

irr i

r i

[7.2]

Ponendo la condizione di neutralità verso il rischio due

investimenti risultano equivalenti quando il montante investito nel

titolo free risk è equivalente al valore atteso del montante investito

nel titolo rischioso.

Affinché il valore atteso del rendimento del titolo rischioso sia

pari al rendimento certo del titolo risk free, posto che la differenza

6 Infatti, il valore e la volatilità degli asset, necessari per l'implementazione dei modelli

strutturali, non è direttamente osservabile, ma può essere approssimato attraverso i prezzi di mercato

dei titoli azionari.

Il rischio di credito 419

tra i due rendimenti dipenda dalla probabilità di perdita attesa implicita nell’attività rischiosa, deve essere verificata la seguente

espressione:

0 0 , ,(1 ) (1 )(1 )t x t x tr i El [7.3]

dove ELx,1 indica il tasso di perdita attesa per la classe x nel

periodo 0,t. Tale espressione è valida anche per i tassi forward

uniperiodali, pertanto si ha:

)1)(1()1( ,1,11 txttxttt Elir [7.4]

per cui:

11 ,

1 ,

(1 ) 1

(1 )

t tt x t

t x t

rEL

i

[7.5]

Dal tasso di perdita attesa è ricavabile la probabilità default per

la classe x, poiché:

)1(

*

1

1,1

RRp

LGDpEL

tt

tttxt

[7.6]

dove:

t-1pt = probabilità default relativa al periodo compreso tra t-1 e t

RR = recovery rate

si ha :

1 ,

11

t x t

t t

ELp

RR

[7.7]

Da tale relazione possiamo desumere la probabilità marginale

che il titolo rischioso non vada in default, ovvero

420 Capitolo 7

st= 1-t-1pt [7.8]

dove:

st = probabilità di sopravvivenza del titolo rischioso nel periodo t-1,

t

La probabilità cumulata di sopravvivenza al T-esimo periodo è

pertanto pari:

1

1

(1 )T

T t tS p [7.9]

La probabilità di perdita cumulata per il titolo rischioso nel

periodo T-esimo è il complemento a 1 dell’espressione precedente

PT=1-ST [7.10]

Il limite di tale approccio è nell’ipotesi di risk neutrale

dell’investitore, ossia nella mancanza di richiesta da parte del

mercato di un premio per un investimento in un titolo rischioso, per

cui la remunerazione richiesta dal mercato dipende dalla perdita

attesa e non piuttosto dalla variabilità della stessa, generando una

sovrastima del tasso di perdita attesa scontato dal mercato.

7.4.2 La scelta dell’orizzonte temporale di riferimento

In linea di massima si può osservare dall’esperienza empirica

che la probabilità di default aumenta con il crescere dell’orizzonte

temporale, ma con un’intensità diversa; pertanto, non è possibile

stabilire una linearità tra l’holding period considerato e il tasso di

insolvenza.

L’esperienza empirica7 su un campione di debitori bancari in

Italia dimostra che i tassi d’insolvenza sono più elevati nei primi

anni e si riducono nei successivi.

Per cui l’ipotesi di stimare i tassi annui costanti al valore del

primo anno genera una sovrastima della propensione all’insolvenza

7 Cfr Resti A.(2001), pp .32-36

Il rischio di credito 421

di lungo periodo, poiché non tiene conto di un possibile più efficace monitoraggio da parte della banca nei confronti del cliente

con l’aumentare della durata del fido.

In generale, si osserva che la scelta dell’orizzonte temporale, in

un modello di misurazione del rischio, dovrebbe essere verificata

alla luce del grado di liquidità del mercato di riferimento, della

posizione di rischio assunta e del periodo di detenzione della

singola posizione.

L’assenza di un mercato secondario per il portafoglio

commerciale non consente di applicare tali criteri di tipo oggettivo

e soggettivo.

Ne consegue che appare ipotizzabile selezionare un holding

period pari alla durata del credito, ciò rende più complessa la stima

della distribuzione delle probabilità, data l’ampia differenziazione

delle scadenze delle singole posizioni e l’esistenza di numerose

posizioni contrattualmente prive di scadenza.

La soluzione generalmente adottata è di un anno, in

considerazione del tasso di rotazione del portafoglio. Soluzione

invero discutibile per le singole posizioni con vita residua superiore

all’anno, sulle quali non influisce l’eventuale rotazione del

portafoglio.

Tuttavia, tale assunzione è coerente con il tempo adottato per la

revisione degli affidamenti a vista e con il ciclo di budget delle

banche.

7.5 Il tasso di perdita in caso di insolvenza

7.5.1 Fattori che determinano il tasso di perdita in caso di

default

Il rischio di credito, a parità di probabilità di default (PD), si

presenta più elevato per quelle esposizioni in cui il tasso di perdita

in caso di default, detto Loss Given Default (LGD), è maggiore8.

Si definisce tasso di perdita in caso di insolvenza la frazione di

credito residuo che con certezza non sarà possibile recuperare

8 La letteratura parla a riguardo anche di “severity of loss”, ossia di serietà del danno, in caso di

insolvenza.

422 Capitolo 7

qualora abbia a verificarsi l’evento di default; specularmente il tasso di recupero (RR) indica la frazione di credito recuperata.

Dalle ricerche condotte sull’argomento è emerso quanto segue:

la distribuzione dei tassi di recovery è caratterizzata da

frequenza elevata in corrispondenza sia di recovery alti,

intorno al 70%-80%, che di recovery bassi, circa il 20% o

30%. Se ne deduce una distribuzione bimodale, per cui la

media quale indicatore centrale è fuorviante;

i driver che incidono sul tasso di recupero sono rappresentati principalmente dalla presenza o meno di

garanzie e dal livello di subordinazione del prestito nella

struttura del capitale del prenditore;

il tasso di recupero è fortemente influenzato dalla fase del ciclo economico. Nel periodo di recessione il tasso di

recupero, secondo verifiche svolte nei mercati finanziari

statunitensi, può diventare pari circa a un terzo rispetto alla

media di lungo periodo;

il settore di appartenenza dell’obbligato può contribuire

notevolmente a spiegare il livello dei tassi di recupero:

settori a capital intensive sono caratterizzati da livelli di

recupero più elevati rispetto ai settori labour intensive;

la dimensione dell’esposizione sembra non avere un ruolo rilevante nella spiegazione dei tassi di perdita.

Misura

Essendo i concetti di “tasso di perdita” e “tasso di recupero”

simmetrici, poichè il primo è il complemento ad 1 del secondo, si

può esprimere la Loss Given Default (LGD) come:

1 1

perdite valore recuperatoLGD RR

esposizione esposizione

RR tasso di recupero

[7.11]

Occorre evidenziare i problemi specifici che nascono dalla stima

della perdita e delle esposizioni al momento del default.

La perdita dipende:

Il rischio di credito 423

dall’ammontare nozionale del prestito (nel caso del

credito commerciale anche dalla forma tecnica del

prestito);

dal costo opportunità degli interessi non percepiti, dalla presenza di collaterali,

dai costi amministrativi direttamente sostenuti nelle procedure concorsuali e/o nelle procedure di recupero

crediti interne;

dalla stima del tempo richiesto per rendere liquide tali

attività (ossia del tempo che intercorre tra il passaggio in

default e il recupero, parziale o totale, dell’importo

prestato);

dalla individuazione dei tassi di sconto da applicare ai flussi derivanti dal recupero.

Dal punto di vista della dinamica temporale, il default si ha in

corrispondenza del mancato pagamento degli interessi o della

cedola; le procedure di liquidazione per il recupero del credito in

genere hanno una durata di due o quattro anni dall’ultimo

pagamento.

Analisi dei driver

I driver che incidono sulla distribuzione della LGD e, quindi

sull’ eventuale bimodalità, sono:

Tipologia di debito e grado di seniority;

Fattori legati a settori industriali;

Indicatori macroeconomici;

Collaterali.

Tipologia di debito e grado di seniority

E’ verosimile ritenere che i fattori esplicativi più importanti

sulla distribuzione del RR sono dati dalla tipologia di debito e dal

grado di seniority.

Le distribuzioni del recovey rate per differenti classi di

seniority, fornite da Moody’s, per il periodo 1970-2002, sono di

tipo binomiale per livelli di seniority più elevati. Inoltre, i tassi di

424 Capitolo 7

recovery aumentano quando i creditori dell’impresa in default sono in grado di monitorare l’andamento delll’attività imprenditoriale.

Circostanze entrambe verificabili nell’ambito degli affidamenti

erogati dalla banca.

Fattori legati ai settori industriali

Generalmente viene riconosciuto che il settore di appartenenza

del prenditore influisce sul livello della LGD dei bond, mentre

sussistono elementi di incertezza per l’area prestiti. In particolare,

le imprese appartenenti ai settori capital-intensive possono godere

di perdite minori. Al riguardo, si menzionano le stime di Altman e

Kishore (1996) e di Carty e Lieberman (1996), che confermano tale

dinamica dei tassi recovery per classi settoriali.

Indicatori macroeconomici

Il ricorso alle variabili macroeconomiche consente di

incorporare nelle stime della LGD gli effetti del ciclo economico.

Le verifiche empiriche hanno mostrato come il recovery rate si

riduca drasticamente nei periodi di recessione rispetto alla media di

lungo periodo. Studi condotti nel mercato dei bond statunitensi

(Moody’s) rilevano come il recovery rate sia stato mediamente del

40%, riducendosi drasticamente di circa 1/3 nella fase di

recessione. Circostanze invero non verificabili per titoli investment

grade, che per effetto del loro elevato standing creditizio riflettono

in misura minore l’andamento dell’economia.

I collaterali

Prima di affrontare i metodi di stima della LGD, una nota a parte

meritano i collaterali. Nel dettaglio, la presenza di garanzie, reali o

personali, incide notevolmente sulle prospettive di recupero degli

importi erogati; ciò dipende dal valore della garanzia rispetto

all’ammontare del credito e dal grado di liquidità e di efficacia del

collaterale.

Il tema degli strumenti finanziari per la protezione dal rischio di

credito è molto vasto, ma in questa sede ci limiteremo a darne una

prima introduzione di carattere descrittivo. È opportuno classificare

le diverse tipologie di protezione per poter, successivamente,

misurare l’impatto che queste hanno sul rischio dell’esposizione

Il rischio di credito 425

cui si riferiscono e su quello del portafoglio nel suo insieme. Possiamo distinguere la famiglia di strumenti finanziari, che

forniscono al debitore una protezione dal rischio di credito, in tre

classi:

le garanzie reali e personali;

le clausole contrattuali (covenant);

i contratti finanziari ad hoc, c.d. derivati creditizi (credit derivative).

Il creditore, mediante l’escussione delle garanzie reali o

personali in caso di default, ha la possibilità di recuperare gli

importi concessi al prenditore rivalendosi sul bene dato in garanzia

o sul patrimonio del garante. Con le covenants, invece, la banca

incide attraverso clausole contrattuali, fissate all’atto della stipula

del contratto di finanziamento, sull’andamento del rapporto

creditizio.9

I credit derivative, di cui si dirà diffusamente nei capitoli

successivi, a loro volta, operano in modo simile alle garanzie

personali, consentendo al creditore, attraverso il “provider”, di

coprirsi dal rischio di perdite sui crediti al verificarsi di determinati

eventi creditizi (collegabili all’insolvenza).

Due sono gli aspetti rilevanti che vanno messi in risalto ai fini

della misurazione del rischio in presenza di strumenti di protezione:

la valutazione delle garanzie e degli altri strumenti di

protezione;

la valutazione del default congiunto.

Per quanto concerne il primo aspetto, rilevanza assume il

trattamento delle garanzie. La loro valutazione è affrontata dal

Nuovo Accordo sul Capitale nell’ambito delle tecniche di

9 Ad, esempio, su alcune linee di credito la banca potrebbe riservarsi il diritto, sotto

predeterminate condizioni, di limitare l’utilizzo del fido; oppure di modificare le condizioni di tasso

al mutare dello standing creditizio del cliente. Gli effetti della mitigation si possono, pertanto,

manifestare, diversamente dagli altri strumenti, prima del verificarsi del default, attraverso il

controllo dell’EAD. L’analisi dei covenant può estendersi includendo non solo le clausole di

mitigazione, ma anche quelle svantaggiose per la banca, che comportino un’accentuazione del rischio

di una posizione, come nel caso di clausole (espresse o implicite) di postergazione del credito.

426 Capitolo 7

mitigazione del rischio di credito. Questo afferma il principio della cd “PD substitution”, vale a dire la sostituzione della qualità

creditizia del garantito con quella del garante o del venditore di

protezione nel caso dei derivati. Sostanzialmente, si esclude la

possibilità di una correlazione fra i default del garante e del

garantito.

Viceversa, la verifica dei fattori comuni che generano un co-

movimento del rischio di insolvenza e di recupero è un problema

che va affrontato in tutta la sua complessità.10

Se il default del prenditore e il default del garante sono correlati

si affievoliscono gli effetti della garanzia a fronte di un aumento

della probabilità di default congiunto.

Come si dirà, un sistema semplice per valutare le correlazioni

consiste nel ricorrere al concetto di PD condizionata, ossia la

probabilità che dato il fallimento di un soggetto B, nel nostro caso

il garantito, si verifichi anche quello del soggetto G, il garante. In

termini formali tale probabilità è indicata come P(B|G).

Da un punto di vista economico, una correlazione positiva fra le

controparti di una garanzia riduce l’efficacia di quest’ultima. Ai

fini di una migliore comprensione introduciamo il concetto di joint

default probability (JDP), ossia di fallimento congiunto.

La JDP dipende dalla correlazione tra prenditore e garante,

usualmente, la correlazione tra gli eventi di default è positiva

quando entrambi i soggetti rispondono ai cambiamenti

macroeconomici. Se gli eventi di default sono indipendenti la JDP

è data dal prodotto delle PD stand alone; viceversa, per correlazioni

positive, JDP assume un valore più elevato, mentre configura valori

più bassi per correlazioni negative.

10 In uno scritto,. Resti A. (2002), p. 13, chiarisce tale concetto attraverso una esemplificazione

da cui si evince come la PD a lungo termine di un prenditore stimata nel 6% subisca variazione

positive nella fase negativa del ciclo economico, assumendo un valore del 10%, per decrescere al 2%

in un periodo di espansione dell’economia. In analogia, posto che entrambi gli scenari, di espansione

e di recessione, presentano analoghe probabilità di verificarsi, ipotizza che la LGD attesa pari al 50%,

subisca variazioni al 70% nella fase di recessione e al 30% in caso di espansione. La stima della

perdita attesa, come verrà successivamente analizzata, normalmente calcolata come il prodotto delle

medie non condizionate, nel caso degli scenari dovrà essere calcolata come media non condizionata

su tutti gli scenari, ossia ½*70%*10% + 1/2*30%*2% = 3,8%. Tale valore risulta più elevato di 80

centesimi rispetto al prodotto delle medie non condizionate , pari al 3%.

Il rischio di credito 427

7.5.2 Metodi di stima della LGD: cenni

Dal momento che l’incertezza nella LGD dipende da diversi

fattori, non sarebbe, perciò, scorretto modellarne solo alcuni per

catturare il rischio complessivo che ne deriva. Ad esempio, anche

se è di fondamentale importanza, ai fini del recupero, valutare

correttamente l’impatto delle garanzie, limitarsi a considerare

questo unico, ancorché importante fattore, può essere riduttivo.

Data una singola posizione, allora, piuttosto che fare ipotesi sul

valore delle diverse garanzie, si potrebbe fare un’ipotesi

direttamente sulla forma della distribuzione della variabile

stocastica LGD. Naturalmente i due approcci non sono in netto

contrasto poiché, assunto un certo andamento teorico della PDF

(probability density function), i parametri che in concreto la

caratterizzano dipenderanno a loro volta dai fattori su delineati:

seniority, garanzie, ecc. Con questo metodo si può tenere conto

anche dell’impatto della correlazione: invero, la distribuzione di

probabilità della LGD per un prestito non assistito da garanzia sarà

sicuramente diversa da quella di un prestito garantito; a sua volta

un prestito assistito da garanzia personale, in cui la PD del garante

è scarsamente correlata a quella del garantito, presenterà una

distribuzione diversa da quella di un prestito caratterizzato da

elevata probabilità di default congiunto.

Un primo problema da affrontare è pertanto la stima della LGD.

Al riguardo si possono individuare almeno tre metodologia di

stima:

Market LGD

Implied Market LGD

Workout LGD

Market LGD. Il tasso di perdita in caso di insolvenza può essere

direttamente esplicitato dai prezzi di mercato dei titoli divenuti

insolventi. Utilizzata dalle agenzie di rating per le stime

periodicamente pubblicate, il vantaggio di tale metodologia

consiste nel fatto che i prezzi sono il risultato di transazioni di

mercato e, pertanto, svincolati da valutazioni soggettive. Inoltre, i

prezzi riflettono le aspettative degli investitori sul recovery,

opportunamente scontato e, quindi, includono le perdite sia sul

428 Capitolo 7

nozionale che sui mancati interessi, così come i costi di ristrutturazione e l’incertezza sull’ammontare recuperato.

Implied market LGD. La LGD può essere stimata sulla base dei

prezzi dei titoli quotati, non già in default, adottando un idoneo

modello di pricing. Al riguardo si fa riferimento allo spread sul

tasso risk free, che è dato dal premio corrisposto agli investitori per

il rischio di default stimato sul titolo. Lo spread, invero, è funzione

della PD e della LGD (ed eventualmente di un premio per la

liquidità).

Workout LGD. Il tasso di perdita può essere stimato attraverso

l’individuazione dei cash flow (in termini di ammontare e di tempi)

del processo di liquidazione dell’impresa. I flussi vengono quindi

scontati, sebbene non appaia del tutto ovvio quale sia il tasso più

corretto da applicare. In linea di principio, il tasso più appropriato

dovrebbe essere quello di un’attività che contiene lo stesso livello

di rischio.

Alcune considerazioni sui modelli di stima

In generale ogni modello di stima dovrebbe distinguere le

osservazioni in funzione della tipologia del prestito e della fase del

ciclo economico.

Pertanto, l’analisi della LGD dovrebbe essere implementata

come segue: data la variabile LGD, vanno individuati una serie di

fattori, X1, X2, …, Xn, da cui questa dipende, cercando di indagare

in che modo ciascuno di questi possa impattare sulla stessa LGD.

Posto che X1 esprime il default del garante, è possibile valutare

l’eventualità che tale default possa avvenire congiuntamente a

quello del prenditore; oppure, posto che X2 indichi il livello

dell’esposizione su una linea di credito discrezionale, si può

analizzare il livello di indebitamento del prenditore in presenza del

default.

Se assumiamo che la LGD sia una variabile casuale distribuita

secondo una data PDF, il nostro problema può essere modellato in

questi termini:

LGD = f (a1, a2, a3, …, ar), [7.12]

Il rischio di credito 429

dove f è una funzione di densità da selezionare sulla base di opportune considerazioni teoriche e a1, a2, a3, …, ar esprimono i

parametri che caratterizzano negli specifici casi la densità (si pensi

a media e varianza nel caso di una densità Normale). Giova ripetere

che tali parametri dipendono dal modo in cui i fattori X1, X2 …, Xn

incidono sulla LGD .

Individuato il modello teorico per la f, i parametri a1, a2, a3, …,

ar andranno stimati empiricamente attraverso tecniche di

campionamento. A tal fine, sarà opportuno raggruppare i prenditori

in cluster omogenei in base, ad esempio, alla seniority/settore/ciclo,

ecc. (prestiti senior unsecured per il settore manifatturiero in fase di

recessione), per stimare per ogni segmento individuato la relativa

LGD coeteris paribus, maggiore sarà la granularità dei cluster e

maggiore sarà la precisione delle stime, ma anche il costo della loro

implementazione in sede operativa.

Se si stima la LGD come rapporto tra le perdite subite ed il

totale delle esposizioni in default, una valutazione corretta

dovrebbe contenere un numero sufficientemente elevato di

osservazioni per quella specifica cella della tabella con cui si

rappresentano dei cluster.

L’applicazione di un metodo di regressione semplice per

spiegare i dati riduce i problemi legati alla numerosità delle

osservazioni. Come è noto, in questi casi le variabili qualitative

vengono rappresentate attraverso opportune variabili dummy (si

pensi, ad esempio, alla rappresentazione delle caratteristiche

dell’operazione).

Per rendere più efficaci le stime si possono utilizzare tecniche di

regressione non lineare, ma ciò evidentemente tende a comportare

una maggiore complessità nei calcoli, che deve essere giustificata

da un adeguato beneficio in termini di accuratezza (maggiore) dei

risultati.

Quando la numerosità o la dimensione non consentono, ovvero

non giustificano il ricorso a cospicui database di serie storiche, può

diventare vantaggioso ricorrere a tecniche di simulazione basate

sulle reti neurali.

Emerge con chiarezza l’esistenza di un trade-off tra livello di

sofisticazione del modello adottato ed accuratezza delle stime. Un

modello particolarmente complesso, e quindi più ricco di parametri,

430 Capitolo 7

è in grado di spiegare meglio i dati ma può non essere altrettanto efficiente in fase di implementazione o addirittura non applicabile a

specifiche realtà operative.

7.5.3 La distribuzione della LGD: la Beta

La determinazione dei parametri della distribuzione dei valori

regrediti si pone come un problema di statistica parametrica; ossia,

si tratta di individuare degli opportuni stimatori da cui inferire i

parametri in base all’osservazione delle serie storiche. In base ad

argomentazioni teoriche relative alla natura del prestito (forma

tecnica, presenza di collaterali, ecc.) è possibile stabilire un range

di oscillazione ragionevole per questi parametri.

Le 60 diverse famiglie di distribuzioni si caratterizzano

generalmente per avere delle forme tendenzialmente simili al

variare dei parametri da cui dipendono. Si pensi alla forma della

distribuzione normale che è più o meno decentrata rispetto allo zero

ed allungata a seconda dei valori di media e varianza. Nel nostro

caso, invece, è necessario ricorrere ad una distribuzione di

probabilità teorica molta generica, che riesca a catturare la

molteplicità di forme con cui si potrebbe presentare il tasso di

recupero per le diverse tipologie di prestiti.

Per poter ricondurre ad unitarietà popolazioni statistiche con

caratteristiche molto diverse si può utilizzare la funzione Beta. In

termini non rigorosi si può affermare che essa racchiude molte

distribuzioni in una. Variando opportunamente i suoi parametri, si

possono ottenere, infatti, andamenti della distribuzione

radicalmente diversi. Come si chiarirà meglio in seguito, essa

riesce anche a modellare con più coerenza il range di variabilità del

RR, che è [0,1] e non [-, +] come può accadere nel caso delle

funzioni normali. Per poter apprezzare i benefici dell’utilizzo della

Beta è necessario richiamare, in primis, la sua definizione formale

in termini probabilistici ed i suoi valori notevoli. La PDF della Beta

è definita come segue:

Il rischio di credito 431

1

Beta( , ) :

( )( ; , ) (1 ) 0 1

( ) ( )X

X

f x x x x

[7.13]

Rinviando all’appendice per gli aspetti formali, notiamo che la

funzione, diversamente da quanto accade per altre tipologie di

distribuzioni (per esempio la famiglia delle gaussiane), non

presenta tra i suoi parametri la media e la varianza. Queste sono

calcolabili rispettivamente come:

2( ) ( 1)

X

X

E

V

[7.14]

Ciò posto riscriviamo la relazione in questi termini:

),(Beta~RR [7.15]

dove RR [0,1]

Ciò significa che il tasso di recupero è distribuito secondo una

Beta e che esso deve essere compreso nell’intervallo zero-uno,

essendo il valore “zero” rappresentativo della situazione in cui

viene perso l’intero ammontare del prestito in ipotesi di default, ed

“uno” il caso in cui è possibile recuperare tutto il (il 100% del)

credito nonostante il default,.

Come si mostra in appendice, al variare dei parametri e , la funzione può assumere forme molto diverse ed in alcuni casi

antitetiche. Ad esempio, accanto alla forma “a campana”, legata

all’ambiente delle distribuzioni normali, essa può assumere

l’opposta forma ad ‘U’. In questa ipotesi si parla anche di

bimodalità della distribuzione del tasso di recupero (o di perdita),

poiché, diversamente da quanto accade per le distribuzioni

unimodali, presenta due valori prevalenti, che si collocano o

coincidono con zero ed uno (recupero nullo e recupero totale).

Accade, allora, che il valore medio sia del tutto inadeguato a dare

~

432 Capitolo 7

una rappresentazione significativa della distribuzione; esso è, all’opposto di quanto siamo abituati a pensare (avendo

istintivamente in mente una distribuzione normale o la definizione

stessa di valore atteso), un valore intorno al quale si concentra una

bassissima probabilità, essendo questa, al contrario, concentrata

sulla parte esterna della curva ad ‘U’.

L’utilizzo della funzione Beta richiede la stima dei relativi

parametri sulla base dell’analisi delle serie storiche.

7.5.4 Modello LossCalc di Moody’s-KMV: cenni

Un’applicazione molto articolata in tal senso è rappresenta dal

modello LossCalc di Moody’s-KMV. Tale modello presenta tra i

suoi punti di forza l’inclusione di fattori di stima legati al trend

economico, il che ne migliora l’affidabilità.

Esso, inoltre, riconoscendo l’importanza dell’orizzonte

temporale, produce due distinte stime: una su base immediata, il

cui uso è suggerito per le esposizioni inferiori all’anno, ed una su

base annuale, indicata per le altre maturità.

Venendo al dettaglio dei fattori usati da LossCalc, questi

possono essere distinti in quattro categorie:

tipologia di debito e grado di seniority;

indicatori della struttura finanziaria dell’impresa;

fattori legati ai settori industriali;

indicatori macroeconomici.

Tipologia di debito e grado di seniority – I fattori esplicativi più

importanti sono quelli inclusi nella prima categoria: essi sono dati

dalle medie su base storica dei tassi di recupero, suddivisi per

tipologia di debito e grado di seniority. Nonostante la loro

importanza, in termini relativi, essi pesano sul modello per meno

del 50%.

Indicatori della struttura finanziaria dell’impresa – Nell’

ambito della struttura del capitale dell’impresa viene considerato un

fattore tipico: il leverage, inteso come rapporto tra attività totali e

Il rischio di credito 433

passività totali. Si considera, poi, il grado di seniority del debito rispetto alla specifica struttura finanziaria dell’impresa. Si noti che,

mentre nella categoria precedente la seniority del debito era

espressa in termini assoluti, qui è relativa al passivo dell’impresa,

per cui una certa classe di debito può avere una posizione elevata

nell’ambito di una data unità produttiva, anche se in termini

assoluti il livello di privilegi attribuito ai creditori non sia elevato.

Fattori legati ai settori industriali – Con riferimento alla terza

categoria vengono calcolate le medie mobili dei tassi di recupero

per 12 settori industriali. Moody’s mette in risalto come il settore

che presenta il tasso di recupero più basso in caso di default sia

quello bancario. La natura del business e la caratteristica

immaterialità dell’attivo della banca, fanno sì che, quando essa

fallisce, sia sempre “troppo tardi per i creditori”, ottenere una

soddisfazione parziale dei loro diritti attraverso le procedure di

enforcement.

Indicatori macroeconomici – Il ricorso alle variabili

macroeconomiche della quarta sezione consente di incorporare

nelle stime gli effetti del ciclo economico rendendo il modello

conditional. Gli indicatori macroeconomici considerati sono: il

Moody's Bankrupt Bond Index, un indice mensile che misura il

rendimento delle obbligazioni emesse da società sottoposte a

procedura fallimentare (anche non valutate da Moody's e non

americane purché denominate in dollari); la media dei tassi di

default registrati su un arco di 12 mesi per le imprese incluse da

Moody’s nello speculative grade; l’Index of Leading Economic

Indicators, prodotto dalla Conference Board Inc.

La media dei default rispetto allo speculative grade si è rivelata

scarsamente significativa per le stime su base immediata per cui, in

questo caso, non viene presa in considerazione.

Va notato che le diverse variabili illustrate presentano la

caratteristica di una bassa correlazione.

In generale le variabili utilizzate sono state presentate in base al

grado di significatività statistica. Pertanto variabili interessanti sul

piano dell’analisi teorica, come il rapporto EBIT/Vendite o

434 Capitolo 7

Passività correnti / Attività correnti, sono state escluse, poiché i test hanno dimostrato che esse hanno un basso potere esplicativo.

Con riferimento alla stima della LGD è emerso come, mentre in

termini teorici possa essere semplice parlare di ammontare di

credito recuperato, nella pratica i lunghi tempi delle procedure

giudiziarie vanifichino la possibilità di stime empiriche basate su

serie storiche.

Anche la valutazione contabile basata sull’attualizzazione dei

cash flow post-default può essere troppo complessa da applicarsi su

larga scala.

Moody’s sceglie, perciò, di considerare la quotazione di mercato

fornita da alcuni broker di riferimento ad un mese dal default come

definizione di “recupero dello strumento soggetto al default”

In questo contesto Moody’s mette in risalto come le risultanze

del suo data base, unitamente ad una serie di studi effettuati,

mostrino un andamento non normale della LGD, ma modellizzabile

piuttosto con una densità di tipo Beta.

Figura 7.2 - Andamento della funzione di distrib.ne della LGD

Fonte: Moody’s-KMV

A questo punto va rilevato come Moody’s scelga di tenere

riservati i dettagli implementativi del proprio modello. Viene,

comunque, chiarito che la LGD è dapprima stimata in una versione

“normalizzata” attraverso una regressione lineare che usa come

Il rischio di credito 435

fattori esplicativi le 9 variabili su indicate. Una volta regrediti, attraverso opportune tecniche econometriche, i valori vengono, poi,

ricondotti alla densità Beta attraverso una procedura qui riportata in

appendice.

Va ancora notato che, per migliorare il procedimento di fitting, i

9 fattori sono in alcuni casi trasformati prima di essere inseriti

nell’equazione di regressione, secondo una procedura non

esternata, che Moody’s definisce mini-modelling.

Anche se non vi è alcuna disclosure sui pesi che hanno i 9 fattori

nel modello di regressione, a livello aggregato, viene fornito il peso

per categoria. Con riferimento alle 4 categorie summenzionate,

l’influenza relativa sulla procedura di stima è rappresentata in

termini grafici nella figura che segue.

Figura 7.3 - Pesi dei driver nella procedura di stima della LGD

Fonte: Moody’s-KMV

7.6 La valutazione dell’esposizione a rischio di default

In generale si può osservare che l’esposizione del banking book

si origina o dall’erogazione di finanziamenti all’impresa /

individuo, o dall’acquisizione di varie tipologie di titoli emessi sul

mercato dall’impresa a copertura dei propri fabbisogni.

Ai fini della determinazione dell’esposizione a rischio assume

rilevanza il valore della stessa al momento del default, valore

436 Capitolo 7

determinabile sin dall’inizio per alcune tipologie di credito oppure di incerta determinazione per altre in assenza di un importo definito

e di un piano di rimborso.

Possono essere assimilati al primo tipo: a) prestiti con

caratteristiche analoghe a zero coupon bond, in cui l’erogazione è

pari all’ammontare definito nel momento del perfezionamento del

contratto, b) prestiti “autoliquidantesi” concessi dalla banca al

cliente sotto la forma di sconto o anticipazione fissa, e infine c)

prestiti utilizzabili nel loro importo massimo.

Nella seconda categoria si riconducono tipicamente le forme di

finanziamento caratterizzate da una certa discrezionalità da parte

del debitore nelle modalità di utilizzo.

Le esposizioni si distinguono, inoltre, in quelle di natura

monetaria da quelle non monetarie rappresentate principalmente da

crediti di firma, ossia da posizioni fuori bilancio che generano un

impegno di cassa solo in ipotesi default dell’impresa affidata.

Pertanto, il rischio di tale operazione è solo potenziale anche se

potrebbe esser rilevante, qualora si manifestasse l’evento default.

Ai fini della stima dell’esposizione tale categoria può essere trattata

alla stregua di un prestito di importo certo.

L’innovazione finanziaria rende ancora più complessa la

quantificazione corretta del valore dell’esposizione a rischio. Nel

caso dei derivati la possibile manifestazione del rischio di credito è

collegata a un andamento sfavorevole del fattore di rischio di

mercato. Pertanto, la misura dell’esposizione è scomponibile in una

parte definita ”corrente”, coincidente con il valore di sostituzione, e

un’altra parte aleatoria, definita esposizione potenziale, legata alle

variazioni nel valore di mercato del contratto.

La figura 7.4 illustra per diverse tipologie di prodotti

l’andamento possibile dell’esposizione.

Un approfondimento merita di essere svolto sulle linee di credito

del banking book, i cui fattori fondamentali possono essere

individuati:

nel profilo di ammortamento del prestito;

nel tasso di utilizzazione del credito concesso.

Il rischio di credito 437

Figura 7.4 - Profilo temporale delle esposizioni per vari

prodotti finanziari

L’esposizione di tutte le forme tecniche caratterizzate da un

profilo di ammortamento è certo, poiché vengono pattuite, all’atto

dell’erogazione, le scadenze e gli importi da rimborsare, fatta

eccezione per i prestiti con possibilità di estinzione anticipata (ad

esempio i mutui). In quest’ultimo caso, il cliente può rimborsare

anticipatamente il prestito quando è in grado di rinegoziare la stessa

posizione sul mercato a tassi più bassi. Si ravvisa in questa ipotesi

la possibilità per il cliente di esercitare un’opzione call di tipo

americano venduta dalla banca. Più in particolare, nel mutuo con

opzione di rimborso l’attività sottostante è costituita dalla

successione delle rate non ancora scadute che possono essere

“riacquistate” dal mutuatario al prezzo di esercizio determinato dal

valore del debito residuo. Un altro “trigger” per l’estinzione

anticipata può essere rappresentato dall’“upgrading” del debitore,

che, anche in tal caso, avrà interesse ad esercitare il suo diritto ad

estinguere e a rinegoziare la propria posizione, per poter usufruire

di un tasso più favorevole che il suo nuovo standing creditizio

comporterà11

. Per quanto concerne i metodi di valutazione per le

esposizioni a valore certo, si ritiene utile richiamare le metodologie

applicate nell’ambito dei principali modelli industriali. Al riguardo,

le principali tecniche applicate12

sono:

valore nominale dell’esposizione, corretto da una eventuale percentuale di recupero conseguente al default

(Creditrisk+);

11 Si può consultare, con riguardo al caso dei mutui, “La valutazione delle opzioni implicite nei

mutui bancari” in Drago D. (2001). 12 Zazzara C. (2001), in Resti A. (a cura di), pp.81-89

438 Capitolo 7

attualizzazione dei flussi di cassa futuri dell’esposizione ai tassi di interesse maggiorati di spread per il rischio di

insolvenza. Il valore mark-to-market dell’esposizione si

modifica in relazione alle variazioni intervenute nella

struttura dei tassi a termine foward a un anno relativi alle

emissioni obbligazionarie societarie per le varie classi di

rating13

. In analogia a Creditrisk+, si utilizza, in caso di

default, il valore nominale dell’esposizione rettificato in

base a una percentuale di recupero (Credit Metrics);

attualizzazione dei flussi di cassa futuri condizionati al verificarsi di un particolare evento in un contesto di

neutralità verso il rischio; il valore dell’esposizione si

determina, pertanto, come somma del valore attuale della

componente default risk e di quella rischiosa (Portafolio

Manager KMV).

Vanno, infine, considerate le linee di credito a vista o a valore

incerto, in cui il cliente attraverso il movimento del conto può

ripristinare l’ammontare di credito accordato. Più specificatamente,

il fattore effettivamente soggetto a rischio, comunemente definito

Adjusted Exposure (AE), è dato dal valore dell’utilizzato più una

frazione, UAD (Usage At Default), del margine ancora disponibile

pari alla differenza tra accordato e utilizzato. Secondo una logica

simile a quella della teoria dell’opzione, l’apertura di credito può,

pertanto, essere suddivisa in due parti: la componente rischiosa,

individuata come sopra, e quella non rischiosa.

La UAD si può assimilare a un diritto di opzione che viene

concesso dalla banca al prenditore a fronte di un premio, ossia ad

una commissione di impegno, che viene corrisposta dall’affidato.

In questo caso, l’unico limite è rappresentato dal massimale

concesso che opera come un “cap”.

La UAD rappresenta per l’affidato una sorta di assicurazione

contro l’eventualità di non poter più finanziare le proprie attività

13 I tassi di attualizzazione da applicare sono correlati negativamente alle classi di rating,

risultando naturalmente più bassi per quelle migliori, e positivamente agli orizzonti temporali,

assumendo valori più alti per le scadenze più lontane.

Il rischio di credito 439

Figura 7.5 I fattori a rischio dell’apertura di credito

Componente rischiosa:

Utilizzato + (Accordato-Utilizzato)UAD

Componente non rischiosa:

(Accordato – Utilizzato) (1-UAD)

.La stima di tale variabile si presenta, tuttavia, complessa,

poiché differisce per ogni apertura di credito al variare delle

condizioni finanziarie dell’affidato. E’ perciò necessario fare

attente previsioni sul tasso d’utilizzo in caso di insolvenza, poiché

in genere all’approssimarsi della crisi di impresa il prenditore tende

ad accentuare il ricorso al prestito per sopraggiunta incapacità di

generare i normali flussi di cassa

Il metodo più semplice può essere implementato con le

informazioni relative all’effettivo grado di utilizzo delle linee di

credito disponibili presso ciascuna banca; la maggior parte delle

esposizioni sono revocabili per cui non è detto che raggiungono i

limiti indicati da Asarnow e Marker14

. Infine, ci sono forti

14 Asarnow E., Marker J. (1995) hanno elaborato una prima stima di tale variabile per i loan

commitments, generando una distribuzione dei valori dell’impegno di affidamento per ogni classe di

rating. .La seguente tabella mostra il grado di utilizzo medio dei Loan Commitments della Citybank

in funzione della classe di rating.

Classe di rating Percentuale di

credito utilizzato(a)

Percentuale media di

utilizzo del credito*

(b)

Componente rischiosa =

= (a) + (b) [1-(a)]

AAA 0,1% 69.0% 69.03%

AA 1.6% 73.0% 73.43%

A 4.6% 71.0% 72.33%

BBB 20.0% 65.0% 72.00%

BB 46.8% 52.0% 74.46%

B 63.7% 48,0% 81.12%

CCC 75.0% 44.0% 86.00%

* normalmente non utilizzata in caso di default

APERTURA DI CREDITO

440 Capitolo 7

difficoltà nel monitorare le variazioni della UAD al mutare delle condizioni finanziarie dell’affidato anche in virtù che la relazione

banca/cliente non sia esclusiva e globale ma venga inficiata dalla

pratica diffusa dei fidi multipli.

7.7 La perdita attesa e inattesa della singola esposizione

Dopo aver individuato i driver del rischio di credito, è possibile

procedere ulteriormente nell’analisi per definire una prima misura

del rischio associato ad una data posizione debitoria e, quindi,

all’intero portafoglio. Si consideri una singola posizione debitoria

della quale sono noti i tre elementi caratterizzanti – PD, LGD, EAD

– introdotti in precedenza e riferiti ad un orizzonte temporale di un

anno. Nel breve periodo, è ragionevole accettare una visione

dicotomica dello stato di solvibilità del debitore corrispondente ai

due eventi default/non default. Da un punto di vista formale,

l’incertezza sul futuro merito creditizio del debitore può essere

modellizzata attraverso l’introduzione di una variabile casuale

Bernoulliana15

, D, che assume valore 1 per l’evento di default con

probabilità PD e valore 0 per l’evento non default con probabilità

1-PD:

DBer (PD)

Nella figura 7.6 viene rappresentato l’istogramma della

Bernoulliana considerata.

Figura 7.6 – Istogramma della bernoulliana

Figura 1.1

D=1 DD=0

PD

1-PD

15 La variabile casuale di Bernoulli viene spesso impiegata per trattare i fenomeni che danno

origine unicamente a due eventi tra loro incompatibili del tipo sucesso/insuccesso.

Il rischio di credito 441

Moltiplicando per LGD la variabile casuale D si ottiene una nuova variabile casuale, trasformazione lineare della precedente,

che esprime la perdita della posizione debitoria nei due casi

esaminati, con le rispettive probabilità. Al termine del periodo

considerato, quindi, la perdita sarà pari a LGD con probabilità PD,

oppure 0 con probabilità 1-PD. Il valore atteso della variabile

casuale LGDD viene definito tasso di perdita atteso (Expected

Loss Rate, ELR) e rappresenta una misura indicativa della frazione

di credito che verrà persa, tenendo allo stesso tempo conto della

perdita in caso di insolvenza e della probabilità che questa si

verifichi:

ELR LGDPD [7.16]

Il prodotto fra il tasso di perdita e l’esposizione in caso di

insolvenza viene denominato perdita attesa (Expected Loss, EL) ed

esprime in termini assoluti l’ordine di grandezza della possibile

perdita:

EL EAD ELR

EAD LGD PD

[7.17]

Con la definizione del concetto di perdita attesa si è introdotta

una prima forma di misurazione del livello di rischio associato ad

una singola posizione secondo l’approccio “default mode”, per il

quale la perdita si manifesta solo a seguito dell’insolvenza del

debitore. Per una corretta interpretazione di tali misure, tuttavia, è

importante soffermarsi ulteriormente sul procedimento impiegato

per ottenerla. La modellizzazione sull’esito di un credito, attraverso

una variabile casuale, rappresenta un’utile formalizzazione di un

evento futuro e, in quanto tale, incerto. In altri termini, lo stato

d’incertezza sugli accadimenti futuri viene espresso ricorrendo ad

una formalizzazione, seppure semplificata dei possibili eventi ed

associando a questi una misura del grado di fiducia che si ripone

nella loro verificabilità.

442 Capitolo 7

ESEMPIO: Calcolo dell’EL

Posto una esposizione a rischio è pari a 100.000 euro, una

PD ad un anno del 5 e una perdita in caso di insolvenza

del 40 del debito, il valore della perdita attesa (EL) si

calcola come segue:

ELR 0.40.05 0.02

EL 0.02100.000 2.000

La perdita attesa di una singola esposizione rappresenta una misura espressa a priori, che tiene conto sia della dimensione della

perdita, sia della probabilità che questa si verifichi. In quanto media

ponderata in base alla probabilità dei due possibili risultati, la

perdita attesa è un valore intermedio tra questi. Si noti, tuttavia, che

al termine del periodo considerato la perdita effettiva sarà pari ad

uno solo dei due valori ipotizzati, cioè 0 oppure EADLGD, e

quindi diversa dalla perdita attesa. Da un punto di vista

probabilistico, la perdita attesa non è altro che una misura globale

di una distribuzione, che fornisce una prima indicazione di quanto

vicino ad un valore o all’altro la perdita tende a collocarsi, tenuto

conto delle rispettive probabilità. Facendo riferimento a una singola

posizione debitoria, quindi, ha senso considerare la perdita attesa

come una valida previsione della perdita effettiva solo su un

numero sufficientemente ampio di periodi. Su un orizzonte

temporale limitato, invece, occorre considerare non solo la perdita

attesa ma anche la sua variabilità, ossia quanto la perdita effettiva

può, in senso probabilistico, discostarsi dalla perdita attesa. Per il

tasso di perdita, la misura solitamente impiegata per determinare la

variabilità della distribuzione è lo scarto quadratico medio,

definibile come perdita inattesa (Unexpected Loss Rate, ULR), nel

nostro caso abbiamo:

2 2( 0) (1 ) ( )ULR EL PD EL EAD LGD PD , [7.18]

Il rischio di credito 443

ossia la perdita inattesa è espressa come somma degli scarti al quadrato della perdita dal valore atteso (EL), ponderati con le

relative probabilità. Sostituendo ad EL il suo valore si ha, perciò:

2 2( ) (1 ) ( )ULR EAD LGD PD PD EAD LGD PD EAD LGD PD

[7.19]

da cui con semplici calcoli si ha:

2 2 2 2 2 2

2 3 3 2

(1 ) ( ) ( 1)

2

ULR EAD LGD PD PD EAD LGD PD PD

EAD LGD PD PD PD PD PD

[7.20]

La perdità inattesa è, dunque, pari a:

2ULR EAD LGD PD PD [7.21]

Assumendo un’esposizione unitaria si può porre:

2ULR LGD PD PD [7.22]

Non sorprendentemente, il tasso di perdita inatteso aumenta al

crescere di LGD e di PD. Lo scarto quadratico medio, infatti, non è

altro che la radice della media del quadrato degli scarti dal valore

atteso, ponderati in base alle rispettive probabilità. Pertanto, al

crescere di LGD aumenta lo scarto della perdita dal suo valore

atteso. Allo stesso modo, al crescere di PD aumenta il peso

attribuito a tale scarto16

. E’ evidente che quanto maggiore è ULR,

tanto maggiore è il grado d’incertezza, e quindi il rischio, associato

all’esposizione. Il prodotto tra il tasso di perdita e l’esposizione in

16 Il termine sotto il segno di radice è lo scarto quadratico medio di D:

)PD(PDPD)PD()PD()PD()D(Var)D(Sqm 111022

Si può dimostrare che

Sqm(D), per PD[0,1], è inizialmente crescente, raggiunge un punto di massimo per PD = 0,5 e diventa poi decrescente. Pertanto, si può affermare che al crescere di PD cresce anche Sqm(D) in

quanto nel contesto in esame il range entro cui oscilla PD è sempre molto basso e largamente al di

sotto di 0,5.

444 Capitolo 7

caso di default viene definito perdita inattesa (Unexpected Loss, UL):

(1 )

UL EAD ULR

EAD LGD PD PD

[7.23]

ed esprime in termini assoluti, anziché relativi, la variabilità

dell’esposizione.

ESEMPIO: Stima dell’ULR

L’importanza della variabilità della distribuzione come indicatore del

rischio può essere correttamente valutata confrontando distribuzioni simili.

Tralasciando per semplicità l’esposizione in caso di insolvenza, si

considerino due esposizioni, A e B, caratterizzate dai seguenti elementi di

rischio:

Si verifica facilmente che i due crediti hanno il medesimo tasso di

perdita atteso:

A: ELRA= 0.100.2=0.02

B: ELRB= 0.040.4=0.02

L’esposizione A è caratterizzata da una probabilità di default

particolarmente elevata e da un basso tasso di perdita in caso di insolvenza.

Viceversa, per l’esposizione B si ha una probabilità di default molto bassa

ma un alto tasso di perdita. Pertanto, ai fini di una corretta misurazione del

rischio, le due esposizioni, sebbene abbiano la stessa perdita attesa, non

possono essere considerate identiche.

Osservando la figura 7.7, infatti, si può notare come l’esposizione A

tenda ad essere più concentrata intorno al suo valore atteso di quanto invece

non avvenga per l’esposizione B. Tale impressione è confermata dalla

misurazione dei due scarti quadratici medi:

A: ULRA= 0.2 0.10)0.10(1 = 0.06

A: PDA= 0.10 LGDA= 0.2

B: PDB= 0.04 LGDB= 0.5

Il rischio di credito 445

B: ULRB= 0.0410.040.5 = 0.0980

Se ne deduce, quindi, che il livello di incertezza sull’esito finale del

credito associato all’esposizione A è maggiore rispetto all’esposizione B.

Nella figura 7.7 viene rappresentata la relazione tra probabilità

di insolvenza e perdita attesa per le due esposizioni, rispettivamente

Ae B di cui all’esempio riportato sopra.

Figura 7.7 – Probabilità di insolvenza e tasso di perdita attesa

446 Capitolo 7

Graficamente, (fig. 7.8) con riferimento alla esemplificazione sulla stima dell’ULR, in ipotesi di LGD costante, la relazione fra

probabilità di insolvenza e ULR può essere rappresentata per le due

esposizioni A e B come segue.

Figura 7.8 – Probabilità di insolvenza e tasso di perdita inatteso

Qualora si ipotizzi anche una volatilità del tasso di recupero, la

relazione precedente si modifica nel modo seguente:

2 2(1 )(1 )LGD LGDULR PD PD LGD PD [7.24]

Il rischio di credito 447

7.8 Limiti e problemi dell’approccio binomiale. L’approccio

multinomiale

L’approccio binomiale, secondo la logica default mode, si

muove solo su due possibili stati, per cui il fattore di rischio è

rappresentato da una variazione inattesa della probabilità di

insolvenza e da un eventuale possibile diminuzione del tasso di

recupero, trascurando il deterioramento del merito creditizio e il

diverso grado di rischio associato a una maggiore vita residua del

credito.

Si osserva, infatti, come nel caso di una durata del credito

inferiore a 1 anno, l’eventualità di deterioramento del merito

creditizio non assuma rilevanza, poiché la perdita sarà pari, in caso

di default, al completamento a 1 del tasso di recupero; viceversa, la

migrazione diventa un fenomeno non trascurabile nel caso di durata

del credito superiore all’anno.

Per ovviare a tale problema, si rende necessario: a)

implementare un sistema di rating al fine di assegnare ad ogni

obbligato ad una specifica classe secondo una scala ordinale, dalla

quale è desumibile il tasso di insolvenza atteso; b) costruire una

matrice di transizione pluriennale, da cui ottenere il tasso di

insolvenza di un prenditore appartenente alla stessa classe di merito

nell’orizzonte temporale considerato e valori differenti di tassi di

insolvenza in caso di migrazioni verso altre classi di rating.

Il fenomeno della migrazione verrà sviluppato procedendo alla

valutazione del processo a due stati di default, per poi,

successivamente, stimare il più completo rating process,

caratterizzato da un numero di stati maggiore di due (rispetto ai

quali il default è un caso particolare). Osserviamo preliminarmente

che, da un punto di vista statistico, le migrazioni creditizie possono

essere viste come esperimenti multinomiali17

Esse possono essere

analizzate ricorrendo alla teoria delle catene di Markov, cui si

rinvia18

. Su queste basi uno strumento essenziale per lo studio del

17 Un esperimento multinomiale è un'estensione del concetto di esperimento binomiale

(stilizzato con il lancio di un moneta), utilizzato per modellare il default. L'esperimento multinomiale

(stilizzabile con il lancio di una “moneta a più facce”) consiste nell'esecuzione di n prove, ciascuna

delle quali può avere k possibili risultati. Con riferimento al nostro caso, siamo interessati a

modellare i k possibili rating che possono avere un prenditore o un'emissione in n anni. 18 Cfr. Baldi P. (1992).

448 Capitolo 7

processo di rating è dato dalla più volte citata matrice di transizione o di migrazione. In questo contesto possiamo definirla

come una matrice. Q(t), il cui generico elemento pij(t) esprime, con

riferimento ad un orizzonte temporale t, la probabilità del borrower

o della facility19

di migrare dallo stato i allo stato j. La matrice di

transizione fornisce, pertanto, l'evoluzione del profilo di rating ad

un certo istante, senza alcuna indicazione, però, sulla dinamica

della migrazione. Per esempio, un prenditore che migri alla classe

C, partendo da A, potrebbe pervenirvi in modo diretto oppure

passando dal livello B o dal livello D, etc. Per avere un

rappresentazione dinamica della migrazione è necessario mettere a

confronto matrici relative a periodi diversi (e preferibilmente

contigui).

Quanto esposto può meglio essere formalizzato asserendo che,

essendo RT il processo di rating, con t = 0, ..., T, è:

L'espressione esprime la probabilità condizionata che, dato il

rating iniziale di ordine i rispetto ai K possibili, dopo t periodi

questo sia pari a j20

.

Le matrici di transizione possono essere studiate in termini

teorici od empirici. Nel primo, caso ci possiamo chiedere quale

relazione esista tra matrici relative ad orizzonte temporali diversi,

in particolare, si può derivare per via teorica le matrici a t anni a

partire da quelle ad 1 anno. È, poi, possibile stimare le probabilità

sulla base di osservazioni empiriche relative alle frequenze storiche

delle migrazioni verso i diversi stati creditizi.

Con riferimento al primo punto si può mostrare che:

Q(t)= Qt

[7.25]

19 Come è ovvio, il giudizio sul merito creditizio può interessare il prenditore o le singole

esposizioni. Le considerazioni che svolgeremo in questa sezione si applicano indifferentemente

all'uno o all'altro dei casi. Di seguito, perciò, ci riferiremo genericamente alle migrazioni che

interessano i prenditori, restando sottinteso che, salvo quando diversamente specificato, l'analisi è

replicabile nel contesto del facility rating. 20 In un'applicazione pratica è necessario specificare l'unità temporale usata e l'istante di

rifermento. In questo contesto parliamo genericamente di “periodo t” per non appesantire

l'esposizione. Il lettore può supporre che i periodi siano annuali e che il rating faccia riferimento

all'inizio del periodo (inizio dell'anno).

Il rischio di credito 449

dove:

Q:= Q(1) [7.26]

Rinviando all'appendice 7C per la dimostrazione formale della

7.25, ci limitiamo qui a fornire una giustificazione intuitiva. A tal

fine, ricordiamo preliminarmente che (secondo la teoria

assiomatica) la probabilità che si verifichi l'evento A e l'evento B,

sotto ipotesi di indipendenza, è data dal prodotto delle loro

probabilità individuali, ossia pApB, mentre quella che si verifichi o

l'uno l'altro degli eventi è data dalla somma della probabilità

individuali, pA + pB

Stante l'irrilevanza nella 7.25 dei periodi intermedi (siamo

interessati solo allo stato di partenza ed a quello di arrivo),

osserviamo che esistono varie alternative di migrazione da i a j nel

periodo considerato: più sono i periodi, più sono possibili diverse

combinazioni di percorsi per raggiungere un certo stato. Ad

esempio, con t = 2 e K= 3 i percorsi possibili per passare dallo stato

1 allo stato 3 sono, con ovvio significato dei simboli:

1 → 1 → 3, 1 → 2 → 3, 1 → 3 →3, 1 → 4 → 3 [7.27]

Ponendo pij:= pij(1), la probabilità che si pervenga allo stato

finale attraverso il primo percorso (ossia che si verifichi la pseudo-

­migrazione 1 → 1 e la migrazione 1 → 3) si ottiene dal prodotto di

p11p13; ne segue che la probabilità che si pervenga allo stato finale

attraverso uno qualsiasi dei percorsi possibili (ossia la probabilità

che si verifichi o il primo o il secondo o il terzo o il quarto

percorso) si ottiene sommando le probabilità dei singoli percorsi. Si

ha, quindi, che:

[7.28]

In base alla 7.25, la probabilità p13 di cui alla 7.26, deve

corrispondere all'elemento di posizione (1, 3) della matrice Q2.

Applicando il calcolo matriciale, si ha, infatti, che:

[7.29]

450 Capitolo 7

Le considerazioni sin qui svolte saranno oggetto di un’applicazione. Nella figura 7.9 viene, all'uopo, rappresentata,

usando la metrica di Moody's, una matrice di transizione ad un

anno. Notiamo che tale tabella contiene anche una colonna

indicante la probabilità che l'impresa non venga più assoggettata al

rating, c.d.withdrawn rating (WR). Applicando la formule di cui

sopra, è possibile ricavare le matrici di transizione teoriche a due e

tre anni, di cui alle figure 7.10 e 7.11. A tal fine, posta pari a la

matrice di migrazione ad 1 anno (figura 7.9), a meno delle colonne

“Def” e “WR”, le tabelle di cui alle figure 7.10 e 7.11 sono

ottenute, in applicazione della 7.25, calcolando Q2 Q

3. Possiamo

provare a verificare la 7.26 e la 7.27 con riferimento alla tabella di

cui alla figura 7.10. Osserviamo che con la metrica usata la

probabilità p13 va intesa come la probabilità di migrare dopo due

anni dallo stato AAA a quello Aa2, in simboli pAAA,Aa2. Si rileva

come i percorsi possibili per tale transizione siano i seguenti 17:

Nel primo percorso, ad esempio, si ipotizza che la migrazione in

due anni da Aaa ad Aa2 avvenga migrando da Aaa ad Aaa il primo

anno e da Aaa ad Aa2 il secondo anno.

Posta la stabilità dei tassi di migrazione, essendo indipendenti, la

probabilità congiunta è data dal prodotto delle probabilità di

transizione annuali desunte dalla tabella di cui alla figura 7.9

pAaa,AaapAaa,Aa2 con riferimento a tutti i possibili percorsi si ha:

Il rischio di credito 451

Le probabilità dei singoli percorsi

Poiché l'intersezione degli eventi indicati nella prima colonna

della tabella è vuota, la probabilità del loro alternativo verificarsi

può essere calcolata sommando le loro probabilità individuali;

perciò in base alla seconda colonna della tabella si ha:

[7.30]

Sommando i valori della terza colonna della tabella, possiamo

risolvere:

452 Capitolo 7

Guardando attentamente alla probabilità pAaa,Aa2,, si può notare

come questa possa intendersi come prodotto della riga 1 per la

colonna tre della matrice di migrazione Q. Ricordando la regola del

prodotto matriciale, tale probabilità deve anche corrispondere alla

cella (1,3) della matrice Q(2). Invero nella tabella di cui alla figura

7.10, possiamo notare come la probabilità di migrazione da Aaa a

Aa2 è proprio 5.56%, il che costituisce, peraltro, una

giustificazione logico-intuitiva della 7.25.

Tornando alla figura 7.9, possiamo notare anche come la stessa

migrazione di classe, ma con riferimento ad un orizzonte di un solo

anno, presenti un valore pari a 3.13% < 5.56%. Il che significa che

è più probabile subire un downgrading in 2 anni piuttosto che in 1.

Abbiamo così calcolato la probabilità teorica di migrare dallo

stato Aaa allo stato Aa2 in due anni. Per ottenere un'intera matrice

questi stessi calcoli, pur non brevi, andrebbero replicati tante volte

quante sono le celle della matrice (con la nostra ipotesi

semplificatrice 17X17=289). Se, poi, siamo interessati a valutare

un orizzonte temporale più lungo di due anni (tre, quattro etc.),

dobbiamo reiterare il procedimento relativo a due anni tante volte

quanti sono i periodi aggiuntivi (ad esempio, con tre anni la

procedura qui seguita andrebbe replicata 17X17X2=578 volte!).

Ovviamente è impensabile eseguire questi calcoli in modo per così

dire manuale; nei contesti operativi dovranno impiegarsi appositi

tool applicativi che consentano di produrre tali valori con

continuità ed efficienza21

.

Venendo ora al problema della stima, indichiamo con ni(t) e

nij(t) rispettivamente il numero di imprese che si trova nello stato i

al tempo t e il numero di imprese nella classe i in t che passa a j in t

+ 1.

21 Nel nostro caso le tabelle di cui alle figure 7.10 e 7.11 sono state ricavate tramite un software

dedicato all'algebra matriciale, MatLab.

Il rischio di credito 453

La probabilità di transizione da i a j, entro il periodo t valutata all'inizio del periodo, può essere stimata come:

[7.31]

Possiamo affinare i nostri calcoli raccogliendo le osservazioni

relative a più periodi. In tal caso, se il set di imprese/emissioni

sottoposte a rating fosse costante nel tempo, si potrebbe stimare la

probabilità di migrazione uniperiodale utilizzando semplicemente

la probabilità di transizione media osservata durante l'arco

multiperiodale considerato. Nella pratica, però, il rating può essere

sospeso, ossia l'agenzia di rating può non emettere più il giudizio di

merito per un dato prenditore (o un dato strumento finanziario). È,

allora, necessario definire dei criteri per trattare queste tipologie di

serie, che tendono ad essere la norma piuttosto che l'eccezione. In

genere si assume che l'assenza di rating debba essere considerata in

senso inferenziale come non informativa. Ne segue che il ritiro del

rating da parte dell'agenzia comporta l'esclusione dal computo della

probabilità di transizione delle relative osservazioni rispetto ai

periodi in cui non si è prodotto il rating.

Su questa base, se supponessimo che gli esperimenti

multinomiali con cui viene rappresentato il processo di rating siano

indipendenti, possiamo determinare lo stimatore di massima

verosimiglianza per la probabilità di migrazione come:

[7.32]

Dove, per quanto detto, andranno esclusi quei periodi per cui

non sussiste rating.

Il limite principale di un processo markoviano è la stabilità dei

tassi di migrazione, ossia la probabilità di default con cui un

soggetto, che si muove da una classe ad un’altra, risulti

indipendente dalla propria storia passata e costante e uguale per

tutti i soggetti classificati nella stessa classe. La stima della perdita

454 Capitolo 7

inattesa ULRj,t,relativa a un credito di rating j con vita residua pari a t, potrebbe essere calcolata, con un’approccio semplificato, come

radice quadrata del prodotto tra tasso di migrazione (TMj,t) per gli

scarti al quadrato delle differenze tra la perdita attesa del credito di

classe i e vita residua t-1 e la perdita attesa di un credito di classe j

e scadenza t-1, in ipotesi di una LGD costante.

La formula dovrebbe essere modificata in relazione alla

possibilità che la perdita attesa associata ad ogni classe di rating

possa risultare superiore a quanto stimato per effetto della volatilità

della LGD. Invero, tale approccio prende in esame solo la perdita

originata dal default e non quella manifestatasi per effetto del

deterioramento del merito creditizio. A tal fine, si deve

approfondire la relazione che susissiste tra valore dell’esposizione e

rating assegnato. Al riguardo, soluzioni diverse sono prospettate

nei modelli industriali dei quali citiamo l’approccio di Credit

Metrics che sarà sviluppato nel capitolo successivo

Il rischio di credito 455

Figura 7.9

456 Capitolo 7

Figura 7.10

Figura 7.11

Il rischio di credito 457

458 Capitolo 7

7.9 Dalla perdita della singola esposizione alla perdita di

portafoglio

Nel paragrafo precedente sono stati introdotti gli elementi

fondamentali per la definizione del rischio di credito e si è visto

come questi vengano impiegati nella misurazione del livello di

rischio associato ad una singola esposizione. I concetti esposti

possono essere estesi e opportunamente integrati ai fini della

misurazione del rischio che caratterizza un intero portafoglio

crediti.

Si consideri ora un portafoglio composto da N esposizioni, per

ciascuna delle quali siano noti i tre elementi caratterizzanti, PDi,

LGDi, EADi, i=1,2,...,N. Così come per una singola esposizione,

una prima misura del rischio di portafoglio è data dalla perdita

attesa del portafoglio, facilmente ottenibile dalla somma delle

singole perdite attese:

1

1

N

i i i

i

N

i

i

EL PD LGD EAD

EL

[7.33]

Avendo modellizzato il fenomeno della perdita in termini di una

variabile casuale, infatti, la perdita di portafoglio non è altro che la

somma delle singole perdite, essendo lineare ed additiva; il suo

valore atteso, quindi, è ottenuto semplicemente sommando i singoli

valori attesi. Il tasso di perdita atteso, cioè la frazione del valore del

portafoglio soggetta a rischio, si ottiene dividendo la perdita attesa

per la sommatoria delle esposizioni in caso di default:

1

1

N

i i iNi

i

i

ELELR w LGD PD

EAD

[7.34]

dove i iw EAD EAD rappresenta il peso della singola

esposizione sull’intero portafoglio.

Il rischio di credito 459

La perdita attesa di portafoglio, intesa come misura del rischio di un portafoglio crediti, presenta tuttavia un problema analogo a

quello della perdita attesa di una singola esposizione. In generale, il

valore atteso fornisce un’indicazione sintetica sull’andamento di

una distribuzione di probabilità; in altri termini, esso esprime una

misura orientativa del valore intorno al quale tende a localizzarsi

(ossia a concentrarsi) una distribuzione. Per un portafoglio crediti,

quindi, la perdita attesa rappresenta di certo un’utile informazione

della rischiosità sottostante, ma non è per sé sufficiente a fornire

una misura esaustiva della perdita del portafoglio stesso. Se

l’obiettivo è quello di misurare la possibile perdita futura associata

ad un portafoglio, in modo da adottare degli opportuni

provvedimenti cautelativi, la sola perdita attesa, presa

singolarmente, non è una misura idonea a soddisfare tale esigenza.

E’ importante individuare la corretta prospettiva entro cui il

concetto di perdita attesa deve essere giudicato. Con la misurazione

della perdita attesa si cerca di stimare a priori l’ordine di grandezza

della perdita che potrà derivare dal portafoglio. Tuttavia, la perdita

effettiva, in quanto somma di eventi incerti, si rivelerà a posteriori

sempre diversa dalla perdita attesa. Come visto per una singola

esposizione, quindi, nel quantificare il rischio di portafoglio crediti

diventa indispensabile selezionare una misura della variabilità della

perdita intorno al valore atteso. E’ necessario tenere conto della

perdita inattesa, ossia della possibilità che la perdita effettiva sia

superiore a quella attesa. Anche in questo caso, si può impiegare lo

scarto quadratico medio per misurare la rappresentatività del valore

atteso come indice sintetico della distribuzione. A livello di

portafoglio, infatti, subentra un ulteriore elemento di incertezza che

influisce sulla variabilità complessiva: la correlazione fra diverse

esposizioni. Quindi va valutata l’influenza che ogni esposizione

può manifestare sulla probabilità di default delle altre esposizioni

di cui si compone il portafoglio. Si consideri per semplicità un

portafoglio composto unicamente da due esposizioni A e B. Ai fini

di una corretta valutazione delle perdite cui il portafoglio è soggetto

non è sufficiente la conoscenza delle singole perdite inattese –cioè

ULA e ULB–, ma è necessario tener conto della variabile congiunta,

ossia del grado di influenza reciproca che può istaurarsi tra due

posizioni. L’indice solitamente impiegato per studiare il grado di

460 Capitolo 7

dipendenza reciproca sugli eventi di default di una coppia eventi di default/non-default è il coefficiente di correlazione lineare: Corr

(DA, DB). La figura 7.12 può essere utile per comprendere

intuitivamente l’importanza della correlazione nella determinazione

della complessiva variabilità del portafoglio.

Figura 7. 12 – Alberi a cascata

Nella figura sono riportati più alberi “a cascata”, ciascuno dei

quali evidenzia una diversa forma di correlazione. Senza perdita di

Il rischio di credito 461

generalità nella figura si sottintende che gli eventi di default/non default avvengano secondo una precisa successione: dapprima si

osserva l’esito dell’esposizione A e successivamente viene a

determinarsi, a seconda del tipo di correlazione esistente, l’esito

dell’esposizione B. Operando in questa ottica, attraverso la

correlazione si misura il modo in cui le probabilità di default di B si

modificano in funzione dell’esito di A. Si consideri come

benchmark il caso in cui la correlazione è nulla, Corr (DA, DB) = 0.

In assenza di correlazione, i due eventi sono tra loro indipendenti.

Le probabilità di default di A non alterano le probabilità di default

di B e viceversa. La presenza di correlazione, invece, fa sì che il

default o non default della prima esposizione modifichi le

probabilità di default dell’altra (come evidenziato dal segno di

collegamento più marcato). Una correlazione positiva, Corr (DA,

DB) > 0, implica che i due eventi tendono a muoversi nella stessa

direzione. Si ha una propensione al contemporaneo verificarsi degli

eventi di default o non default dei due crediti. In altri termini, il

default di A aumenta la probabilità di default di B, mentre il non

default di A aumenta la probabilità di non default di B. Al

contrario, una correlazione negativa, Corr (DA, DB) < 0, indica una

tendenza ad un movimento inverso dei due eventi: il default di una

esposizione riduce le probabilità di default dell’altra.

Da tali considerazioni emerge con chiarezza l’importanza della

correlazione nella misurazione della variabilità del portafoglio. Si

può dimostrare che per il semplice portafoglio considerato la

perdita inattesa, cioè lo scarto quadratico medio della distribuzione,

possa essere espressa come:

2 2 2 ,i A B A B A BUL UL UL UL UL Corr D D [7.35]

dove ULi, per i = A,B, è la perdita inattesa della singola

esposizione.

Il tasso di perdita inatteso riferito all’intero portafoglio diventa:

2 2 2 2 2 ,P A A B B a B A B A BUL w UL w UL w w UL UL Corr D D [7.36]

462 Capitolo 7

Come può dedursi dalla espressioni appena ricavate, la correlazione, in quanto misura della variabilità congiunta degli

eventi di default, diventa una componente della variabilità del

portafoglio. Proseguendo il ragionamento sviluppato in precedenza,

la presenza di una correlazione positiva aumenta la variabilità della

perdita in quanto vi è una tendenza ad uno spostamento congiunto

sull’esito delle due esposizioni. Al contrario, una correlazione

negativa riduce la variabilità del portafoglio poiché la tendenza al

movimento inverso tra le due esposizioni compensa le singole

variabilità.

Estendendo gli effetti della diversificazione su un portafoglio

caratterizzato da n titoli, si ha

,

1 1

n n

P i j i j i j

i j

UL w w UL UL

[7.37]

ne consegue che il contributo di ciascun prestito sulla rischiosità

complessiva del portafoglio dipende dal livello della perdita attesa,

dal peso di ciascuna posizione sulla esposizione complessiva del

portafoglio e dalla correlazione tra la singola esposizione con le

altre del portafoglio.

La contribuzione marginale di un singolo prestito

Ai fini della politica dei prestiti in una logica di portafoglio è

interessante stimare il contributo marginale del singolo prestito sul

rischio complessivo di portafoglio (ULMCi)22

, per verificarne vuoi

l’impatto sulla redditività attesa, vuoi l’effetto sul livello di

diversificazione e, quindi, sul grado di concentrazione. Definiamo

contribuzione di rischio marginale come l’incremento marginale di

rischio della singola esposizione sul rischio complessivo del

portafoglio . Analiticamente si deve calcolare la derivata parziale

della perdita attesa del portafoglio rispetto alla perdita attesa del

prestito i-esimo.

22 L’analisi si sviluppa secondo l’impostazione di Ong M.K., (1999), (p. 127), escludendo dalla

derivazione di ULC la ponderazione di wi, ed assumendo che la perdita inattesa sia espressa come

misura monetaria piuttosto che una percentuale dell’intero portafoglio.

Il rischio di credito 463

11

2 222

2

1 1 1

1

2

1

2

P PP

i P

i i i

n n n

j k jk j ijj k j

P i P

UL ULULULMC UL

UL UL UL

UL UL UL

UL UL UL

[7.38]

Dalla formula si evince come il contributo marginale di ciascun prestito alla volatilità del portafoglio dipenda dall’incidenza

percentuale della perdita attesa dei singoli prestiti caratterizzanti il

portafoglio. Volendo esprimere la volatilità del portafoglio in

termini di volatilità del prestito i-esimo, possiamo anche riscrivere

la formula del contributo marginale come segue:

1

1

n

P nj

P I i i

ii

UL

UL UL ULMC ULUL

[7.39]

Se l’incidenza percentuale di ciascun prestito nel portafoglio

rimane costante risulta costante anche il contributo marginale della

volatilità di ciascun prestito sulla volatilità complessiva del

portafoglio

Posto che ULi/ULP sia costante, si ha che

1

*n

P i i

i

UL ULMC UL

[7.40]

La relazione esprime come la volatilità del portafoglio sia pari al

prodotto della sommatoria dei contributi marginali di ciascun

componente del portafoglio per la UL di ogni prestito.

Possiamo pertanto stimare il contributo totale della volatilità di

ciascun prestito (ULCi) come23

:

23 Per un’analisi maggiormente dettagliata cfr. Ong M.K., (1999) pp.132-134.

464 Capitolo 7

1*

n

j ij

j

i i i i

P

UL

ULC ULMC UL ULUL

[7.41]

da cui si desume la proprietà che la sommatoria degli ULCi 24

equivale alla volatilità del portafoglio, essendo:

21 1 1

1 1

n n n

j ij i j ijn nj i j P

i i P

i i P P P

UL UL ULUL

ULC UL UL ULUL UL UL

[7.42]

Ne consegue che la contribuzione marginale è una misura di

rischio non diversificabile della singola posizione sull’intero

portafoglio.

Contribuzione marginale e correlazione di default

Assumendo che il portafoglio sia caratterizzato da n prestiti che

approssimativamente presentano le stesse caratteristiche e sono di

importo uguale (1/n), si ha che ij== costante (per tutti i J).

Riscrivendo l’equazione 1.9.5 si ha:

n

i

n

ji,jj,i

n

i

n

jj,iP covvarcovUL

11 1

[7.43]

da cui si dovrebbe ulteriormente derivare che:

22

,,1 , 1

2

2 2

22 cov

( 1)2 ( 1)

2

nn n

i i jP i i ji i ji i j j i

ii i

UL UL ULUL UL

n nnUL UL n n n UL

[7.44]

24 Cfr Ong M.K. (1999) p. 127

Il rischio di credito 465

si ha , pertanto, che :

1.21 )( 2 nnnULULiP

Assumendo quindi l’ipotesi di crediti di analogo importo

possiamo riscrivere la contribuzione marginale del prestito i-esimo

(ULCi) come:

21 1 1( ) (1 )P

i ii

ULULC UL n n n UL

n n n n [7.45]

che per valore di n elevati può essere ridotta:

i iULC UL [7.46]

Combinando la 1.9.9 e la 1.9.14, possiamo riscrivere:

,

1

n

j i j

j

P

UL

UL

[7.47]

dove esprime la media ponderata delle correlazioni tra i

prestiti.

Dall’analisi svolta emerge quanto segue:

per il calcolo della perdita inattesa di un portafoglio

applicando la 7.46 si deve stimare [n(n-1)]/2 correlazioni;

circostanza invero di difficile soluzione essendo il

portafoglio caratterizzato da un numero elevatissimo di

posizioni25

;

l’applicazione della 7.46 non prende in considerazione prestiti di ammontare diversi e fattori di correlazione di

natura differente, non consentendo, quindi, di valutare la

concentrazione del portafoglio.

25 Un portafoglio commerciale di medie dimensioni include 2000 posizioni, rispettto alle quali

si deve procedere alla stima di 1.999.000 correlazioni, cfr. Ong, M.K. (1999), p. 142

466 Capitolo 7

Correlazioni e concentrazione del rischio e diversificazione

attraverso la stima dell’asset correlation

La correlazione, la concentrazione del rischio e la

diversificazione sono aspetti diversi di un unico problema. Per

minimizzare il calcolo del numero delle defaul correlation e

mettere in evidenza gli effetti del rischio di concentrazione occorre

individuare i fattori casuali comuni che sono alla base delle

correlazioni di default.

La presenza del rischio sistemico, quale l’appartenenza delle

imprese a settori produttivi o aree geografiche omogenee, non

consente di eliminare il rischio attraverso la diversificazione, ossia

la variabilità del tasso medio registrato dal portafoglio, mediante

selezioni di impieghi a bassa correlazione.

Si potrebbero inoltre considerare anche i fattori macroeconomici

(PIL, variazione tassi di interesse) per spiegare l’evoluzione del

merito creditizio delle imprese.

Una delle metodologie al riguardo utilizzate per la stima della

correlazione si basa sul modello di option pricing, secondo il quale

la probabilità congiunta di insolvenza di due imprese viene

determinata in funzione del grado di correlazione fra le variazioni

del valore di mercato delle loro attività, che può determinare

l’insolvenza di entrambe.

Si può pertanto raffigurare la distribuzione di probabilità di tutti

i possibili valori futuri, ad esempio, di due imprese e stimarne la

probabilità di default in ipotesi di scenari più sfavorevoli in cui il

valore dell’attivo sia inferiore a quello del debito. Si procede,

quindi, alla valutazione congiunta delle probabilità di default delle

due imprese, appartenenti allo stesso “cluster” geosettoriale, con le

stesse modalità analizzate nel paragrafo precedente. L’ipotesi di

correlazione e quindi il calcolo delle probabilità, associate ai

relativi eventi, richiede di analizzare i fattori dai quali dipendono le

variazioni degli attivi delle due imprese. Supponendo di

individuare due componenti, una macroeconomica e una

idiosincratica, le variazioni di valore risultano essere pari alla

media ponderata delle variazioni dei due fattori. Qualora si

attribuisca un peso pari a 100 al fattore macroeconomico, la

correlazione sarebbe positiva e pari a 1, viceversa, avrebbe valore

nullo se fosse pari a 100 il peso della componente idiosincratica.

Il rischio di credito 467

Solo in quest’ultimo caso, le probabilità associate all’evento default sarebbero pari al prodotto delle probabilità di insolvenza

delle due imprese.

Ne consegue che una forte correlazione tra prenditori dello

stesso cluster sarebbe indice di una elevata presenza di fattori

macroeconomici, specularmente, segnali deboli di correlazione

sarebbero espressivi di una prevalenza di componenti

idiosincratiche.

Pertanto, occorre verificare per un’attenta politica della

diversificazione del portafoglio se, e in che misura, le imprese

appartenenti allo stesso cluster siano correlate tra insolvenze

all’interno dello stesso segmento e se, e in che misura, imprese

appartenenti a cluster diversi siano tra loro correlate in relazione a

singoli fattori macroeconomici.

Nel primo caso occorre accertare la presenza o meno di sensibili

escursioni del tasso di insolvenza medio; analiticamente, indicando

con σ2 la volatilità delle serie storiche dei tassi di decadimento, il

grado di correlazione medio tra i default dello stesso cluster è dato:

2

2

[ 7.48]

dove μ indica la probabilità di default di lungo periodo della

variabile binaria x che descrive il default dell’i-esimo prenditore

del cluster, ossia:

N

i

ixn 1

1 [ 7.49]

Al fine di stimare la correlazione media tra segmenti diversi

collocati tra aree geografiche o settori distinti, si deve stimare il

coefficiente di correlazione media di due imprese appartenenti a

cluster x e y:

2yy

2

xx

yx

xy

,cov

, [ 7.50]

468 Capitolo 7

dove μx e μy sono le probabilità di insolvenza di lungo periodo dei segmenti x e y.

7.10 La distribuzione delle perdite ed il capitale economico

Nella misurazione del rischio di un portafoglio crediti è di

fondamentale importanza la valutazione congiunta del valore atteso

delle perdite e della loro variabilità.

La prima misura rappresenta un indicatore dell’ordine di

grandezza della perdita. La seconda, invece, fornisce

un’indicazione sulla significatività del valore atteso come indice di

sintesi rappresentativo di una distribuzione. In altre parole,

calcolando la variabilità delle perdite intorno al valore atteso, si

cerca di determinare una misura dello stato di incertezza sull’esito

finale del portafoglio.

E’ necessario enfatizzare il ruolo della variabilità nella

misurazione del rischio di portafoglio. Dalla definizione di rischio,

esposta all’inizio del capitolo, può dedursi che il concetto di

rischiosità è strettamente connesso al verificarsi di un evento

inatteso. Quindi la perdita attesa non rappresenta la vera incognita

di un portafoglio di esposizioni.

Qualora un’istituzione finanziaria decida di concedere un

prestito ad una controparte, con la consapevolezza che questa potrà

subire un deterioramento della propria condizione di solvibilità, è

verosimile ritenere che tale ipotesi venga congruamente presa in

considerazione con la scelta di un appropriato tasso di interesse sul

prestito.

Paradossalmente, se la perdita di un portafoglio fosse nota a

priori con certezza, cioè con variabilità nulla, la banca non

dovrebbe fronteggiare alcun rischio in quanto tale perdita verrebbe

coperta e opportunamente ridistribuita fra le diverse controparti

caricando uno spread sul tasso del prestito.

Il rischio di credito, quindi, è più propriamente rappresentato

dalla perdita inattesa, ovvero dalla variabilità dell’evento dannoso

intorno al suo valore atteso.

Il rischio di credito 469

Figura 7. 13 – Distribuzione delle perdite

Ora, se si riconosce l’importanza della perdita inattesa nella

misurazione del rischio di un portafoglio crediti, occorre chiedersi

fino a che punto lo scarto quadratico medio fornisca un’adeguata

rappresentazione. Tale adeguatezza è a sua volta legata alla

asimmetria della distribuzione oggetto di valutazione. Nella Figura

7.13 la tipica distribuzione delle perdite di un portafoglio crediti

(dal tratto più marcato) viene confrontata con una distribuzione

simmetrica avente lo stesso valore atteso e scarto quadratico medio.

La distribuzione delle perdite è generalmente caratterizzata da una

notevole asimmetria positiva, cioè da una coda verso destra (long

tail). Ciò è dovuto alle specifiche caratteristiche del rischio di

credito. Da un lato, infatti, l’evento di default tende a verificarsi

con probabilità piuttosto ridotta, ma dando origine a perdite

consistenti. Dall’altro, l’evento di non-default, che si verifica con

un’alta probabilità, dà luogo ad una perdita nulla. Tale asimmetria

nei payoff e nelle probabilità genera la tipica asimmetria nella

distribuzione delle perdite di portafoglio. Lo scarto quadratico

medio viene definito come una misura simmetrica della variabilità,

in quanto non distingue fra scarti positivi e negativi rispetto al

valore atteso26

. Per distribuzioni simmetriche, rispetto alle quali la

26 Lo scarto quadratico medio non è altro che la radice quadrata della varianza. Questa è data

dalla media, ponderata in base alle rispettive probabilità, del quadrato degli scarti tra i valori che la

distribuzione può assumere ed il valore atteso. Poiché nella varianza viene computato il quadrato

degli scarti, in modo da evitare che scarti positivi vengano compensati da scarti negativi, se ne

calcola la radice quadrata per esprimere la variabilità nella stessa unità di misura del fenomeno.

470 Capitolo 7

probabilità di avere scarti positivi è la stessa degli scarti negativi, lo scarto quadratico medio fornisce un’indicazione di quanto più o

meno strette siano le code della distribuzione intorno al valore

atteso.

Figura 7. 14 – Distribuzione delle perdite: "il peso delle code”

Viceversa, per distribuzioni fortemente asimmetriche, quale la

distribuzione delle perdite di portafoglio, la variabilità è

principalmente imputabile agli scarti positivi, ovvero alla coda

lunga. Se ne deduce, allora, che per una corretta misurazione dello

stato di incertezza che caratterizza un portafoglio è necessario

valutare “il peso” della coda. Per superare tale problema si ricorre

alla scelta di opportuni intervalli di confidenza. Come è noto, per

distribuzioni continue, l’area sottostante al grafico su un dato

intervallo rappresenta la probabilità che la variabile casuale assuma

una determinazione compresa tra gli estremi dell’intervallo stesso.

Nota la distribuzione delle perdite ed assegnata una probabilità

arbitraria P%, si può calcolare il percentile LP% che caratterizza

l’intervallo di confidenza [0,LP%] rispetto al quale è possibile a

priori affermare che la perdita effettiva tende a collocarsi con

probabilità P%. Nella figura 7.14 viene tracciata la distribuzione

delle perdite. All’area al di sotto dell’intera curva, tratteggiata

diagonalmente, viene assegnato il valore di 100 (o, più

formalmente, di 1). L’area ombreggiata compresa tra 0 ed LP%,

invece, assume valore P%, dove P esprime la probabilità che la

perdita “cada” all’interno dell’intervallo [0,LP%]. Ad esempio, per

Il rischio di credito 471

la distribuzione tracciata nella Figura 7.14, viene determinato l’ammontare di perdita L99% rispetto al quale è verosimile ritenere

che la perdita effettiva si mantenga al di sotto di esso con una

probabilità pari al 99%. Più in generale, assegnata la distribuzione

delle perdite ed indicando con P% la probabilità arbitrariamente

fissata che caratterizza l’intervallo di confidenza, il valore LP% così

ottenuto viene detto valore a rischio (Value at Risk, VaR) al P%.

La logica sottostante alla metodologia del VaR è quella di calcolare

la massima perdita che un portafoglio crediti può generare,

ricostruendo la distribuzione delle perdite, e di impiegare tale

distribuzione per verificare il danno subito nello scenario peggiore

che può determinarsi con un dato margine di probabilità. La

differenza tra il valore a rischio LP% e la perdita attesa EL viene

definita capitale economico (CE = LP% - EL) e rappresenta la

massima perdita inattesa che la banca può subire con probabilità

assegnata. Per cui, determinata la perdita attesa , ELp , la perdita

inattesa, ULp , ci si può domandare quale sia l’ammontare di

capitale economico,CE, tale che , per una dato livello di protezione

(z), risulti :

%p pL EL CE z P [7.51]

Essendo il capitale economico un multiplo (k) dell’ULp, si ha:

CE = k*UNLp [7.52]

La 7.51 può essere pertanto riscritta:

%p p

p

L Elk z

UL

P [7.53]

Nell’isolare la funzione di ripartizione delle perdite passate negli

impieghi di una classe di rating elevata, si osserva una forte

asimmetria a destra, da attribuire a una bassissima probabilità di

subire perdite elevate e una elevata probabilità di tassi prossimi allo

0.

472 Capitolo 7

Viceversa, in quei crediti di classe di rating peggiore la distribuzione di probabilità dei tassi tende verso una normale,

riducendosi il grado di asimmetria. Questo consente, diversamente

dall’approccio in cui la stima della perdita non attesa è pari alla

deviazione massima rispetto al valore medio atteso, di ipotizzare

una forma funzionale della distribuzione del tipo beta27

.

27 Tale distribuzione è caratterizzata da 2 parametri e che mostrano la concentrazione, in

termini di probabilità, della distribuzione dei tassi di perdita intorno al valore atteso e lo spessore

della coda di distribuzione che rappresenta la probabilità di ottenere tassi di perdita inattesa

significativamente più elevati di quelli attesi.

Il rischio di credito 473

AAppppeennddiiccii aall ccaappiittoolloo 77

Appendice 7.A - Probabilità di default e time horizon: aspetti

formali

Definiamo i seguenti eventi:

Dk = «fallimento dell’obbligato al k-mo anno»

Ek = «fallimento dell’obbligato entro k anni»

Determinare la probabilità dell’evento Ek, posto che P Ek è la

probabilità cumulata rispetto alle probabilità marginali P Dj ≤ k.

Per semplicità supponiamo che:

( )kk D p P [7.A.1]

e che:

( )( )j kj k D D [7.A.2]

Dalla 7.A.1 si desume che le probabilità marginali (quelle

relative ai singoli anni) sono costanti e dalla 7.A.2 che gli eventi Dk

sono indipendenti.

Procedendo per induzione, si determina il valore di P E1 e P E2.

Risulta:

1 1E D p P P [7.A.3]

2 1 2 1 2 1 2( ) ( )E D D D D D D P P P P P [7.A.4]

474 Capitolo 7

Ricordando la 7.A.2 (indipendenza), si ha:

2

1 2 1 2 1 2( )D D D D D D p P P P [7.A.5]

Perciò:

2 2

2 2 1 (1 )E p p p P [7.A.6]

Si calcoli il valore di P E3:

3 1 2 3 2 3

2 3 2 3

( ) ( )

( )

E D D D E D

E D E D

P P P

P P P [7.A.7]

Ancora una volta, sfruttando la 7.A.2, si ha:

3 2 3 2 3

2 3 2(1 )

E E D E D

E D E

P P P P P

P P P [7.A.8]

Usando la 7.A.7,

2 2

3 1 (1 ) (1 )E p p p P [7.A.9]

Da cui, evidenziando 2(1 )p ,

3

3 1 (1 )E p P [7.A 10]

Osservando la 7.A.7 e la 7.A.10, otteniamo la probabilità

cumulata relativa ad un arbitrario numero n di anni:

1 (1 )n

n np E p P [7.A.11]

Il limite della 7.A.11 è di considerare costante nel tempo le

probabilità marginali. Viceversa, è verosimile ipotizzare che le

probabilità tendano a modificarsi nel tempo e il passato si rifletta

sul futuro. L’evidenza empirica conferma come in Italia e non solo

Il rischio di credito 475

che le probabilità di insolvenza marginali28

tendono a diminuire nel tempo. Ciò si può giustificare in base alla teoria delle asimmetrie

informative e della relazione con la clientela. Dal nostro punto di

vista, se il tasso di insolvenza non è costante nel tempo, la 7.A.11

va rivista, semplicemente sostituendo all’unica probabilità annuale

di insolvenza (p), le singole probabilità marginali. Indicando la

probabilità cumulata con ( np̂ ) , si ha:

1

1 (1 )n

n k

k

p d

[7.A.12]

dove:

k kd D P [7.A.13]

Dal momento che le probabilità marginali non sono più costanti,

ma disponiamo di una struttura di probabilità differenziate per le

diverse scadenze, si calcola la probabilità media come segue:

:1 (1 )n

np p p [7.A.14]

p può essere determinato per via numerica risolvendo

l’equazione:

1

1 (1 ) 1 (1 )n

n

k

k

p d

[7.A.15]

28 I dati possono essere facilmente ricavati dalle serie storiche archiviati nei sistemi nformativi

aziendali delle singole banche o su base aggregata dagli organismi di vigilanza

476 Capitolo 7

Appendice 7.B - La distribuzione Beta

Ricordiamo che:

1

Beta( , ) :

( )( ; , ) (1 ) 0 1

( ) ( )X

X

f x x x x

[7. B.1]

dove : R R rappresenta la c.d. funzione Gamma, definita

da:

1

0

( ) : e dxxx

[7. B.2]

È possibile dimostrare che se è intero allora la Gamma si

riduce ad un fattoriale, ossia:

( ) ( 1)!N [7. B.3]

Infatti:

0

(1) e d 1x x

[7. B.4]

inoltre se > 0 integrando per parti si ha:

1

00 0

( 1) e d e e dx x xx x x x x

[7. B.5]

0Poiché e 0 allora ( 1) ( )xx

[7. B.6]

Si dimostra che la media della distribuzione betaè eguale

1

0);;(

dxxxf [7. B.7]

Il rischio di credito 477

e la varianza risulta essere:

1

0 2

222

1;;

dxxfx [7. B.8]

Nel nostro caso il tasso di recupero è distribuito secondo una

Beta ed è compreso nell’intervallo zero-uno: essendo il valore

“zero” rappresentativo del caso di insolvenza in cui la perdita è pari

all’intero valore del prestito ed “uno” il caso in cui è possibile,

nonostante il default, recuperare l’intero ammontare del credito.

La forma della distribuzione dipende pertanto da e

Assumendo che= si dimostra che la funzione è simmetrica. I grafici possono essere numericamente generati, in

modo relativamente semplice, attraverso un foglio elettronico con

alcune accortezze29

.

A titolo esemplificativo, ipotizziamo che:

=2, =2.

In tal caso, il grafico della Beta sull’intervallo [0,1] è quello

indicato nella figura che segue:

Distribuzione Beta

0

0,5

1

1,5

2

0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1

RR: Tasso di recupero

PDF(RR)

29 Il lettore osservi che Microsoft Excel dispone la CDF (Cumulative Density Function) e la

gamma e non la PDF (Probability Density Function). Altri pacchetti più avanzati, quali Mathematica

o MatLab sono, invece, in grado di calcolare direttamente la PDF.

478 Capitolo 7

Il grafico appare simmetrico rispetto al valore medio atteso della distribuzione . Dalla 7.B.8 risulta, infatti, che:

2 1

2 2 2X

E [7. B.9]

Con riferimento ai tassi di recupero, vi potrebbero essere molte

situazioni in cui i valori si concentrano intorno agli estremi. “zero”

ed “uno”, piuttosto che intorno al valor medio. Circostanza

verosimile, poiché in ipotesi di insolvenza del debitore il tasso di

recupero potrebbe essere nullo, viceversa, assumere valori pari

all’unità in ipotesi di solvibilità del prenditore. Pertanto un tasso di

recupero pari al valore medio, ossia il 50% , è scarsamente

rappresentativo del valore effettivo di realizzo del credito. Una

distribuzione beta, data la sua flessibilità, può pertanto individuare

una forma ad U, maggiormente rappresentativa dell’evoluzione del

tasso di recupero.

Ricorrendo a una semplificazione, si supponga che:

=0.1, =0.1

In tal caso, sulla base delle considerazioni svolte in precedenza,

è possibile disegnare il grafico della Beta indicato nella figura che

segue:

Distribuzione Beta

0

0,5

1

1,5

2

0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1

RR: Tasso di recupero

PDF(RR)

Il rischio di credito 479

Anche in questo caso, da un punto di vista geometrico, il valore medio è sempre del 50%

0.1 1

0.1 0.1 2X

E [7. B.10]

però, gli eventi si addensano nell’area in prossimità delle code30

.

In corrispondenza degli stessi intervalli indicati nelle

esemplificazione precedente, si dimostra come la probabilità di

stimare valori prossimi agli estremi sia pari circa al 44%, mentre la

probabilità che i valori attesi si addensano intorno al valore medio

sia solo dello 3,5%.

Una difficoltà, che si incontra nell’implementazioni operative

dei modelli che utilizzano la distribuzione Beta, è da attribuire ai

due parametri e , che non sono direttamente osservabili su un

campione statistico. Diversamente, la distribuzione Normale è

completamente descritta attraverso la sua media e varianza; perciò

ai fini operativi si pone solo il problema di stimare la media e la

varianza campionarie per applicarle al modello teorico. Si rende,

allora, necessario anche per la Beta esprimere i suoi parametri sulla

base dei valori di media e varianza che caratterizzano la

popolazione statistica.

A tal fine possiamo considerare la 7.B.8 come un sistema da

risolversi rispetto alle incognite e . Dopo opportuni calcoli si ottiene:

2 2

2

2 2

2

,

11

.

[7. B.11]

Dove e 2 sono la media e la varianza.

30 Data la forma della distribuzione, il termine code può apparire poco indicato, ma viene usato

per ragioni di confronto con il grafico precedente.

480 Capitolo 7

Appendice 7.C Derivazione di ULMCi

Per calcolare la derivata parziale della perdita attesa del

portafoglio rispetto alla perdita attesa del prestito i-esimo, si

richiama la 7.C.1.

11

2 222

2

1 1 1

1

2

1

2

P PP

i P

i i i

n n n

j k jk j ijj k j

P i P

UL ULULULMC UL

UL UL UL

UL UL UL

UL UL UL

[7.C.1]

Scriviamo:

1 1 1 1 1 1

n n n n n n

j k jk j k jk i k ik j i ji

j k j k k jj i k i

UL UL UL UL UL UL UL UL

[7.C.2]

si ha:

1 1

1 1

1 1

n n

j k jk n nj k

k ik j ji

k ji

n n

j ij j ji

j j

UL UL

UL ULUL

UL UL

[7.C.3]

e, poiché ij ji :

1 1

1

2

n n

j k jk nj k

j ij

ji

UL UL

ULUL

Quindi il contributo al margine è dato da:

Il rischio di credito 481

1

n

j ij

j

i

P

UL

ULMCUL

[7.C.4]

8

I Sistemi di Rating Interno

8.1 Il Rating: definizioni e concetti fondamentali – 8.2 Segmentazione del

portafoglio – 8.3 Implementazione del sistema di Rating – 8.3.1 La

metodologia – 8.3.2 Analisi del modulo statistico – 8.3.2.1 Raccolta e analisi

dei dati – 8.3.2.2 Estrazione del campione – 8.3.2.3 Modellizzazione – 8.3.3

Cenni sui moduli andamentali e qualitativi – 8.4 Dallo score al Rating: la

granularità del sistema – 8.5 Il processo di assegnazione e revisione del

giudizio – 8.6 Reporting e Monitoring – 8.7 Stabilità e consistenza dei Sistemi

di Rating

8.1 Il Rating: definizioni e concetti fondamentali

Il termine rating viene generalmente impiegato per descrivere il

processo di assegnazione di un giudizio sintetico sulle

caratteristiche qualitative e/o quantitative di una data unità

singolarmente considerata. In ambito creditizio il rating viene utilizzato come sistema di segnalazione della rischiosità implicita

di un prenditore. Nell’accezioni proposti da Standard&Poor’s e

Moody’s, le più note agenzie attualmente operanti, il rating viene

così definito:

“Il rating di un’esposizione creditizia è il complessivo merito

creditizio di un obbligato, ovvero del merito creditizio di un

obbligato rispetto ad un titolo di credito o altra obbligazione

finanziaria, basata sui fattori di rischio primari” “…un’opinione

circa la futura abilità ed il vincolo legale di un emittente di far

fronte ai pagamenti periodici sul debito principale e sugli interessi

di un titolo a reddito fisso” 1.

Una definizione più articolata, in grado di cogliere anche una

prima descrizione del meccanismo sottostate al processo in

1 Traduzioni a cura dell’Autore, Standard&Poor’s, (1998).

482 Capitolo 8

questione, può essere rinvenuta in De Laurentis2, dove per rating si

intende:

“la classificazione di un prenditore o di una specifica

operazione in una tra più classi di rischio creditizio

predefinite in modo contiguo e ordinale, a cui saranno

collegati tassi attesi di insolvenza o di perdita diversi”.

È così già possibile pervenire all’individuazione di due fasi

concettualmente distinte del processo di rating:

la fase di rating assignment in cui l’obbligato o

l’operazione sono assegnati, attraverso una valutazione

qualitativa, alla classe ordinale di rating predefinita nel

sistema;

la fase di rating quantification in cui le classi di rating vengono associate alle misure cardinali di rischio.

L’insieme delle definizioni proposte permette inoltre di

evidenziare, in breve, i molteplici aspetti che entrano nella

composizione di un sistema di rating. E’possibile individuare, in

linea generale, diverse fasi o momenti fortemente correlati tra loro

che caratterizzano un complessivo processo di assegnazione di un

giudizio sullo stato di solvibilità di un obbligato:

Individuazione e raccolta delle informazioni necessarie;

Elaborazione delle informazioni per mezzo di valutazioni

soggettive e/o oggettive;

Esplicitazione del rating assegnato alla controparte e/o operazione;

Revisione periodica del giudizio.

È importante fin d’ora mettere in rilievo che non è possibile

identificare un Sistema di Rating ideale, cioè valido in assoluto ea

prescindere dalla singola situazione. Al contrario, l’architettura di

questo – cioè, la specificazione e l’implementazione delle diverse

2 Cfr. De Laurentis G. (2000).

I Sistemi di Rating Interno 483

componenti evidenziate – è legata in modo indissolubile alla finalità che con il Rating si intende perseguire

3.

Lo scopo primario di un Sistema di Rating Interno, è proprio

quello di pervenire ad una misurazione –come si vedrà, diretta o

indiretta – della perdita attesa connessa ad una specifica

esposizione. In definitiva, il livello di dettaglio assegnato alle

singole componenti e l’assetto effettivo del Sistema sono legati alle

finalità che attraverso il Rating si intendono perseguire, nonché al

grado di integrazione dei singoli stadi. La scelta delle componenti,

quindi, dipende da numerosi fattori, quali la natura del business

posto in essere dalla banca, l’efficienza dell’informazione

disponibile, la consistenza dei rating prodotti ed, in ultima analisi,

da una comparazione dei costi connessi al Sistema di Rating ed i

benefici che da questo si intendono ottenere. Una prima distinzione

tra Sistemi di Rating può essere rinvenuta tra il rating della

controparte (borrower rating) ed il rating dell’operazione (facility

rating) a seconda l’entità oggetto di valutazione. Nel primo caso il

rating mira ad apprezzare, sulla base del profilo del debitore, il

rischio ad esso connesso e quindi, ad individuare una probabilità di

default. Il rating dell’operazione, invece, include la contemporanea

stima, da un lato, della probabilità di default dell’impresa e

dall’altro del valore di liquidazione degli asset ed il grado di

seniority ad essi associati attraverso cui pervenire ad una

valutazione diretta della perdita attesa. Si va facendo strada anche

un’ulteriore distinzione identificabile come il rating della severity

of loss in cui il rating dell’operazione viene fatto discendere dalla

combinazione esplicita del rating della PD con il rating della LGD.

Sulla base dei criteri evidenziati, si può operare una successiva

distinzione. Se la classificazione è basata sulla misurazione diretta

della perdita attesa, prescindendo dalla quantificazione delle sue

componenti, il Sistema è focalizzato sulla singola operazione

(facility rating) e viene definito monodimensionale (one-

dimensional). Per contro, un sistema bidimensionale (two

3 Tale aspetto è stato enfatizzato da Treacy W. e Carey M. (2000), i quali hanno in più occasioni

sottolineato come “form follows function”. Ad esempio, una banca che utilizza il Rating

principalmente per identificare deterioramenti o problematiche nelle esposizioni può ritenere che un

numero di classi relativamente ristretto possa essere sufficiente. Viceversa, nel caso in cui il Rating

viene usato nella misurazione della redditività interna, allora può essere più utile una scala composta

da un numero relativamente elevato di classi.

484 Capitolo 8

dimensional) permette, da un lato, l’esplicitazione del rating controparte attraverso la stima della PD e, dall’altro,

l’esplicitazione del rating dell’operazione attraverso l’expected loss

(EL). Un sistema più complesso, invece, permette di raggiungere

una misurazione indiretta della perdita attesa attraverso una stima

disgiunta della probabilità di default, da un lato, e del tasso di

perdita dall’altro. In definitiva un sistema one-dimensional

coincide, di fatto, con un facility rating. Un sistema two-

dimensional può essere ottenuto dalla combinazione di un

borrower rating e di un facility rating. In quest’ultimo caso, il

borrower rating stima la probabilità di default della controparte

mentre il facility rating, tipicamente composto di un numero di

classi identico al primo, associa all’operazione la perdita attesa

registrata in corrispondenza della classe di appartenenza della

controparte, fatto salvo un eventuale aggiustamento per tenere

conto delle garanzie migliori o peggiori della media4. In alternativa,

un Sistema two-dimensional può essere ottenuto dal prodotto degli

output di un borrower rating e un severity-of-loss rating. La scelta

tra Sistemi monodimensionali o bidimensionali deve essere

valutata intorno al trade-off che sussiste tra costi di

implementazione e mantenimento del Sistema da un lato e livello

di accuratezza desiderato dall’altro. In genere, i primi si prestano ad

essere impiegati per funzioni amministrative o di controllo,

ammesso che la natura del business primario della banca rimanga

stabile nel corso del tempo, mentre i secondi sono più adatti nei

casi in cui si intende impiegare l’output del modello nelle fasi di

pricing, di analisi della profittabilità e quale input dei credit risk

model. Occorre sottolineare, inoltre, che, nell’ambito dei Sistemi

bidimensionali, le metodologie che stimano esplicitamente la PD e

la LGD (Sistemi PD-LGD) presentano notevoli vantaggi, rispetto

alle metodologie che stimano la PD e successivamente la EL

(Sistemi PD-EL). Questi ultimi, infatti, prevedono tipicamente dei

limiti nell’assegnazione della classe di EL, una volta nota la classe

4 È bene sottolineare che un facility rating di un Sistema one-dimensional non coincide, di

norma, con un facility rating di un Sistema two-dimensional. L’unico elemento comune riguarda

l’oggetto di valutazione, ovvero la singola operazione. Ci si attende, tuttavia, che il primo valuta

contemporaneamente le caratteristiche del debitore e dell’operazione su un’unica scala mentre il

secondo si riferisce esplicitamente all’operazione (e quindi alle garanzie a questa connesse),

lasciando il compito di stimare la qualità creditizia dell’obbligato al borrower rating.

I Sistemi di Rating Interno 485

di PD5. È evidente, quindi, che possono sorgere delle distorsioni

nella stima della rischiosità dell’operazione nei casi in cui la perdita

in caso di insolvenza sia obiettivamente lontana dalla media.

Altresì, la stima separata della LGD permette di confrontare le

valutazioni effettuate dal Sistema con l’esperienza storica della

banca. Infine, si può sostenere che i Sistemi PD-LGD siano

maggiormente in linea con il quadro normativo che viene delineato

sulle recenti proposte di modifica dell’Accordo sui requisiti

patrimoniali.

Le informazioni da raccogliere ed utilizzare per l’effettiva

implementazione del Sistema di Rating Interno sono piuttosto

numerose ed eterogenee, comprendendo, a titolo indicativo, le

capacità di reddito e di cash flow storica e prospettica, la solidità

finanziaria dell’impresa, le garanzie offerte, la qualità del

management, la dimensione, nonché la rischiosità del settore e

paese di appartenenza6. In base alla natura delle informazioni

raccolte, gli approcci sono classificabili raccogliendo, da un lato,

quelli che utilizzano informazioni sia soggettive che oggettive e,

dall’altro, quelli che invece fanno uso esclusivamente di

informazioni oggettive7. Non è possibile fissare a priori

l’importanza da attribuire alle due forme di informazione in esame

poiché il peso a queste assegnato dipende da diversi fattori e,

principalmente, dalla dimensione delle controparti. L’incidenza

delle informazioni soggettive è, in genere, proporzionale alle

dimensioni della controparte. È ragionevole attendersi, infatti, che

la complessità di un’impresa di grandi dimensioni non può essere

colta nella sua pienezza attraverso dati numerici ma necessiti di una

valutazione di fattori di natura soggettiva attraverso cui raggiungere

una visione più dettagliata e articolata della situazione patrimoniale

e finanziaria. Viceversa, la relativa semplicità strutturale di

controparti di piccole dimensioni può essere agevolmente colta

5 In altri termini, dopo aver stimato la classe di appartenenza dell’obbligato, le regole

tradizionalmente imposte a tali sistemi prevedono che nella successiva fase di definizione della classe

di perdita attesa, non ci si possa discostare di, ad esempio, una classe in più o in meno rispetto a

quella individuata in precedenza. 6 Nel paragrafo successivo verranno esaminate in dettaglio tali informazioni. 7 È bene notare che la distinzione tra informazioni di natura soggettiva/oggettiva non coincide

con la distinzione qualitativa/quantitativa. È possibile identificare, infatti, dati di natura qualitativa,

come ad esempio il settore industriale di appartenenza, ma che godono di una forma oggettiva. Cfr.

De Laurentis G. ( 2001).

486 Capitolo 8

mediante l’esame di dati numerici, o comunque qualitativi ma oggettivizzabili, storici e correnti.

In funzione della metodologia adottata in sede di elaborazione e

sintesi delle informazioni è poi possibile distinguere fra statistical-

based process, basate su valutazione di tipo statistico, ed expert

judgement-based process, basati su un processo di analisi

qualitativa condotta da parte di esperti del merito creditizio.

Un altro elemento di distinzione nell’ambito di un Sistema di

Rating Interno riguarda il numero delle classi di cui questo si

compone.

Il vantaggio di una maggiore numerosità delle classi è quella di

addivenire ad una migliore graduazione del rischio. A tal riguardo è

possibile distinguere tra rating ad elevata granularità e rating

scarsamente granulari.

La scelta del numero di classi è funzionale all’uso a cui il

Sistema e destinato. Ad esempio, se il giudizio che scaturisce dal

Rating viene poi impiegato quale elemento primario nella fase di

pricing dell’esposizione, è evidente che un Sistema altamente

granulare è più adeguato.

Viceversa, se il Rating viene utilizzato come strumento di

definizione di limiti nella composizione del banking book, rispetto

a “fasce” di rischiosità, un sistema con poche classi può essere

sufficiente. In linea teorica, è poi possibile individuare una

relazione positiva tra granularità da un lato e dimensione

dell’istituto di credito e livello di concorrenzialità del mercato di

riferimento, dall’altro.

Da tali considerazioni discende un corollario: il numero di classi

dipende dal segmento di clientela dell’istituto. Per le grandi

imprese il maggior dettaglio nella graduazione del rischio

riguarderà le classi ricomprese nell’ambito dell’investment grade.

Per le imprese del middle market e le famiglie produttrici la

maggiore granularità riguarderà le classi caratterizzate da livelli di

rischio elevati.

Infine, per ciò che concerne l’orizzonte temporale di riferimento

di un Sistema di Rating, la letteratura sull’argomento è solita

distinguere tra due filosofie alternative adottate in sede di giudizio

I Sistemi di Rating Interno 487

Tabella 8.1

dei prenditori. Secondo la logica Point-in-Time il merito creditizio

della controparte è valutato facendo riferimento alle condizioni di

solvibilità correnti. In particolare, tale accezione non è circoscritta

alle sole condizioni attuali, bensì si estende alle condizioni

attualmente previste per il periodo relativo al finanziamento. Nella

logica Through-the-Cycle, invece, la rischiosità di un obbligato è

valutata su un orizzonte temporale ben più ampio, misurato in

genere rispetto al periodo di durata del prestito ovvero su un intero

ciclo economico. In quest’ultimo caso, oggetto di valutazione è

principalmente la capacità di sopravvivenza della controparte nella

fase peggiore del ciclo economico o in condizioni particolarmente

avverse del settore di appartenenza (stress scenario). In altri

termini, le condizioni di solvibilità del prenditore vengono valutate

come se questi si trovasse nella fase peggiore del ciclo. Ne

discende, allora, che variazioni della classe di rating possono in tal

caso verificarsi solo nell’ipotesi di shock strutturali che influenzano

le condizioni di lungo periodo dell’obbligato. La scelta tra la prima

filosofia o la seconda, anche in tal caso, viene a dipendere dallo

scopo a cui è preposto un Sistema di Rating. La logica

Through-the-Cycle è adottata prevalentemente dalle agenzie di

rating in vista degli elevati costi che questa richiede ed in virtù

della natura del servizio prestato8. Al contrario, l’impostazione

8 Come è stato già sottolineato in precedenza, infatti, il giudizio espresso dalle agenzie di rating

può essere considerato come un meccanismo di segnalazione della rischiosità di un titolo a favore

degli investitori privati i quali preferiscono di solito adottare delle strategie di portafoglio orientate al

lungo periodo (buy and hold).

Criteri Classificazioni

Entità oggetto di

valutazione Borrower Rating Facility Rating

Elementi oggetto di

misurazione

One-dimensional

(EL)

Two-dimensional

(PD-EL) o (PD-LGD)

Tipo di informazioni

richieste Informazioni Oggettive Informazioni Soggettive

Modalità del processo

di sintesi

Statistical Based Judgment Based

Numero di classi Alta Granularità Bassa Granularità

Orizzonte temporale Point-in-Time Through-the-cycle

488 Capitolo 8

Point-in-Time, più sensibile a variazioni del merito creditizio della controparte nel breve e brevissimo periodo, meglio si presta a

rispondere a funzioni di reporting e monitoring della rischiosità del

portafoglio.

Nel corso dell’ultimo decennio si è assistito ad un rinnovato

interesse, da parte sia del mondo accademico che dell’industria

bancaria, alle tematiche connesse al rischio di credito. Tale

attenzione, motivata dalle esigenze di una più efficiente gestione ed

allocazione del capitale, anche in conseguenza delle consistenti

perdite causate dai più noti financial distress, ha condotto

all’introduzione di meglio articolate e complesse metodologie

statistico-matematiche di valutazione della rischiosità delle singole

controparti e di gestione del portafoglio. Non per ultimo,

l’argomento è stato ripreso dalle Autorità di Vigilanza nazionali ed

internazionali nella recente fase di revisione della normativa sui

requisiti patrimoniali delle istituzioni finanziarie.

L’approccio tradizionale adottato nella selezione della clientela,

meglio noto come “istruttoria fidi”, consente di pervenire

semplicemente ad una valutazione dicotomica della rischiosità

sottostante, dando origine ad un output esclusivamente in termini di

affidabilità/non affidabilità della singola controparte, senza

esprimere alcun giudizio sulla sua rischiosità relativa.

L’introduzione di metodologie più sofisticate permette una naturale

estensione del giudizio basata sulla classificazione della rischiosità

in più gruppi omogenei attraverso un’analisi approfondita

dell’informazione disponibile.

8.2 Segmentazione del portafoglio

Propedeutica a tali fasi è la ripartizione e la gestione della

clientela secondo classi di merito definite statisticamente. E’

evidente, che quanto più il sistema impiegato è attendibile nella

segmentazione della popolazione in classe di rischio, tanto minori

saranno i costi dovuti al fenomeno della selezione avversa e,

dunque, tanto maggiore la profittabilità del portafoglio crediti.

La segmentazione può avvenire, in relazione alla tipologia e alla

dimensione della controparte, in base a una o più variabili che il

sistema mette a disposizione in seguito alle scelte effettuate dalla

I Sistemi di Rating Interno 489

banca. Esempi di variabili sono: il fatturato, la natura dell’attività svolta, la storicità del rapporto tra banca e cliente, il settore di

appartenenza, l’area geografica di attività e la forma giuridica.

Figura 8.1 Criteri per la segmentazione

L’obiettivo è quello di dividere l’universo dei prenditori,

esistenti e potenziali, in gruppi il più possibile omogenei. A tal fine

nell’ambito della individuazione dei criteri di segmentazione

occorre tenere in considerazione le cause di default, le fonte

informative, l’organizzazione all’interno della banca, i margini e i

costi generati dal rapporto .

Cause di default

Le cause di insolvenza presentano una casistica ampia e

differenziata a livello dimensionale e giuridico. A livello di impresa

il peggioramento del merito creditizio di un’ azienda, può

ricondursi a fattori macroeconomici o a fattori specifici

dell’impresa. Ad esempio, nel caso di un’azienda con mercati di

sbocco concentrati su paesi esteri, il default può essere causato da

un repentino rafforzamento del cambio o dal deteriorarsi delle

condizioni politiche del mercato di riferimento, che comportano un

brusco ridimensionamento dei flussi di cassa rispetto alle

aspettative dell’azienda stessa.

Nel caso delle persone fisiche, le cause del default si

riconducono alla stabilità delle fonti di reddito, presenti e future,

allo stile di vita; fattori questi che possono influenzare in modo

CAUSE

DI

DEFAULT

ORGANIZZA-

ZIONE

FONTI

INFORMATIVE

MARGINI

E

COSTII

SEGMENTAZIONE

DEL PORTAFOGLIO

CREDITI

490 Capitolo 8

significativo la capacità di onorare gli impegni presi dal prenditore nei confronti della banca.

Fonti informative

Un modello di valutazione del merito creditizio deve essere

supportato, infatti, da un set di informazioni quali-quantitative

omogenee per tutte le controparti analizzate, ma i dati

concretamente disponibili per i diversi segmenti di clientela

possono variare anche in modo determinante. Nel caso di società di

capitali, la valutazione del merito creditizio si avvale di

informazioni di bilancio, ma anche delle valutazioni del mercato e

dei giudizi espressi dalle agenzie di rating. Per le società di

dimensione minore, i dati contabili, talvolta imprecisi, poco

dettagliati e scarsamente affidabili, devono essere integrati con

fonti di informazione esogene (mercati, soggetti terzi, provider) con

informazioni sul titolare /soci (rapporto fra family risk e business

risk, informazioni sul patrimonio e proprietà immobiliare).

Nel caso dei finanziamenti a privati, non avendo a disposizione un

vero e proprio bilancio familiare il processo di valutazione si

muove su dati relativi alle fonti di reddito del prenditore, alla

proprietà immobiliare, al patrimonio, allo stile di vita.

Organizzazione

Strutture dedicate, orientate al presidio di specifici segmenti,

sono all’uopo costituiti all’interno di una banca in modo da creare

unità specialistiche che assistono il cliente in tutte le sue esigenze.

Pertanto i diversi strumenti di misurazione del merito creditizio

devono riflettere l’operatività dei centri preposti alla relazione di

clientela.

Costi di istruttoria

I costi di istruttoria variano il relazione alla dimensione della

clientela: sono alti per le imprese a fronte di esposizioni di importo

elevato; contenuti per le esposizioni minime delle imprese minori.

I Sistemi di Rating Interno 491

8.3 Implementazione del sistema di Rating

8.3.1 La metodologia

Per ciascun modulo, in corrispondenza di ogni segmento, in

relazione alle proprie peculiarità, viene applicato, in funzione della

metodologia adottata in sede di elaborazione e sintesi delle

informazioni, l’approccio oggettivo, cioè basato sull’impiego di

specifiche metodologie statistico-matematiche (statistical-based

process), o l’approccio soggettivo, cioè fondato su un giudizio

qualitativo espresso da analisti esperti (expert judgement-based

process). Di fatto, i Modelli di Rating effettivamente implementati

nella pratica delle Istituzioni Finanziarie non possono essere

ricondotti ad alcuno dei due estremi evidenziati. Bensì, nella

maggior parte dei casi si preferisce optare per l’adozione di sistemi

ibridi, cioè ottenuti dalla combinazione dei precedenti. In linea di

massima, i sistemi prevedono una prima fase costituita da una

valutazione oggettiva, effettuata per mezzo di un modello statistico,

ed una seconda fase, condotta al fine dell’introduzione

dell’intervento umano in cui l’output del modello viene approvato

o corretto da un analista esperto9. Quest’ultima metodologia è in

grado di superare i limiti insiti degli approcci completamente

oggettivi o soggettivi10

. Naturalmente, l’influenza dei due metodi

di valutazione nel giudizio finale è diversa a seconda della

dimensione dell’esposizione e della controparte considerata in

funzione sia dei costi richiesti che della effettiva applicabilità

dell’uno o dell’altro metodo. È evidente, infatti, che, dato il

dispendio di risorse cui una attenta valutazione da parte di esperto

può dare origine, un maggiore approfondimento dell’analisi

soggettiva è riservato solo alle esposizioni di considerevole

ammontare. D’altro canto, l’applicazione di metodi statistici di

9 Si noti, tuttavia, che in genere i “gradi di libertà” di cui dispone l’analista per la correzione dei

risultati non vanno oltre una o due classi in più (upgrading) o in meno (downgrading) rispetto a

quelle individuate dal modello statistico (constrained expert judgement-based process). 10 Se da un lato i modelli di natura statistica non tengono conto nella debita considerazione delle

variabili di tipo qualitativo, nel senso che vi sono alcune variabili rilevanti ai fini del giudizio di

affidabilità, ma che mal si prestano ad una quantificazione e manipolazione numerica, dall’altro lato

il limite dei modelli soggettivi può essere rinvenuto nella possibilità di pervenire a valutazioni

diverse pur partendo dallo stesso set informativo iniziale. Cfr. Gaetano A., Poliaghi P. e Vandali W.

(2001).

492 Capitolo 8

scoring si presta più facilmente alla valutazione di realtà small business, dove la numerosità e l’omogeneità della popolazione

considerata permettono una parametrizzazione dei modelli

consistente rispetto al loro uso11

.

Le classificazioni basate sulla natura della informazioni

impiegate e dei metodi di elaborazione sono tra loro strettamente

connesse. Ci si attende, cioè, che l’informazione oggettiva sia

manipolata per mezzo di approcci statistico-matematici, mentre

quella soggettiva venga esaminata grazie all’intervento di analisti.

Il passaggio dall’oggettività alla soggettività del Sistema di Rating

è in funzione della dimensione della controparte. Ad esempio,

indicando con il peso attribuito alla componente oggettiva (CO)

in una scala da 0 a 100 e con 1- il peso della componente soggettiva (CS), il rating finale (R) può essere ottenuto dai singoli

punteggi ponderati, R= CO+(1-) CS. Il peso dei due fattori

varia, pertanto, nel continuum, al variare della dimensione della

controparte.

Nella prassi operativa si stanno affermando sitemi ibridi,

articolati su tre step:

modulo statistico

modulo andamentale

modulo qualitativo

Il peso dei tre score nel rating è una componente parametrica

definita in fase di impianto sulla base di una relazione del tipo

R=X*S (Statistico)+Y*S(andamentale)+Z*S(qualitativo) [8.1]

Dove S indica lo score rispettivamente per i singoli componenti

il Rating ed X,Y,Z rispettivamente i pesi.

L’analisi che segue s’incentra sullo scoring statistico con brevi

cenni alle altre sue tipologie di score.

11 L’utilizzo di sistemi di scoring puri, cioè scevri da qualunque intervento umano viene

solitamente riservato al settore retail.

I Sistemi di Rating Interno 493

8.3.2 Analisi del modulo statistico

Lo sviluppo del modello statistico, dopo aver selezionato i

segmenti, si articola in quattro fasi (figura n° 8.3)

1. raccolta e analisi dei dati

2. estrazione del campione

3. modellizzazione

4. analisi dei risultati

8.3.2.1 Raccolta e analisi dei dati

Il patrimonio informativo

È noto che la previsione delle insolvenze e la definizione di un

giudizio di affidabilità su un obbligato sono operazioni

particolarmente complesse a causa, da un lato, della numerosità dei

fattori che influiscono sullo stato di solvibilità e, dall’altro, delle

difficoltà nella modellizzazione di tali elementi e del modo in cui

questi interagiscono tra loro. In generale, i fattori di rischio (risk

factors) presi in esame in fase di assegnazione dipendono dal grado

di accuratezza che si intende raggiungere, e quindi, in ultima

analisi, dalle finalità riservate al Sistema di Rating. Occorre

sottolineare, inoltre, che i criteri selezionati, espressi in termini

formali, sebbene costituiscano una guida utile, risultano spesso

piuttosto scarni e poco articolati e quindi di non immediata

applicabilità al caso concreto. Molto spesso, quindi, l’attribuzione

della classe di rischiosità riflette la cultura creditizia interna della

banca piuttosto che una “griglia” di regole standardizzate.

Le indagini sugli ambienti entro cui si svolge l’analisi condotta

dal rater si spostano progressivamente dalle caratteristiche proprie

dell’impresa al contesto settoriale in cui questa opera, per poi

passare all’esame delle componenti strutturali di rischiosità del

paese di appartenenza.

Nel seguito, verranno brevemente descritti i singoli fattori

oggetto di analisi. Si premette che gli aspetti trattati e i criteri

adottati nella valutazione di questi possono essere concettualmente

separati in due gruppi. Da un lato, possono essere rinvenuti gli

elementi mirati alla stima della probabilità di default, ovvero diretti

494 Capitolo 8

Figura 8.2 – Analisi del modulo statistico

I Sistemi di Rating Interno 495

SEGMENTAZIONE

RACCOLTA ED ANALISI

DEI DATI

CAMPIONAMENTO DEI

GRUPPI DI IMPRESA

MODELLIZZAZIONE

ANALISI DEI RISULTATI

Raccolta dei dati ed analisi

della loro consistenza

qualità e stabilità

Selezione variabili

Modelli:

- regressioni

- reti neurali

- allberi

decisionali

Analisi dei risultati

Validazione del modello

Classe rating

Percentuale di rischiosità

Monitoraggio modello

Estrazione del

campione

Individuazione

di gruppi di

clientela con

caratteristiche

omogenee

496 Capitolo 8

alla valutazione della capacità di reddito del prenditore intesa quale capacità di generare flussi di cassa futuri, per il puntuale

adempimento delle obbligazioni assunte. Dall’altro, si trovano

quegli elementi funzionali alla definizione della effettiva severità

della perdita, e quindi finalizzati alla determinazione del valore di

liquidazione degli assets aziendali. Occorre sottolineare, tuttavia,

che il confine tra i due aggregati è alquanto labile, nel senso che

quasi mai è possibile riservare l’esame di un dato aspetto

unicamente alla stima della PD o della LGD. Nella maggior parte

dei casi, infatti, dallo stesso aspetto, oggetto di analisi, si ottengono

informazioni valide per entrambi gli scopi12

.

Analisi quantitativa

Analisi Finanziaria. Il primo passo da compiere per la valutazione

delle caratteristiche proprie dell’obbligato, qualora si tratti di

un’impresa, è fondato sull’esame dei dati di bilancio. In generale,

l’analisi di bilancio consiste in un insieme di tecniche particolari

che, mediante confronti tra valori patrimoniali ed economici,

facilita l’interpretazione dei dati risultanti dal bilancio stesso. Tali

valutazioni possono essere attuate attraverso l’impiego di due

metodologie tra loro complementari: l’analisi per indici e l’analisi

per flussi. L’analisi di bilancio per indici (ratios analysis),

attraverso il calcolo di appositi rapporti o differenze tra valori o

classi di valori contenuti nel bilancio opportunamente riclassificato

consente di valutare la situazione patrimoniale, finanziaria ed

economica dell’impresa. In definitiva, tali confronti consentono di

accertare se l'azienda osservata è solida, ossia sufficientemente

12 Probabilmente, sarebbe più corretto affermare che, ai fini della stima della PD o della LGD,

ciò che cambia non è tanto il tipo di informazione considerata, ma il modo in cui questa viene

manipolata. Ad esempio, dall’analisi della situazione finanziaria viene presa in esame la struttura

finanziaria dell’impresa distinguendo tra attività e passività correnti o a lungo termine al fine di

dedurre la capacità dell’impresa di armonizzare l’orizzonte temporale delle fonti di finanziamento

con quello degli impieghi e quindi di minimizzare i costi del finanziamento. In tal caso vengono

impiegati indici di bilancio quali il current ratio o l’incidenza degli oneri finanziari sul risultato

d’esercizio. La stessa fonte di informazione – il Bilancio d’Esercizio – viene poi usata per la

determinazione dello stato di liquidità (e di liquidabilità) dell’impresa ai fini della stima della LGD.

Ancora, l’informazione sullo stato di competitività del settore in cui l’impresa opera può essere

impiegato tanto per la stima della PD quanto nella stima della LGD. Nel primo caso, infatti, si può

ragionevolmente sostenere che una forte competitività aumenti la verosimiglianza di un default

dell’impresa a seguito, ad esempio, di errori strategici. Allo stesso tempo, dalla stessa informazione si

può dedurre che, in caso di default, è possibile una più rapida liquidazione delle immobilizzazioni

dell’impresa.

I Sistemi di Rating Interno 497

capitalizzata, ha prodotto liquidità, per cui è in grado di fronteggiare prontamente ed economicamente i propri impegni; è in

grado di rinnovarsi, e, quindi, è capace di recuperare

monetariamente gli investimenti in tempi ragionevolmente brevi;

ha una redditività soddisfacente, ossia remunera adeguatamente il

capitale ed è efficiente, poiché è in grado di utilizzare in modo

ottimale le risorse di cui dispone.

È evidente che ogni ratio non può essere considerata

singolarmente ma come elemento di un sistema più complesso, che

va esaminato nella sua interezza per non giungere ad

interpretazioni limitative. Infatti, ai fini di una corretta analisi,

ciascun indice deve essere valutato rispetto agli altri indici della

stessa azienda (dimensione aziendale), rispetto agli indici medi del

settore di appartenenza (dimensione settoriale) ed in termini di

reattività alle fluttuazioni del ciclo economico nonché di stabilità

(o, viceversa, di volatilità) nel corso del tempo (dimensione

temporale)13

. È opportuno sottolineare che la bontà e la qualità

dell’analisi non è collegata alla quantità dei quozienti calcolati, che

peraltro può essere elevatissima. L’analisi di bilancio, infatti, può

essere condotta per una molteplicità di scopi. Una massa eccessiva

di dati, pertanto, può essere fuorviante o rendere molto più

complessa la formulazione delle conclusioni. Un ulteriore

strumento a disposizione dell’analista è rappresentato dal

rendiconto finanziario, un documento nel quale trova una esaustiva

rappresentazione l’attività finanziaria dell’impresa. La dinamica

finanziaria della gestione è studiata prevalentemente mediante

l’analisi dei flussi di capitale circolante netto e dei flussi di liquidità

immediata o di cassa.

Assumendo che l’oggetto di analisi sia la determinazione della

rischiosità relativa dell’impresa, è possibile impiegare diversi

metodi statistico-matematici per individuare quegli indici

maggiormente significativi a tale scopo. Può essere utile verificare

13 È chiaro che essendo l’azienda un organismo vitale ove sussistono forti interrelazioni tra le

diverse aree gestionali e funzionali, occorre procedere ad una valutazione della stessa nel suo

complesso. Altresì gli indici riscontrati nell'analisi della situazione economica, patrimoniale e

finanziaria dell'obbligato assumono una dimensione relativa rispetto al settore di appartenenza,

poiché i ratios eletti ai fini dell'assegnazione del rating sono comparati a quelli desunti come

benchmark dal relativo settore industriale. Infine, si tratta di analisi temporale o sequenziale poiché

non dovrà limitarsi ai dati di un solo esercizio, ma essere estesa ad un numero adeguato di esercizi (di

solito, almeno tre).

498 Capitolo 8

quali indici risultano maggiormente rappresentativi nella previsione delle insolvenze.

La qualità dei dati di bilancio. Il rater dovrà esprimere un giudizio

sul grado di attendibilità o di credibilità e di espressività del

bilancio. Si tratta in sostanza di accertare la corrispondenza del

valore delle poste iscritte in bilancio con i corretti criteri di

valutazione e gli opportuni principi contabili. Tuttavia, poiché

l’analista esterno non dispone di un’ampia informativa al riguardo,

può essere accolta con particolare favore la certificazione rilasciata

da una società di revisione e l’assenza di eccezioni mosse dai

revisori stessi o dai sindaci.

Informazioni qualitative.

Le variabili di bilancio forniscono solo una rappresentazione della

situazione complessiva dell’impresa. Per migliorare le capacità

diagnostiche delle funzioni occore acquisire informazioni

sull’ambiente esterno, sull’organizzazione, sui problemi interni,

sulle principali decisioni chiave adottate dall’impresa.

Le variabili

Le variabili da utilizzare per alimentare i processi statistici sono

diversi a seconda del segmento del campione considerato e possono

essere distinte in due principali gruppi:

il primo comprende indicatori di bilancio relativi

principalmente alla situazione reddituale, alla struttura

finanziaria e alla liquidità, distinti ovviamente in base alla

natura dell’attività svolta;

il secondo è caratterizzato da indicatori che offrono una prospettiva di analisi su variabili di bilancio, su aspetti

qualitativi, quantificabili e non, e da alcuni dati anagrafici

dei soggetti.

Controllo formale sulla base dei dati.

E’ essenziale compiere alcune operazioni preliminari, quali il

controllo delle inversione di segno (es. Perdite / patrimonio

negativo), individuazione degli outliers, ossia indicatori

economicamente corretti ma privi di significato che si collocano

I Sistemi di Rating Interno 499

agli estremi della distribuzione, verifica della monotonocità del segnali economico e finanziario, per cui a partire da un certo

valore l’indicatore segnala la preferenza per uno dei gruppi della

società, prima di quel valore, e procedendo in direzione opposta, la

preferenza va un altro gruppo.

Riduzione degli indicatori da inserire nel modello

Sulla base dei test di valutazione, come le analisi fattoriali,

vengono isolati un numero ridotto di variabili ritenute più

significative.

Il periodo di riferimento

La scelta del periodo di distanza dell’evento default, su cui stimare

il modello, presenta alcune criticità. Si dimostra che stime su t-1

forniscono buone capacità diagnostiche, che vengono meno se

applicati a periodi di riferimento più ampi, t-2, t-3. Stime così

lontane hanno significato solo per individuare fragilità strutturali

che associate a debolezze economiche siano causa di insolvenza.

8.3.2.2 Estrazione del campione

Definizione dei gruppi di imprese

La definizione di imprese bad o anomale e di imprese sane o

good rappresentano scelte cruciali del modello. Nel primo caso,

occorre definire lo stato di default. Nell’ipotesi più restrittiva

l’anomalia viene definita strettamente come fallimento o come

evento connesso a una dichiarazione di una procedura concorsuale

prevista dalla normativa giuridica. Nel caso delle banche è utile

considerare non solo l’evento estremo ma anche i segnali del

processo di crisi aziendale in atto, quale le sofferenze, gli incagli

superiore a un certo periodo e le ristrutturazioni. Per quanto

concerne le imprese sane, se apparentemente presenta maggiore

possibilità di individuazione, di fatto, include un coacervo di

imprese che versano in situazioni molto diverse tra loro, ossia

imprese attive, ma anche controparti incagliate, in evidenza o ex-

incagliate. Dal punto di vista statistico ed economico dovrebbero

essere escluse dal campione le imprese eccellenti e quelle

500 Capitolo 8

vulnerabili, al fine di isolare unità produttive rappresentative di condizioni normali di gestione.

Composizione del campione

In teoria la numerosità del campione dovrebbe riflettere la

popolazione, ad esempio il 10% fallite e il 90% sane. Si preferisce,

per evitare sovrapposizioni delle distribuzioni di variabili, utilizzare

una numerosità di campioni paritetici, che pur violando il concetto

di casualità del campionamento, riduce i costi diretti e indiretti

degli errori.

8.3.2.3 Modellizzazione

Nell’approccio ordinale/cardinale alla stima del merito creditizio

possono essere fatti confluire tutti i modelli o sistemi diretti alla

determinazione della rischiosità di una controparte sviluppati nel

corso degli ultimi due decenni. Naturalmente, una classificazione

esaustiva della letteratura sull’argomento è alquanto ardua, se si

tiene conto della vastità della tematica. Ai fini di una corretta

esposizione, sembra preferibile adottare, quale ottica interpretativa

della letteratura esistente, la ragion d’essere originaria del presente

lavoro, ovvero l’indagine sugli spazi di applicabilità dei sistemi di

valutazione dei prenditori. Una volta esplicitata la chiave di lettura

della modellistica, è bene ricordare il significato attribuito ai

termini ordinale e cardinale nell’ambito delle due dimensioni

minime entro cui si misura il rischio di credito: probabilità

dell’evento creditizio di riferimento e perdita incorsa ovvero la

perdita attesa. L’approccio ordinale raccoglie le metodologie dirette

all’assegnazione di un prenditore ad una classe qualitativa, poiché

condivide con questa una serie di caratteristiche predefinite.

L’approccio cardinale, invece, comprende quelle metodologie che

consentono di ottenere una stima quantitativa diretta della

grandezza di riferimento (PD o ELR).

Focalizzando l’attenzione sui dati di input richiesti per una

effettiva implementazione dei sistemi, è possibile poi distinguere

tra modelli basati sui dati di bilancio (accounting-based) e modelli

basati sulle quotazioni di mercato (market-based). Prendendo in

esame dapprima i modelli accounting-based, anche in virtù di

I Sistemi di Rating Interno 501

considerazioni di carattere cronologico della letteratura, si può affermare che tali modelli impiegano essenzialmente metodologie

statistiche di analisi multivariata in cui le variabili contabili di

riferimento vengono tra loro combinate e pensate in maniera tale da

produrre un valore numerico che può essere a sua volta interpretato

come la probabilità default dell’obbligato o un punteggio (score14

)

utile ai fini dell’attribuzione dell’obbligato ad una classe in base a

dei range predefiniti15

. Possono essere individuati almeno quattro

approcci metodologici di analisi multivariata di rischio di credito:

i modelli di probabilità lineare;

il modello logit;

il modello probit;

i modelli di analisi discriminante.

Tali modelli16

mostrano una certa validità empirica in

corrispondenza sia di diverse fasi del ciclo economico che di aree

geografiche, sono stati comunque oggetto di alcune critiche. In

primo luogo, è stato evidenziato come tali approcci, facendo

fondamento sulle risultanze contabili, sono di fatto basati su dati

raccolti ad intervalli temporali discreti e indicativi della storia

14 È utile anticipare che, trattandosi di un argomento che ha ricevuto un’attenzione diffusa solo

in tempi recenti, l’analisi dei modelli di Rating non beneficia di una terminologia omogenea. In

questa sede, il termine scoring viene utilizzato in senso lato, estendendolo a tutti i modelli che, a

partire da un insieme di dati di input, consenta di ottenere una valutazione numerica della rischiosità

dell’obbligato. In tale ottica, verranno considerati modelli di scoring non solo i modelli da cui si

ottengono valutazioni numeriche generiche ma anche le analisi logit, il cui output è interpretabile

come la probabilità di default. È in tal senso che in questa sede viene interpretata la definizione

proposta da De Laurentis G. (1998) in Sironi A. e Marsella M.:

“Lo scoring è […] una specifica tecnica di determinazione di una misura quantitativa di

affidabilità di un prenditore (più raramente di un’operazione) sulla base di variabili di input e

relazioni, rispettivamente, individuate e stimate su predefiniti campioni di debitori utilizzando

apposite metodologie statistiche”. 15 Vi sono, naturalmente, anche modelli di scoring univariati in cui i ratios chiave del potenziale

prenditore vengono confrontati con quelli di benchmark riferiti all’industria (o gruppo), al fine di

ottenere uno score senza tuttavia adottare alcuna forma di confronto “trasversale” dei dati. Sebbene

questi siano stati i primi modelli statistici effettivamente impiegati per la previsione delle insolvenze,

possono ormai considerarsi superati e vengono pertanto esclusi dalla presente rassegna. L’approccio

univariato alle previsione delle insolvente coincide sostanzialmente con l’analisi finanziaria illustrata

nel paragrafo precedente. Il più noto lavoro condotto facendo uso dell’analisi univariata viene

generalmente riconosciuto in Beaver W.(1966), le cui conclusioni più interessanti sono riassunte da

F. Varetto (1999) in Szego G. e Varetto F. 16 Per un approfondimento di tali modelli si rinvia a una letteratura specialistica in Szego G. e

Varetto F. (1999).

502 Capitolo 8

passata (bakward looking), al contrario dei dati di mercato che invece sono maggiormente reattivi nell’anticipare le variazioni

delle aspettative degli operatori (forward looking). In secondo

luogo, le formulazioni analitiche di tali approcci impiegano

funzioni lineari dei dati di base che contrastano con una realtà che

raramente soddisfa questa proprietà. Infine, occorre rilevare come

tali modelli conservino ancora un certo margine di soggettività in

quanto non basati su un modello teorico di riferimento che lega tra

loro le variabili chiave attraverso specifiche relazioni funzionali.

I modelli market-based si sviluppano nel corso degli anni ‘90

proprio in risposta a tali criticità. L’obiettivo è quello di definire e

modellizzare, in termini analitici, il processo di default del

prenditore. In tale classe di modelli vengono solitamente

riconosciuti due approcci: strutturale da un lato ed in forma ridotta

dall’altro. Nell’approccio strutturale, che prende avvio dai

fondamentali lavori di Black e Scholes (1973) e Merton (1974),

l’evento di default viene ricondotto all’evoluzione della struttura

patrimoniale dell’impresa. L’impresa, cioè, cade in default quando

il valore degli assets, alla maturity del debito, scende al di sotto del

valore nominale di quest’ultimo. Sebbene il legame tra valore degli

assets e solvibilità dell’impresa, che caratterizza i modelli

strutturali, rappresenti un elemento particolarmente solido su cui

basare la stima della probabilità di default e del recovery rate, il

limite principale riguarda il flusso informativo necessario alla stima

dei parametri, realisticamente sostenibile solo per le società dotate

di una quotazione nei mercati finanziari17

. I modelli in forma

ridotta, invece, cercano di dedurre le proprietà del processo di

default dal differenziale di tassi che sussiste tra i titoli rischiosi ed i

titoli privi di rischio, sulla base dell’assunto che tale differenziale

rappresenti il compenso richiesto dagli investitori per il rischio di

insolvenza. Sebbene tali modelli necessitino di un input molto più

modesto rispetto ai modelli strutturali, l’assenza di un legame

17 L’effettiva implementazione dei modelli strutturali, infatti, richiede la conoscenza del valore

degli assets e della volatilità del processo stocastico che ne governa l’evoluzione (o di variabili

direttamente connesse a questi ultimi). Tali dati, ovviamente, non sono direttamente osservabili ma

possono essere approssimati solo attraverso i prezzi di mercato dei titoli azionari.

I Sistemi di Rating Interno 503

endogeno alla struttura dell’impresa ne indebolisce le implicazioni

18.

8.3.3 Cenni sui moduli andamentali e qualitativi

L’obiettivo fondamentale è di anticipare la manifestazione delle

insolvenze attraverso tempestiva acquisizione e analisi dei dati

rilevanti che qualificano l’andamento storico del rapporto banca

cliente, una preselezione dei casi critici (anomalie) ed un controllo

selettivo per classi di rischio.

Ciò comporta una rilevazione delle posizioni anomale, una

valutazione di tipo andamentale sull’evoluzione di queste ultime,

attraverso la storicizzazione delle stesse e dei dati analizzati;

l’attribuzione di un giudizio sintetico sul grado di rischio; una

classificazione dei soggetti analizzati all’interno di differenti classi

pass e/o fail; una misurazione del grado di affidabilità del cliente e

del grado di rischio a livello di singolo prodotto erogato.

La valutazione qualitativa si basa su un modulo costituito da una

serie di questionari creati ad hoc per raggruppamenti omogenei di

soggetti con il duplice obiettivo di una valutazione qualitativa del

soggetto e di archiviare informazioni supplementari sui diversi

prenditori ad integrazione del supporto informativo disponibile

all’interno di ciascuna banca.

Il questionario si articola in tre aree, una relativa all’analisi della

controparte, l’altra al settore di appartenenza e l’ultima al Paese di

operatività.

Il rating assegnato da agenzie esterne a livello di controparte,

qualora esista19

, e di settore rappresenta un fondamentale input

nella valutazione interna effettuata dalla banca. Tale elemento,

infatti, può essere, eventualmente accompagnato da un sistema di

mapping, completamente sostitutivo del rating interno o costituire

il punto di partenza per ulteriori analisi20

.

Qualora l’impresa oggetto di valutazione intrattenga rapporti

commerciali di rilievo verso paesi esteri, o svolga la propria attività

18 Da come descritto, i modelli in forma ridotta utilizzano i dati sulle quotazioni di mercato del

debito obbligazionario emesso da un’impresa. 19 In genere, infatti, tale tipo di informazione esiste solo quando l’impresa è di grandi

dimensioni. Viceversa, nella maggior parte dei casi, tale informazione è indisponibile. 20 Cfr. Basel Committee on Banking Supervision (2000).

504 Capitolo 8

all’estero21

, l’assegnazione del rating richiede un’ulteriore fase necessaria all’analisi del rischio Paese. In generale, tale fase è

finalizzata all’esame dell’ambiente politico, economico, sociale,

tecnologico e naturale dei paesi in cui l’impresa agisce o intende

agire. Gli aspetti menzionati possono essere fonte di incertezza

sotto numerosi punti di vista, in funzione del tipo di attività e di

rapporto intrattenuto. A titolo esemplificativo, nella valutazione si

può essere interessati a:

la conoscenza dell’atteggiamento della classe politica nei

confronti degli scambi internazionali, delle multinazionali,

dell’iniziativa privata, e così via;

all’eventualità di un cambiamento del quadro normativo, tale da comportare un mutamento, sia positivo che negativo,

degli scenari;

la possibilità che si verifichino tensioni sociali e politiche tali da condurre ad una nazionalizzazione o espropriazione

delle attività o ad un consolidamento del debito pubblico;

il sopravvenire di vincoli alla conversione valutaria o

dell'indisponibilità della valuta in cui è espresso il debito;

la possibilità che vi siano ampie fluttuazioni del tasso di cambio

22.

Generalmente il rating assegnato al Paese estero da un'agenzia

esterna funge da indicatore alla valutazione interna del rischio

Paese.

I punteggi associati alle diverse risposte vengono ponderate in

base ai pesi attribuiti agli argomenti e alle domande e concorrono al

calcolo dello score qualitativo che determina, insieme agli altri

settori intermedi, il rating della controparte non definitivo

21 In tal senso potrebbe essere utile fissare una soglia percentuale delle entrate o attività

localizzate al di fuori del mercato locale oltre la quale avvalersi anche del fattore rischio Paese. 22 È chiaro che un deprezzamento della moneta estera è uno svantaggio se l’impresa esporta la

sua produzione mentre è un vantaggio se l’impresa importa materie prime. Un ragionamento opposto,

poi, vale nel caso di un apprezzamento del tasso di cambio.

I Sistemi di Rating Interno 505

8.4 Dallo score al Rating: la granularità del sistema

Nei paragrafi precedenti sono stati illustrati i criteri e le

metodologie di che generalmente vengono seguite nella definizione

di un Sistema di Rating. È verosimile ritenere, tuttavia, che

nell’implementazione operativa di un framework di gestione

avanzata del rischio di credito, l’Istituzione Finanziaria, dopo aver

definito i principi-guida, realizzi Sistemi di Rating differenziati a

seconda del sub-portafoglio considerato. In altri termini, le

metodologie esposte vengono tra loro miscelate in funzione delle

caratteristiche dello specifico segmento considerato23

.

Naturalmente, il raffinamento e l’accuratezza del Sistema per sub-

portafoglio ha senso fino a quando l’ampiezza di quest’ultimo

giustifica l’impiego di risorse che comporta (analisi costi/benefici).

Una volta stabiliti i sub-portafogli di riferimento, occorre affrontare

due problemi tra loro consecutivi di grande importanza:

La definizione della numerosità e dell’ampiezza delle classi

ordinali di rating incluse in ciascun sub-portafoglio;

La creazione di una master scale, ovvero una scala di rating singola che permetta di ricondurre ad unità le valutazioni

ottenute sui diversi segmenti, garantendo così la

confrontabilità del rischio implicito in giudizi di diversa

natura (ovvero, tra prenditori differentemente caratterizzati)

nonché la coerenza nella valutazione dei rischi complessivi.

Nel seguito del paragrafo, quindi, verranno affrontate tali

tematiche.

Numero ed ampiezza delle classi.

Una classe di rating raccoglie tutti i debitori accomunati da

caratteristiche di rischio omogenee, espresse in termini di

probabilità di default o perdita attesa. Nella definizione del numero

e dell’ampiezza di classi di cui si compone il sistema, il primo

23 Ad esempio, i subportafogli in questione potrebbero essere differenziati in base alla

dimensione dell’obbligato (retail, small business, middle market, corporate e large corporate),

dell’area geografica di operatività (Nord, Centro, Sud), del settore di appartenenza (Industria,

costruzioni, servizi).

506 Capitolo 8

passo da compiere consiste nella specificazione dell’evento di default. È possibile adottare, infatti, diverse definizioni (o proxy) di

default ma in ogni caso questa condizione consiste in uno stato

definitivo dal quale, una volta raggiunto, non è più possibile

migrare verso altre classi (absorbing state)24

.

Occorre premettere che, di fatto, non esiste un principio generale

che guidi l’Istituzione Finanziaria nella realizzazione della scala di

rating. Come già anticipato in precedenza25

, la scelta del numero e

dell’ampiezza delle classi deve essere attentamente valutata in

relazione al caso concreto, ovvero alle funzionalità che si intendono

assegnare al Sistema e quindi, in ultima analisi, al livello di

dettaglio che si intende raggiungere nella graduazione del rischio,

al portafoglio esistente ed alle strategie sul profilo di rischio che la

banca intende adottare.

Può essere utile a tal fine suddividere la scala di rating in macro-

classi, in riferimento ad una condizione più estesa dello stato di

salute del debitore e provvedere successivamente ad un’ulteriore

ripartizione delle macro-classi così individuate. La terminologia

impiegata in tal senso dalla letteratura sull’argomento dipende

dall’oggetto di riferimento.

In un’ottica focalizzata alla graduazione interna si distingue tra

Pass grades e Watch grades:

L’area Pass grades identifica le imprese sane. Vengono

incluse, quindi, le classi che comportano un’accettazione

del finanziamento (nel caso del primo rapporto) o

comunque dello standing creditizio dell’obbligato (nel caso

di un downgrading) senza dare origine all’eventuale

considerazione di procedure di rientro;

L’area Watch Grades, invece, identifica le imprese problematiche. Poiché il Sistema di Rating deve comunque

conservare una funzionalità di monitoraggio sulle posizioni,

vengono incluse le classi che identificano i diversi gradi di

difficoltà che si riscontrano nelle procedure di rientro.

24 Per una sintesi delle diverse definizioni di default proposte e del dibattito attualmente in corso

presso le Istituzioni di Vigilanza nazionali ed internazionali si rinvia al paragrafo 3.10. 25 Cfr. Infra par. 3.2.

I Sistemi di Rating Interno 507

Naturalmente, il confine tra le due aree non sempre è ben definito. In particolare, si è soliti sovrapporre l’ultima classe

dell’area Pass alla prima classe dell’area Watch. In genere tale

classe non dà origine alla concessione del finanziamento, ma viene

raggiunta solo a seguito di un downgrading26

.

Dal punto di vista dell’Autorità di Vigilanza, soprattutto

statunitense, la “parte bassa” della scala viene identificata come

Regulatory grades e comprende tutte le posizioni che manifestano

difficoltà di rientro, così come definite dalle Autorità stesse. Per tali

classi sono previste specifiche norme in relazione alle riserve27

.

In assenza di una regola generale, che in qualche modo guidi

l’Istituzione Finanziaria nella identificazione del numero e

dell’ampiezza delle classi di cui si compone ciascuna area, può

essere d’aiuto, sviluppando le considerazioni di De Laurentis28

,

soffermarsi sull’esemplificazione delle scelte che diverse banche

potrebbero adottare in rapporto a differenti esigenze.

Nella figura 8.2 vengono rappresentate tre diverse scale di rating

associate a tre banche diverse, A, B e C, ipotizzando per semplicità

lo stesso numero di classi e valutandone soltanto l’ampiezza.

Figura 8.3 – Scale di Rating

La banca A opera prevalentemente nel segmento retail,

caratterizzato, come è noto, da una certa omogeneità della

26 Cfr. G. De Laurentis (2001) e A. Resti (2001). 27 Le Autorità statunitensi distinguono tra: Other Assets Especially Mentioned (OAEM),

Substandard, Doubtful e Loss, a cui sono rispettivamente associate specifici coefficienti di riserva.

Cfr. W. Tracey e M. Carey (1998). 28 Cfr. De Laurentis, (2001).

508 Capitolo 8

rischiosità dei prenditori. Per la banca A può essere opportuno scegliere la stessa ampiezza per ogni classe, al fine di evitare una

eccessiva concentrazione dei prenditori nelle classi più rischiose

qualora adotti un scala come quella di B o di C. Per contro, le

banche B e C, operando prevalentemente nel settore corporate,

potrebbero essere specificatamente interessate ad un migliore

raffinamento nelle classi alte della scala, poiché operando in

mercati molto concorrenziali, l’esatta determinazione della

rischiosità del potenziale prenditore si traduce in un miglioramento

del pricing, agendo quindi su un fattore altamente strategico. Poi, la

scelta del numero di classi su cui effettuare un maggiore

raffinamento della valutazione di rischiosità potrebbe essere dettata

da esigenze organizzative o da motivazioni legate al costo del

raffinamento. Ad esempio, la banca C, essendo di grandi

dimensioni ed operante a livello nazionale ed internazionale,

potrebbe individuare delle economie di scala nell’utilizzo di classi

di piccola ampiezza. Viceversa, la banca C, operante ad un livello

più localizzato può trovare non conveniente il massiccio impiego di

risorse che la costruzione ed il mantenimento che un sistema di

rating così sofisticato comporta.

Master scale.

Una volta effettuate le scelte sulla segmentazione del portafoglio e

costruiti i differenti sotto-sistemi di rating, è necessario individuare

una metodologia che consenta di ricondurre ad unità le valutazioni

implicite in ciascuna scala. Tale esigenza, infatti, può essere

considerata imprescindibile allorquando si riconosca il rating come

primo passo verso una gestione avanzata del rischio. È solo su una

scala di valutazione comune, infatti, che è possibile seguire le

strategie della banca in relazione alle sue politiche di pricing e di

allocazione del capitale, nella misura della profittabilità, nella

determinazione delle riserve in rapporto al suo risk appetite.

In ragione della difformità tra i diversi Sistemi di Rating

implementati all’interno di un istituto, la realizzazione di un unico

metro di giudizio sulla rischiosità dei diversi assets della banca può

essere più o meno difficoltosa. Le uniche metodologie adatta alla

riconduzione delle singole scale in una scala unica può avvenire

I Sistemi di Rating Interno 509

solo attraverso le frequenze relative di default29

. L’esperienza storica sulle perdite in ciascuna classe di ogni scala, può essere

d’aiuto alla banca per valutare la rischiosità delle scale di diversa

dimensione quali-quantitativa. In assenza di dati storici sufficienti –

come si vedrà, problema comune alla maggior parte delle

istituzioni – è possibile fare riferimento al sistema del mapping,

ossia all’associazione delle classi di rating interno alle classi di

un’agenzia esterna e fare riferimento, quindi, alle probabilità di

default calcolate da quest’ultima.

8.5 Il processo di assegnazione e revisione del giudizio

L’implementazione ed il mantenimento di un Sistema di Rating

pervadono fortemente l’organizzazione dell’Istituzione Finanziaria.

In un’ottica allargata di gestione del rischio di credito si rivela

opportuno un reengineering dei processi di affidamento. È

verosimile ritenere, infatti, che i profondi cambiamenti prospettati

dalle scelte operate in merito a tale aspetto si rifletteranno sul

rapporto con la clientela e sul posizionamento della banca sul

mercato.

In un recente studio dell’ABI30

viene suggerita la creazione di

una unità autonoma di gestione del rischio al pari di quanto

realizzato da molte Istituzioni per la gestione del rischio di

mercato. Compito di tale unità, quindi, dovrebbe essere quello di

procedere all’approvazione ed al controllo dei rating proposti da

altri soggetti nonché, in taluni casi, ad una loro diretta definizione.

L’autonomia dell’unità in questione dovrebbe essere intesa

come indipendenza gerarchica e funzionale dall’Area Crediti.

Tuttavia, occorre rilevare che, se si considerano i costi che questa

unità implicherebbe, una simile soluzione si scontra con la

sostenibilità economica di una tale scelta31

. Nella realtà operativa si

assiste spesso alla creazione di una unità di revisione dei rating

nell’ambito dell’Area Crediti ma distaccate dalle unità con potere

deliberante.

29 Cfr. Resti A. (2001). 30 Cfr. ABI, (2000). 31 Cfr. Treacy W.e Carey M. (2000).

510 Capitolo 8

In un modello organizzativo “classico” gli organi preposti al funzionamento dei sistemi di rating sono così identificati

32:

Gestori del rapporto (Relationship Managers o Loan

Officers), ovvero operatori che svolgono funzioni

commerciali, con compiti di istruttoria e, per taluni

segmenti di attività, anche poteri deliberativi di

assegnazione del rating;

Addetti fidi (Credit Staff) responsabili della concessione e del rinnovo dei fidi;

Unità di revisione dei rating (Loan Rewiew Unit) con funzioni di auditing o controllo.

La responsabilità primaria nell’assegnazione del rating viene a

dipendere essenzialmente dal business mix della banca. Nel

segmento del middle market e small business è lasciato un maggior

argine di libertà al gestore del rapporto. Tale soluzione viene

seguita dalle banche principalmente perché la descritta unità, in

virtù della funzione svolta, possiede un ricco patrimonio

informativo sulle controparti, il che incide positivamente sulla

contrazione dei costi e dei tempi di approvazione del

finanziamento. Il processo per l’assegnazione del rating alle

controparti large corporate è invece demandato agli addetti fidi. I

più elevati costi connessi ad una maggiore meticolosità

nell’assegnazione del rating possono essere coperti dai margini di

profitto più ampi. In taluni casi è prevista la cooperazione tra le due

unità per pervenire in un processo informale (pre-approval

process) all’attribuzione del rating. Occorre rilevare, poi, che

spesso le performance del Relationship Manager, e quindi la loro

remunerazione, sono valutate in funzione dei volumi e/o redditività

dell’Area Crediti creando un incentivo all’adozione di

comportamenti maggiormente orientati alla soddisfazione

economica personale piuttosto che agli interessi della banca. Tali

circostanze, infatti, potrebbero influenzate in maniera ottimistica la

proposizione o assegnazione del rating. L’assegnazione di un rating

migliore rispetto a quello reale da un lato evita l’avvio di indagini

32 Cfr. Treacy W. e Carey M. (2000).

I Sistemi di Rating Interno 511

integrative (non più di competenza del Relationship Manager) allorquando la rischiosità eccede un livello predefinito, e dall’altro

accresce la profittabilità dell’operazione.

Il rating deve essere visto come un processo dinamico. Il merito

creditizio di un prenditore, infatti, può modificarsi nel corso del

tempo. È necessario, pertanto, verificare con periodicità la coerenza

dei giudizi assegnati al fine di individuare variazioni di rilievo in

grado di produrre modifiche sostanziali alla rischiosità

dell’obbligato. Soprattutto in un’ottica mark-to-market, una delle

più importanti finalità generalmente attribuite ad un Sistema di

Rating, infatti, è quello di monitorare le singole posizioni per

anticipare variazioni inattese del merito creditizio del portafoglio.

Tali aspetti si riflettono fortemente sul pricing dei prestiti (cioè

sulla rinegoziazione dei termini del finanziamento), sulla creazione

delle riserve e l’allocazione del capitale. Particolare importanza

assumono, quindi, i processi di revisione:

monitoraggio di chi ha elaborato e/o approvato il rating;

revisioni periodiche trimestrali o annuali dei crediti più rischiosi;

le revisioni mirate o a campione da parte di loan review unit.

Il primo ambito del processo di revisione (monitoring) può

anche non essere svolto in maniera continuativa. In genere esso

viene a basarsi sull’utilizzo di credit scoring model. Inoltre, ove si

renda necessario il passaggio di un obbligato ad una diversa classe

di rating, il processo di assegnazione deve ricalcare quello relativo

al momento dell’instaurarsi del rapporto.

Le revisioni periodiche sono svolte dagli operatori di linea o dal

credit staff che tentano di individuare le modalità per migliorare il

rischio delle posizioni watch grade.

Le unità di revisioni rischi sono invece unità indipendenti con

compiti diversificati. Tra gli altri svolgono funzioni consultive in

caso di difficoltà riscontrate nell’assegnazione del rating;

mantengono l’integrità del sistema di rating disciplinando i

comportamenti di operatori che emanano rating non accurati;

svolgono un processo di revisione a campione e, in caso di

512 Capitolo 8

scostamento di almeno due classi, chiedono un confronto con coloro che hanno istruito e/o deliberato l’assegnazione.

8.6 Reporting e Monitoring

Un adeguato sistema di reportistica direzionale derivante da un

Sistema di Rating Interno attraverso un’aggregazione e

stratificazione del rischio, consente di descrivere il trend di

rischiosità del portafoglio crediti e rappresenta, quindi, un fattore

strategico di rilievo. Tradizionalmente il report sottoposto

all’attenzione dell’alta direzione e del consiglio di amministrazione

era incentrato sull’andamento delle partite anomale (incagli,

sofferenze); attraverso un Sistema di Rating è, invece, possibile

analizzare in dettaglio l’andamento delle distribuzioni di

esposizioni tra le varie classi di rating. Le esposizioni possono

essere considerate sia in termini di accordato, utilizzato e EAD

(esposizione al momento del default), sia in termini di esposizioni

nette cioè ottenute sottraendo ai valori anzidetti il valore atteso di

recupero per singole linee di credito associate ad un dato debitore.

Gli strumenti utilizzati al fine di identificare il mix di portafoglio

per classi di rating sono essenzialmente rappresentazioni grafiche,

ovvero tabulati. Per rendere l’analisi più analitica è possibile

incrociare i risultati del rapporto esposizione/classe di rating con

altri fattori quali ramo di attività dei prenditori, forma giuridica

dell’affidato, forma tecnica del finanziamento e quant’altro.

Nell’ipotesi in cui la reportistica debba alimentare il processo di

controllo delle performances allora è possibile combinare la

dimensione dell’esposizioni a rischio con quella riferita alle “aree

di risultato” (dipendenze o aree territoriali) e ai “centri di

responsabilità” (gestori del rapporto, unità organizzative).

Ai fini di una informativa di sintesi è possibile avvalersi di un

indicatore del rating medio ponderato, noto come Weighted-

Average Risk Rating (WARR), espresso dalla seguente formula:

n

in

jj

ii

e

erWARR

1

1

[8.2]

I Sistemi di Rating Interno 513

dove ri rappresenta la classe di rischio i-esima, ei l’esposizione totale della classe i-esima ed il denominatore rappresenta

l’esposizione complessiva di portafoglio. L’indicatore così definito

esprime la classe media di rating del portafoglio, ponderando

ciascuna controparte in base alla rispettiva esposizione. Tale

algoritmo, pur consentendo di cogliere le modifiche intervenute nel

mix delle esposizioni rispetto ai rating assegnati, presenta un limite

poiché le probabilità di default e le perdite non crescono in misura

lineare rispetto alle classi di rating33

.

Un altro indicatore di sintesi è rappresentato dal rapporto tra il

numero degli upgrade ed il numero dei downgrade:

m

j

n

i

downgrade

upgrade

1

1 [8.3]

ovviamente se il rapporto è superiore all’unità si ha un

miglioramento della qualità del portafoglio, mentre se è inferiore

all’unità si assiste ad un peggioramento dello stesso.

Un maggiore livello di analiticità può essere ottenuto mettendo a

confronto la differenza tra i notches – cioè il numero di classi su

cui è avvenuto lo spostamento della controparte – degli upgrades e

dei downgrades ed il numero totale dei debitori rated attraverso la

seguente espressione:

rated debitori dei numero

notchesdowngradenotchesupgrade

driftquality credit

n

i

m

j

1 1

[8.4]

Tale rappresentazione consente di individuare la consistenza

degli upgrade rispetto ai downgrade e l’intensità del movimento

netto rispetto al totale dei soggetti rated. Ove risultino disponibili i

tassi di perdita attesi per ogni classe di rating, ponderandoli con le

relative esposizioni, è possibile ottenere il tasso di perdita medio di

33 In termini non del tutto corretti, si potrebbe affermare che un aumento del WARR del 10% non

implica un aumento della perdita attesa o della probabilità di default media del portafoglio della

stessa misura.

514 Capitolo 8

portafoglio. Ad esempio, considerando un ipotetico portafoglio di 100 esposizioni, se vi sono stati 5 upgrade di due classi, 5 upgrade

di una classe e 10 downgrade di una classe, l’indicatore misura un

miglioramento medio del 5% del merito creditizio del portafoglio:

%driftquality credit 5100

1101525

[8.5]

Occorre rilevare, tuttavia, come la misura così ottenuta sia

fortemente parziale rispetto alle variabili fondamentali del rischio

poiché non prende in considerazione l’esposizione associata alla

variazione del merito creditizio della singola controparte. Ad

esempio, un drift positivo del credit rating medio potrebbe essere

causato in larga misura da un upgrade di numerose piccole

controparti, pur in presenza di un pesante downgrade di una

controparte di grandi dimensioni.

8.7 Stabilità e consistenza dei Sistemi di Rating

Come si è visto, un Sistema di Rating permette l’assegnazione

di un obbligato ad una specifica classe, secondo una scala ordinale,

in base alla rischiosità di cui questo è portatore – espressa facendo

riferimento alla probabilità di default (PD) o al tasso di perdita

atteso (ELR). Il giudizio fornito dal Sistema rappresenta una

valutazione qualitativa del rischio creditizio del prenditore espressa

attraverso l’individuazione di una categoria che meglio lo

rappresenta. Tuttavia, il concreto utilizzo del giudizio così espresso

per le finalità generalmente riconosciute ad un Sistema di Rating

implica la trasformazione della classe qualitativa di merito

creditizio in un dato numerico idoneo a fornire una misura

quantitativa della probabilità di default o del tasso di perdita atteso.

Il passaggio da una misura ordinale ad una misura cardinale,

noto come rating quantification, viene solitamente riconosciuto

come una delle fasi più delicate nell’implementazione di un

Sistema di Rating Interno. I problemi principali di tale operazione

restano in larga misura legati alla enorme mole di dati richiesta per

ottenere stime significative delle variabili di rischio di credito

I Sistemi di Rating Interno 515

considerate. Assumendo che il processo di assegnazione soddisfi una proprietà di coerenza (consistency) – sia, cioè, in grado di

classificare prenditori simili nella stessa classe e prenditori

differenti in classi diverse – il criterio di più immediato e

metodologicamente corretto per esplicitare la probabilità di default

da una classe di rating è quello di stimare la frequenza relativa dei

default della classe stessa (ovvero, del tasso medio di perdita).

Tuttavia, un’indagine più approfondita degli aspetti analitici di

tale metodologia rivela le sostanziali difficoltà che la rendono nella

maggior parte dei casi di fatto impraticabile. Il problema è quello di

stimare la probabilità di default implicita della i-esima classe, PDi.

L’evento creditizio di riferimento viene quindi formalizzato

assumendo che il fenomeno possa essere trattato in termini di una

distribuzione Bernoulliana, Bij(PD), che assume valore 1 quando la

j-esima impresa della classe i cade in default e valore 0 quando

questo non si verifica. Poiché il valore atteso di una Bernoulliana è

esattamente PD, lo stimatore della probabilità di default non è altro

che la media campionaria della classe:

j

jNjj

N

B...BBPD

j

21

[8.6]

dove Ni è il numero di obbligati appartenenti alla classe i-esima. La

probabilità di default stimata, quindi, non è altro che la frequenza

relativa delle insolvenze, ossia il rapporto tra i default di una classe

ed il numero di obbligati appartenenti alla stessa classe. Dalla

probabilità di default stimata è poi possibile impiegare la (8.6) per

passare alla deviazione standard della stima, PD , la quale misura

il grado di affidabilità riposto nella stima ottenuta:

j

PDN

PDPD

1

[8.7]

516 Capitolo 8

Se si fissa la deviazione standard desiderata, la (8.7) può essere risolta per ottenere il numero di osservazioni necessario a tale

scopo, data la probabilità di default:

PD

j

PDPD

N

1

[8.8]

Una semplice analisi numerica dell’equazione (8.8) permette di

comprendere il carico informativo richiesto per ottenere delle stime

accettabili della probabilità di default. La tabella 8.2 contiene i

valori ottenuti applicando la (8.8) in corrispondenza di diversi

valori di PD e PD. Ad esempio, in corrispondenza di una

probabilità di default del 2% occorrono 8711 osservazioni per

raggiungere una deviazione desiderata pari allo 0,15%. Da tali

valori si intuisce, facilmente, come il numero di osservazioni

richiesto per una stima significativa delle probabilità di default

implicite in una classe di rating sia estremamente elevato, anche in

considerazione del numero di classi di cui si compone il

Sistema.Tale problema assume una rilevanza estrema allorquando

si considera che il numero di Istituzioni Finanziarie, tanto a livello

nazionale che internazionale, in grado di accedere a database

talmente ampi da soddisfare le necessità informative richieste è

veramente molto esiguo.

Tabella 8.2

Deviazione Standard (obiettivo)

PD 0,10% 0,15% 0,25% 0,30%

0,5% 4975 2211 796 553

1,0% 9900 4400 1584 1100

1,5% 14775 6567 2364 1642

2,0% 19600 8711 3136 2178

2,5% 24375 10833 3900 2708

3,0% 29100 12933 4656 3233

3,5% 33775 15011 5404 3753

4,0% 38400 17067 6144 4267

4,5% 42975 19100 6876 4775

5,0% 47500 21111 7600 5278

I Sistemi di Rating Interno 517

Una soluzione spesso prospettata per ovviare a tale inconveniente è quella di individuare una relazione (mapping) tra le

classi di cui si compone il Sistema Interno e quelle di un’agenzia

esterna, per le quali sono disponibili frequenze relative di default,

calcolate su dati storici particolarmente ampi. Tale metodologia,

tuttavia, non è di immediata applicabilità come si potrebbe ritenere

in prima analisi. L’individuazione di un legame tra classi interne e

tassi di default esterni pone infatti due problemi rilevanti:

L’identificazione della classe sulla scala esterna che meglio

si adatta a rappresentare la classe di rating interna34

;

La diversa natura dei Sistemi di Rating Interno rispetto ai giudizi delle agenzie esterne.

La prima questione può essere fronteggiata ricorrendo a delle

valutazioni soggettive da parte dei rater sulle metodologie

attraverso cui si perviene all’assegnazione dei giudizi tanto

all’interno quanto all’esterno al fine di creare la più omogenea

armonizzazione tra le due scale. Una metodologia meno soggettiva,

invece, consiste nell’identificare una relazione tra le diverse classi

per mezzo di un processo di inferenza condotto sulla base degli

indici di bilancio risultanti dalle due valutazioni. In altri termini, gli

indici di bilancio di un gruppo di imprese classificate secondo la

scala interna viene confrontato con gli indici di un gruppo

classificato da un’agenzia esterna per ottenere delle indicazioni sui

corretti accoppiamenti35

.

Una volta individuata la migliore associazione tra la scala

interna e quella esterna, occorre valutare con estrema attenzione la

diversa natura del giudizio assegnato dai Sistemi di Rating

considerati. In tale fase, infatti, diventa particolarmente rilevante la

diversa filosofia con cui vengono condotti i processi di

34 Naturalmente, la relazione non deve necessariamente essere del tipo one-to-one. Poiché

difficilmente le due scale avranno lo stesso numero di classi, in relazione al numero di classi di cui si

compone il sistema interno in rapporto a quello esterno, è possibile associare una o più classi interne

ad una classe esterna o viceversa una stessa classe interna a due classi esterne. 35 La “bontà teorica” della metodologia descritta, se non pone grossi problemi quando effettuata

da banche anglosassoni, lascia qualche dubbio se applicata al sistema italiana a causa delle forti

differenze normative, istituzionali e di definizione del default esistenti tra l’ambito operativo italiano

ed il mondo anglosassone. Cfr. ABI, (2000).

518 Capitolo 8

assegnazione del giudizio. Come è stato già evidenziato, con la logica throught-the-cycle, impiegata dall’agenzie di rating esterne,

il giudizio di affidabilità dell’obbligato viene assegnato valutando

le capacità di reazione di questi in una fase avversa del ciclo.

Viceversa, nella logica point-in-time tipica dei Sistemi di Rating

Interno, la valutazione della controparte viene effettuata avendo

come riferimento prevalente le sue condizioni correnti. Questo

sfasamento nell’assegnazione dei giudizi può condurre a

significativi errori sulla stima della probabilità di default in

relazione alla fase del ciclo economico in cui viene effettuato il

mapping. Il problema in questione si presta ad essere esposto

mediante un semplice esempio numerico36

. Si consideri una banca

il cui Sistema di Rating è caratterizzato da sei classi Pass, come

elencate nella tabella 8.3. La stessa tabella riporta, inoltre, le

probabilità di default associate a ciascuna classe, ma che la banca

non conosce a causa della mancanza di dati storici e che cerca di

inferire attraverso la metodologia del mapping. Si ipotizzi ora che

la banca debba classificare due prenditori, A e B. A causa della

natura Point-in-time del Sistema di Rating Interno della banca, la

Tabella 8.3

classificazione effettuata dipenderà strettamente dalla fase del ciclo

economico. Nella tabella 8.3 vengono quindi riportate le

36 Cfr. W. Tracey e M. Carey, (1998).

Fasi positive A B

Rating Interno classe 4 classe 5

Probabilità di default 1% 3%

Fasi negative

Rating Interno classe 5 classe 6

Probabilità di default 2% 6%

Rating esterno BB/Ba B+/B1

Probabilità media 1,50% 4,00%

I Sistemi di Rating Interno 519

valutazioni che la banca effettuerebbe in relazione ai diversi momenti del ciclo economico nonché le relative probabilità di

default di A e B, comunque ignote alla banca. Si supponga che la

banca effettui il proprio esercizio di mapping in una fase positiva

del ciclo economico e quindi, in base al rating assegnato alle stesse

società da un’agenzia esterna, ravvisi una corrispondenza tra la

proprie classi 4 e 5 e, rispettivamente, le classi esterne BB/Ba e

B+/B1. L’ultima riga della tabella 8.3 riporta le probabilità di

default medie associate dalle agenzie di rating a tali classi.

Pertanto, qualora la banca conduca il proprio esercizio di mapping

in una fase positiva del ciclo si troverebbe a sovrastimare le

probabilità di default reali, assegnando una PD dell’1,5% e del 4%

alle proprie classi interne 4 e 5. Viceversa, qualora la stessa

procedura venisse condotta in una fase negativa del ciclo, la banca,

avendo assegnato i due prenditori alle classi 5 e 6, associerebbe a

queste le classi esterne BB/Ba e B+/B1, generando una sottostima

della effettiva probabilità di default.