Mémoires d'Actuariat
Calibration du modèle de taux G2++ dans le calcul de provisions CVA
Auteur(s) DESCHAMPS J.
Société Crédit Mutuel
Année 2023
Résumé
La construction d'un modèle de taux est essentielle lors du calcul de provisions Credit Value Adjustment puisqu'elle permet d'évaluer les prix futurs des actifs. L'objectif est de s'approcher au mieux des données de marché avec des trajectoires stochastiques, en intégrant des contraintes de délais d'exécution. Le modèle gaussien à deux facteurs G2++ est le compromis retenu et implémenté avec des données de marché. La détermination des cinq paramètres est réalisée par minimisation de l'erreur entre le prix de marché et le prix de modèle sur un échantillon de swaptions. Le set optimal obtenu permet une reproduction précise des prix cotés. Cette étude vise à quantifier l'impact des choix de calibrage à l'aide d'analyses de sensibilité. Si le choix de la distance n'est pas déterminant, l'erreur à minimiser doit être relative plutôt qu'absolue. De plus, les écarts croissants avec la taille de la surface de calibrage incitent à utiliser un échantillon plus fin. Enfin, l'exploitation d'un autre algorithme renvoie à l'arbitrage entre la précision souhaitée et la durée d'exécution.
Abstract
The interest rate model calibration is key in computing regulatory Credit Value Adjustement provisions because it enables the valuation of the future price of assets. The goal is to get as close as possible to the initial curve using stochastic trajectories while considering execution durations. The 2-factor Gaussian model G2++ is the chosen compromise that is implemented with market data. The 5 parameters values are determined by minimizing the error between market price and model price on a sample of swaptions. The obtained set of values allows a precise reproduction of market prices. This study aims to quantify the impact of calibration choices using sensitivity analyses. If the distance component is not crucial, the minimized error should be relative rather than absolute. Moreover, differences are increasing with the size of the calibration surface which is an argument in favor of using smaller samples. Lastly, using another algorithm points to the arbitrage between expected precision and execution duration.
Mémoire complet
Auteur(s) DESCHAMPS J.
Société Crédit Mutuel
Année 2023
Résumé
La construction d'un modèle de taux est essentielle lors du calcul de provisions Credit Value Adjustment puisqu'elle permet d'évaluer les prix futurs des actifs. L'objectif est de s'approcher au mieux des données de marché avec des trajectoires stochastiques, en intégrant des contraintes de délais d'exécution. Le modèle gaussien à deux facteurs G2++ est le compromis retenu et implémenté avec des données de marché. La détermination des cinq paramètres est réalisée par minimisation de l'erreur entre le prix de marché et le prix de modèle sur un échantillon de swaptions. Le set optimal obtenu permet une reproduction précise des prix cotés. Cette étude vise à quantifier l'impact des choix de calibrage à l'aide d'analyses de sensibilité. Si le choix de la distance n'est pas déterminant, l'erreur à minimiser doit être relative plutôt qu'absolue. De plus, les écarts croissants avec la taille de la surface de calibrage incitent à utiliser un échantillon plus fin. Enfin, l'exploitation d'un autre algorithme renvoie à l'arbitrage entre la précision souhaitée et la durée d'exécution.
Abstract
The interest rate model calibration is key in computing regulatory Credit Value Adjustement provisions because it enables the valuation of the future price of assets. The goal is to get as close as possible to the initial curve using stochastic trajectories while considering execution durations. The 2-factor Gaussian model G2++ is the chosen compromise that is implemented with market data. The 5 parameters values are determined by minimizing the error between market price and model price on a sample of swaptions. The obtained set of values allows a precise reproduction of market prices. This study aims to quantify the impact of calibration choices using sensitivity analyses. If the distance component is not crucial, the minimized error should be relative rather than absolute. Moreover, differences are increasing with the size of the calibration surface which is an argument in favor of using smaller samples. Lastly, using another algorithm points to the arbitrage between expected precision and execution duration.
Mémoire complet