INSIGHT Octobre 2019 - Sia Partners · 2019-10-11 · données personnelles ? Se pose un autre...
Transcript of INSIGHT Octobre 2019 - Sia Partners · 2019-10-11 · données personnelles ? Se pose un autre...
INSIGHT Octobre 2019
INTELLIGENCE ARTIFICIELLE & ETHIQUE
Définir une organisation pour anticiper les risques
2
L’utilisation de la donnée est un enjeu pour les
entreprises qu’il faut pouvoir maîtriser afin de se
conformer tant au droit qu’à l’éthique.
Le contenu de cet article reflète uniquement le
point de vue de ses auteurs en l’état actuel du
droit applicable en France, de l’éthique et des
bonnes pratiques de place.
1 Art.8, CEDH.
Contrôler ses systèmes d’IA
pour se conformer au droit et à
l’éthique
Si la réglementation concernant les
systèmes d’IA existe, il n’en reste pas moins
qu’elle est difficilement lisible et insuffisante à
certains égards.
Une réglementation nébuleuse mais
existante
L’utilisation des algorithmes d’IA est aujourd’hui
réglementée par des textes provenant de
différentes sources, n’ayant pas tous la même
portée, et n’intéressant pas les mêmes
secteurs.
En effet, ces algorithmes doivent respecter les
droits et libertés fondamentaux protégés par les
textes historiques à l’échelle européenne,
notamment la Charte Européenne des Droits de
l’Homme et la Charte des Droits
Fondamentaux. A ce titre, ils ne peuvent porter
atteinte à la vie privée1. Si ces premiers textes
n’abordent pas directement l’intelligence
artificielle, ou du moins les systèmes
automatisés qui la constituent, le Règlement
Général sur la Protection des Données (RGPD)
consacre quant-à-lui une obligation spécifique.
Ainsi, il est interdit pour un organisme de
prendre une décision ayant des effets
significatifs ou des conséquences juridiques sur
une personne uniquement sur la base d’un
algorithme et sans intervention humaine2. Cette
interdiction n’est pas totale, puisque le process
est possible en cas de consentement explicite
de la personne concernée.
Si cette disposition a le mérite d’exister, il n’en
reste pas moins qu’elle est insuffisante. En
effet, même si la tendance est au déploiement,
les deux conditions visées (fondement exclusif
sur le traitement automatisé et effets
significatifs ou juridiques) ne sont que rarement
mises en œuvre de manière complémentaire.
La plupart des systèmes d’IA utilisés
aujourd’hui par les entreprises se contentent
d’apporter de l’information à celle-ci qui au
travers d’un humain prendra la décision ayant
des impacts sur la personne concernée.
C’est par exemple le cas de la majorité des
applications de recrutement dont les
algorithmes se limitent à comparer le besoin de
2 Art. 22, RGPD.
Introduction
Aujourd’hui, un grand nombre
d’opérations bénéficient des avancées
technologiques : analyses prédictives,
aides à la décision, matching, etc. A
travers leurs algorithmes, les
organisations extraient, modélisent, et
même imaginent de nouvelles
techniques leur permettant d’optimiser
leurs processus et leurs revenus. Mais
si elle s’impose comme la solution à
l’efficience, cette démocratisation des
algorithmes peut être perçue comme
un danger, notamment du fait de la
myopie des algorithmes non
déterministes. Celle-ci se traduit à
deux niveaux : le premier étant
l’inaptitude à intégrer des objectifs
explicites et le second étant les
difficultés, voire une incapacité, à
expliquer le raisonnement suivi.
L’encadrement de ces programmes
informatiques devient donc nécessaire
afin d’assurer transparence, loyauté et
vigilance. Cet encadrement doit
permettre de répondre à un ensemble
de normes juridiques et éthiques
(partie 1), lesquelles tendent à se
renforcer au fur et à mesure du temps.
Pour maitriser les coûts liés à cette
mise en conformité, les entreprises
peuvent s’appuyer sur le dispositif de
protection des données. L’objectif ?
Définir leurs propres standards
d’éthique, développer de nouveaux
process pour assurer la transparence
et mettre en place une organisation
dédiée afin d’asseoir sa position sur le
marché comme acteur éthique (partie
2).
3
l’employeur au CV du candidat, et à remonter
l’information à l’employeur qui prendra seul la
décision de continuer ou d’arrêter le processus
de recrutement. Ces systèmes ne relèvent donc
pas de cette disposition du RGPD, au même
titre qu’un très grand nombre d’entre eux.
En outre, si l’on regarde les réglementations
locales, celles-ci comportent également des
limites. En effet, la Loi pour une République
Numérique, votée en novembre 2016, a quant-
à-elle imposé la transparence des algorithmes
utilisés par les plateformes à des fins de
référencement, classement, et
déréférencement.
De plus, cette loi oblige l’administration à
communiquer les codes sources des
algorithmes utilisés. Mais quid du secteur
privé ? Un tel niveau de transparence ne leur
est, à date, pas encore imposé. Ce principe
aurait d’ailleurs des difficultés à être appliqué
par ce secteur du fait de l’existence d’autres
principes juridiques contradictoires comme le
secret industriel.
Un cadre spécifique limité aux
données personnelles ?
Se pose un autre problème : l’obligation issue
du RGPD ne concerne que les algorithmes
traitant des données personnelles et dont les
résultats s’appliquent directement à des
personnes. Or, des impacts sociaux et
environnementaux peuvent résulter de
traitements ne répondant pas à ces critères3.
Certaines réglementations viennent cependant
combler ce vide, mais celles-ci restent très
spécifiques. Il s’agit par exemple de MIFID 2 qui
prévoit un certain nombre de dispositions
encadrant la négociation algorithmique et la
négociation à haute fréquence afin d’
« améliorer la qualité du marché en prévenant
et gérant les risques réels ou potentiels de
fonctionnement désordonné du marché »4. Les
acteurs de marché doivent donc mettre en
place des processus afin de s’assurer que leurs
systèmes algorithmiques, même s’ils ne traitent
pas de données personnelles, sont
suffisamment résilients, testés avant d’être
lancés mais également équipés de
disjoncteurs.
3 Comment permettre à l’Homme de garder la main ?, Rapport
de la CNIL, Décembre 2017. 4 https://www.amf-france.org/Acteurs-et-produits/Marches-
financiers-et-infrastructures/De-MIF-1-a-MIF-2/Les-principaux-apports-de-MIF-2#title_paragraph_6
Intégrer les obligations sectorielles
dans le fonctionnement des
systèmes d’IA
L’utilisation de l’IA est également encadrée par
des réglementations sectorielles spécifiques qui
« constituent de fait un cadre et une série de
limites à l’utilisation des algorithmes dans
certains secteurs, dans la mesure même où ils
régulent ces secteurs »5.
La Commission Nationale de l’Informatique et
des Libertés (CNIL) prend pour exemple « l’interdiction de l’établissement d’un
diagnostic [médical] par un algorithme seul » du
fait du code de la santé publique qui « réprime
l’exercice illégal de la médecine par toute
personne non titulaire d’un diplôme »6. Un autre
exemple est également cité, lequel concerne
les pratiques anticoncurrentielles. Si les
ententes illicites, les abus de position
dominante ou encore la concurrence déloyale
sont interdites de manière générale, elles le
sont aussi lorsque ces pratiques sont issues de
systèmes d’intelligence artificielle.
Il est donc indispensable de vérifier la
conformité des systèmes d’IA avec le Droit dans
toute sa diversité.
Un encadrement plus éthique que
juridique
L’encadrement des systèmes d’IA ne se limite
pas aux normes juridiques contraignantes : il
est surtout éthique. En effet, la Commission
Européenne a précisé dans ses lignes
directrices sur l’éthique de l’intelligence
artificielle 7 que ces traitements automatisés
doivent « assurer l’adhésion à des principes et
5 Comment permettre à l’Homme de garder la main ?, Rapport de la CNIL, Décembre 2017. 6 Idem. 7 Lignes directrices en matière d’éthique pour une IA digne de
confiance, GEHN IA, Commission Européenne, Avril 2019.
4
valeurs éthiques ». Selon la commission
européenne, ces principes sont les suivants :
Si l’éthique est une notion subjective, elle est
intrinsèquement liée à celle de droits et libertés.
En témoignent les nombreux sondages
démontrant la volonté des citoyens et
consommateurs de protéger leur vie privée. Par
exemple, il a été relevé que 91% des
internautes souhaitent garder le contrôle sur
leurs données personnelles8.
Cette volonté doit être mise en perspective avec
les risques liés à l’intelligence artificielle,
comme par exemple celui du développement de
phishing particulièrement élaborés pouvant
discrètement et efficacement porter atteinte à la
sécurité des données9.
Une pression qui s’intensifie sur les
entreprises avant l'arrivée d’une
nouvelle réglementation européenne
Bien que ces lignes directrices ne soient pas
contraignantes, force est de constater que
respecter les principes qu’elles contiennent
apparait comme une opportunité à saisir. La
demande est forte : 64% des français estiment
qu’aujourd’hui, les algorithmes « représentent
plutôt une menace en raison d’une
accumulation de données personnelles sur les
8 Etude sur les données personnelles, Mediamétrie, Juin 2017. 9 https://www.nextinpact.com/news/106188-une-etude-pointe-
possibles-effets-pervers-et-dangers-intelligence-artificielle.htm 10 Notoriété et attentes vis-à-vis des algorithmes, Sondage Ifop
pour la CNIL, Janvier 2017. 11 Comment permettre à l’Homme de garder la main ?, Rapport
de la CNIL, Décembre 2017.
choix, les gouts et les comportements de
chacun »10.
Cela est d’autant plus important que, comme le
souligne la CNIL, le fait que « le législateur
demande à une institution de produire une
réflexion éthique place bien à l’horizon – plus ou
moins proche – d’une telle réflexion l’inscription
législative de celle-ci »11.
C’est d’ailleurs ce que l’Union Européenne
semble préparer. En effet, un document
visualisé par le Financial Times mentionne la
volonté de rédiger un texte établissant des
règles contraignantes en matière d’intelligence
artificielle 12 . La future présidente de la
Commission Européenne a au surplus déclaré
qu’une telle législation devrait être présentée
dans les 100 premiers jours de son mandat13,
soit d’ici janvier 2020.
Quoi qu’il en soit, ne pas prendre en compte ces
principes dès aujourd’hui est porteur d’un risque
financier (4% du Chiffre d’Affaires global pour
les dispositions relevant du RGPD), pénal, civil,
mais aussi d’image. L’affaire Cambridge
Analytica l’a démontré puisqu’après avoir perdu
26% de ses utilisateurs américains14, Facebook
a été condamné à payer une amende de 5
milliards de dollars par la Federal Trade
Commission (incluant d’autres manquements à
la vie privée)15.
12 https://www.ft.com/content/90ce2dce-c413-11e9-a8e9-
296ca66511c9 13 Idem. 14 http://www.lefigaro.fr/secteur/high-tech/2018/09/05/32001-
20180905ARTFIG00325-apres-cambridge-analytica-un-americain-sur-quatre-a-supprime-l-application-facebook.php 15 https://www.lemonde.fr/pixels/article/2019/07/24/donnees-
personnelles-les-etats-unis-imposent-de-nouveaux-garde-fous-a-facebook-deja-contestes_5493017_4408996.html
1
Action humaine
et contrôle
humain
2
Robustesse
technique et
sécurité
3
Respect de la vie
privée et
gouvernance
5
Diversité, non-
discrimination et
équité
6
Bien-être sociétal
et
environnemental
4
Transparence
7
Responsabilité
5
Mettre en place un cadre
éthique : capitaliser sur les
actions issues de la mise en
conformité RGPD pour réduire
les coûts
Au même titre qu’une mise en conformité au
RGPD, l’implémentation d’un cadre éthique de
l’IA adresse des sujets transverses impactant
l’existant en entreprise. Afin de préserver leur
organisation des différents risques, les
entreprises doivent prendre des mesures
permettant de concevoir des systèmes
transparents, elles doivent définir une
organisation en charge des problématiques
d’éthique de l’IA, conduire le changement, et
identifier des standards auxquels doivent
répondre leurs systèmes.
Concevoir des systèmes d’IA
transparents
Pour être éthiques, les systèmes d’IA doivent,
dès leur conception, répondre aux exigences
listées par la Commission Européenne (cf.
schéma ci-dessus). Pour cela, il est
indispensable de capitaliser sur les
modifications qui ont été apportées aux
méthodologies projets des entreprises afin de
se conformer au Privacy by design et by default,
obligation introduite par le RGPD. C’est ce
qu’on appelle l’« ethic by design ».
Les principes éthiques doivent être considérés
globalement par le projet. Cela signifie que
cette prise en compte doit être visible dans la
planification des projets, leurs coûts, les
ressources humaines, et doit être sponsorisée
à un niveau élevé de l’entreprise.
Les livrables projets permettant, entre autres,
de limiter la collecte de données au strict
nécessaire, doivent donc être revus pour
intégrer ces grands principes éthiques. Afin
d’assurer la transparence, ces livrables doivent
permettre de tracer et d’expliquer le système
algorithmique : méthode de programmation ou
d’entrainement, données d’entrée, résultats et
décisions prises, etc. 16 De plus, cette
documentation doit être évolutive
corrélativement à l’avancée du projet, de la
conception de l’algorithme aux résultats de
16 Lignes directrices en matière d’éthique pour une IA digne de
confiance, GEHN IA, Commission Européenne, Avril 2019, p. 37.
celui-ci, en passant par les phases de tests et
de validation.
Aussi, elle ne concerne pas seulement les
algorithmes auto-apprenants, mais aussi ceux
fonctionnant à partir de règles prédéfinies.
Néanmoins, il ne s’agit pas seulement de
disposer d’une documentation, encore faut-il
que celle-ci soit pertinente afin d’assurer
l’explicabilité des systèmes d’IA. Ce
principe d’explicabilité repose avant tout sur la
compréhension des résultats par les personnes
concernées : choix opérés, influences sur les
décisions, modèle économique, etc. 17 Cette
explicabilité ne se résume donc pas aux
conséquences de l’algorithme mais s’étend à
l’ensemble de son écosystème.
Force est de constater que cette explicabilité ne
peut prendre véritablement sens que si elle est
suivie de communication. En effet, dans le
sillage de l’obligation d’information issue du
RGPD, il est nécessaire de mettre en place des
mentions d’information à destination des
utilisateurs finaux de l’algorithme. Ces mentions
doivent comprendre un certain nombre
d’éléments liés au système
algorithmique (résultats, finalités, limites, etc.).
Aussi, cette information doit être adaptée au
support (web, papier, etc.) afin d’assurer sa
lisibilité. Comme pour les mentions
d’information spécifiques aux données
personnelles, elles peuvent être inclues dans
les documents contractuels, ou par exemple,
dans une politique dédiée accessible sur le site
internet. Il peut d’ailleurs être opportun de
consacrer un paragraphe à ce sujet dans les
politiques de confidentialité.
Il est à noter que cette obligation est plus large
que celle issue du RGPD puisque les
utilisateurs finaux ne sont pas les seuls à devoir
17 Idem.
6
être informés. En effet, les personnes chargées
du déploiement du système doivent également
être informées des caractéristiques, limites
et « éventuelles lacunes du système »18.
Au surplus, il faut également prévoir des
mécanismes permettant de remonter des
problèmes relatifs à la discrimination ou au
système de l’IA lui-même. Cela peut par
exemple passer par la création d’une adresse-
mail dédiée, ou l’inclusion dans les pages de
paramétrages de préférences d’un mécanisme
de remontée d’information.
Celui-ci est également nécessaire pour que les
utilisateurs puissent demander un examen
humain de la décision prise par l'algorithme,
donner leur avis sur la transparence du système
et s’opposer au traitement de leurs données par
les systèmes d’IA. Sur ce point, il est également
possible de capitaliser sur ce qui existe déjà en
utilisant le processus de gestion des droits
RGPD, ou les pages de préférences de contact
en matière de prospection commerciale et
newsletter.
18 Idem, p. 38.
Mener des analyses d’impacts sur
les droits fondamentaux
Ici encore, les organismes peuvent
capitaliser sur leur mise en conformité au
RGPD. Il s’agit d’élargir les Analyses d’impact
sur la Vie Privée (« PIA » en anglais) à
l’ensemble des droits fondamentaux. Ce travail
permet d’établir si l’architecture et les mesures
de sécurité sont suffisantes pour assurer la
diversité, la non-discrimination, l’équité et le
bien-être sociétal et environnemental. Le cas
échéant, ces analyses permettront de dégager
des mesures de remédiation. Elles doivent être
menées sur les systèmes d’ores-et-déjà
existants (stock), ainsi que futurs (flux). Pour
ces derniers, il conviendra d’inclure ces
analyses comme livrables projets devant être
validés par les instances d’entreprises ou
fonctions adéquates.
En tout état de cause, l’analyse d’impact doit
prendre en compte le caractère plus ou moins
autonome du système. En effet, mener des
analyses d’impacts sur l’ensemble des
systèmes algorithmiques n’aurait que peu
d’intérêt car tous ne sont pas porteurs du même
niveau de risque. Il faut donc déterminer des
critères permettant d’évaluer ce risque :
traitement de données sensibles au sens
RGPD, autonomie de l’algorithme,
conséquences juridiques sur les personnes,
etc.
Ces analyses permettent également de
s’assurer du caractère « human centric » du
système, à savoir que les utilisateurs doivent
« être en mesure de prendre des décisions
7
autonomes éclairées à l’égard des systèmes
d’IA », et contrôler ce système.
Ce contrôle peut être de trois ordres : soit
l’humain intervient directement dans le
processus, soit il le supervise, soit il reste aux
commandes19. La revue régulière du système
algorithmique permet, en autres, de s’assurer
de cela.
En outre, les analyses d'impact doivent prendre
en compte les problématiques de gestion des
tiers. En effet, de nombreuses entreprises ne
conçoivent pas leurs propres systèmes d'IA et
utilisent des produits externes. Afin de
préserver sa responsabilité, il est donc
nécessaire de choisir un prestataire qui
applique les grands principes éthiques, insérer
une clause appropriée dans le contrat lorsqu’il
s’agit de systèmes en SAS ou de prestations de
services, et effectuer des audits pour vérifier le
respect du contrat. Les prestataires de services
qualifiés de sous-traitants doivent également
aider l'entreprise à réaliser une étude d'impact
sur les droits fondamentaux.
A noter que cette analyse doit évoluer au gré
des mutations du système lui-même puisque de
nouveaux risques peuvent survenir.
Organiser son entreprise et diffuser
la culture de l’éthique
Afin de réussir la mise en place d’un cadre
éthique de l’utilisation de systèmes d’IA, il est
indispensable de mettre en place une
gouvernance dédiée, et d’accompagner la
transformation de l’organisme.
Cette gouvernance peut, par exemple, se baser
sur celle mise en place pour la protection des
données, c’est-à-dire octroyer au Délégué à la
Protection des Données une fonction de conseil
et d’accompagnement à l’éthique des systèmes
algorithmiques. Il est également envisageable
de conférer ce rôle aux fonctions RSE. Quoi
qu’il en soit, ce responsable doit avoir des
relais, tant dans les fonctions métier clientes
des systèmes algorithmiques que dans les
fonctions supports, notamment les pôles
développant ou gérant le système
algorithmique. Aussi, le Top Management doit
nécessairement être impliqué afin d’asseoir le
caractère stratégique.
Outre des rôles et responsabilités assignés, il
est indispensable de mettre en place des
19 Lignes directrices en matière d’éthique pour une IA digne de
confiance, GEHN IA, Commission Européenne, Avril 2019, p. 19.
comités rassemblant les parties prenantes
internes, voire externes, et permettant de
réaliser des arbitrages concernant les risques
sur les droits fondamentaux. Encore une fois, il
peut être opportun de rassembler les questions
liées à la protection des données et celles liées
à l’éthique des algorithmes au sein d’un même
comité, ou s’ils existent déjà, avec les comités
éthiques.
Mais les organismes doivent également
sensibiliser et former leurs collaborateurs afin
de diffuser la culture de l’éthique, et d’assurer la
bonne application des process (« ethic by
design », analyses d’impacts, etc.). Pour cela, il
est nécessaire que la formation porte tant sur
les aspects purement éthiques, que sur les
aspects plus techniques.
Cette pluridisciplinarité doit d’ailleurs se
retrouver dans les équipes participant à la mise
au point du système d’IA. Il faut donc s’assurer
que les équipes soient diversifiées « en ce qui
concerne le genre, la culture et l’âge, mais
également du point de vue du parcours
professionnel et des compétences » 20 . En
somme, il s’agit donc de faire du management
inclusif : agir contre les discriminations en
interne pour éviter celles pesant potentiellement
sur les utilisateurs finaux des algorithmes.
Définir des standards d’entreprise :
une difficulté surmontable
Afin de garantir une certaine cohérence en
matière d’éthique, il est indispensable de définir
des standards d’entreprise en la matière. En
effet, étant donné que la Commission
européenne ne fournit que des lignes
directrices mais pas de formules ou de seuils à
suivre, il appartient à l'entreprise de les élaborer
et de les documenter en interne.
Ces standards doivent être mis à disposition
des collaborateurs, et en particulier des
concepteurs des systèmes. Ils doivent intégrer
20 Lignes directrices en matière d’éthique pour une IA digne de
confiance, GEHN IA, Commission Européenne, Avril 2019, p. 29.
8
les 7 grands principes 21 permettant d’assurer
une éthique des algorithmes. Il s’agit par
exemple de seuils acceptables d’automatisation
des systèmes, de niveau d’explicabilité,
d’auditabilité, de fiabilité, d’équité, etc.
Or l’ensemble de ces seuils ou formules ne peut
être à la fois efficace économiquement et
éthiquement que si ceux-ci sont coconstruits
par la conformité, l'audit interne et la data
science. La première difficulté tient donc dans
la nécessaire complémentarité des concepteurs
des standards qui exercent des activités
fondamentalement différentes. Ces équipes
devront, pour la première fois, travailler
ensemble à coconstruire ce nouveau cadre
éthique de l'IA.
La deuxième difficulté réside essentiellement
dans ses coûts. En effet, les standards
d’entreprise doivent inclure l’obligation relative
à la notion de « human centric », laquelle a pour
objet de faire en sorte que chaque système
d’intelligence artificielle bénéficie de
mécanismes permettant une supervision ou un
contrôle humain. Comment ? En imposant par
exemple le développement d’interfaces entre la
machine et son utilisateur par des « outils de
visualisation lui permettant de comprendre
pourquoi des recommandations [lui] ont été
proposées voire, encore mieux, de générer en
retour des recommandations plus
appropriées »22. Or ces outils de visualisation
sont coûteux, au même titre que l’est leur mise
à disposition aux clients dans des interfaces
dédiées.
Enfin, la définition de standards peut être
difficile puisqu’ils doivent répondre à des
principes éthiques. En effet, ces derniers sont
des notions subjectives sur lesquelles il est
nécessaire de s’accorder en amont de leur
application23. Pour cela, la co-construction est
très encouragée. Il est donc recommandé
d’échanger avec des associations,
administrations, des entreprises du même
secteur, voire avec les utilisateurs finaux du
système directement.
21 A savoir les principes d’action humaine et de contrôle humain,
de robustesse technique et de sécurité, de respect de la vie privée et de gouvernance, de transparence, de diversité, non-discrimination et équité, de bien-être social et environnemental et de responsabilité.
22 Comment permettre à l’Homme de garder la main ?, Rapport
de la CNIL, Décembre 2017. 23 Lignes directrices en matière d’éthique pour une IA digne de
confiance, GEHN IA, Commission Européenne, Avril 2019, p. 39.
Conclusion
La diversité des actions à mettre en
œuvre afin d’assurer une éthique de
l’intelligence artificielle est donc
largement similaire à celle issue du
RGPD. Les entreprises peuvent donc
capitaliser sur les processus,
organisations et livrables mis en place
dans le cadre de la protection des
données pour réduire les coûts liés à
l’instauration d’un « ethic by design »
et d’une organisation éthique. Le
véritable coût résidera dans la
définition et l’application des
standards d’entreprise.
Mais il y a fort à parier que
l’engagement de telles actions ne sera
que bénéfique pour l’entreprise
puisqu’il s’agit d’anticiper l’arrivée de
nouvelles réglementations spécifiques
aux systèmes d’IA. En effet, force est
de constater que les entreprises ont la
possibilité de se démarquer sur le
marché en adoptant une approche
éthique basée sur la transparence de
leurs systèmes vis-à-vis de leurs
clients, partenaires et employés.
9
VOS CONTACTS
A PROPOS DE SIA PARTNERS Sia Partners réinvente le métier du conseil et apporte un regard innovant et des résultats concrets à ses
clients à l'ère du digital. Notre présence globale et notre expertise dans plus de 30 secteurs et services
nous permettent d’accompagner nos clients dans le monde entier. Nous accompagnons leurs initiatives
en stratégie, projets de transformation, stratégie IT et digitale et data science. En tant que pionniers du
Consulting 4.0, nous développons des consulting bots et intégrons dans nos solutions la disruption
créée par l'intelligence artificielle.
Abu Dhabi | Amsterdam | Brussels | Casablanca | Charlotte | Denver | Doha | Dubai | Frankfurt | Hamburg | Hong Kong | Houston | London | Luxembourg | Lyon | Milan | Montreal | Riyadh |
Rome | Seattle | Singapore | Tokyo | Toronto |
Suivez nous sur LinkedIn et Twitter @SiaPartners
Pour plus d’informations: www.sia-partners.com
JEANNE FOURCADE
Senior Consultant Compliance + 33 6 82 08 16 71 [email protected]
SOPHIE LE GOFF
Partner Compliance & Insurance + 33 6 15 29 31 83 [email protected]
SANDRA BERTAY
Senior Manager Compliance + 33 6 32 94 64 59 [email protected]