INSIGHT Octobre 2019 - Sia Partners · 2019-10-11 · données personnelles ? Se pose un autre...

9
INSIGHT Octobre 2019 INTELLIGENCE ARTIFICIELLE & ETHIQUE Définir une organisation pour anticiper les risques

Transcript of INSIGHT Octobre 2019 - Sia Partners · 2019-10-11 · données personnelles ? Se pose un autre...

Page 1: INSIGHT Octobre 2019 - Sia Partners · 2019-10-11 · données personnelles ? Se pose un autre problème : l’obligation issue du RGPD ne concerne que les algorithmes traitant des

INSIGHT Octobre 2019

INTELLIGENCE ARTIFICIELLE & ETHIQUE

Définir une organisation pour anticiper les risques

Page 2: INSIGHT Octobre 2019 - Sia Partners · 2019-10-11 · données personnelles ? Se pose un autre problème : l’obligation issue du RGPD ne concerne que les algorithmes traitant des

2

L’utilisation de la donnée est un enjeu pour les

entreprises qu’il faut pouvoir maîtriser afin de se

conformer tant au droit qu’à l’éthique.

Le contenu de cet article reflète uniquement le

point de vue de ses auteurs en l’état actuel du

droit applicable en France, de l’éthique et des

bonnes pratiques de place.

1 Art.8, CEDH.

Contrôler ses systèmes d’IA

pour se conformer au droit et à

l’éthique

Si la réglementation concernant les

systèmes d’IA existe, il n’en reste pas moins

qu’elle est difficilement lisible et insuffisante à

certains égards.

Une réglementation nébuleuse mais

existante

L’utilisation des algorithmes d’IA est aujourd’hui

réglementée par des textes provenant de

différentes sources, n’ayant pas tous la même

portée, et n’intéressant pas les mêmes

secteurs.

En effet, ces algorithmes doivent respecter les

droits et libertés fondamentaux protégés par les

textes historiques à l’échelle européenne,

notamment la Charte Européenne des Droits de

l’Homme et la Charte des Droits

Fondamentaux. A ce titre, ils ne peuvent porter

atteinte à la vie privée1. Si ces premiers textes

n’abordent pas directement l’intelligence

artificielle, ou du moins les systèmes

automatisés qui la constituent, le Règlement

Général sur la Protection des Données (RGPD)

consacre quant-à-lui une obligation spécifique.

Ainsi, il est interdit pour un organisme de

prendre une décision ayant des effets

significatifs ou des conséquences juridiques sur

une personne uniquement sur la base d’un

algorithme et sans intervention humaine2. Cette

interdiction n’est pas totale, puisque le process

est possible en cas de consentement explicite

de la personne concernée.

Si cette disposition a le mérite d’exister, il n’en

reste pas moins qu’elle est insuffisante. En

effet, même si la tendance est au déploiement,

les deux conditions visées (fondement exclusif

sur le traitement automatisé et effets

significatifs ou juridiques) ne sont que rarement

mises en œuvre de manière complémentaire.

La plupart des systèmes d’IA utilisés

aujourd’hui par les entreprises se contentent

d’apporter de l’information à celle-ci qui au

travers d’un humain prendra la décision ayant

des impacts sur la personne concernée.

C’est par exemple le cas de la majorité des

applications de recrutement dont les

algorithmes se limitent à comparer le besoin de

2 Art. 22, RGPD.

Introduction

Aujourd’hui, un grand nombre

d’opérations bénéficient des avancées

technologiques : analyses prédictives,

aides à la décision, matching, etc. A

travers leurs algorithmes, les

organisations extraient, modélisent, et

même imaginent de nouvelles

techniques leur permettant d’optimiser

leurs processus et leurs revenus. Mais

si elle s’impose comme la solution à

l’efficience, cette démocratisation des

algorithmes peut être perçue comme

un danger, notamment du fait de la

myopie des algorithmes non

déterministes. Celle-ci se traduit à

deux niveaux : le premier étant

l’inaptitude à intégrer des objectifs

explicites et le second étant les

difficultés, voire une incapacité, à

expliquer le raisonnement suivi.

L’encadrement de ces programmes

informatiques devient donc nécessaire

afin d’assurer transparence, loyauté et

vigilance. Cet encadrement doit

permettre de répondre à un ensemble

de normes juridiques et éthiques

(partie 1), lesquelles tendent à se

renforcer au fur et à mesure du temps.

Pour maitriser les coûts liés à cette

mise en conformité, les entreprises

peuvent s’appuyer sur le dispositif de

protection des données. L’objectif ?

Définir leurs propres standards

d’éthique, développer de nouveaux

process pour assurer la transparence

et mettre en place une organisation

dédiée afin d’asseoir sa position sur le

marché comme acteur éthique (partie

2).

Page 3: INSIGHT Octobre 2019 - Sia Partners · 2019-10-11 · données personnelles ? Se pose un autre problème : l’obligation issue du RGPD ne concerne que les algorithmes traitant des

3

l’employeur au CV du candidat, et à remonter

l’information à l’employeur qui prendra seul la

décision de continuer ou d’arrêter le processus

de recrutement. Ces systèmes ne relèvent donc

pas de cette disposition du RGPD, au même

titre qu’un très grand nombre d’entre eux.

En outre, si l’on regarde les réglementations

locales, celles-ci comportent également des

limites. En effet, la Loi pour une République

Numérique, votée en novembre 2016, a quant-

à-elle imposé la transparence des algorithmes

utilisés par les plateformes à des fins de

référencement, classement, et

déréférencement.

De plus, cette loi oblige l’administration à

communiquer les codes sources des

algorithmes utilisés. Mais quid du secteur

privé ? Un tel niveau de transparence ne leur

est, à date, pas encore imposé. Ce principe

aurait d’ailleurs des difficultés à être appliqué

par ce secteur du fait de l’existence d’autres

principes juridiques contradictoires comme le

secret industriel.

Un cadre spécifique limité aux

données personnelles ?

Se pose un autre problème : l’obligation issue

du RGPD ne concerne que les algorithmes

traitant des données personnelles et dont les

résultats s’appliquent directement à des

personnes. Or, des impacts sociaux et

environnementaux peuvent résulter de

traitements ne répondant pas à ces critères3.

Certaines réglementations viennent cependant

combler ce vide, mais celles-ci restent très

spécifiques. Il s’agit par exemple de MIFID 2 qui

prévoit un certain nombre de dispositions

encadrant la négociation algorithmique et la

négociation à haute fréquence afin d’

« améliorer la qualité du marché en prévenant

et gérant les risques réels ou potentiels de

fonctionnement désordonné du marché »4. Les

acteurs de marché doivent donc mettre en

place des processus afin de s’assurer que leurs

systèmes algorithmiques, même s’ils ne traitent

pas de données personnelles, sont

suffisamment résilients, testés avant d’être

lancés mais également équipés de

disjoncteurs.

3 Comment permettre à l’Homme de garder la main ?, Rapport

de la CNIL, Décembre 2017. 4 https://www.amf-france.org/Acteurs-et-produits/Marches-

financiers-et-infrastructures/De-MIF-1-a-MIF-2/Les-principaux-apports-de-MIF-2#title_paragraph_6

Intégrer les obligations sectorielles

dans le fonctionnement des

systèmes d’IA

L’utilisation de l’IA est également encadrée par

des réglementations sectorielles spécifiques qui

« constituent de fait un cadre et une série de

limites à l’utilisation des algorithmes dans

certains secteurs, dans la mesure même où ils

régulent ces secteurs »5.

La Commission Nationale de l’Informatique et

des Libertés (CNIL) prend pour exemple « l’interdiction de l’établissement d’un

diagnostic [médical] par un algorithme seul » du

fait du code de la santé publique qui « réprime

l’exercice illégal de la médecine par toute

personne non titulaire d’un diplôme »6. Un autre

exemple est également cité, lequel concerne

les pratiques anticoncurrentielles. Si les

ententes illicites, les abus de position

dominante ou encore la concurrence déloyale

sont interdites de manière générale, elles le

sont aussi lorsque ces pratiques sont issues de

systèmes d’intelligence artificielle.

Il est donc indispensable de vérifier la

conformité des systèmes d’IA avec le Droit dans

toute sa diversité.

Un encadrement plus éthique que

juridique

L’encadrement des systèmes d’IA ne se limite

pas aux normes juridiques contraignantes : il

est surtout éthique. En effet, la Commission

Européenne a précisé dans ses lignes

directrices sur l’éthique de l’intelligence

artificielle 7 que ces traitements automatisés

doivent « assurer l’adhésion à des principes et

5 Comment permettre à l’Homme de garder la main ?, Rapport de la CNIL, Décembre 2017. 6 Idem. 7 Lignes directrices en matière d’éthique pour une IA digne de

confiance, GEHN IA, Commission Européenne, Avril 2019.

Page 4: INSIGHT Octobre 2019 - Sia Partners · 2019-10-11 · données personnelles ? Se pose un autre problème : l’obligation issue du RGPD ne concerne que les algorithmes traitant des

4

valeurs éthiques ». Selon la commission

européenne, ces principes sont les suivants :

Si l’éthique est une notion subjective, elle est

intrinsèquement liée à celle de droits et libertés.

En témoignent les nombreux sondages

démontrant la volonté des citoyens et

consommateurs de protéger leur vie privée. Par

exemple, il a été relevé que 91% des

internautes souhaitent garder le contrôle sur

leurs données personnelles8.

Cette volonté doit être mise en perspective avec

les risques liés à l’intelligence artificielle,

comme par exemple celui du développement de

phishing particulièrement élaborés pouvant

discrètement et efficacement porter atteinte à la

sécurité des données9.

Une pression qui s’intensifie sur les

entreprises avant l'arrivée d’une

nouvelle réglementation européenne

Bien que ces lignes directrices ne soient pas

contraignantes, force est de constater que

respecter les principes qu’elles contiennent

apparait comme une opportunité à saisir. La

demande est forte : 64% des français estiment

qu’aujourd’hui, les algorithmes « représentent

plutôt une menace en raison d’une

accumulation de données personnelles sur les

8 Etude sur les données personnelles, Mediamétrie, Juin 2017. 9 https://www.nextinpact.com/news/106188-une-etude-pointe-

possibles-effets-pervers-et-dangers-intelligence-artificielle.htm 10 Notoriété et attentes vis-à-vis des algorithmes, Sondage Ifop

pour la CNIL, Janvier 2017. 11 Comment permettre à l’Homme de garder la main ?, Rapport

de la CNIL, Décembre 2017.

choix, les gouts et les comportements de

chacun »10.

Cela est d’autant plus important que, comme le

souligne la CNIL, le fait que « le législateur

demande à une institution de produire une

réflexion éthique place bien à l’horizon – plus ou

moins proche – d’une telle réflexion l’inscription

législative de celle-ci »11.

C’est d’ailleurs ce que l’Union Européenne

semble préparer. En effet, un document

visualisé par le Financial Times mentionne la

volonté de rédiger un texte établissant des

règles contraignantes en matière d’intelligence

artificielle 12 . La future présidente de la

Commission Européenne a au surplus déclaré

qu’une telle législation devrait être présentée

dans les 100 premiers jours de son mandat13,

soit d’ici janvier 2020.

Quoi qu’il en soit, ne pas prendre en compte ces

principes dès aujourd’hui est porteur d’un risque

financier (4% du Chiffre d’Affaires global pour

les dispositions relevant du RGPD), pénal, civil,

mais aussi d’image. L’affaire Cambridge

Analytica l’a démontré puisqu’après avoir perdu

26% de ses utilisateurs américains14, Facebook

a été condamné à payer une amende de 5

milliards de dollars par la Federal Trade

Commission (incluant d’autres manquements à

la vie privée)15.

12 https://www.ft.com/content/90ce2dce-c413-11e9-a8e9-

296ca66511c9 13 Idem. 14 http://www.lefigaro.fr/secteur/high-tech/2018/09/05/32001-

20180905ARTFIG00325-apres-cambridge-analytica-un-americain-sur-quatre-a-supprime-l-application-facebook.php 15 https://www.lemonde.fr/pixels/article/2019/07/24/donnees-

personnelles-les-etats-unis-imposent-de-nouveaux-garde-fous-a-facebook-deja-contestes_5493017_4408996.html

1

Action humaine

et contrôle

humain

2

Robustesse

technique et

sécurité

3

Respect de la vie

privée et

gouvernance

5

Diversité, non-

discrimination et

équité

6

Bien-être sociétal

et

environnemental

4

Transparence

7

Responsabilité

Page 5: INSIGHT Octobre 2019 - Sia Partners · 2019-10-11 · données personnelles ? Se pose un autre problème : l’obligation issue du RGPD ne concerne que les algorithmes traitant des

5

Mettre en place un cadre

éthique : capitaliser sur les

actions issues de la mise en

conformité RGPD pour réduire

les coûts

Au même titre qu’une mise en conformité au

RGPD, l’implémentation d’un cadre éthique de

l’IA adresse des sujets transverses impactant

l’existant en entreprise. Afin de préserver leur

organisation des différents risques, les

entreprises doivent prendre des mesures

permettant de concevoir des systèmes

transparents, elles doivent définir une

organisation en charge des problématiques

d’éthique de l’IA, conduire le changement, et

identifier des standards auxquels doivent

répondre leurs systèmes.

Concevoir des systèmes d’IA

transparents

Pour être éthiques, les systèmes d’IA doivent,

dès leur conception, répondre aux exigences

listées par la Commission Européenne (cf.

schéma ci-dessus). Pour cela, il est

indispensable de capitaliser sur les

modifications qui ont été apportées aux

méthodologies projets des entreprises afin de

se conformer au Privacy by design et by default,

obligation introduite par le RGPD. C’est ce

qu’on appelle l’« ethic by design ».

Les principes éthiques doivent être considérés

globalement par le projet. Cela signifie que

cette prise en compte doit être visible dans la

planification des projets, leurs coûts, les

ressources humaines, et doit être sponsorisée

à un niveau élevé de l’entreprise.

Les livrables projets permettant, entre autres,

de limiter la collecte de données au strict

nécessaire, doivent donc être revus pour

intégrer ces grands principes éthiques. Afin

d’assurer la transparence, ces livrables doivent

permettre de tracer et d’expliquer le système

algorithmique : méthode de programmation ou

d’entrainement, données d’entrée, résultats et

décisions prises, etc. 16 De plus, cette

documentation doit être évolutive

corrélativement à l’avancée du projet, de la

conception de l’algorithme aux résultats de

16 Lignes directrices en matière d’éthique pour une IA digne de

confiance, GEHN IA, Commission Européenne, Avril 2019, p. 37.

celui-ci, en passant par les phases de tests et

de validation.

Aussi, elle ne concerne pas seulement les

algorithmes auto-apprenants, mais aussi ceux

fonctionnant à partir de règles prédéfinies.

Néanmoins, il ne s’agit pas seulement de

disposer d’une documentation, encore faut-il

que celle-ci soit pertinente afin d’assurer

l’explicabilité des systèmes d’IA. Ce

principe d’explicabilité repose avant tout sur la

compréhension des résultats par les personnes

concernées : choix opérés, influences sur les

décisions, modèle économique, etc. 17 Cette

explicabilité ne se résume donc pas aux

conséquences de l’algorithme mais s’étend à

l’ensemble de son écosystème.

Force est de constater que cette explicabilité ne

peut prendre véritablement sens que si elle est

suivie de communication. En effet, dans le

sillage de l’obligation d’information issue du

RGPD, il est nécessaire de mettre en place des

mentions d’information à destination des

utilisateurs finaux de l’algorithme. Ces mentions

doivent comprendre un certain nombre

d’éléments liés au système

algorithmique (résultats, finalités, limites, etc.).

Aussi, cette information doit être adaptée au

support (web, papier, etc.) afin d’assurer sa

lisibilité. Comme pour les mentions

d’information spécifiques aux données

personnelles, elles peuvent être inclues dans

les documents contractuels, ou par exemple,

dans une politique dédiée accessible sur le site

internet. Il peut d’ailleurs être opportun de

consacrer un paragraphe à ce sujet dans les

politiques de confidentialité.

Il est à noter que cette obligation est plus large

que celle issue du RGPD puisque les

utilisateurs finaux ne sont pas les seuls à devoir

17 Idem.

Page 6: INSIGHT Octobre 2019 - Sia Partners · 2019-10-11 · données personnelles ? Se pose un autre problème : l’obligation issue du RGPD ne concerne que les algorithmes traitant des

6

être informés. En effet, les personnes chargées

du déploiement du système doivent également

être informées des caractéristiques, limites

et « éventuelles lacunes du système »18.

Au surplus, il faut également prévoir des

mécanismes permettant de remonter des

problèmes relatifs à la discrimination ou au

système de l’IA lui-même. Cela peut par

exemple passer par la création d’une adresse-

mail dédiée, ou l’inclusion dans les pages de

paramétrages de préférences d’un mécanisme

de remontée d’information.

Celui-ci est également nécessaire pour que les

utilisateurs puissent demander un examen

humain de la décision prise par l'algorithme,

donner leur avis sur la transparence du système

et s’opposer au traitement de leurs données par

les systèmes d’IA. Sur ce point, il est également

possible de capitaliser sur ce qui existe déjà en

utilisant le processus de gestion des droits

RGPD, ou les pages de préférences de contact

en matière de prospection commerciale et

newsletter.

18 Idem, p. 38.

Mener des analyses d’impacts sur

les droits fondamentaux

Ici encore, les organismes peuvent

capitaliser sur leur mise en conformité au

RGPD. Il s’agit d’élargir les Analyses d’impact

sur la Vie Privée (« PIA » en anglais) à

l’ensemble des droits fondamentaux. Ce travail

permet d’établir si l’architecture et les mesures

de sécurité sont suffisantes pour assurer la

diversité, la non-discrimination, l’équité et le

bien-être sociétal et environnemental. Le cas

échéant, ces analyses permettront de dégager

des mesures de remédiation. Elles doivent être

menées sur les systèmes d’ores-et-déjà

existants (stock), ainsi que futurs (flux). Pour

ces derniers, il conviendra d’inclure ces

analyses comme livrables projets devant être

validés par les instances d’entreprises ou

fonctions adéquates.

En tout état de cause, l’analyse d’impact doit

prendre en compte le caractère plus ou moins

autonome du système. En effet, mener des

analyses d’impacts sur l’ensemble des

systèmes algorithmiques n’aurait que peu

d’intérêt car tous ne sont pas porteurs du même

niveau de risque. Il faut donc déterminer des

critères permettant d’évaluer ce risque :

traitement de données sensibles au sens

RGPD, autonomie de l’algorithme,

conséquences juridiques sur les personnes,

etc.

Ces analyses permettent également de

s’assurer du caractère « human centric » du

système, à savoir que les utilisateurs doivent

« être en mesure de prendre des décisions

Page 7: INSIGHT Octobre 2019 - Sia Partners · 2019-10-11 · données personnelles ? Se pose un autre problème : l’obligation issue du RGPD ne concerne que les algorithmes traitant des

7

autonomes éclairées à l’égard des systèmes

d’IA », et contrôler ce système.

Ce contrôle peut être de trois ordres : soit

l’humain intervient directement dans le

processus, soit il le supervise, soit il reste aux

commandes19. La revue régulière du système

algorithmique permet, en autres, de s’assurer

de cela.

En outre, les analyses d'impact doivent prendre

en compte les problématiques de gestion des

tiers. En effet, de nombreuses entreprises ne

conçoivent pas leurs propres systèmes d'IA et

utilisent des produits externes. Afin de

préserver sa responsabilité, il est donc

nécessaire de choisir un prestataire qui

applique les grands principes éthiques, insérer

une clause appropriée dans le contrat lorsqu’il

s’agit de systèmes en SAS ou de prestations de

services, et effectuer des audits pour vérifier le

respect du contrat. Les prestataires de services

qualifiés de sous-traitants doivent également

aider l'entreprise à réaliser une étude d'impact

sur les droits fondamentaux.

A noter que cette analyse doit évoluer au gré

des mutations du système lui-même puisque de

nouveaux risques peuvent survenir.

Organiser son entreprise et diffuser

la culture de l’éthique

Afin de réussir la mise en place d’un cadre

éthique de l’utilisation de systèmes d’IA, il est

indispensable de mettre en place une

gouvernance dédiée, et d’accompagner la

transformation de l’organisme.

Cette gouvernance peut, par exemple, se baser

sur celle mise en place pour la protection des

données, c’est-à-dire octroyer au Délégué à la

Protection des Données une fonction de conseil

et d’accompagnement à l’éthique des systèmes

algorithmiques. Il est également envisageable

de conférer ce rôle aux fonctions RSE. Quoi

qu’il en soit, ce responsable doit avoir des

relais, tant dans les fonctions métier clientes

des systèmes algorithmiques que dans les

fonctions supports, notamment les pôles

développant ou gérant le système

algorithmique. Aussi, le Top Management doit

nécessairement être impliqué afin d’asseoir le

caractère stratégique.

Outre des rôles et responsabilités assignés, il

est indispensable de mettre en place des

19 Lignes directrices en matière d’éthique pour une IA digne de

confiance, GEHN IA, Commission Européenne, Avril 2019, p. 19.

comités rassemblant les parties prenantes

internes, voire externes, et permettant de

réaliser des arbitrages concernant les risques

sur les droits fondamentaux. Encore une fois, il

peut être opportun de rassembler les questions

liées à la protection des données et celles liées

à l’éthique des algorithmes au sein d’un même

comité, ou s’ils existent déjà, avec les comités

éthiques.

Mais les organismes doivent également

sensibiliser et former leurs collaborateurs afin

de diffuser la culture de l’éthique, et d’assurer la

bonne application des process (« ethic by

design », analyses d’impacts, etc.). Pour cela, il

est nécessaire que la formation porte tant sur

les aspects purement éthiques, que sur les

aspects plus techniques.

Cette pluridisciplinarité doit d’ailleurs se

retrouver dans les équipes participant à la mise

au point du système d’IA. Il faut donc s’assurer

que les équipes soient diversifiées « en ce qui

concerne le genre, la culture et l’âge, mais

également du point de vue du parcours

professionnel et des compétences » 20 . En

somme, il s’agit donc de faire du management

inclusif : agir contre les discriminations en

interne pour éviter celles pesant potentiellement

sur les utilisateurs finaux des algorithmes.

Définir des standards d’entreprise :

une difficulté surmontable

Afin de garantir une certaine cohérence en

matière d’éthique, il est indispensable de définir

des standards d’entreprise en la matière. En

effet, étant donné que la Commission

européenne ne fournit que des lignes

directrices mais pas de formules ou de seuils à

suivre, il appartient à l'entreprise de les élaborer

et de les documenter en interne.

Ces standards doivent être mis à disposition

des collaborateurs, et en particulier des

concepteurs des systèmes. Ils doivent intégrer

20 Lignes directrices en matière d’éthique pour une IA digne de

confiance, GEHN IA, Commission Européenne, Avril 2019, p. 29.

Page 8: INSIGHT Octobre 2019 - Sia Partners · 2019-10-11 · données personnelles ? Se pose un autre problème : l’obligation issue du RGPD ne concerne que les algorithmes traitant des

8

les 7 grands principes 21 permettant d’assurer

une éthique des algorithmes. Il s’agit par

exemple de seuils acceptables d’automatisation

des systèmes, de niveau d’explicabilité,

d’auditabilité, de fiabilité, d’équité, etc.

Or l’ensemble de ces seuils ou formules ne peut

être à la fois efficace économiquement et

éthiquement que si ceux-ci sont coconstruits

par la conformité, l'audit interne et la data

science. La première difficulté tient donc dans

la nécessaire complémentarité des concepteurs

des standards qui exercent des activités

fondamentalement différentes. Ces équipes

devront, pour la première fois, travailler

ensemble à coconstruire ce nouveau cadre

éthique de l'IA.

La deuxième difficulté réside essentiellement

dans ses coûts. En effet, les standards

d’entreprise doivent inclure l’obligation relative

à la notion de « human centric », laquelle a pour

objet de faire en sorte que chaque système

d’intelligence artificielle bénéficie de

mécanismes permettant une supervision ou un

contrôle humain. Comment ? En imposant par

exemple le développement d’interfaces entre la

machine et son utilisateur par des « outils de

visualisation lui permettant de comprendre

pourquoi des recommandations [lui] ont été

proposées voire, encore mieux, de générer en

retour des recommandations plus

appropriées »22. Or ces outils de visualisation

sont coûteux, au même titre que l’est leur mise

à disposition aux clients dans des interfaces

dédiées.

Enfin, la définition de standards peut être

difficile puisqu’ils doivent répondre à des

principes éthiques. En effet, ces derniers sont

des notions subjectives sur lesquelles il est

nécessaire de s’accorder en amont de leur

application23. Pour cela, la co-construction est

très encouragée. Il est donc recommandé

d’échanger avec des associations,

administrations, des entreprises du même

secteur, voire avec les utilisateurs finaux du

système directement.

21 A savoir les principes d’action humaine et de contrôle humain,

de robustesse technique et de sécurité, de respect de la vie privée et de gouvernance, de transparence, de diversité, non-discrimination et équité, de bien-être social et environnemental et de responsabilité.

22 Comment permettre à l’Homme de garder la main ?, Rapport

de la CNIL, Décembre 2017. 23 Lignes directrices en matière d’éthique pour une IA digne de

confiance, GEHN IA, Commission Européenne, Avril 2019, p. 39.

Conclusion

La diversité des actions à mettre en

œuvre afin d’assurer une éthique de

l’intelligence artificielle est donc

largement similaire à celle issue du

RGPD. Les entreprises peuvent donc

capitaliser sur les processus,

organisations et livrables mis en place

dans le cadre de la protection des

données pour réduire les coûts liés à

l’instauration d’un « ethic by design »

et d’une organisation éthique. Le

véritable coût résidera dans la

définition et l’application des

standards d’entreprise.

Mais il y a fort à parier que

l’engagement de telles actions ne sera

que bénéfique pour l’entreprise

puisqu’il s’agit d’anticiper l’arrivée de

nouvelles réglementations spécifiques

aux systèmes d’IA. En effet, force est

de constater que les entreprises ont la

possibilité de se démarquer sur le

marché en adoptant une approche

éthique basée sur la transparence de

leurs systèmes vis-à-vis de leurs

clients, partenaires et employés.

Page 9: INSIGHT Octobre 2019 - Sia Partners · 2019-10-11 · données personnelles ? Se pose un autre problème : l’obligation issue du RGPD ne concerne que les algorithmes traitant des

9

VOS CONTACTS

A PROPOS DE SIA PARTNERS Sia Partners réinvente le métier du conseil et apporte un regard innovant et des résultats concrets à ses

clients à l'ère du digital. Notre présence globale et notre expertise dans plus de 30 secteurs et services

nous permettent d’accompagner nos clients dans le monde entier. Nous accompagnons leurs initiatives

en stratégie, projets de transformation, stratégie IT et digitale et data science. En tant que pionniers du

Consulting 4.0, nous développons des consulting bots et intégrons dans nos solutions la disruption

créée par l'intelligence artificielle.

Abu Dhabi | Amsterdam | Brussels | Casablanca | Charlotte | Denver | Doha | Dubai | Frankfurt | Hamburg | Hong Kong | Houston | London | Luxembourg | Lyon | Milan | Montreal | Riyadh |

Rome | Seattle | Singapore | Tokyo | Toronto |

Suivez nous sur LinkedIn et Twitter @SiaPartners

Pour plus d’informations: www.sia-partners.com

JEANNE FOURCADE

Senior Consultant Compliance + 33 6 82 08 16 71 [email protected]

SOPHIE LE GOFF

Partner Compliance & Insurance + 33 6 15 29 31 83 [email protected]

SANDRA BERTAY

Senior Manager Compliance + 33 6 32 94 64 59 [email protected]