Le management du digital
Rechercher

Intelligence artificielle : toujours une question d’éthique

Intelligence artificielle : toujours une question d’éthique

La problématique de l’éthique dans l’intelligence artificielle fait l’objet de nombreux débats, notamment sur les questions de surveillance, de discrimination et vis-à-vis de son degré d’autonomie pour les prises de décisions. Cette question d’éthique concerne tous les secteurs.

« L’un des défis des années à venir consistera donc à définir et à enseigner des valeurs aux IA », rappellent les auteurs d’une étude de l’IFRI (Institut Français des Relations Internationales). La Commission européenne a publié un projet de règlement sur l’IA, en avril 2021, et entend devenir le pôle mondial d’une IA « centrée sur l’humain, durable, sûre, inclusive et digne de confiance », de manière à se différencier en proposant une IA qui inspire davantage confiance que celle de ses voisins.  

Les enjeux sont en effet très importants : d’après une étude du CapGemini Research Institute, 62 % des consommateurs feraient davantage confiance à une entreprise dont l’utilisation de l’IA est considérée éthique et neuf dirigeants sur dix estiment que des problèmes d’ordre éthique ont résulté de l’utilisation de l’IA au cours des trois dernières années.

Les entreprises intègrent de plus en plus cette problématique éthique : 18 % des entreprises européennes ont nommé un responsable de l’éthique en matière d’intelligence artificielle, selon le cabinet IDC. D’autant que, selon les consommateurs, en cas de dysfonctionnement d’applications basées sur l’intelligence artificielle, c’est, d’abord, l’entreprise qui l’a mise en œuvre qui sera jugée responsable (pour 41 % des consommateurs américains), devant le concepteur de l’algorithme (26 %), les pouvoirs publics (1 %) ou l’algorithme lui-même (7 %), d’après une étude de Gartner.

« Il faut se poser non pas la question de ce que l’IA peut faire, mais ce qu’elle doit faire. Faire de l’IA pour de l’IA n’est pas pertinent, il faut toujours élaborer une étude d’impact pour le concept que l’on veut modéliser. Cette phase de prise de recul et de hauteur est cruciale, c’est la contextualisation qui crée de la valeur », explique Jean-Baptiste Bouzige, CEO chez Ekimetrics, société spécialisée en Data Science. Pour Eric Hazan, Directeur Associé Senior chez Mc Kinsey, « toutes les technologies ont des externalités positives (par exemple la croissance, la création de valeur…) et ngatives (par exemple les biais dans l’analyse des données), il en est de même avec l’intelligence artificielle. »

Selon la dernière étude de McKinsey, publiée en décembre 2021, les entreprises sont de plus en plus sensibilisées aux différents biais liés à l’intelligence artificielle : quatre entreprises sur dix modifient leurs algorithmes si des biais sont détectés et les vérifient régulièrement. Et une entreprise sur trois dispose de mécanismes spécifiques pour identifier les biais des algorithmes. « Les algorithmes doivent être interprétables de manière à savoir pourquoi on prend telle décision », soutient Jean-Baptiste Bouzige, CEO d’Ekimetrics.

Pour Mathieu Ovaert, Chief Digital Officer chez Nestlé, « l’intelligence artificielle doit être explicable, de même que les décisions, elle doit être « à hauteur d’homme » et, d’ailleurs, je préfère parler d’intelligence augmentée plutôt que d’intelligence artificielle. » Chez Nestlé, environ quarante cas d’usages liés à l’IA sont opérationnels « mais aucun n’est en mode presse bouton. »

En effet, si les données ne sont pas fiables, les résultats sont désastreux. Mathieu Ovaert, qui se fait accompagner par Ekimétrics, conseille de commencer par « un travail de plombier », pour intégrer des données existantes en silos vers un Data Lake. «  Ce n’est certes pas très valorisant, mais nous n’avons pas commencé par des chantiers nobles. » Parmi les premières initiatives chez Nestlé : l’amélioration des tableaux de bord. « Nous avons élaboré des tableaux de bord simples avec des données fiables et cela crée beaucoup de valeur. » Ensuite, Nestlé a lancé un chantier d’amélioration de ses investissements publicitaires et promotionnels. « L’idée est d’aider à la décision face à la prolifération des médias dans lesquels on peut investir et, comme nous sommes un très gros annonceur, il faut aider nos équipes à prendre les bonnes décisions. » Nestlé est pour l’instant en phase pilote sur les segments du chocolat et du café. « Ce n’est pas le système qui décide, il propose des scénarios, il faut convaincre que « homme+machine » est plus efficace que « homme » tout seul. Pour l’instant, je n’ai pas eu de débat éthique à adresser. Le consommateur attend un engagement vérifié et vérifiable », estime Mathieu Ovaert. Autre projet dans les cartons chez Nestlé : utiliser l’IA pour optimiser le remplissage des camions. « Il faut toujours éduquer, borner et paramétrer les algorithmes », conclut Mathieu Ovaert.

Pour concevoir et déployer une IA robuste sur le plan éthique, une étude du Capgemini Research Institute recommande sept bonnes pratiques :

- Indiquer clairement l’objectif visé par les systèmes IA et leur impact potentiel.

- Déployer une IA qui soit pensée proactivement au service de la société et de l’environnement.

- Intégrer d’office des critères de diversité et d’inclusion tout au long du cycle de vie des systèmes IA.

- Renforcer la transparence au moyen d’outils technologiques.

- Rendre l’expérience IA plus humaine et s’assurer que les systèmes IA sont contrôlés par l’humain.

- Garantir la robustesse technologique des systèmes IA.

- Protéger la vie privée des utilisateurs en leur donnant plus de pouvoir en termes de contrôle des interactions IA.

 

 

Best Practices propose des publications payantes.
Comparez nos différentes offres d'abonnement.

La rédaction

La rédaction

La rédaction de Best Practices fédère les meilleurs experts sur le management des systèmes d’information.

Nos Ouvrages

  • Benchmark Digital&Business - numéro 157

    Ce numéro de Benchmark Digital & Business regroupe l’essentiel des chiffres et des tendances présentés lors du Symposium Gartner 2021, qui s’est déroulé en novembre, à distance.

  • Benchmark Digital&Business - numéro 156

    Ce numéro de Benchmark Digital & Business regroupe l’essentiel des chiffres et des tendances présentés lors du Symposium Gartner 2021, qui s’est déroulé en novembre, à distance.

  • Symposiums Gartner : la synthèse

    Les équipes de Best Practices assistent chaque année au Symposium organisé par le cabinet Gartner qui présente des études, ses analyses et ses opinions sur l’évolution des technologies, du digital et des systèmes d’information.

A ne pas manquer

  • Comment rater...
sa Data Integration

    Pour rater son intégration de données, rien de plus simple. C’est à la portée de toutes les entreprises ! Il suffit de suivre nos treize commandements et d’oublier la gouvernance, la qualité, la sécurité et les enjeux métiers.

  • Comment rater...
sa génération de leads

    Il existe un lien étroit entre le dynamisme commercial d'un éditeur de logiciels ou d'un intégrateur et la qualité des leads dont disposent les commerciaux pour maintenir leur performance. Mais il est très facile de ruiner votre performance commerciale.

  • Comment rater...
sa stratégie Big Data

    Une stratégie Big Data ne s'improvise pas. Quoique... Ce nouveau titre de la collection "Comment rater..." propose les douze commandements pour tous ceux qui veulent vraiment rater leur stratégie Big Data.

Best Practices

Informations

REMARQUE ! Ce site utilise des cookies et autres technologies similaires.

Si vous ne changez pas les paramètres de votre navigateur, vous êtes d'accord. En savoir plus

J'ai compris