Passer au contenu principal Skip to footer
Cognizant Blog


Il ne suffit pas de cocher quelques cases pour s’assurer que l’IA que l’on développe respecte des valeurs éthiques et sociétales. C’est un changement de paradigme à la fois intellectuel et opérationnel dans lequel la responsabilité vient en permanence contrebalancer l’innovation. Voici 4 recommandations pour avancer rapidement sur cette ligne de crête.

Pour appréhender l’intérêt d’une approche éthique dans une stratégie d’intelligence artificielle (IA), il faut se pencher sur une anecdote citée par un intervenant de l’International AI Summit de Bruxelles le 8 novembre dernier. Alors que celui-ci s’interrogeait sur les critères­clés recherchés par les recruteurs chez un candidat, il s’est amusé à questionner un logiciel d’IA spécialisé en recrutement avec la requête « Quels sont les deux facteurs qui déterminent le plus l’aptitude à l’emploi ? ». À sa grande surprise, les réponses qui sont sorties étaient… le prénom Jared et la pratique de la crosse au lycée !

Quel enseignement tirer de cette anecdote – forcément limitée par le fait que le modèle d’IA utilisé était déjà daté et peu entraîné ? Principalement que les biais de corrélation peuvent s’infiltrer très rapidement dans les modèles, et donc dans l’économie et la société au global si l’IA est livrée à elle-même. Comme l’illustre très bien cet exemple, les modèles d’IA sont particulièrement prompts à trouver des schémas récurrents entre les jeux de données mais ils sont incapables de distinguer ce qui relève de la corrélation et ce qui relève de la causalité. D’où un besoin critique de contrôles et de contre­pouvoirs lors du recours à ces outils – une injonction qui croît d’autant plus vite que l’usage de l’IA générative se répand rapidement.

Il est donc impératif de s’accorder au plus tôt sur des normes et des principes éthiques. Mais, au­delà de ce premier cadre, la mise en place concrète de mesures de contrôle peut s’avérer complexe car elle ne se résume pas à cocher quelques cases d’une feuille de route. Intégrer l’éthique dans les outils d’IA requiert un changement complet de mentalité des dirigeants pour s’assurer que tous les systèmes opèrent de façon équitable, sécurisée et responsable. Et ce changement de paradigme est porteur d’enjeux qui dépassent la définition strictement technologique de l’IA : à travers ce cadre, celle­ci s’affirme comme une innovation qui peut bénéficier aux valeurs et au progrès de la société tout entière.

4 étapes pour favoriser l’éthique au sein des stratégies de gen AI
1) Intégrer des checkpoints éthiques à chaque étape du cycle de développement

Pour rappel, l’IA n’a pas d’intelligence intrinsèque à faire valoir (du moins jusqu’à présent). Elle est d’abord un outil destiné à augmenter l’intelligence humaine et à développer notre productivité et notre efficacité.

Ce qui signifie que, même si l’IA élargit son périmètre d’action et prend en charge des tâches de plus en plus complexes, il est indispensable que des intelligences humaines soient capables de questionner son impact à chaque étape sur les personnes et sur la société dans son ensemble. Prenons l’exemple d’un modèle destiné à développer la rétention et l’engagement de visiteurs sur une plateforme : à quel moment ce modèle devient-il malsain pour le visiteur ? à quel moment encourage-t-il une surconsommation néfaste ? incite-t-il les visiteurs à se faire exploiter ? Autant de questions qui doivent en permanence animer les discussions des équipes de conception et les projets des décideurs. Désormais, même si les objectifs commerciaux restent prioritaires dans les stratégies d’entreprises, ils seront contrebalancés par la prise en compte des impacts sociétaux.

Et cet équilibre ne se fera qu’en conservant un regard humain à chaque étape du développement, c’est-à-dire en confiant à une personne ou un groupe de personnes la responsabilité de contrôler, valider et adapter en permanence les processus amont et aval de l’IA. Objectif de ce nouveau rôle : éviter tout problème (de biais par exemple) et vérifier que les dirigeants ont une compréhension complète et nuancée des décisions qu’ils prennent.

Cette dichotomie entre analyse humaine et analyse logicielle s’incarne notamment dans un exemple : les dossiers d’évaluation d’une demande de prêt par les organismes bancaires. Dans le cas d’une analyse traditionnelle (humaine), des facteurs comme les antécédents de crédit, le contexte personnel (ex : changement d’emploi suite à la pandémie) mais aussi l’historique de remboursement peuvent être soupesés pour fournir une vision plus complète de l’individu. Alors que, dans une approche par algorithme, seules les données brutes seront utilisées pour prendre une décision, ce qui retire de l’équation la compréhension nuancée des circonstances particulières et personnelles (pourtant très pertinentes).

C’est précisément ce genre de problèmes que les entreprises doivent prendre en compte et éviter lorsqu’elles intègrent l’IA générative dans leurs processus, quels que soit la taille ou le secteur de ces entreprises.

2) Fédérer les talents en interne et en externe pour bâtir une gouvernance IA

Dans ces entreprises, on constate en interne un manque d’équipes et de ressources dédiées pour adresser et même appréhender les implications concrètes de l’IA.

Or, comme l’IA générative est une technologie encore neuve et non réglementée, les dirigeants de ces entreprises se retrouvent à prendre des décisions dont ils ne maîtrisent pas les tenants et les aboutissants – qu’il s’agisse de gérer les données d’entrée et de sorties du modèle, ou de concevoir, développer, opérer ou adapter les composants de celui-ci. Et, tout au long de ce processus (depuis la collecte responsable des données d’entraînement jusqu’à la communication transparente avec les consommateurs et les parties prenantes), chaque étape ne relève pas que d’une seule compétence isolée mais bien d’une variété de savoir-faire spécialisés qui travaillent en complémentarité.

Conséquence : les entreprises ont tout intérêt à attirer les talents et les expertises de l’extérieur – du monde académique, du conseil, des instances sectorielles, des agences gouvernementales, du monde scientifique (sociologues, éthologues, etc) – pour développer une gouvernance sur ces sujets. Et cela, quelle que soit la forme choisie pour cette gouvernance : conseil d’administration, groupe de travail, comité directeur ou tout autre type de groupe dont la tâche consisterait à développer, mettre en œuvre et superviser les opérations de contrôle.

À ce stade, plusieurs entreprises « Big Tech » ont déjà démontré leurs ambitions fortes en matière d’éthique de l’IA. Google et Microsoft ont exposé ouvertement les principes et les pratiques qui guident leurs programmes d'IA ; elles sont également à la manœuvre pour piloter des réflexions et des groupes de travail à l’échelle sectorielle pour apporter des réponses aux enjeux d’usage éthique et responsable de l’IA. Par conséquent, pour les entreprises qui commencent tout juste leur exploration de l’IA, il peut être judicieux de se pencher sur toutes les ressources proposées en open source par ces entreprises et de les utiliser comme un mode d’emploi pour leur propre activité.

3) Former les équipes à des systèmes fiables, plutôt que les remplacer par la machine

Plus qu’un outil, l’IA sera probablement, demain, au centre de notre pratique professionnelle. On pourrait imaginer qu’il relève de la compétence seule des équipes de s’approprier les usages de l’IA, mais ce serait retirer aux dirigeants leur responsabilité première : donner aux collaborateurs les ressources nécessaires pour opérer cette bascule.

En d’autres termes, il s’agit pour les entreprises de former les équipes en place à ce nouveau paradigme, en développant certaines aptitudes déjà acquises et en ouvrant vers d’autres compétences. Au cœur de ce cheminement, les dirigeants devront conduire le changement en expliquant et démontrant l’intérêt individuel et collectif d’utiliser cette technologie et en exposant une vision claire pour favoriser son adoption.

Pour intégrer l’éthique directement dans l’IA générative, les entreprises peuvent opter pour la sensibilisation des équipes à ces considérations éthiques au sein même du processus de conception et de développement. Elles peuvent le faire à la fois en établissant une liste de principes et de recommandations (qui guideront le développement des systèmes d’IA) et en formant les équipes sur les façons d’appliquer ces principes dans leur pratique professionnelle. À noter : ces principes ont tout intérêt à s’appuyer sur des cadres éthiques déjà reconnus et acceptés comme la transparence, la responsabilité (au sens de : imputabilité), l’équité et la bonne foi. En intégrant ces principes dans la formation des équipes, l’entreprise peut ainsi s’assurer que les systèmes d’IA seront conçus pour opérer de façon éthique et qu’ils seront alignés avec les valeurs et les règles de la société.

De la même façon, pour donner aux talents de demain toutes les compétences et la connaissance nécessaires à la compréhension et la maîtrise de l’IA, les établissements d’enseignement supérieur devront probablement adapter leurs programmes à cette nouvelle donne. Au-delà du rôle majeur de cette technologie en tant qu’outil de productivité, ils devront mettre en avant les méthodes d’utilisation qui favorisent un traitement fiable, sécurisé et responsable.

4) S’engager sur deux principes fondamentaux : transparence et responsabilité/imputabilité

Pour démontrer leur haut niveau d’engagement éthique, les entreprises doivent avant tout se montrer transparente et responsable quant à leur utilisation de l’IA.

Deux principes-clés de l’IA responsable

La transparence

La transparence se définit comme une attitude d’ouverture et d’honnêteté avec les parties prenantes concernant les actions que l’entreprise conduit avec l’IA et les différentes étapes par lesquelles elle passe pour garantir un traitement fiable, responsable et éthique.

La responsabilité (ou imputabilité)

La responsabilité (ou imputabilité) s’incarne dans la consignation de toutes les étapes du parcours IA pour que l’entreprise puisse ensuite prouver l’exécution des processus à l’ensemble de ses parties prenantes.


Cette tâche est rendue plus ardue par la nature mouvante de l’IA générative (qui évolue très vite dans ses aspects technologiques mais aussi dans son cadre réglementaire) : les entreprises doivent alors constamment réévaluer leurs méthodes d’utilisation de cette IA et les impacts que cela occasionne.

Par exemple, les algorithmes que l’on utilise à l’heure actuelle pourraient ne pas s’avérer conformes à la future réglementation européenne encadrée par l’AI Act. Les entreprises doivent également se montrer rigoureuses car le moindre changement apporté au modèle (sur les données d’entrée, les données d’entraînement ou les formules mathématiques) aura des impacts sur les données de sortie. C’est ici que les contributions d’un collège d’experts externes pourraient porter leurs fruits au sein de la gouvernance de l’entreprise : ce collège pourrait superviser et gérer la multiplicité de facettes et d’évolutions induites par la technologie, sur un large périmètre (pas seulement celui de l’entreprise).

Une IA éthique est indispensable au business

Au fur et à mesure que les entreprises explorent le potentiel incroyable de l’IA générative, leurs décideurs tech et métiers se trouvent confrontés à une responsabilité fondamentale : ne plus se demander si une tâche peut être effectuée mais bien si elle doit être effectuée.

On l’a compris : faire preuve d’éthique dans ses pratiques IA ne répond pas uniquement à un impératif moral. Il s’agit d’encourager l’innovation, l’attractivité des talents, la confiance avec le consommateur et la conformité avec les réglementations en cours et à venir.

Sur ce chemin, la voie partenariale semble sûrement la plus efficace : échanger avec d’autres décideurs à différentes étapes de leur propre parcours et instiller collectivement une vision saine de l’IA, appuyée sur des bases éthiques pour améliorer la vie de tous. En démontrant de la sagesse, de l’attention aux autres et une certaine prévoyance, nous pouvons construire l’IA de confiance de demain – une IA dans laquelle l’éthique n’est pas seulement une recette à appliquer mais un changement de paradigme intellectuel et opérationnel qui encourage la technologie à refléter le meilleur de l’humanité.

Article traduit et localisé à partir de l'article en anglais, 4 ways to embed ethics into generative AI, écrit par Tahir Latif, Global Practice Lead - Data Privacy & Responsible AI.


Cognizant France
Author Image

Découvrez nos points de vue sur les dernières tendances digitales et tous nos conseils pratiques pour moderniser votre entreprise.



Focus
New work, New world

Selon notre étude sur l'impact de l'IA générative sur le marché du travail, les dirigeants qui investissent dans les talents en retiront les bénéfices.

Une montagne dans les nuages

Articles récents
Sur le même sujet