L'éthique de l'IA est une préoccupation. Apprenez comment vous pouvez rester éthique
Publié: 2022-04-28L'intelligence artificielle (IA) devient omniprésente dans notre vie quotidienne.
Que vous en soyez conscient, l'IA est intégrée à de nombreuses technologies que vous utilisez régulièrement. Lorsque Netflix recommande une émission que vous pourriez aimer ou que Google vous suggère de réserver un voyage en ligne depuis l'aéroport d'où vous volez habituellement, l'intelligence artificielle est impliquée.
En fait, 91 % des entreprises souhaitent aujourd'hui investir dans l'IA. Bien que l'IA puisse sembler extrêmement technique, à la limite de la science-fiction, ce n'est finalement qu'un outil. Et comme tout outil, il peut être utilisé pour le meilleur ou pour le pire. Par conséquent, alors que l'IA assume des tâches de plus en plus sophistiquées, il est important de s'assurer qu'un cadre éthique est en place pour son utilisation correcte.
Plongeons un peu plus dans les principales préoccupations concernant l'éthique dans l'IA, quelques exemples d'IA éthique et, plus important encore, comment garantir le respect de l'éthique lors de l'utilisation de l'IA dans un contexte professionnel.
Qu'est-ce que l'éthique en IA ?
L'éthique de l'IA est un ensemble de principes moraux pour guider et éclairer le développement et l'utilisation des technologies d'intelligence artificielle. Parce que l'IA fait des choses qui nécessiteraient normalement l'intelligence humaine, elle nécessite des directives morales autant qu'une prise de décision humaine. Sans réglementation éthique en matière d'IA, le potentiel d'utilisation de cette technologie pour perpétuer une mauvaise conduite est élevé.
De nombreuses industries utilisent fortement l'IA, notamment la finance, la santé, les voyages, le service client, les médias sociaux et les transports. En raison de son utilité sans cesse croissante dans de nombreux secteurs, la technologie de l'IA a des implications considérables pour tous les aspects du monde et doit donc être réglementée.
Maintenant, bien sûr, différents niveaux de gouvernance sont nécessaires en fonction de l'industrie et du contexte dans lequel l'IA est déployée. Un aspirateur robot qui utilise l'IA pour déterminer le plan d'étage d'une maison ne changera probablement pas radicalement le monde à moins qu'il n'utilise un cadre éthique. Une voiture autonome qui doit reconnaître les piétons, ou un algorithme qui détermine quel type de personne est le plus susceptible d'être approuvé pour un prêt, peut et aura un impact profond sur la société si des directives éthiques ne sont pas mises en œuvre.
En déterminant les principales préoccupations éthiques de l'IA, en consultant des exemples d'IA éthique et en tenant compte des meilleures pratiques pour une utilisation éthique de l'IA, vous pouvez vous assurer que votre organisation est sur la bonne voie pour utiliser l'IA.
Quelles sont les principales préoccupations éthiques de l'IA ?
Comme mentionné précédemment, les principales préoccupations éthiques varient considérablement selon l'industrie, le contexte et l'ampleur de l'impact potentiel. Mais dans l'ensemble, les plus grands problèmes éthiques en matière d'intelligence artificielle sont les préjugés de l'IA, les craintes que l'IA puisse remplacer les emplois humains, les problèmes de confidentialité et l'utilisation de l'IA pour tromper ou manipuler. Passons en revue plus en détail.
Biais dans l'IA
Alors que l'IA prend en charge des tâches sophistiquées et fait le gros du travail, n'oubliez pas que les humains ont programmé et formé l'IA pour effectuer ces tâches. Et les gens ont des préjugés. Par exemple, si les scientifiques des données à prédominance masculine blanche collectent des données sur des hommes à prédominance blanche, l'IA qu'ils conçoivent pourrait reproduire leurs biais.
Mais ce n'est en fait pas la source la plus courante de biais d'IA. Ce qui est plus courant, c'est que les données utilisées pour entraîner les modèles d'IA peuvent être biaisées. Par exemple, si les données collectées ne proviennent que de la majorité statistique, elles sont intrinsèquement biaisées.
Un exemple poignant en est la récente recherche de Georgia Tech sur la reconnaissance d'objets dans les voitures autonomes. Il a été constaté que les piétons à la peau foncée étaient frappés environ 5 % plus souvent que les personnes à la peau claire. Ils ont constaté que les données utilisées pour entraîner le modèle d'IA étaient probablement à l'origine de l'injustice : l'ensemble de données contenait environ 3,5 fois plus d'exemples de personnes à la peau plus claire, de sorte que le modèle d'IA pouvait mieux les reconnaître. Cette différence apparemment minime aurait pu avoir des conséquences mortelles lorsqu'il s'agit de quelque chose d'aussi potentiellement dangereux que des voitures autonomes frappant des gens.
Du côté positif, la bonne chose à propos des modèles d'IA et d'apprentissage automatique (ML) est que l'ensemble de données sur lequel ils sont formés peut être modifié, et avec suffisamment d'efforts investis, ils peuvent devenir largement impartiaux. En revanche, il n'est pas possible de laisser les gens prendre des décisions totalement impartiales à grande échelle.
L'IA remplace les emplois
Presque toutes les innovations technologiques de l'histoire ont été accusées de remplacer des emplois, et jusqu'à présent, cela ne s'est jamais produit ainsi. Aussi avancée que puisse paraître l'IA, l'IA ne remplacera pas de sitôt les humains ou leur travail.
Dans les années 1970, les guichets automatiques bancaires (GAB) ont été introduits et les gens craignaient un chômage de masse pour les employés de banque. La réalité était tout le contraire. Étant donné que moins de caissiers étaient désormais nécessaires pour exploiter une succursale bancaire, les banques ont pu augmenter le nombre de succursales et le nombre d'emplois de caissier en général. Et ils pouvaient le faire pour moins cher car les guichets automatiques s'occupaient des tâches simples et quotidiennes comme le traitement des dépôts de chèques et le retrait d'espèces.
Cela se reflète dans ce qui se passe actuellement avec l'IA et ses applications. Un exemple est lorsque l'IA a été introduite pour la première fois pour comprendre et imiter la parole humaine. Les gens ont paniqué lorsque les chatbots et les assistants virtuels intelligents (IVA) ont remplacé les agents humains du service client. La réalité est que l'automatisation alimentée par l'IA peut être extrêmement utile, mais il est peu probable que l'IA remplace véritablement les humains.
De la même manière, les guichets automatiques se sont occupés des tâches banales qui ne nécessitaient pas d'intervention humaine, les chatbots et les IVA alimentés par l'IA peuvent prendre en charge les demandes simples et répétitives et même comprendre les questions en langage naturel en utilisant le traitement du langage naturel pour fournir des informations utiles, réponses contextuelles.
Mais les requêtes les plus compliquées nécessitent toujours l'intervention d'un agent humain. L'automatisation alimentée par l'IA peut être limitée à certains égards, mais l'impact peut être énorme. Les agents virtuels alimentés par l'IA réduisent les frais de service client jusqu'à 30 %, et les chatbots peuvent gérer jusqu'à 80 % des tâches de routine et des questions des clients.
L'avenir de l'IA est réaliste dans lequel les humains et les robots alimentés par l'IA travaillent ensemble, les robots gérant les tâches simples et les humains se concentrant sur les questions les plus complexes.
IA et confidentialité
La protection de la vie privée est peut-être la préoccupation la plus valable concernant l'éthique dans l'IA. La vie privée est reconnue comme un droit humain fondamental dans la Déclaration des droits de l'homme des Nations Unies, et diverses applications d'IA peuvent constituer une menace réelle pour elle. Des technologies telles que les caméras de surveillance, les smartphones et Internet ont facilité la collecte de données personnelles. Lorsque les entreprises ne sont pas transparentes sur la raison et la manière dont les données sont collectées et stockées, la confidentialité est menacée.
La reconnaissance faciale, par exemple, est controversée pour de nombreuses raisons. L'une des raisons étant la façon dont les images sont reconnues et stockées par cette technologie. Être surveillé sans consentement explicite est l'une des applications de l'IA que beaucoup considèrent comme contraire à l'éthique. En fait, la Commission européenne a interdit la technologie de reconnaissance faciale dans les espaces publics jusqu'à ce que des contrôles éthiques adéquats puissent être mis en place.
Le défi de la création de réglementations éthiques sur la confidentialité autour de l'IA est que les gens sont généralement disposés à donner certaines informations personnelles pour obtenir un certain niveau de personnalisation. Il s'agit d'une grande tendance dans le service client et le marketing pour une bonne raison.
80%
des consommateurs sont plus susceptibles d'acheter lorsque les marques proposent des expériences personnalisées.
Source : Epsilon
Certains exemples sont les épiceries ou les pharmacies qui offrent des coupons basés sur les achats antérieurs ou les agences de voyage qui proposent des offres basées sur l'emplacement des consommateurs.
Ces données personnelles aident l'IA à fournir le contenu personnalisé et opportun que les consommateurs souhaitent. Néanmoins, sans protocoles de désinfection des données appropriés, il existe un risque que ces données soient traitées et vendues à des sociétés tierces et utilisées à des fins non prévues.
Par exemple, le désormais tristement célèbre scandale Cambridge-Analytica impliquait la société de conseil politique qui a travaillé pour la campagne Trump et qui a vendu les données privées de dizaines de millions d'utilisateurs de Facebook. Ces sociétés tierces sont également plus vulnérables aux cyberattaques et aux violations de données, ce qui signifie que vos informations privées pourraient tomber encore plus entre de mauvaises mains.

Ironiquement, l'IA est une excellente solution pour la protection des données. Les capacités d'auto-apprentissage de l'IA signifient que les programmes alimentés par l'IA peuvent détecter des virus ou des modèles malveillants qui conduisent souvent à des failles de sécurité. Cela signifie qu'en mettant en œuvre l'IA, les organisations peuvent détecter de manière proactive les tentatives de violation de données ou d'autres types d'attaques de sécurité des données avant que des informations ne puissent être volées.
Tromperie et manipulation à l'aide de l'IA
L'utilisation de l'IA pour perpétuer la désinformation est un autre problème éthique majeur. Les modèles d'apprentissage automatique peuvent facilement générer des textes factuellement incorrects, ce qui signifie que de faux articles d'actualité ou de faux résumés peuvent être créés en quelques secondes et distribués via les mêmes canaux que de vrais articles d'actualité.
Ceci est bien illustré par la mesure dans laquelle les médias sociaux ont influencé la diffusion de fausses nouvelles lors des élections de 2016, plaçant Facebook sous les projecteurs de l'IA éthique. Une étude réalisée en 2017 par des chercheurs de la NYU et de Stanford montre que les fausses informations les plus populaires sur Facebook ont été partagées plus souvent que les informations grand public les plus populaires. Le fait que cette désinformation ait pu se propager sans régulation de Facebook, affectant potentiellement les résultats de quelque chose d'aussi important qu'une élection présidentielle, est extrêmement troublant.
L'IA est également capable de créer de faux enregistrements audio ainsi que des images et des vidéos synthétiques où quelqu'un dans une image ou une vidéo existante est remplacé par quelqu'un d'autre. Connues sous le nom de "deepfakes", ces fausses similitudes peuvent être extrêmement convaincantes.
Lorsque l'IA est utilisée pour tromper intentionnellement de cette manière, il incombe aux individus de discerner ce qui est réel ou non, et que ce soit par manque de compétence ou de volonté, nous avons vu que les humains ne sont pas toujours capables de déterminer ce qui est vrai ou pas.
Comment utiliser l'IA de manière éthique
Avec tous les défis que l'IA apporte, vous vous demandez peut-être comment atténuer les risques lors de la mise en œuvre de l'IA en tant que solution dans votre organisation. Heureusement, il existe quelques bonnes pratiques pour utiliser l'IA de manière éthique dans un contexte commercial.
Éducation et sensibilisation à l'éthique de l'IA
Commencez par vous renseigner, ainsi que vos pairs, sur ce que l'IA peut faire, ses défis et ses limites. Plutôt que d'effrayer les gens ou d'ignorer complètement le potentiel d'utilisation contraire à l'éthique de l'IA, s'assurer que tout le monde comprend les risques et sait comment les atténuer est le premier pas dans la bonne direction.
L'étape suivante consiste à créer un ensemble de directives éthiques auxquelles votre organisation doit se conformer. Enfin, étant donné que l'éthique en IA est difficile à quantifier, vérifiez régulièrement pour vous assurer que les objectifs sont atteints et que les processus sont suivis.
Adoptez une approche humaine de l'IA
Adopter une approche axée sur l'humain signifie contrôler les préjugés. Tout d'abord, assurez-vous que vos données ne sont pas biaisées (comme dans l'exemple de la voiture autonome mentionné ci-dessus). Deuxièmement, rendez-le inclusif. Aux États-Unis, le groupe démographique des programmeurs de logiciels est composé d'environ 64 % d'hommes et 62 % de Blancs.
Cela signifie que les personnes qui développent les algorithmes qui façonnent le fonctionnement de la société ne représentent pas nécessairement la diversité de cette société. En adoptant une approche inclusive de l'embauche et en élargissant la diversité des équipes travaillant sur la technologie de l'IA, vous pouvez vous assurer que l'IA que vous créez reflète le monde pour lequel elle a été créée.
Donner la priorité à la transparence et à la sécurité dans tous les cas d'utilisation de l'IA
Lorsque l'IA est impliquée dans la collecte ou le stockage de données, il est impératif d'éduquer vos utilisateurs ou clients sur la manière dont leurs données sont stockées, à quoi elles servent et les avantages qu'ils tirent du partage de ces données. Cette transparence est essentielle pour instaurer la confiance avec vos clients. De cette façon, adhérer à un cadre d'IA éthique peut être considéré comme créant un sentiment positif pour votre entreprise plutôt qu'une réglementation restrictive.
Exemples d'IA éthique
Bien que l'IA soit un domaine relativement nouveau, les géants de la technologie présents sur le terrain depuis des décennies et des tiers objectifs qui reconnaissent la nécessité d'une intervention et d'une réglementation ont créé un cadre sur lequel vous pouvez aligner les politiques de votre propre organisation.
Des cadres qui inspirent une IA éthique
Plusieurs tiers impartiaux ont reconnu la nécessité de créer des lignes directrices pour l'utilisation éthique de l'IA et de veiller à ce que son utilisation profite à la société.
L'Organisation de coopération et de développement économiques (OCDE) est une organisation internationale qui travaille à créer de meilleures stratégies pour une vie meilleure. Ils ont créé les Principes de l'OCDE sur l'IA, qui promeuvent l'utilisation d'une IA innovante, fiable et respectueuse des droits de l'homme et des valeurs démocratiques.
Les Nations Unies (ONU) ont également élaboré un cadre pour l'IA éthique qui explique comment l'IA est un outil puissant qui peut être utilisé pour le bien mais risque d'être utilisé d'une manière incompatible avec les valeurs de l'ONU et contraire. Il suggère qu'un ensemble de lignes directrices, de politiques ou d'un code d'éthique doit être créé pour garantir que l'utilisation de l'IA à l'ONU est conforme à ses valeurs éthiques.
Entreprises et IA éthique
En plus des tiers objectifs, les plus grands leaders de l'espace ont également développé leurs propres directives pour utiliser l'IA de manière éthique.
Google, par exemple, a développé des principes d'intelligence artificielle qui forment une charte éthique qui guide le développement et l'utilisation de l'intelligence artificielle dans leurs recherches et leurs produits. Et non seulement Microsoft a créé des principes d'IA responsable qu'ils ont mis en pratique pour guider toutes les innovations en IA chez Microsoft, mais ils ont également créé une école de commerce en IA pour aider d'autres entreprises à créer leurs propres politiques de prise en charge de l'IA.
Mais vous n'avez pas besoin d'être basé dans la Silicon Valley pour plaider en faveur d'une IA éthique. Certaines petites entreprises d'IA ont emboîté le pas et commencent à inclure l'éthique dans leurs valeurs motrices.
Il existe également des moyens pour que les entreprises à but lucratif puissent être certifiées éthiques et durables, comme la certification B Corp qui valide qu'une organisation utilise les affaires comme une force pour le bien.
Plusieurs sociétés d'IA à but lucratif ont rejoint les normes B Corp, ce qui montre que l'IA est toujours une tendance émergente. Bien que ce type d'accréditation ne soit pas exclusif aux entreprises d'IA, il signale un engagement à agir de manière éthique, et davantage d'entreprises technologiques peuvent et doivent demander une certification.
L'IA pour le bien
Lorsque l'on parle d'éthique dans l'IA, l'accent est davantage mis sur les éventuels cas d'utilisation et impacts négatifs de l'IA, mais l'IA fait vraiment beaucoup de bien. Il est important de se rappeler que la technologie de l'IA n'est pas seulement un problème potentiel, mais une solution à bon nombre des plus grands problèmes du monde.
Il y a l'IA pour prédire les effets du changement climatique et suggérer des actions pour y faire face ; les chirurgiens robotiques peuvent effectuer ou aider à des opérations qui nécessitent plus de précision qu'un humain ne peut gérer.
La technologie agricole assistée par l'IA augmente les rendements des cultures tout en réduisant le gaspillage de rendement des cultures. Il existe même des organisations à but non lucratif comme AI for Good qui se consacrent uniquement à faire de l'IA une force ayant un impact mondial. Et aussi naturel que cela puisse paraître, l'IA facilite les tâches quotidiennes simples comme la navigation dans le trafic ou l'interrogation de Siri sur la météo.
L'IA s'améliore avec la bonne éthique
L'intelligence artificielle est devenue un outil puissant tissé dans votre vie quotidienne. Presque tous vos services et appareils utilisent l'IA pour vous faciliter la vie ou la rendre plus efficace. Et s'il est bien sûr possible d'utiliser l'IA de manière malveillante, la grande majorité des entreprises ont mis en place des principes éthiques pour atténuer les effets négatifs dans la mesure du possible.
Tant que les meilleures pratiques sont suivies, l'IA a le potentiel d'améliorer pratiquement tous les secteurs, des soins de santé à l'éducation et au-delà. Il appartient aux personnes qui créent ces modèles d'IA de s'assurer qu'elles gardent à l'esprit l'éthique et se demandent constamment comment ce qu'elles créent peut bénéficier à la société dans son ensemble.
Quand vous pensez à l'IA comme un moyen de faire évoluer l'intelligence humaine plutôt que de la remplacer, cela ne semble pas si complexe ou effrayant. Et avec le bon cadre éthique, il est facile de voir comment cela changera le monde pour le mieux.
Intégrez l'intelligence artificielle dans vos fonctions quotidiennes et automatisez les tâches avec un logiciel d'intelligence artificielle.