IA et éthique : lutte pour la confiance
Publié: 2018-10-02J'ai récemment assisté au Congrès sur l'IA et au Sommet sur la science des données à Londres et j'ai tenu à assister à la table ronde intitulée Éthique et IA. Les panélistes étaient Harriet Kingaby, co-fondatrice de Not Terminator et Emma Prest, directrice exécutive de DataKind UK.
L'éthique est une discussion tellement intéressante, et peut-être l'aspect le plus important dans le développement de l'intelligence artificielle (IA). L'année dernière, nous avons publié The Marketers Field Guide to Machine Learning et abordé le sujet de l'IA et de l'éthique aux côtés de sujets tels que l'équité, l'explicabilité et la sécurité. Si l'IA devait être développée de manière totalement contraire à l'éthique, nous perdrions complètement confiance en elle, nous devons donc la garder à l'esprit.
Dans notre ebook, nous avons discuté:
À ce jour, le ML et l'IA ont été principalement déployés pour effectuer des tâches de niveau inférieur, principalement banales, afin d'améliorer la productivité. Mais bientôt, ils peuvent être en mesure de décider littéralement de la vie ou de la mort. Une voiture autonome sera chargée non seulement d'amener ses occupants en toute sécurité à leur destination, mais aussi d'assurer la sécurité de tous les autres autour d'eux. Ce n'est qu'une question de temps lorsqu'une voiture autonome se retrouve dans une situation impossible ; un accident est inévitable, son seul choix est de se diriger vers le piéton A à gauche ou le piéton B à droite. Comment le système d'IA sous le capot déciderait-il des mesures à prendre ? Basé sur la taille? Âge? Statut social? Et lorsque les enquêteurs sur les accidents tentent de déterminer ce qui a influencé le résultat, trouveront-ils une logique éthiquement troublante qui y est intégrée ?
En effet, ces questions nous laissaient perplexes à l'époque, mais nous avons depuis vu certains des résultats. Le sujet de l'éthique et de l'IA n'est pas seulement discuté dans les salles de conférence et dans les universités, il a fait son chemin dans les pages législatives et sera bientôt cousu dans le tissu de la façon dont nous fonctionnons en tant que société.
Bon et mauvais IA - Beaucoup de choses peuvent se produire en un an
Depuis la sortie de notre ebook d'apprentissage automatique il y a moins d'un an, il y a eu de nombreux développements de l'IA (pour le meilleur ou pour le pire).
Tesla a signalé des accidents de pilote automatique avec des voitures autonomes, et des technologies comme Deepfake sont apparues, grâce auxquelles la technologie d'apprentissage en profondeur peut être utilisée pour créer des médias numériques en superposant des images de personnes réelles dans des situations auxquelles elles n'ont pas participé avec l'intention de créer de fausses nouvelles ou canulars.
Lors d'un incident terriblement malheureux, une voiture autonome Uber a tué un piéton . Cette tragédie s'est produite parce que notre société a fait confiance à une technologie d'IA. Bien qu'il ait été découvert plus tard qu'une erreur humaine avait joué un rôle dans l'accident, une fois que vous avez qualifié ces choses d'IA, il est difficile de dire que la technologie n'est pas assez intelligente pour être laissée à elle-même. Malgré cette horrible tragédie, les constructeurs automobiles ( et Ikea ) continuent d'annoncer de nouveaux projets de voitures autonomes.
Et bien que l'éthique de l'IA fasse l'objet de discussions en raison de son potentiel de nuisance, c'est cette même confiance dans son développement qui a également abouti aux nombreux résultats étonnants dont nous bénéficions actuellement.
La technologie, comme toujours, fait partie du problème et de la solution. Considérez le rythme rapide du développement et les nouvelles applications de l'IA qui surgissent quotidiennement, comme :
- L'IA pour analyser les images de tumeurs et reconnaître les types de cancer du poumon
- L'IA qui fait de chacun un grand photographe
- L'IA qui peut rendre les fermes de serveurs plus efficaces
Vous avez peut-être entendu parler de ces technologies fascinantes et bénéfiques. La sensation médiatique autour de la tragédie est beaucoup plus répandue. Le battage médiatique et l'excitation entourent les erreurs de la technologie de l'IA, car elles attirent beaucoup plus l'attention. des échecs banals et souvent hilarants des assistants IA aux histoires sur des problèmes de confidentialité plus graves .
Le fait est que, que vous en entendiez parler ou non, l'IA fait beaucoup de choses positives, malgré ses erreurs très médiatisées. Ces épreuves et tribulations ont fait parler les gens et les discussions qui se déroulent à un niveau supérieur joueront certainement un rôle dans la formation de notre avenir.
Un effort organisé pour développer l'IA de manière éthique
Des erreurs très médiatisées, des pauses académiques et des frontières technologiques brisées entourant le développement de l'IA ont attiré l'attention des dirigeants du monde entier. Après tout, l'IA est déjà utilisée et la société civile se prépare à être largement acceptée de diverses manières.
Les gouvernements et les associations doivent surveiller et en parler. Et c'est une bonne chose qu'ils le soient. Voici une courte liste d'exemples qui me viennent à l'esprit :
- Éduquer les futurs technologues en IA pour faire progresser la technologie au profit de l'humanité ( AI4ALL ).
- L'ONU s'efforce de comprendre comment elle peut contribuer à la croissance économique et travailler pour le plus grand bien
- Recherche sur les implications sociales de l'IA ( AI Now Institute )
- Appelant les leaders technologiques dans une lettre ouverte à adopter un développement technologique centré sur l'humanité, transparent et basé sur la confiance
- Intégrer l'IA au travail parlementaire : le comité restreint de la Chambre des Lords du Royaume-Uni sur l'intelligence artificielle examinera les implications économiques, éthiques et sociales de l'IA
Système d'exploitation éthique
Ethical OS est la pratique consistant à établir un cadre qui tente de pérenniser le développement technologique en minimisant les futurs risques techniques et de réputation. Il considère non seulement comment une nouvelle technologie peut changer le monde pour le mieux, mais comment elle pourrait endommager les choses ou être mal utilisée.

Ce système d'exploitation propose quelques domaines généraux à prendre en compte :
- Vérité et désinformation
La technologie sur laquelle vous travaillez peut-elle être transformée en un outil pouvant être utilisé pour « truquer » des choses ? - Dépendance
C'est formidable pour le créateur d'un nouvel outil qu'il soit si populaire que les gens passent beaucoup de temps à l'utiliser, mais est-ce bon pour leur santé ? L'outil peut-il être rendu plus efficace pour que les gens passent bien leur temps, mais pas indéfiniment ? Comment peut-il être conçu pour encourager une utilisation modérée ? - Inégalité
Qui y aura accès et qui n'y aura pas accès ? Ceux qui n'y auront pas accès seront-ils impactés négativement ? L'outil a-t-il un impact négatif sur le bien-être économique et l'ordre social ? - Éthique
Les données utilisées pour construire la technologie sont-elles biaisées de quelque manière que ce soit ? La technologie renforce-t-elle le biais existant ? L'équipe qui développe les outils est-elle suffisamment diversifiée pour aider à repérer les biais tout au long du processus ? L'outil est-il suffisamment transparent pour que d'autres puissent le « vérifier » ? Exemple d' IA pour l'embauche afin d'éliminer les préjugés - mais qu'en est-il de ses créateurs, quel préjugé pourraient-ils avoir ? - Surveillance
Un gouvernement ou une armée peuvent-ils transformer la technologie en outil de surveillance ou l'utiliser pour limiter autrement les droits des citoyens ? Les données recueillies permettent-elles de suivre les utilisateurs tout au long de leur vie ? Qui ne souhaiteriez-vous pas avoir accès à ces données pour leurs besoins ? - Contrôle des données
Quelles données collectez-vous ? En as-tu besoin? En tirez-vous profit ? Vos utilisateurs partagent-ils ce profit ? Les utilisateurs ont-ils des droits sur leurs données ? Que feraient les mauvais acteurs avec ces données ? Qu'advient-il des données en cas d'acquisition de votre entreprise ? - Confiance implicite
Votre technologie a-t-elle des droits d'utilisateur ? Les termes sont-ils clairs et faciles à comprendre ? Cachez-vous des informations aux utilisateurs qui pourraient les intéresser ? Les utilisateurs peuvent-ils activer et désactiver certains aspects tout en utilisant la technologie ? Tous les utilisateurs sont-ils créés égaux ? - Haine et autres crimes
La technologie peut-elle être utilisée pour l'intimidation ou le harcèlement ? Peut-il être utilisé pour répandre la haine, discriminer les autres ? Peut-il être armé ?
Il y a beaucoup de domaines à considérer, mais chacun a ses propres implications qui ne font pas rire. Ethical OS indique qu'une fois les risques identifiés avec un développement potentiel de l'IA, ils peuvent être partagés entre les parties prenantes pour examiner pleinement le problème.
Vers un avenir intelligent et éthique
Le panel auquel j'ai assisté au Congrès sur l'IA et au Sommet sur la science des données s'est conclu par des stratégies supplémentaires pour aider les développeurs d'IA à progresser de manière plus éthique. Ils ont déclaré que l'éthique technologique devrait être intégrée à la culture d'entreprise et faire partie d'une vision d'entreprise et que les chasseurs de primes éthiques de l'IA pourraient fonctionner de la même manière que les chasseurs de bugs !
Avec l'entrée en vigueur des principales législations sur la protection de la vie privée des consommateurs telles que le RGPD et le California Consumer Privacy Act de 2018 , nous voyons déjà comment les progrès de la science des données seront façonnés par la politique.
Certaines hypothèses suggèrent que la réglementation ralentira le développement de l'IA. Bien que cela puisse se produire au cours du processus, si les consommateurs ont davantage confiance dans le fait que leurs données et informations personnelles ne sont pas utilisées à mauvais escient, cela peut accroître la confiance dans le processus. Cela pourrait même conduire à une utilisation et une adoption accrues - qui sait.
Nous n'avons certainement pas toutes les réponses, mais nous suivons attentivement la discussion.
Crédits image
Image vedette : Unsplash / Markus Spiske