L'etica dell'IA è una preoccupazione. Scopri come puoi rimanere etico
Pubblicato: 2022-04-28L'intelligenza artificiale (AI) sta diventando onnipresente nella nostra vita quotidiana.
Che tu ne sia consapevole, l'IA è integrata in molte delle tecnologie che utilizzi regolarmente. Quando Netflix consiglia uno spettacolo che potrebbe piacerti, o Google suggerisce di prenotare un viaggio online dall'aeroporto da cui di solito voli, l'intelligenza artificiale è coinvolta.
Infatti, il novantuno per cento delle aziende oggi vuole investire nell'IA. Sebbene l'IA possa sembrare estremamente tecnica, al limite del livello di fantascienza, alla fine è solo uno strumento. E come ogni strumento, può essere usato nel bene o nel male. Pertanto, poiché l'IA assume compiti sempre più sofisticati, è importante garantire che sia predisposto un quadro etico per il suo corretto utilizzo.
Analizziamo un po' più a fondo le preoccupazioni chiave che circondano l'etica nell'IA, alcuni esempi di IA etica e, soprattutto, come garantire il rispetto dell'etica quando si utilizza l'IA in un contesto aziendale.
Cosa sono le etiche nell'IA?
L'etica dell'IA è un insieme di principi morali per guidare e informare lo sviluppo e l'uso delle tecnologie di intelligenza artificiale. Poiché l'IA fa cose che normalmente richiederebbero l'intelligenza umana, richiede linee guida morali tanto quanto il processo decisionale umano. Senza le normative etiche sull'IA, il potenziale per l'utilizzo di questa tecnologia per perpetuare la cattiva condotta è elevato.
Molti settori utilizzano pesantemente l'IA, inclusi finanza, assistenza sanitaria, viaggi, servizio clienti, social media e trasporti. A causa della sua utilità in continua crescita in così tanti settori, la tecnologia di intelligenza artificiale ha implicazioni di vasta portata per ogni aspetto del mondo e quindi deve essere regolamentata.
Ora, ovviamente, sono necessari diversi livelli di governance a seconda del settore e del contesto in cui viene implementata l'IA. È improbabile che un robot aspirapolvere che utilizzi l'intelligenza artificiale per determinare la planimetria di una casa cambi drasticamente il mondo a meno che non utilizzi un quadro etico. Un'auto a guida autonoma che deve riconoscere i pedoni, o un algoritmo che determina quale tipo di persona ha maggiori probabilità di essere approvata per un prestito, può e avrà un profondo impatto sulla società se le linee guida etiche non vengono implementate.
Determinando le principali preoccupazioni etiche dell'IA, consultando esempi di IA etica e considerando le migliori pratiche per l'utilizzo etico dell'IA, puoi assicurarti che la tua organizzazione sia sulla strada giusta per utilizzare l'IA.
Quali sono le principali preoccupazioni etiche dell'IA?
Come accennato in precedenza, le principali preoccupazioni etiche variano ampiamente in base al settore, al contesto e alla potenziale entità dell'impatto. Ma in generale, i maggiori problemi etici quando si tratta di intelligenza artificiale sono i pregiudizi dell'IA, le preoccupazioni che l'IA possa sostituire i lavori umani, i problemi di privacy e l'utilizzo dell'IA per ingannare o manipolare. Esaminiamoli in modo più dettagliato.
Distorsioni nell'IA
Mentre l'IA si assume compiti sofisticati e fa il lavoro pesante, non dimenticare che gli esseri umani hanno programmato e addestrato l'IA per svolgere tali compiti. E le persone hanno pregiudizi. Ad esempio, se i data scientist prevalentemente maschi bianchi raccolgono dati su maschi prevalentemente bianchi, l'IA che progettano potrebbe replicare i loro pregiudizi.
Ma in realtà non è la fonte più comune di bias dell'IA. Ciò che è più comune è che i dati utilizzati per addestrare i modelli di intelligenza artificiale possono essere distorti. Ad esempio, se i dati raccolti provengono solo dalla maggioranza statistica, sono intrinsecamente distorti.
Un esempio toccante di ciò è la recente ricerca di Georgia Tech sul riconoscimento degli oggetti nelle auto a guida autonoma. È stato riscontrato che i pedoni con la pelle scura sono stati colpiti circa il 5% in più rispetto alle persone con la pelle chiara. Hanno scoperto che i dati utilizzati per addestrare il modello AI erano probabilmente la fonte dell'ingiustizia: il set di dati conteneva circa 3,5 volte più esempi di persone con la pelle più chiara, quindi il modello AI poteva riconoscerli meglio. Quella differenza apparentemente piccola avrebbe potuto avere conseguenze mortali quando si tratta di qualcosa di potenzialmente pericoloso come le auto a guida autonoma che colpiscono le persone.
Tra i lati positivi, l'aspetto positivo dei modelli di intelligenza artificiale e machine learning (ML) è che il set di dati su cui vengono addestrati può essere modificato e, con uno sforzo sufficiente, possono diventare in gran parte imparziali. Al contrario, non è possibile lasciare che le persone prendano decisioni completamente imparziali su larga scala.
L'IA che sostituisce i posti di lavoro
Quasi tutte le innovazioni tecnologiche della storia sono state accusate di sostituire i posti di lavoro e finora non è mai successo in questo modo. Per quanto avanzata possa sembrare, l'IA non sostituirà presto gli esseri umani o il loro lavoro.
Negli anni '70 furono introdotti gli sportelli automatici (ATM) e le persone temevano la disoccupazione di massa per i dipendenti delle banche. La realtà era esattamente l'opposto. Poiché ora erano necessari meno cassieri per gestire una filiale bancaria, le banche sono state in grado di aumentare il numero di filiali e il numero di lavori di cassiere in generale. E potevano farlo a un prezzo inferiore perché gli sportelli automatici si occupavano delle semplici attività quotidiane come l'elaborazione di depositi di assegni e il prelievo di contanti.
Ciò si riflette in ciò che sta accadendo attualmente con l'IA e le sue applicazioni. Un esempio è quando l'IA è stata introdotta per la prima volta per comprendere e imitare il linguaggio umano. Le persone sono andate nel panico quando i chatbot e gli assistenti virtuali intelligenti (IVA) hanno sostituito gli agenti umani del servizio clienti. La realtà è che l'automazione basata sull'intelligenza artificiale può essere estremamente utile, ma è improbabile che l'IA sostituisca davvero gli esseri umani.
Allo stesso modo, gli sportelli automatici si sono occupati delle attività banali che non richiedevano l'intervento umano, i chatbot e gli IVA basati sull'intelligenza artificiale possono occuparsi delle richieste semplici e ripetitive e persino comprendere le domande in linguaggio naturale utilizzando l'elaborazione del linguaggio naturale per fornire utili, risposte contestuali.
Ma le domande più complicate richiedono ancora l'intervento di un agente umano. L'automazione basata sull'intelligenza artificiale può essere limitata in qualche modo, ma l'impatto può essere enorme. Gli agenti virtuali basati sull'intelligenza artificiale riducono le tariffe del servizio clienti fino al 30% e i chatbot possono gestire fino all'80% delle attività di routine e delle domande dei clienti.
Il futuro dell'IA è realisticamente quello in cui gli esseri umani e i robot basati sull'IA lavorano insieme, con i robot che gestiscono i compiti semplici e gli umani si concentrano sulle questioni più complesse.
Intelligenza artificiale e privacy
Forse la preoccupazione più valida sull'etica nell'IA è la privacy. La privacy è riconosciuta come un diritto umano fondamentale nella Dichiarazione dei diritti umani delle Nazioni Unite e varie applicazioni di intelligenza artificiale possono rappresentare una vera minaccia per essa. Tecnologie come telecamere di sorveglianza, smartphone e Internet hanno semplificato la raccolta dei dati personali. Quando le aziende non sono trasparenti sul perché e come i dati vengono raccolti e archiviati, la privacy è a rischio.
Il riconoscimento facciale, ad esempio, è controverso per molte ragioni. Uno dei motivi è il modo in cui le immagini vengono riconosciute e archiviate da questa tecnologia. Essere monitorati senza esplicito consenso è una delle applicazioni di intelligenza artificiale che molti considerano non etiche. In effetti, la Commissione europea ha vietato la tecnologia di riconoscimento facciale negli spazi pubblici fino a quando non saranno stati messi in atto adeguati controlli etici.
La sfida nella creazione di normative etiche sulla privacy relative all'IA è che le persone sono generalmente disposte a rinunciare ad alcune informazioni personali per ottenere un certo livello di personalizzazione. Questa è una grande tendenza nel servizio clienti e nel marketing per una buona ragione.
80%
dei consumatori è più propenso ad acquistare quando i marchi offrono esperienze personalizzate.
Fonte: Epsilon
Alcuni esempi sono i negozi di alimentari o di droga che offrono coupon basati su acquisti passati o le compagnie di viaggio che offrono offerte in base alla posizione dei consumatori.
Questi dati personali aiutano l'IA a fornire contenuti tempestivi e personalizzati che i consumatori desiderano. Tuttavia, senza adeguati protocolli di sanificazione dei dati, esiste il rischio che questi dati vengano elaborati e venduti a società terze e utilizzati per scopi non previsti.
Ad esempio, l'ormai famigerato scandalo Cambridge-Analytica ha coinvolto la società di consulenza politica che ha lavorato per la campagna di Trump e che ha venduto i dati privati di decine di milioni di utenti di Facebook. Queste società di terze parti sono anche più vulnerabili agli attacchi informatici e alle violazioni dei dati, il che significa che le tue informazioni private potrebbero cadere ulteriormente nelle mani sbagliate.

Ironia della sorte, l'IA è un'ottima soluzione per la protezione dei dati. Le capacità di autoapprendimento dell'IA significano che i programmi basati sull'IA possono rilevare virus o pattern dannosi che spesso portano a violazioni della sicurezza. Ciò significa che, implementando l'IA, le organizzazioni possono rilevare in modo proattivo tentativi di violazione dei dati o altri tipi di attacchi alla sicurezza dei dati prima che le informazioni possano essere rubate.
Inganno e manipolazione usando l'IA
L'uso dell'IA per perpetuare la disinformazione è un'altra importante questione etica. I modelli di apprendimento automatico possono generare facilmente testo effettivamente errato, il che significa che articoli di notizie false o riepiloghi falsi possono essere creati in pochi secondi e distribuiti attraverso gli stessi canali degli articoli di notizie reali.
Ciò è ben illustrato da quanto i social media abbiano influenzato la diffusione di notizie false durante le elezioni del 2016, mettendo Facebook sotto i riflettori dell'IA etica. Uno studio del 2017 condotto da ricercatori della NYU e di Stanford mostra che le notizie false più popolari su Facebook sono state condivise più spesso delle notizie tradizionali più popolari. Il fatto che questa disinformazione sia stata in grado di diffondersi senza regolamentazione da parte di Facebook, influenzando potenzialmente i risultati di qualcosa di così importante come le elezioni presidenziali, è estremamente inquietante.
L'intelligenza artificiale è anche in grado di creare false registrazioni audio, nonché immagini e video sintetici in cui qualcuno in un'immagine o un video esistente viene sostituito con qualcun altro. Conosciute come "deepfakes", queste false somiglianze possono essere estremamente persuasive.
Quando l'IA viene utilizzata per ingannare intenzionalmente in questo modo, impone agli individui l'onere di discernere ciò che è reale o meno e, a causa della mancanza di abilità o di volontà, abbiamo visto che gli esseri umani non sono sempre in grado di determinare ciò che è reale o no.
Come usare l'IA in modo etico
Con tutte le sfide che l'IA porta, ti starai chiedendo come mitigare i rischi quando si implementa l'IA come soluzione nella tua organizzazione. Fortunatamente, esistono alcune best practice per utilizzare l'IA in modo etico in un contesto aziendale.
Educazione e consapevolezza sull'etica dell'IA
Inizia educando te stesso e i tuoi colleghi su ciò che l'IA può fare, le sue sfide e i suoi limiti. Piuttosto che spaventare le persone o ignorare completamente il potenziale di un uso non etico dell'IA, assicurarsi che tutti comprendano i rischi e sappiano come mitigarli è il primo passo nella giusta direzione.
Il passaggio successivo consiste nel creare una serie di linee guida etiche a cui l'organizzazione deve attenersi. Infine, poiché l'etica nell'IA è difficile da quantificare, controlla regolarmente per assicurarti che gli obiettivi vengano raggiunti e che i processi vengano seguiti.
Adotta un approccio all'IA incentrato sull'uomo
Adottare un approccio incentrato sull'essere umano significa controllare i pregiudizi. Innanzitutto, assicurati che i tuoi dati non siano distorti (come l'esempio di auto a guida autonoma menzionato sopra). In secondo luogo, rendilo inclusivo. Negli Stati Uniti, la fascia demografica del programmatore di software è di circa il 64% uomini e il 62% bianchi.
Ciò significa che le persone che sviluppano gli algoritmi che modellano il modo in cui funziona la società non rappresentano necessariamente la diversità di quella società. Adottando un approccio inclusivo all'assunzione e all'espansione della diversità dei team che lavorano sulla tecnologia dell'IA, puoi assicurarti che l'IA che crei rifletta il mondo per cui è stata creata.
Dare priorità alla trasparenza e alla sicurezza in tutti i casi d'uso dell'IA
Quando l'IA è coinvolta nella raccolta o nell'archiviazione dei dati, è fondamentale educare i tuoi utenti o clienti su come vengono archiviati i loro dati, a cosa servono e i vantaggi che derivano dalla condivisione di tali dati. Questa trasparenza è essenziale per creare fiducia con i tuoi clienti. In questo modo, aderire a un quadro di intelligenza artificiale etico può essere visto come una creazione di sentimenti positivi per la tua attività piuttosto che una regolamentazione restrittiva.
Esempi di IA etica
Sebbene l'IA sia un campo relativamente nuovo, i giganti della tecnologia che operano sul campo da decenni e terze parti obiettive che riconoscono la necessità di intervento e regolamentazione hanno creato un quadro rispetto al quale è possibile allineare le politiche della propria organizzazione.
Framework che ispirano l'IA etica
Diverse terze parti imparziali hanno riconosciuto la necessità di creare linee guida per l'uso etico dell'IA e garantire che il suo uso sia vantaggioso per la società.
L'Organizzazione per la cooperazione e lo sviluppo economico (OCSE) è un'organizzazione internazionale che lavora per creare strategie migliori per una vita migliore. Hanno creato i Principi dell'IA dell'OCSE, che promuovono l'uso di un'IA innovativa, affidabile e rispettosa dei diritti umani e dei valori democratici.
Le Nazioni Unite (ONU) hanno anche sviluppato un Framework per l'IA etica che discute come l'IA sia uno strumento potente che può essere utilizzato per il bene ma rischia di essere utilizzato in modo incoerente con i valori delle Nazioni Unite e va contro. Suggerisce che è necessario creare una serie di linee guida, politiche o un codice etico per garantire che l'uso dell'IA alle Nazioni Unite sia coerente con i suoi valori etici.
Imprese e IA etica
Oltre a terze parti oggettive, i più grandi leader nello spazio hanno anche sviluppato le proprie linee guida per utilizzare l'IA in modo etico.
Google, ad esempio, ha sviluppato Principi di intelligenza artificiale che costituiscono una carta etica che guida lo sviluppo e l'uso dell'intelligenza artificiale nelle loro ricerche e nei loro prodotti. E non solo Microsoft ha creato principi di IA responsabile che hanno messo in pratica per guidare tutta l'innovazione dell'IA in Microsoft, ma ha anche creato una business school di intelligenza artificiale per aiutare altre aziende a creare le proprie politiche di supporto per l'IA.
Ma non è necessario avere sede nella Silicon Valley per sostenere l'IA etica. Alcune società di intelligenza artificiale più piccole hanno seguito l'esempio e stanno iniziando a includere l'etica come parte dei loro valori guida.
Ci sono anche modi in cui le aziende a scopo di lucro possono essere certificate come etiche e sostenibili, come la certificazione B Corp che convalida che un'organizzazione utilizza il business come una forza positiva.
Diverse società di intelligenza artificiale a scopo di lucro hanno aderito agli standard delle B Corp, dimostrando che l'IA è per sempre una tendenza emergente. Sebbene questo tipo di accreditamento non sia esclusivo delle aziende di intelligenza artificiale, segnala un impegno ad agire in modo etico e più aziende tecnologiche possono e dovrebbero cercare la certificazione.
AI per il bene
Quando si discute di etica nell'IA, l'attenzione si concentra maggiormente sui possibili casi d'uso e impatti negativi dell'IA, ma l'IA sta davvero facendo molto bene. È importante ricordare che la tecnologia AI non è solo un potenziale problema, ma una soluzione a molti dei più grandi problemi del mondo.
C'è l'IA per prevedere gli effetti del cambiamento climatico e suggerire azioni per affrontarlo; i chirurghi robotici possono eseguire o assistere in operazioni che richiedono una precisione maggiore di quella che un essere umano può gestire.
La tecnologia agricola assistita dall'intelligenza artificiale sta aumentando i raccolti e allo stesso tempo diminuisce gli sprechi. Esistono persino organizzazioni senza scopo di lucro come AI for Good dedicate esclusivamente a rendere l'IA una forza con un impatto globale. E per quanto naturale possa sembrare, l'IA semplifica le attività quotidiane semplici come la navigazione nel traffico o chiedere a Siri informazioni sul tempo.
L'IA migliora con la giusta etica
L'intelligenza artificiale è diventata un potente strumento intessuto nella tua vita di tutti i giorni. Quasi tutti i tuoi servizi e dispositivi utilizzano l'IA per semplificarti o renderti la vita più efficiente. E mentre è, ovviamente, possibile utilizzare l'IA in modo dannoso, la stragrande maggioranza delle aziende ha in atto principi etici per mitigare gli effetti negativi ove possibile.
Finché vengono seguite le migliori pratiche, l'IA ha il potenziale per migliorare praticamente ogni settore, dall'assistenza sanitaria all'istruzione e oltre. Spetta alle persone che creano questi modelli di intelligenza artificiale assicurarsi di tenere a mente l'etica e interrogarsi costantemente su come ciò che creano possa avvantaggiare la società nel suo insieme.
Quando pensi all'IA come a un modo per ridimensionare l'intelligenza umana piuttosto che sostituirla, non sembra così complessa o spaventosa. E con il giusto quadro etico, è facile vedere come cambierà il mondo in meglio.
Integra l'intelligenza artificiale nelle tue funzioni quotidiane e automatizza le attività con il software di intelligenza artificiale.