In che modo i pregiudizi nell'IA possono danneggiare i dati di marketing e cosa puoi fare al riguardo
Pubblicato: 2023-02-23Gli algoritmi sono al centro del marketing e del martech. Sono utilizzati per l'analisi dei dati, la raccolta di dati, la segmentazione del pubblico e molto altro ancora. Questo perché sono al centro dell'intelligenza artificiale che è costruita su di loro. I professionisti del marketing si affidano ai sistemi di intelligenza artificiale per fornire dati neutri e affidabili. In caso contrario, può deviare i tuoi sforzi di marketing.
Ci piace pensare agli algoritmi come insiemi di regole senza pregiudizi o intenti. Di per sé, è esattamente quello che sono. Non hanno opinioni.. Ma quelle regole sono costruite sulle supposizioni e sui valori del loro creatore. Questo è un modo in cui il pregiudizio entra nell'IA. L'altro e forse più importante modo è attraverso i dati su cui viene addestrato.
Scava più a fondo: Bard e ChatGPT alla fine miglioreranno l'esperienza di ricerca
Ad esempio, i sistemi di riconoscimento facciale vengono addestrati su serie di immagini di persone per lo più dalla pelle più chiara. Di conseguenza sono notoriamente incapaci di riconoscere le persone dalla pelle più scura. In un caso, 28 membri del Congresso, sproporzionatamente persone di colore, sono stati erroneamente abbinati a foto segnaletiche. Il fallimento dei tentativi di correggere ciò ha portato alcune aziende, in particolare Microsoft, a interrompere la vendita di questi sistemi ai dipartimenti di polizia.
ChatGPT, Bard di Google e altri chatbot basati sull'intelligenza artificiale sono modelli linguistici autoregressivi che utilizzano il deep learning per produrre testo. Quell'apprendimento è addestrato su un enorme set di dati, che possibilmente comprende tutto ciò che è stato pubblicato su Internet durante un determinato periodo di tempo: un set di dati pieno di errori, disinformazione e, ovviamente, pregiudizi.
Buono solo quanto i dati che ottiene
"Se gli dai l'accesso a Internet, ha intrinsecamente qualsiasi pregiudizio esistente", afferma Paul Roetzer, fondatore e CEO di The Marketing AI Institute. "È solo uno specchio dell'umanità in molti modi."
I costruttori di questi sistemi ne sono consapevoli.
"Nelle rivelazioni e dichiarazioni di non responsabilità [del creatore di ChatGPT] OpenAI affermano che il sentimento negativo è più strettamente associato ai nomi femminili afroamericani rispetto a qualsiasi altro nome impostato lì", afferma Christopher Penn, co-fondatore e chief data scientist di TrustInsights.ai. “Quindi, se hai un qualsiasi tipo di modellazione del sentimento della scatola nera completamente automatizzata e stai giudicando i nomi delle persone, se Letitia ottiene un punteggio inferiore a Laura, hai un problema. Stai rafforzando questi pregiudizi.
I documenti sulle migliori pratiche di OpenAI affermano anche: "Dall'allucinazione di informazioni imprecise, agli output offensivi, ai pregiudizi e molto altro, i modelli linguistici potrebbero non essere adatti a tutti i casi d'uso senza modifiche significative".
Cosa deve fare un marketer?
L'attenuazione dei pregiudizi è essenziale per i professionisti del marketing che desiderano lavorare con i migliori dati possibili. Eliminarlo sarà per sempre un obiettivo mobile, un obiettivo da perseguire ma non necessariamente raggiungere.
"Ciò che gli esperti di marketing e le società di tecnologia martech dovrebbero pensare è: 'Come applichiamo questo ai dati di addestramento che entrano in modo che il modello abbia meno pregiudizi iniziali che dobbiamo mitigare in seguito?'", afferma Christopher Penn. "Non mettere la spazzatura dentro, non devi filtrare la spazzatura."
Ci sono strumenti che possono aiutarti a farlo. Ecco i cinque più noti:
- What-If di Google è uno strumento open source che aiuta a rilevare l'esistenza di distorsioni in un modello manipolando punti dati, generando grafici e specificando criteri per verificare se le modifiche incidono sul risultato finale.
- AI Fairness 360 di IBM è un toolkit open source per rilevare ed eliminare i bias nei modelli di machine learning.
- Fairimparare di Microsoft progettato per aiutare a trovare compromessi tra equità e prestazioni del modello.
- Local Interpretable Model-Agnostic Explanations (LIME) creato dal ricercatore Marco Tulio Ribeiro consente agli utenti di manipolare diversi componenti di un modello per comprendere meglio ed essere in grado di indicare l'origine del bias, se presente.
- FairML di Julius Adebayo del MIT è una cassetta degli attrezzi end-to-end per il controllo dei modelli predittivi quantificando il significato relativo degli input del modello.
"Sono buoni quando sai cosa stai cercando", dice Penn. "Sono meno buoni quando non sei sicuro di cosa c'è nella scatola."
Giudicare gli input è la parte facile
Ad esempio, dice, con AI Fairness 360, puoi dargli una serie di decisioni di prestito e un elenco di classi protette: età, sesso, razza, eccetera. Può quindi identificare eventuali distorsioni nei dati di addestramento o nel modello e lanciare un allarme quando il modello inizia a spostarsi in una direzione distorta.
"Quando stai facendo generazione è molto più difficile farlo, in particolare se stai facendo copia o immagini", dice Penn. "Gli strumenti che esistono in questo momento sono pensati principalmente per dati tabulari rettangolari con risultati chiari che stai cercando di mitigare".
I sistemi che generano contenuti, come ChatGPT e Bard, richiedono un'intensa attività di calcolo. L'aggiunta di ulteriori salvaguardie contro i pregiudizi avrà un impatto significativo sulle loro prestazioni. Ciò si aggiunge al già difficile compito di costruirli, quindi non aspettarti alcuna risoluzione presto.
Non posso permettermi di aspettare
A causa del rischio del marchio, i professionisti del marketing non possono permettersi di sedersi e aspettare che i modelli si aggiustino da soli. La mitigazione che devono fare per i contenuti generati dall'intelligenza artificiale chiede costantemente cosa potrebbe andare storto. Le persone migliori a cui chiedere questo provengono dagli sforzi per la diversità, l'equità e l'inclusione.

“Le organizzazioni sostengono molto a parole le iniziative della DEI”, afferma Penn, “ma è qui che la DEI può effettivamente brillare. [Fai in modo che il] team per la diversità... ispezioni i risultati dei modelli e dica: "Questo non va bene o questo va bene". E poi incorporalo nei processi, come il DEI ha dato a questo il suo timbro di approvazione.
Il modo in cui le aziende definiscono e mitigano i pregiudizi in tutti questi sistemi saranno indicatori significativi della sua cultura.
"Ogni organizzazione dovrà sviluppare i propri principi su come sviluppare e utilizzare questa tecnologia", afferma Paul Roetzer. "E non so in quale altro modo sia risolto se non a quel livello soggettivo di 'questo è ciò che riteniamo essere pregiudizi e useremo o meno strumenti che consentano che ciò accada".
Ottieni MarTech! Quotidiano. Gratuito. Nella tua casella di posta.
Vedi termini.

Storie correlate
Novità su MarTech