Sitemap Alternar menu

Como o viés na IA pode prejudicar os dados de marketing e o que você pode fazer a respeito

Publicados: 2023-02-23

Os algoritmos estão no centro do marketing e da martech. Eles são usados ​​para análise de dados, coleta de dados, segmentação de público e muito, muito mais. Isso porque eles estão no centro da inteligência artificial construída sobre eles. Os profissionais de marketing contam com sistemas de IA para fornecer dados neutros e confiáveis. Caso contrário, pode direcionar mal seus esforços de marketing.

Gostamos de pensar em algoritmos como conjuntos de regras sem viés ou intenção. Em si mesmos, isso é exatamente o que eles são. Eles não têm opinião. Mas essas regras são construídas sobre as suposições e valores de seu criador. Essa é uma maneira de o viés entrar na IA. A outra maneira, talvez mais importante, é por meio dos dados nos quais é treinado.

Vá mais fundo: Bard e ChatGPT acabarão por tornar a experiência de pesquisa melhor

Por exemplo, os sistemas de reconhecimento facial são treinados em conjuntos de imagens de pessoas de pele mais clara. Como resultado, eles são notoriamente ruins em reconhecer pessoas de pele mais escura. Em um caso, 28 membros do Congresso, desproporcionalmente pessoas de cor, foram incorretamente combinados com imagens de mugshot. O fracasso das tentativas de corrigir isso levou algumas empresas, principalmente a Microsoft, a parar de vender esses sistemas para departamentos de polícia.

O ChatGPT, o Bard do Google e outros chatbots com inteligência artificial são modelos de linguagem autorregressiva que usam aprendizado profundo para produzir texto. Esse aprendizado é treinado em um enorme conjunto de dados, possivelmente abrangendo tudo publicado na Internet durante um determinado período de tempo – um conjunto de dados repleto de erros, desinformação e, é claro, preconceito.

Tão bom quanto os dados obtidos

“Se você der acesso à Internet, terá inerentemente qualquer viés existente”, diz Paul Roetzer, fundador e CEO do The Marketing AI Institute. “É apenas um espelho da humanidade de várias maneiras.”

Os construtores desses sistemas estão cientes disso.

“Nas divulgações e isenções de responsabilidade do [criador do ChatGPT] OpenAI, eles dizem que o sentimento negativo está mais associado a nomes femininos afro-americanos do que qualquer outro nome definido lá”, diz Christopher Penn, cofundador e cientista-chefe de dados da TrustInsights.ai. “Portanto, se você tiver algum tipo de modelagem de sentimento de caixa preta totalmente automatizada e estiver julgando os primeiros nomes das pessoas, se Letitia obtiver uma pontuação mais baixa do que Laura, você terá um problema. Você está reforçando esses preconceitos.”

Os documentos de melhores práticas da OpenAI também dizem: “Desde alucinações de informações imprecisas até saídas ofensivas, viés e muito mais, os modelos de linguagem podem não ser adequados para todos os casos de uso sem modificações significativas”.

O que um profissional de marketing deve fazer?

Mitigar o viés é essencial para os profissionais de marketing que desejam trabalhar com os melhores dados possíveis. Eliminá-lo será para sempre um alvo em movimento, uma meta a ser perseguida, mas não necessariamente alcançada.

“O que os profissionais de marketing e as empresas de martech devem estar pensando é: 'Como aplicamos isso aos dados de treinamento inseridos para que o modelo tenha menos vieses iniciais que precisamos mitigar mais tarde?'”, diz Christopher Penn. “Não coloque lixo, você não precisa filtrar o lixo.”

Existem ferramentas que podem ajudá-lo a fazer isso. Aqui estão os cinco mais conhecidos:

  • O What-If do Google é uma ferramenta de código aberto para ajudar a detectar a existência de viés em um modelo, manipulando pontos de dados, gerando gráficos e especificando critérios para testar se as alterações afetam o resultado final.
  • O AI Fairness 360 da IBM é um kit de ferramentas de código aberto para detectar e eliminar o viés em modelos de aprendizado de máquina.
  • Fairlearn da Microsoft projetado para ajudar a navegar nas compensações entre imparcialidade e desempenho do modelo.
  • Explicações agnósticas de modelos interpretáveis ​​locais (LIME) criadas pelo pesquisador Marco Tulio Ribeiro permite que os usuários manipulem diferentes componentes de um modelo para entender melhor e serem capazes de apontar a origem do viés, se houver.
  • FairML do Julius Adebayo do MIT é uma caixa de ferramentas de ponta a ponta para auditar modelos preditivos quantificando a importância relativa das entradas do modelo.

“Eles são bons quando você sabe o que está procurando”, diz Penn. “Eles são menos bons quando você não tem certeza do que está na caixa.”

Julgar entradas é a parte fácil

Por exemplo, diz ele, com o AI Fairness 360, você pode fornecer uma série de decisões de empréstimo e uma lista de classes protegidas – idade, sexo, raça, etc. Em seguida, ele pode identificar qualquer viés nos dados de treinamento ou no modelo e soar um alarme quando o modelo começar a se desviar em uma direção tendenciosa.

“Quando você está fazendo geração, é muito mais difícil fazer isso, principalmente se você estiver fazendo cópia ou imagens”, diz Penn. “As ferramentas que existem agora destinam-se principalmente a dados tabulares retangulares com resultados claros que você está tentando mitigar.”

Os sistemas que geram conteúdo, como ChatGPT e Bard, são incrivelmente intensivos em computação. Adicionar proteções adicionais contra vieses terá um impacto significativo em seu desempenho. Isso aumenta a já difícil tarefa de construí-los, portanto, não espere nenhuma resolução em breve.

Não posso esperar

Por causa do risco da marca, os profissionais de marketing não podem se dar ao luxo de sentar e esperar que os modelos se consertem. A mitigação que eles precisam fazer para o conteúdo gerado por IA está constantemente perguntando o que pode dar errado. As melhores pessoas para perguntar isso são dos esforços de diversidade, equidade e inclusão.

“As organizações falam muito sobre as iniciativas da DEI”, diz Penn, “mas é aqui que a DEI realmente pode brilhar. [Faça com que] a equipe de diversidade... inspecione os resultados dos modelos e diga: 'Isto não está bom ou está bom'. E então fazer com que isso seja incorporado aos processos, como o DEI deu a isso seu selo de aprovação.”

A forma como as empresas definem e mitigam o viés em todos esses sistemas serão marcadores significativos de sua cultura.

“Cada organização terá que desenvolver seus próprios princípios sobre como desenvolver e usar essa tecnologia”, diz Paul Roetzer. “E não sei de que outra forma isso pode ser resolvido, a não ser naquele nível subjetivo de 'isso é o que consideramos ser o viés e iremos, ou não, usar ferramentas que permitam que isso aconteça.


Adquira o MarTech! Diário. Livre. Na sua caixa de entrada.

Consulte os termos.



Histórias relacionadas

    Como a IA pode ajudar seu marketing agora
    Bard e ChatGPT acabarão por tornar a experiência de pesquisa melhor
    4 áreas de martech com preocupações éticas
    Especialistas em IA de marketing da MarTech a seguir
    Como o ChatGPT está definido para mudar a tecnologia de marketing

Novidades na MarTech

    Toyota lança experiência AR para apoiar o Crown 2023
    Veja por que você precisa de um fluxo de trabalho DAM — e como mapeá-lo
    13 perguntas para fazer aos fornecedores de plataforma de experiência digital durante a demonstração
    5 razões pelas quais os profissionais de marketing devem considerar o TikTok para B2B
    ChatGPT. GA4. Privacidade em primeiro lugar CX. Explore tudo isso na MarTech!