A ética da IA ​​é uma preocupação. Saiba como você pode se manter ético

Publicados: 2022-04-28

A inteligência artificial (IA) está se tornando onipresente em nossas vidas cotidianas.

Se você está ciente disso, a IA está incorporada em muitas das tecnologias que você usa regularmente. Quando a Netflix recomenda um programa que você pode gostar ou o Google sugere que você reserve uma viagem on-line do aeroporto de onde você costuma voar, a inteligência artificial está envolvida.

Na verdade, noventa e um por cento das empresas hoje querem investir em IA. Embora a IA possa parecer extremamente técnica, beirando o nível de ficção científica, é apenas uma ferramenta. E como qualquer ferramenta, pode ser usada para o bem ou para o mal. Portanto, à medida que a IA assume tarefas cada vez mais sofisticadas, é importante garantir que uma estrutura ética esteja em vigor para seu uso correto.

Vamos mergulhar um pouco mais fundo nas principais preocupações em torno da ética na IA, alguns exemplos de IA ética e, o mais importante, como garantir que a ética seja respeitada ao usar a IA em um contexto de negócios.

O que é ética na IA?

A ética da IA ​​é um conjunto de princípios morais para orientar e informar o desenvolvimento e o uso de tecnologias de inteligência artificial. Como a IA faz coisas que normalmente exigiriam inteligência humana, ela exige diretrizes morais tanto quanto a tomada de decisões humanas. Sem regulamentos éticos de IA, o potencial de uso dessa tecnologia para perpetuar a má conduta é alto.

Muitos setores usam muito a IA, incluindo finanças, saúde, viagens, atendimento ao cliente, mídia social e transporte. Devido à sua utilidade cada vez maior em tantos setores, a tecnologia de IA tem implicações de longo alcance para todos os aspectos do mundo e, portanto, precisa ser regulamentada.

Agora, é claro, são necessários diferentes níveis de governança, dependendo do setor e do contexto em que a IA é implantada. É improvável que um aspirador de pó robô que use IA para determinar a planta baixa de uma casa mude drasticamente o mundo, a menos que use uma estrutura ética. Um carro autônomo que precisa reconhecer pedestres, ou um algoritmo que determina que tipo de pessoa é mais provável de ser aprovado para um empréstimo, pode e terá um impacto profundo na sociedade se as diretrizes éticas não forem implementadas.

Ao determinar as principais preocupações éticas da IA, consultar exemplos de IA ética e considerar as melhores práticas para usar a IA de forma ética, você pode garantir que sua organização esteja no caminho certo para usar a IA.

Quais são as principais preocupações éticas da IA?

Como mencionado anteriormente, as principais preocupações éticas variam muito de acordo com o setor, o contexto e a magnitude do impacto potencial. Mas, em geral, os maiores problemas éticos quando se trata de inteligência artificial são o viés da IA, as preocupações de que a IA possa substituir os empregos humanos, as preocupações com a privacidade e o uso da IA ​​para enganar ou manipular. Vamos analisá-los com mais detalhes.

Preconceitos na IA

À medida que a IA assume tarefas sofisticadas e faz o trabalho pesado, não se esqueça de que os humanos programaram e treinaram a IA para realizar essas tarefas. E as pessoas têm preconceitos. Por exemplo, se cientistas de dados masculinos predominantemente brancos coletam dados sobre homens predominantemente brancos, a IA que eles projetam pode replicar seus preconceitos.

Mas, na verdade, essa não é a fonte mais comum de viés de IA. O mais comum é que os dados usados ​​para treinar os modelos de IA podem ser tendenciosos. Por exemplo, se os dados coletados são apenas da maioria estatística, eles são inerentemente tendenciosos.

Um exemplo pungente disso é a pesquisa recente da Georgia Tech sobre reconhecimento de objetos em carros autônomos. Constatou-se que pedestres com pele escura foram atingidos cerca de 5% mais vezes do que pessoas com pele clara. Eles descobriram que os dados usados ​​para treinar o modelo de IA provavelmente eram a fonte da injustiça: o conjunto de dados continha cerca de 3,5 vezes mais exemplos de pessoas com pele mais clara, para que o modelo de IA pudesse reconhecê-los melhor. Essa diferença aparentemente pequena poderia ter consequências mortais quando se trata de algo potencialmente perigoso como carros autônomos atingindo pessoas.

No lado positivo, o bom dos modelos de IA e aprendizado de máquina (ML) é que o conjunto de dados em que são treinados pode ser modificado e, com esforço suficiente investido, eles podem se tornar amplamente imparciais. Em contraste, não é viável permitir que as pessoas tomem decisões completamente imparciais em grande escala.

IA substituindo empregos

Quase todas as inovações tecnológicas da história foram acusadas de substituir empregos e, até agora, nunca aconteceu dessa forma. Por mais avançada que a IA possa parecer, a IA não substituirá os humanos ou seus empregos tão cedo.

Na década de 1970, os caixas automáticos (ATMs) foram introduzidos e as pessoas temiam o desemprego em massa para os funcionários do banco. A realidade era justamente o oposto. Uma vez que menos caixas eram agora necessários para operar uma agência bancária, os bancos foram capazes de aumentar o número de agências e o número de empregos de caixa em geral. E eles podiam fazer isso por menos porque os caixas eletrônicos cuidavam das tarefas simples e cotidianas, como processar depósitos de cheques e sacar dinheiro.

Isso se reflete no que está acontecendo atualmente com a IA e seus aplicativos. Um exemplo é quando a IA foi introduzida pela primeira vez para entender e imitar a fala humana. As pessoas entraram em pânico quando chatbots e assistentes virtuais inteligentes (IVAs) substituíram os agentes humanos de atendimento ao cliente. A realidade é que a automação alimentada por IA pode ser extremamente útil, mas é improvável que a IA substitua os humanos de verdade.

Da mesma forma, os caixas eletrônicos cuidavam das tarefas mundanas que não exigiam intervenção humana, os chatbots e IVAs com inteligência artificial podem cuidar das solicitações simples e repetitivas e até mesmo entender perguntas em linguagem natural usando processamento de linguagem natural para fornecer informações úteis, respostas contextuais.

Mas as consultas mais complicadas ainda requerem a intervenção de um agente humano. A automação alimentada por IA pode ser limitada em alguns aspectos, mas o impacto pode ser enorme. Os agentes virtuais com inteligência artificial reduzem as taxas de atendimento ao cliente em até 30%, e os chatbots podem lidar com até 80% das tarefas de rotina e perguntas dos clientes.

O futuro da IA ​​é realisticamente aquele em que humanos e bots movidos a IA trabalham juntos, com os bots lidando com as tarefas simples e os humanos se concentrando nas questões mais complexas.

IA e privacidade

Talvez a preocupação mais válida sobre ética na IA seja a privacidade. A privacidade é reconhecida como um direito humano fundamental na Declaração de Direitos Humanos da ONU, e vários aplicativos de IA podem representar uma ameaça real a ela. Tecnologias como câmeras de vigilância, smartphones e internet facilitaram a coleta de dados pessoais. Quando as empresas não são transparentes sobre por que e como os dados são coletados e armazenados, a privacidade está em risco.

O reconhecimento facial, por exemplo, é controverso por vários motivos. Uma das razões é como as imagens são reconhecidas e armazenadas por essa tecnologia. Ser monitorado sem consentimento explícito é um dos aplicativos de IA que muitos consideram antiético. De fato, a Comissão Europeia proibiu a tecnologia de reconhecimento facial em espaços públicos até que controles éticos adequados pudessem ser implementados.

O desafio na criação de regulamentos éticos de privacidade em torno da IA ​​é que as pessoas geralmente estão dispostas a abrir mão de algumas informações pessoais para obter algum nível de personalização. Esta é uma grande tendência em atendimento ao cliente e marketing por um bom motivo.

80%

dos consumidores são mais propensos a comprar quando as marcas oferecem experiências personalizadas.

Fonte: Épsilon

Alguns exemplos são mercearias ou drogarias que oferecem cupons com base em compras anteriores ou empresas de viagens que oferecem promoções com base na localização dos consumidores.

Esses dados pessoais ajudam a IA a fornecer conteúdo personalizado e oportuno que os consumidores desejam. Ainda assim, sem protocolos de higienização de dados adequados, existe o risco de que esses dados sejam processados ​​e vendidos para empresas terceirizadas e usados ​​para fins não intencionais.

Por exemplo, o agora infame escândalo Cambridge-Analytica envolveu a empresa de consultoria política que trabalhou para a campanha de Trump e que vendeu os dados privados de dezenas de milhões de usuários do Facebook. Essas empresas terceirizadas também são mais vulneráveis ​​a ataques cibernéticos e violações de dados, o que significa que suas informações privadas podem cair ainda mais nas mãos erradas.

Ironicamente, a IA é uma ótima solução para proteção de dados. Os recursos de autoaprendizagem da IA ​​significam que os programas com tecnologia de IA podem detectar vírus ou padrões maliciosos que geralmente levam a violações de segurança. Isso significa que, ao implementar a IA, as organizações podem detectar de forma proativa tentativas de violação de dados ou outros tipos de ataques à segurança de dados antes que as informações possam ser roubadas.

Decepção e manipulação usando IA

Usar a IA para perpetuar a desinformação é outra questão ética importante. Os modelos de aprendizado de máquina podem facilmente gerar texto factualmente incorreto, o que significa que artigos de notícias falsos ou resumos falsos podem ser criados em segundos e distribuídos pelos mesmos canais que artigos de notícias reais.

Isso é bem ilustrado pelo quanto as mídias sociais influenciaram a disseminação de notícias falsas durante as eleições de 2016, colocando o Facebook no centro das atenções da IA ​​ética. Um estudo de 2017 realizado por pesquisadores da NYU e Stanford mostra que as notícias falsas mais populares no Facebook foram compartilhadas com mais frequência do que as notícias convencionais mais populares. O fato de essa desinformação poder se espalhar sem regulamentação do Facebook, afetando potencialmente os resultados de algo tão importante quanto uma eleição presidencial, é extremamente preocupante.

A IA também é capaz de criar gravações de áudio falsas, bem como imagens e vídeos sintéticos em que alguém em uma imagem ou vídeo existente é substituído por outra pessoa. Conhecidas como "deepfakes", essas falsas semelhanças podem ser extremamente persuasivas.

Quando a IA é usada para enganar intencionalmente dessa forma, coloca nos indivíduos o ônus de discernir o que é real ou não, e seja por falta de habilidade ou falta de vontade, vimos que nem sempre os humanos são capazes de determinar o que é real. reais ou não.

Como usar a IA eticamente

Com todos os desafios que a IA traz, você pode estar se perguntando como mitigar o risco ao implementar a IA como uma solução em sua organização. Felizmente, existem algumas práticas recomendadas para usar a IA de forma ética em um contexto de negócios.

Educação e conscientização sobre a ética da IA

Comece educando você e seus colegas sobre o que a IA pode fazer, seus desafios e suas limitações. Em vez de assustar as pessoas ou ignorar completamente o potencial de uso antiético da IA, garantir que todos entendam os riscos e saibam como mitigá-los é o primeiro passo na direção certa.

A próxima etapa é criar um conjunto de diretrizes éticas às quais sua organização deve aderir. Por fim, como a ética na IA é difícil de quantificar, faça check-in regularmente para garantir que as metas estejam sendo cumpridas e os processos sejam seguidos.

Adote uma abordagem humana à IA

Adotar uma abordagem humana significa controlar o viés. Primeiro, certifique-se de que seus dados não sejam tendenciosos (como o exemplo do carro autônomo mencionado acima). Em segundo lugar, torná-lo inclusivo. Nos EUA, a população de programadores de software é de aproximadamente 64% do sexo masculino e 62% de brancos.

Isso significa que as pessoas que desenvolvem os algoritmos que moldam a forma como a sociedade funciona não representam necessariamente a diversidade dessa sociedade. Ao adotar uma abordagem inclusiva para contratar e expandir a diversidade de equipes que trabalham com tecnologia de IA, você pode garantir que a IA criada reflita o mundo para o qual foi criada.

Priorizando a transparência e a segurança em todos os casos de uso de IA

Quando a IA está envolvida na coleta ou armazenamento de dados, é imperativo educar seus usuários ou clientes sobre como seus dados são armazenados, para que são usados ​​e os benefícios que eles obtêm ao compartilhar esses dados. Essa transparência é essencial para criar confiança com seus clientes. Dessa forma, aderir a uma estrutura ética de IA pode ser visto como criando um sentimento positivo para o seu negócio, em vez de uma regulamentação restritiva.

Exemplos de IA ética

Embora a IA seja um campo relativamente novo, gigantes da tecnologia que estão no campo há décadas e terceiros objetivos que reconhecem a necessidade de intervenção e regulamentação criaram uma estrutura contra a qual você pode alinhar as políticas de sua própria organização.

Estruturas que inspiram IA ética

Vários terceiros imparciais reconheceram a necessidade de criar diretrizes para o uso ético da IA ​​e garantir que seu uso beneficie a sociedade.

A Organização para Cooperação e Desenvolvimento Econômico (OCDE) é uma organização internacional que trabalha para criar melhores estratégias para uma vida melhor. Eles criaram os Princípios de IA da OCDE, que promovem o uso de IA que seja inovadora, confiável e que respeite os direitos humanos e os valores democráticos.

A Organização das Nações Unidas (ONU) também desenvolveu uma Estrutura para IA Ética que discute como a IA é uma ferramenta poderosa que pode ser usada para o bem, mas corre o risco de ser usada de maneira inconsistente com os valores da ONU e contrariando. Sugere que um conjunto de diretrizes, políticas ou um código de ética precisa ser criado para garantir que o uso da IA ​​na ONU seja consistente com seus valores éticos.

Negócios e IA ética

Além de terceiros objetivos, os maiores líderes do setor também desenvolveram suas próprias diretrizes para usar a IA de forma ética.

O Google, por exemplo, desenvolveu Princípios de Inteligência Artificial que formam uma carta ética que orienta o desenvolvimento e o uso da inteligência artificial em suas pesquisas e produtos. E a Microsoft não apenas criou os princípios de IA responsáveis ​​que eles colocaram em prática para orientar todas as inovações de IA na Microsoft, mas também criou uma escola de negócios de IA para ajudar outras empresas a criar suas próprias políticas de suporte à IA.

Mas você não precisa estar no Vale do Silício para defender a IA ética. Algumas empresas menores de IA seguiram o exemplo e estão começando a incluir a ética como parte de seus valores.

Há também maneiras pelas quais as empresas com fins lucrativos podem ser certificadas como éticas e sustentáveis, como a certificação B Corp que valida que uma organização usa os negócios como uma força para o bem.

Várias empresas de IA com fins lucrativos aderiram aos padrões da B Corp, mostrando que a IA é sempre uma tendência emergente. Embora esse tipo de credenciamento não seja exclusivo de empresas de IA, ele sinaliza um compromisso de agir de forma ética, e mais empresas de tecnologia podem e devem buscar a certificação.

IA para o bem

Ao discutir a ética na IA, o foco está mais nos possíveis casos de uso e impactos negativos da IA, mas a IA está realmente fazendo muito bem. É importante lembrar que a tecnologia de IA não é apenas um problema em potencial, mas uma solução para muitos dos maiores problemas do mundo.

Existe IA para prever os efeitos das mudanças climáticas e sugerir ações para enfrentá-las; cirurgiões robóticos podem realizar ou auxiliar em operações que exigem mais precisão do que um humano pode manipular.

A tecnologia de agricultura assistida por IA está aumentando o rendimento das colheitas e diminuindo o desperdício do rendimento das colheitas. Existem até organizações sem fins lucrativos, como a AI for Good, dedicadas exclusivamente a tornar a IA uma força com impacto global. E, por mais natural que pareça, a IA facilita tarefas simples e cotidianas, como navegar no trânsito ou perguntar à Siri sobre o clima.

A IA fica melhor com a ética certa

A inteligência artificial tornou-se uma ferramenta poderosa tecida em sua vida cotidiana. Quase todos os seus serviços e dispositivos usam IA para tornar sua vida mais fácil ou mais eficiente. E, embora seja possível usar a IA de forma maliciosa, a grande maioria das empresas possui princípios éticos para mitigar os efeitos negativos sempre que possível.

Desde que as melhores práticas sejam seguidas, a IA tem o potencial de melhorar praticamente todos os setores, da saúde à educação e muito mais. Cabe às pessoas que criam esses modelos de IA garantir que mantenham a ética em mente e questionem constantemente como o que eles criam pode beneficiar a sociedade como um todo.

Quando você pensa na IA como uma maneira de dimensionar a inteligência humana em vez de substituí-la, ela não parece tão complexa ou assustadora. E com a estrutura ética correta, é fácil ver como isso mudará o mundo para melhor.

Integre inteligência artificial em suas funções diárias e automatize tarefas com software de inteligência artificial.