IA e ética: luta pela confiança

Publicados: 2018-10-02

Recentemente, participei do AI Congress and Data Science Summit em Londres e fiz questão de participar do painel de discussão intitulado Ethics and AI. Os palestrantes foram Harriet Kingaby, cofundadora do Not Terminator e Emma Prest, diretora executiva da DataKind UK.

A ética é uma discussão tão interessante e talvez o aspecto mais importante no desenvolvimento da inteligência artificial (IA). No ano passado, lançamos The Marketers Field Guide to Machine Learning e discutimos o tópico de IA e ética ao lado de tópicos como justiça, explicabilidade e segurança. Se a IA fosse desenvolvida de forma completamente antiética, perderíamos a confiança nela completamente, então temos que mantê-la em mente.

Em nosso e-book discutimos:

Até o momento, ML e IA foram implantados principalmente para executar tarefas de nível inferior, principalmente mundanas, para ajudar a melhorar a produtividade. Mas logo eles podem estar em posição de literalmente decidir a vida ou a morte. Um carro autônomo será responsável não apenas por levar seus ocupantes com segurança ao seu destino, mas também por manter todos os outros em segurança. É apenas uma questão de tempo quando um carro autônomo se encontra em uma situação impossível; um acidente é inevitável, sua única escolha é entre dirigir em direção ao pedestre A à esquerda ou ao pedestre B à direita. Como o sistema de IA nos bastidores decidiria qual ação tomar? Baseado no tamanho? Idade? Status social? E quando os investigadores do acidente tentam determinar o que influenciou o resultado, eles achariam uma lógica eticamente problemática embutida?

Na verdade, essas perguntas nos deixaram perplexos na época, mas desde então vimos alguns dos resultados. O tema da ética e da IA ​​não está sendo discutido apenas nas salas de conferência e nas universidades, mas também nas páginas legislativas e em breve será costurado no tecido de como operamos como sociedade.

AI bom e ruim - muito pode acontecer em um ano

Desde o lançamento do nosso e-book de aprendizado de máquina há menos de um ano, houve muitos desenvolvimentos de IA (para melhor ou para pior).

A Tesla relatou acidentes de piloto automático com carros autônomos e surgiram tecnologias como Deepfake , em que a tecnologia de aprendizado profundo pode ser usada para criar mídia digital sobrepondo imagens de pessoas reais em situações das quais não participaram com a intenção de criar notícias falsas ou embustes.

Em um incidente terrivelmente infeliz, um carro autônomo da Uber matou um pedestre . Essa tragédia ocorreu porque nossa sociedade confiou em uma tecnologia de IA. Embora mais tarde tenha sido descoberto que o erro humano desempenhou um papel no acidente, uma vez que você rotula essas coisas como IA, é difícil dizer que a tecnologia não é inteligente o suficiente para ser deixada por conta própria. Apesar desta tragédia horrível, as empresas de automóveis ( e Ikea ) continuam a anunciar novos planos de carros autônomos.

E embora a ética da IA ​​esteja em discussão por causa de seu potencial para prejudicar, é essa mesma confiança em seu desenvolvimento que também resultou nos muitos resultados surpreendentes dos quais estamos nos beneficiando atualmente.

A tecnologia, como sempre, é parte do problema e parte da solução. Considere o ritmo acelerado de desenvolvimento e novas aplicações de IA surgindo diariamente, como:

  • IA para analisar imagens de tumores e reconhecer tipos de câncer de pulmão
  • AI que faz de todos um ótimo fotógrafo
  • IA que pode tornar os farms de servidores mais eficientes

Você pode ou não ter ouvido falar sobre essas tecnologias fascinantes e benéficas. A sensação da mídia em torno da tragédia é muito mais prevalente. Hype e entusiasmo cercam os erros da tecnologia de IA porque atrai muito mais atenção; desde as falhas mundanas e muitas vezes hilárias de assistentes de IA até histórias sobre preocupações mais sérias com a privacidade .

A questão é que, quer você ouça sobre isso ou não, a IA está fazendo muitas coisas positivas, apesar de seus erros amplamente divulgados. Essas provações e tribulações fizeram as pessoas falarem e as discussões que acontecem em um nível mais alto certamente desempenharão um papel na formação de nosso futuro.

Um esforço organizado para desenvolver a IA de forma ética

Erros altamente divulgados, quebras acadêmicas e limites tecnológicos quebrados em torno do desenvolvimento de IA chamaram a atenção de líderes em todo o mundo. Afinal, a IA já está em uso e a sociedade civil está se preparando para uma ampla aceitação de várias maneiras.

Governos e associações têm que estar monitorando e falando sobre isso. E ainda bem que são. Aqui está uma pequena lista de exemplos em cima da minha cabeça:

  • Educar futuros tecnólogos de IA para avançar a tecnologia em benefício da humanidade ( AI4ALL ).
  • ONU trabalhando para entender como pode ajudar a alcançar o crescimento econômico e trabalhar para um bem maior
  • Pesquisando as implicações sociais da IA ​​( AI Now Institute )
  • Apelando aos líderes de tecnologia em uma carta aberta para adotar um desenvolvimento de tecnologia centrado na humanidade, transparente e baseado em confiança
  • Tornando a IA parte do trabalho parlamentar: a Câmara dos Lordes do Reino Unido seleciona o Comitê de Inteligência Artificial para considerar as implicações econômicas, éticas e sociais da IA

Sistema operacional ético

O sistema operacional ético é a prática de estabelecer uma estrutura que tenta garantir o desenvolvimento tecnológico à prova de futuro, minimizando futuros riscos técnicos e de reputação. Ele considera não apenas como uma nova tecnologia pode mudar o mundo para melhor, mas como ela pode danificar as coisas ou ser mal utilizada.

Este SO propõe algumas áreas gerais a serem consideradas:

  • Verdade e desinformação
    A tecnologia em que você está trabalhando pode ser transformada em uma ferramenta que pode ser usada para “falsificar” coisas?
  • Vício
    É ótimo para o criador de uma nova ferramenta que é tão popular que as pessoas passam muito tempo usando-a, mas isso é bom para a saúde? A ferramenta pode ser mais eficiente para que as pessoas passem bem o tempo, mas não infinitamente? Como ele pode ser projetado para incentivar o uso moderado?
  • Desigualdade
    Quem terá acesso e quem não terá? Aqueles que não terão acesso serão impactados negativamente? A ferramenta está impactando negativamente o bem-estar econômico e a ordem social?
  • Ética
    Os dados usados ​​para construir a tecnologia são tendenciosos de alguma forma? A tecnologia está reforçando o preconceito existente? A equipe que está desenvolvendo as ferramentas é suficientemente diversificada para ajudar a identificar vieses ao longo do processo? A ferramenta é transparente o suficiente para que outros a “auditem”? Exemplo de IA para contratação para eliminar preconceitos – mas e seus criadores, que preconceito eles podem ter?
  • Vigilância
    Um governo ou exército pode transformar a tecnologia em uma ferramenta de vigilância ou usá-la para limitar os direitos dos cidadãos? Os dados coletados permitem acompanhar os usuários ao longo de sua vida? Quem você não gostaria de ter acesso a esses dados para seus propósitos?
  • Controle de dados
    Quais dados você está coletando? Você precisa disso? Você lucra com isso? Seus usuários estão participando desse lucro? Os usuários têm direitos sobre seus dados? O que os maus atores fariam com esses dados? O que acontece com os dados se sua empresa for adquirida?
  • Confiança Implícita
    Sua tecnologia tem direitos de usuário? Os termos são claros e fáceis de entender? Você está escondendo informações dos usuários com os quais eles podem se importar? Os usuários podem ativar e desativar determinados aspectos enquanto ainda usam a tecnologia? Todos os usuários são criados iguais?
  • Ódio e outros crimes
    A tecnologia pode ser usada para intimidação ou assédio? Pode ser usado para espalhar ódio, discriminar os outros? Pode ser armado?

Há muitas áreas a serem consideradas, mas cada uma tem suas próprias implicações que não são motivo de riso. O Ethical OS diz que, uma vez identificados os riscos com um potencial desenvolvimento de IA, eles podem ser compartilhados entre as partes interessadas para examinar completamente o problema.

Rumo a um futuro inteligente e ético

O painel do qual participei no AI Congress e no Data Science Summit concluiu com estratégias adicionais para ajudar os desenvolvedores de IA a avançar de forma mais ética. Eles disseram que a ética da tecnologia deve ser incorporada à cultura empresarial e fazer parte de uma visão corporativa e que os caçadores de recompensas éticos da IA ​​podem operar de maneira semelhante à maneira como os caçadores de insetos fazem!

Com as principais legislações de privacidade do consumidor, como o GDPR e a Lei de Privacidade do Consumidor da Califórnia de 2018 , já estamos vendo como os avanços na ciência de dados serão moldados pela política.

Algumas hipóteses sugerem que os regulamentos retardarão o desenvolvimento da IA. Embora isso possa acontecer no processo, se os consumidores tiverem mais confiança de que seus dados e informações pessoais não estão sendo usados ​​indevidamente, isso pode aumentar a confiança no processo. Isso pode até levar a um maior uso e adoção – quem sabe.

Certamente não temos todas as respostas, mas estamos atentos à discussão.

Créditos da imagem

Imagem de destaque: Unsplash / Markus Spiske