IA e ética: luta pela confiança
Publicados: 2018-10-02Recentemente, participei do AI Congress and Data Science Summit em Londres e fiz questão de participar do painel de discussão intitulado Ethics and AI. Os palestrantes foram Harriet Kingaby, cofundadora do Not Terminator e Emma Prest, diretora executiva da DataKind UK.
A ética é uma discussão tão interessante e talvez o aspecto mais importante no desenvolvimento da inteligência artificial (IA). No ano passado, lançamos The Marketers Field Guide to Machine Learning e discutimos o tópico de IA e ética ao lado de tópicos como justiça, explicabilidade e segurança. Se a IA fosse desenvolvida de forma completamente antiética, perderíamos a confiança nela completamente, então temos que mantê-la em mente.
Em nosso e-book discutimos:
Até o momento, ML e IA foram implantados principalmente para executar tarefas de nível inferior, principalmente mundanas, para ajudar a melhorar a produtividade. Mas logo eles podem estar em posição de literalmente decidir a vida ou a morte. Um carro autônomo será responsável não apenas por levar seus ocupantes com segurança ao seu destino, mas também por manter todos os outros em segurança. É apenas uma questão de tempo quando um carro autônomo se encontra em uma situação impossível; um acidente é inevitável, sua única escolha é entre dirigir em direção ao pedestre A à esquerda ou ao pedestre B à direita. Como o sistema de IA nos bastidores decidiria qual ação tomar? Baseado no tamanho? Idade? Status social? E quando os investigadores do acidente tentam determinar o que influenciou o resultado, eles achariam uma lógica eticamente problemática embutida?
Na verdade, essas perguntas nos deixaram perplexos na época, mas desde então vimos alguns dos resultados. O tema da ética e da IA não está sendo discutido apenas nas salas de conferência e nas universidades, mas também nas páginas legislativas e em breve será costurado no tecido de como operamos como sociedade.
AI bom e ruim - muito pode acontecer em um ano
Desde o lançamento do nosso e-book de aprendizado de máquina há menos de um ano, houve muitos desenvolvimentos de IA (para melhor ou para pior).
A Tesla relatou acidentes de piloto automático com carros autônomos e surgiram tecnologias como Deepfake , em que a tecnologia de aprendizado profundo pode ser usada para criar mídia digital sobrepondo imagens de pessoas reais em situações das quais não participaram com a intenção de criar notícias falsas ou embustes.
Em um incidente terrivelmente infeliz, um carro autônomo da Uber matou um pedestre . Essa tragédia ocorreu porque nossa sociedade confiou em uma tecnologia de IA. Embora mais tarde tenha sido descoberto que o erro humano desempenhou um papel no acidente, uma vez que você rotula essas coisas como IA, é difícil dizer que a tecnologia não é inteligente o suficiente para ser deixada por conta própria. Apesar desta tragédia horrível, as empresas de automóveis ( e Ikea ) continuam a anunciar novos planos de carros autônomos.
E embora a ética da IA esteja em discussão por causa de seu potencial para prejudicar, é essa mesma confiança em seu desenvolvimento que também resultou nos muitos resultados surpreendentes dos quais estamos nos beneficiando atualmente.
A tecnologia, como sempre, é parte do problema e parte da solução. Considere o ritmo acelerado de desenvolvimento e novas aplicações de IA surgindo diariamente, como:
- IA para analisar imagens de tumores e reconhecer tipos de câncer de pulmão
- AI que faz de todos um ótimo fotógrafo
- IA que pode tornar os farms de servidores mais eficientes
Você pode ou não ter ouvido falar sobre essas tecnologias fascinantes e benéficas. A sensação da mídia em torno da tragédia é muito mais prevalente. Hype e entusiasmo cercam os erros da tecnologia de IA porque atrai muito mais atenção; desde as falhas mundanas e muitas vezes hilárias de assistentes de IA até histórias sobre preocupações mais sérias com a privacidade .
A questão é que, quer você ouça sobre isso ou não, a IA está fazendo muitas coisas positivas, apesar de seus erros amplamente divulgados. Essas provações e tribulações fizeram as pessoas falarem e as discussões que acontecem em um nível mais alto certamente desempenharão um papel na formação de nosso futuro.
Um esforço organizado para desenvolver a IA de forma ética
Erros altamente divulgados, quebras acadêmicas e limites tecnológicos quebrados em torno do desenvolvimento de IA chamaram a atenção de líderes em todo o mundo. Afinal, a IA já está em uso e a sociedade civil está se preparando para uma ampla aceitação de várias maneiras.
Governos e associações têm que estar monitorando e falando sobre isso. E ainda bem que são. Aqui está uma pequena lista de exemplos em cima da minha cabeça:
- Educar futuros tecnólogos de IA para avançar a tecnologia em benefício da humanidade ( AI4ALL ).
- ONU trabalhando para entender como pode ajudar a alcançar o crescimento econômico e trabalhar para um bem maior
- Pesquisando as implicações sociais da IA ( AI Now Institute )
- Apelando aos líderes de tecnologia em uma carta aberta para adotar um desenvolvimento de tecnologia centrado na humanidade, transparente e baseado em confiança
- Tornando a IA parte do trabalho parlamentar: a Câmara dos Lordes do Reino Unido seleciona o Comitê de Inteligência Artificial para considerar as implicações econômicas, éticas e sociais da IA
Sistema operacional ético
O sistema operacional ético é a prática de estabelecer uma estrutura que tenta garantir o desenvolvimento tecnológico à prova de futuro, minimizando futuros riscos técnicos e de reputação. Ele considera não apenas como uma nova tecnologia pode mudar o mundo para melhor, mas como ela pode danificar as coisas ou ser mal utilizada.

Este SO propõe algumas áreas gerais a serem consideradas:
- Verdade e desinformação
A tecnologia em que você está trabalhando pode ser transformada em uma ferramenta que pode ser usada para “falsificar” coisas? - Vício
É ótimo para o criador de uma nova ferramenta que é tão popular que as pessoas passam muito tempo usando-a, mas isso é bom para a saúde? A ferramenta pode ser mais eficiente para que as pessoas passem bem o tempo, mas não infinitamente? Como ele pode ser projetado para incentivar o uso moderado? - Desigualdade
Quem terá acesso e quem não terá? Aqueles que não terão acesso serão impactados negativamente? A ferramenta está impactando negativamente o bem-estar econômico e a ordem social? - Ética
Os dados usados para construir a tecnologia são tendenciosos de alguma forma? A tecnologia está reforçando o preconceito existente? A equipe que está desenvolvendo as ferramentas é suficientemente diversificada para ajudar a identificar vieses ao longo do processo? A ferramenta é transparente o suficiente para que outros a “auditem”? Exemplo de IA para contratação para eliminar preconceitos – mas e seus criadores, que preconceito eles podem ter? - Vigilância
Um governo ou exército pode transformar a tecnologia em uma ferramenta de vigilância ou usá-la para limitar os direitos dos cidadãos? Os dados coletados permitem acompanhar os usuários ao longo de sua vida? Quem você não gostaria de ter acesso a esses dados para seus propósitos? - Controle de dados
Quais dados você está coletando? Você precisa disso? Você lucra com isso? Seus usuários estão participando desse lucro? Os usuários têm direitos sobre seus dados? O que os maus atores fariam com esses dados? O que acontece com os dados se sua empresa for adquirida? - Confiança Implícita
Sua tecnologia tem direitos de usuário? Os termos são claros e fáceis de entender? Você está escondendo informações dos usuários com os quais eles podem se importar? Os usuários podem ativar e desativar determinados aspectos enquanto ainda usam a tecnologia? Todos os usuários são criados iguais? - Ódio e outros crimes
A tecnologia pode ser usada para intimidação ou assédio? Pode ser usado para espalhar ódio, discriminar os outros? Pode ser armado?
Há muitas áreas a serem consideradas, mas cada uma tem suas próprias implicações que não são motivo de riso. O Ethical OS diz que, uma vez identificados os riscos com um potencial desenvolvimento de IA, eles podem ser compartilhados entre as partes interessadas para examinar completamente o problema.
Rumo a um futuro inteligente e ético
O painel do qual participei no AI Congress e no Data Science Summit concluiu com estratégias adicionais para ajudar os desenvolvedores de IA a avançar de forma mais ética. Eles disseram que a ética da tecnologia deve ser incorporada à cultura empresarial e fazer parte de uma visão corporativa e que os caçadores de recompensas éticos da IA podem operar de maneira semelhante à maneira como os caçadores de insetos fazem!
Com as principais legislações de privacidade do consumidor, como o GDPR e a Lei de Privacidade do Consumidor da Califórnia de 2018 , já estamos vendo como os avanços na ciência de dados serão moldados pela política.
Algumas hipóteses sugerem que os regulamentos retardarão o desenvolvimento da IA. Embora isso possa acontecer no processo, se os consumidores tiverem mais confiança de que seus dados e informações pessoais não estão sendo usados indevidamente, isso pode aumentar a confiança no processo. Isso pode até levar a um maior uso e adoção – quem sabe.
Certamente não temos todas as respostas, mas estamos atentos à discussão.
Créditos da imagem
Imagem de destaque: Unsplash / Markus Spiske