La ética de la IA es una preocupación. Aprenda cómo puede mantenerse ético
Publicado: 2022-04-28La inteligencia artificial (IA) se está volviendo omnipresente en nuestra vida cotidiana.
Ya sea que lo sepa, la IA está integrada en muchas de las tecnologías que usa regularmente. Cuando Netflix recomienda un programa que te puede gustar, o Google sugiere que reserves un viaje en línea desde el aeropuerto desde el que sueles volar, la inteligencia artificial está involucrada.
De hecho, el noventa y uno por ciento de las empresas de hoy quieren invertir en IA. Si bien la IA puede parecer extremadamente técnica, bordeando el nivel de la ciencia ficción, en última instancia es solo una herramienta. Y como cualquier herramienta, puede usarse para bien o para mal. Por lo tanto, a medida que la IA asume tareas cada vez más sofisticadas, es importante garantizar que exista un marco ético para su uso correcto.
Profundicemos un poco más en las preocupaciones clave que rodean la ética en la IA, algunos ejemplos de IA ética y, lo que es más importante, cómo garantizar que se respete la ética al usar la IA en un contexto empresarial.
¿Qué es la ética en la IA?
La ética de la IA es un conjunto de principios morales para guiar e informar el desarrollo y uso de tecnologías de inteligencia artificial. Debido a que la IA hace cosas que normalmente requerirían inteligencia humana, requiere pautas morales tanto como la toma de decisiones humanas. Sin regulaciones éticas de IA, el potencial de usar esta tecnología para perpetuar la mala conducta es alto.
Muchas industrias utilizan mucho la IA, incluidas las finanzas, la atención médica, los viajes, el servicio al cliente, las redes sociales y el transporte. Debido a su utilidad cada vez mayor en tantas industrias, la tecnología de IA tiene implicaciones de gran alcance para todos los aspectos del mundo y, por lo tanto, debe regularse.
Ahora, por supuesto, se requieren diferentes niveles de gobernanza según la industria y el contexto en el que se implemente la IA. Es poco probable que una aspiradora robot que use IA para determinar el plano de una casa cambie drásticamente el mundo a menos que use un marco ético. Un automóvil autónomo que necesita reconocer a los peatones, o un algoritmo que determina qué tipo de persona tiene más probabilidades de ser aprobado para un préstamo, puede y tendrá un impacto profundo en la sociedad si no se implementan las pautas éticas.
Al determinar las principales preocupaciones éticas de la IA, consultar ejemplos de IA ética y considerar las mejores prácticas para usar la IA de manera ética, puede asegurarse de que su organización esté en el camino correcto para usar la IA.
¿Cuáles son las principales preocupaciones éticas de la IA?
Como se mencionó anteriormente, las preocupaciones éticas clave varían ampliamente según la industria, el contexto y la magnitud del impacto potencial. Pero, en general, los mayores problemas éticos en lo que respecta a la inteligencia artificial son el sesgo de la IA, las preocupaciones de que la IA podría reemplazar los trabajos humanos, las preocupaciones sobre la privacidad y el uso de la IA para engañar o manipular. Vamos a repasarlos con más detalle.
Sesgos en IA
A medida que la IA asume tareas sofisticadas y hace el trabajo pesado, no olvide que los humanos programaron y entrenaron a la IA para realizar esas tareas. Y la gente tiene prejuicios. Por ejemplo, si los científicos de datos predominantemente hombres blancos recopilan datos sobre hombres predominantemente blancos, la IA que diseñen podría replicar sus sesgos.
Pero esa no es en realidad la fuente más común de sesgo de IA. Lo que es más común es que los datos utilizados para entrenar los modelos de IA puedan estar sesgados. Por ejemplo, si los datos recopilados son solo de la mayoría estadística, están inherentemente sesgados.
Un ejemplo conmovedor de esto es la investigación reciente de Georgia Tech sobre el reconocimiento de objetos en automóviles autónomos. Se encontró que los peatones con piel oscura fueron golpeados con un 5% más de frecuencia que las personas con piel clara. Descubrieron que los datos utilizados para entrenar el modelo de IA eran probablemente la fuente de la injusticia: el conjunto de datos contenía aproximadamente 3,5 veces más ejemplos de personas con piel más clara, por lo que el modelo de IA podía reconocerlos mejor. Esa diferencia aparentemente pequeña podría haber tenido consecuencias mortales cuando se trata de algo tan potencialmente peligroso como que los autos sin conductor golpeen a las personas.
En el lado positivo, lo bueno de los modelos de IA y aprendizaje automático (ML) es que el conjunto de datos en el que están entrenados se puede modificar y, con suficiente esfuerzo invertido, pueden volverse en gran medida imparciales. Por el contrario, no es factible dejar que las personas tomen decisiones completamente imparciales a gran escala.
IA reemplazando trabajos
Casi todas las innovaciones tecnológicas de la historia han sido acusadas de reemplazar puestos de trabajo y, hasta ahora, nunca ha sucedido de esa manera. Por más avanzada que parezca la IA, la IA no reemplazará a los humanos ni a sus trabajos en el corto plazo.
En la década de 1970, se introdujeron los cajeros automáticos (ATM) y la gente temía el desempleo masivo de los empleados bancarios. La realidad fue todo lo contrario. Dado que ahora se requerían menos cajeros para operar una sucursal bancaria, los bancos pudieron aumentar la cantidad de sucursales y la cantidad de puestos de cajero en general. Y podían hacerlo por menos porque los cajeros automáticos se ocupaban de tareas sencillas y cotidianas como procesar depósitos de cheques y retirar efectivo.
Esto se refleja en lo que está sucediendo actualmente con la IA y sus aplicaciones. Un ejemplo es cuando se introdujo por primera vez la IA para comprender e imitar el habla humana. La gente entró en pánico cuando los chatbots y los asistentes virtuales inteligentes (IVA) reemplazaron a los agentes de servicio al cliente humanos. La realidad es que la automatización impulsada por IA puede ser extremadamente útil, pero es poco probable que la IA reemplace verdaderamente a los humanos.
De la misma manera, los cajeros automáticos se ocuparon de las tareas mundanas que no requerían la intervención humana, los chatbots con tecnología de IA y los IVA pueden encargarse de las solicitudes simples y repetitivas e incluso comprender las preguntas en lenguaje natural utilizando el procesamiento del lenguaje natural para brindar ayuda, respuestas contextuales.
Pero las consultas más complicadas aún requieren la intervención de un agente humano. La automatización impulsada por IA puede estar limitada de alguna manera, pero el impacto puede ser enorme. Los agentes virtuales con tecnología de inteligencia artificial reducen las tarifas de servicio al cliente hasta en un 30 %, y los chatbots pueden manejar hasta el 80 % de las tareas rutinarias y las preguntas de los clientes.
El futuro de la IA es, de manera realista, uno en el que los humanos y los bots impulsados por IA trabajen juntos, con los bots manejando las tareas simples y los humanos enfocándose en los asuntos más complejos.
IA y privacidad
Quizás la preocupación más válida sobre la ética en la IA es la privacidad. La privacidad se reconoce como un derecho humano fundamental en la Declaración de Derechos Humanos de la ONU, y varias aplicaciones de IA pueden representar una amenaza real para ella. Tecnologías como cámaras de vigilancia, teléfonos inteligentes e Internet han facilitado la recopilación de datos personales. Cuando las empresas no son transparentes sobre por qué y cómo se recopilan y almacenan los datos, la privacidad está en riesgo.
El reconocimiento facial, por ejemplo, es controvertido por muchas razones. Una de las razones es cómo esta tecnología reconoce y almacena las imágenes. Ser monitoreado sin consentimiento explícito es una de las aplicaciones de IA que muchos consideran poco éticas. De hecho, la Comisión Europea prohibió la tecnología de reconocimiento facial en espacios públicos hasta que se pudieran implementar los controles éticos adecuados.
El desafío de crear normas de privacidad éticas en torno a la IA es que, por lo general, las personas están dispuestas a ceder cierta información personal para obtener cierto nivel de personalización. Esta es una gran tendencia en el servicio al cliente y el marketing por una buena razón.
80%
de los consumidores es más probable que compren cuando las marcas ofrecen experiencias personalizadas.
Fuente: Épsilon
Algunos ejemplos son tiendas de comestibles o farmacias que ofrecen cupones basados en compras anteriores o compañías de viajes que ofrecen ofertas basadas en la ubicación de los consumidores.
Estos datos personales ayudan a la IA a entregar contenido oportuno y personalizado que los consumidores desean. Aún así, sin los protocolos de desinfección de datos adecuados, existe el riesgo de que estos datos se procesen y vendan a empresas de terceros y se utilicen para fines no deseados.
Por ejemplo, el ahora infame escándalo de Cambridge-Analytica involucró a la firma de consultoría política que trabajó para la campaña de Trump y que vendió los datos privados de decenas de millones de usuarios de Facebook. Estas empresas de terceros también son más vulnerables a los ataques cibernéticos y las filtraciones de datos, lo que significa que su información privada podría caer aún más en las manos equivocadas.

Irónicamente, la IA es una gran solución para la protección de datos. Las capacidades de autoaprendizaje de AI significan que los programas impulsados por AI pueden detectar virus o patrones maliciosos que a menudo conducen a violaciones de seguridad. Esto significa que al implementar la IA, las organizaciones pueden detectar de manera proactiva los intentos de filtración de datos u otros tipos de ataques a la seguridad de los datos antes de que se robe la información.
Engaño y manipulación usando IA
El uso de IA para perpetuar la desinformación es otro problema ético importante. Los modelos de aprendizaje automático pueden generar fácilmente texto fácticamente incorrecto, lo que significa que se pueden crear artículos de noticias falsos o resúmenes falsos en segundos y distribuirlos a través de los mismos canales que los artículos de noticias reales.
Esto queda bien ilustrado por cuánto influyeron las redes sociales en la difusión de noticias falsas durante las elecciones de 2016, poniendo a Facebook en el centro de atención de la IA ética. Un estudio de 2017 realizado por investigadores de NYU y Stanford muestra que las noticias falsas más populares en Facebook se compartieron con más frecuencia que las noticias principales más populares. El hecho de que esta información errónea haya podido propagarse sin la regulación de Facebook, afectando potencialmente los resultados de algo tan importante como una elección presidencial, es extremadamente preocupante.
AI también es capaz de crear grabaciones de audio falsas, así como imágenes y videos sintéticos donde alguien en una imagen o video existente es reemplazado por otra persona. Conocidas como "deepfakes", estas falsas similitudes pueden ser extremadamente persuasivas.
Cuando la IA se usa para engañar intencionalmente de esta manera, le da la responsabilidad a las personas de discernir qué es real o no, y ya sea por falta de habilidad o falta de voluntad, hemos visto que los humanos no siempre pueden determinar qué es real o no.
Cómo usar la IA de manera ética
Con todos los desafíos que trae la IA, es posible que se pregunte cómo mitigar el riesgo al implementar la IA como una solución en su organización. Afortunadamente, existen algunas mejores prácticas para usar la IA de manera ética en un contexto comercial.
Educación y conciencia sobre la ética de la IA
Comience por educarse a sí mismo y a sus compañeros sobre lo que la IA puede hacer, sus desafíos y sus limitaciones. En lugar de asustar a las personas o ignorar por completo el potencial del uso poco ético de la IA, asegurarse de que todos entiendan los riesgos y sepan cómo mitigarlos es el primer paso en la dirección correcta.
El siguiente paso es crear un conjunto de pautas éticas que su organización debe cumplir. Finalmente, dado que la ética en la IA es difícil de cuantificar, verifique regularmente para asegurarse de que se cumplan los objetivos y se sigan los procesos.
Adopte un enfoque humano primero para la IA
Adoptar un enfoque de prioridad humana significa controlar el sesgo. Primero, asegúrese de que sus datos no estén sesgados (como el ejemplo del automóvil autónomo mencionado anteriormente). En segundo lugar, que sea inclusivo. En los EE. UU., el grupo demográfico de programadores de software es aproximadamente un 64 % masculino y un 62 % blanco.
Esto significa que las personas que desarrollan los algoritmos que dan forma a la forma en que funciona la sociedad no representan necesariamente la diversidad de esa sociedad. Al adoptar un enfoque inclusivo para contratar y expandir la diversidad de equipos que trabajan en tecnología de IA, puede asegurarse de que la IA que cree refleje el mundo para el que fue creada.
Priorizar la transparencia y la seguridad en todos los casos de uso de IA
Cuando la IA está involucrada en la recopilación o el almacenamiento de datos, es imperativo educar a sus usuarios o clientes sobre cómo se almacenan sus datos, para qué se utilizan y los beneficios que obtienen al compartir esos datos. Esta transparencia es esencial para generar confianza con sus clientes. De esta manera, adherirse a un marco ético de IA puede verse como una creación de sentimiento positivo para su negocio en lugar de una regulación restrictiva.
Ejemplos de IA ética
Si bien la IA es un campo relativamente nuevo, los gigantes tecnológicos que han estado en el campo durante décadas y los terceros objetivos que reconocen la necesidad de intervención y regulación han creado un marco contra el cual puede alinear las políticas de su propia organización.
Marcos que inspiran una IA ética
Varios terceros imparciales han reconocido la necesidad de crear pautas para el uso ético de la IA y garantizar que su uso beneficie a la sociedad.
La Organización para la Cooperación y el Desarrollo Económicos (OCDE) es una organización internacional que trabaja para crear mejores estrategias para una vida mejor. Crearon los Principios de IA de la OCDE, que promueven el uso de IA que sea innovadora, confiable y respete los derechos humanos y los valores democráticos.
Las Naciones Unidas (ONU) también han desarrollado un Marco para la IA ética que analiza cómo la IA es una herramienta poderosa que se puede usar para el bien, pero que corre el riesgo de ser utilizada de una manera inconsistente con los valores de la ONU y va en contra de ellos. Sugiere que se debe crear un conjunto de pautas, políticas o un código de ética para garantizar que el uso de la IA en la ONU sea consistente con sus valores éticos.
Empresas e IA ética
Además de terceros objetivos, los líderes más grandes en el espacio también han desarrollado sus propias pautas para usar la IA de manera ética.
Google, por ejemplo, ha desarrollado Principios de Inteligencia Artificial que forman una carta ética que guía el desarrollo y uso de inteligencia artificial en sus investigaciones y productos. Y Microsoft no solo creó los Principios de IA responsable que pusieron en práctica para guiar toda la innovación de IA en Microsoft, sino que también crearon una escuela de negocios de IA para ayudar a otras empresas a crear sus propias políticas de soporte de IA.
Pero no es necesario tener su sede en Silicon Valley para abogar por una IA ética. Algunas empresas de inteligencia artificial más pequeñas han seguido el ejemplo y están comenzando a incluir la ética como parte de sus valores impulsores.
También hay formas en que las empresas con fines de lucro pueden certificarse como éticas y sostenibles, como la certificación B Corp que valida que una organización utiliza los negocios como una fuerza para el bien.
Varias empresas de inteligencia artificial con fines de lucro se han unido a los estándares B Corp, lo que demuestra que la inteligencia artificial es una tendencia emergente para siempre. Si bien este tipo de acreditación no es exclusivo de las empresas de IA, sí indica un compromiso de actuar éticamente, y más empresas tecnológicas pueden y deben buscar la certificación.
IA para bien
Cuando se habla de ética en la IA, la atención se centra más en los posibles casos de uso e impactos negativos de la IA, pero la IA realmente está haciendo mucho bien. Es importante recordar que la tecnología de IA no es solo un problema potencial, sino una solución para muchos de los problemas más grandes del mundo.
Hay IA para predecir los efectos del cambio climático y sugerir acciones para abordarlo; los cirujanos robóticos pueden realizar o ayudar en operaciones que requieren más precisión de la que puede manejar un ser humano.
La tecnología agrícola asistida por IA está aumentando el rendimiento de los cultivos al tiempo que reduce el desperdicio de rendimiento. Incluso hay organizaciones sin fines de lucro como AI for Good dedicadas únicamente a hacer de la IA una fuerza con impacto global. Y por más natural que parezca, la IA hace que las tareas simples y cotidianas, como navegar por el tráfico o preguntarle a Siri sobre el clima, sean más fáciles.
La IA mejora con la ética correcta
La inteligencia artificial se ha convertido en una herramienta poderosa entretejida en su vida cotidiana. Casi todos sus servicios y dispositivos usan IA para hacer su vida más fácil o más eficiente. Y aunque, por supuesto, es posible usar la IA de manera maliciosa, la gran mayoría de las empresas tienen principios éticos para mitigar los efectos negativos cuando sea posible.
Siempre que se sigan las mejores prácticas, la IA tiene el potencial de mejorar prácticamente todas las industrias, desde la atención médica hasta la educación y más. Depende de las personas que crean estos modelos de IA asegurarse de tener en cuenta la ética y cuestionar constantemente cómo lo que crean puede beneficiar a la sociedad en su conjunto.
Cuando piensas en la IA como una forma de escalar la inteligencia humana en lugar de reemplazarla, no parece tan complejo ni aterrador. Y con el marco ético correcto, es fácil ver cómo cambiará el mundo para mejor.
Integre la inteligencia artificial en sus funciones diarias y automatice tareas con software de inteligencia artificial.