AI 윤리는 우려 사항입니다. 윤리적인 태도를 유지하는 방법 알아보기

게시 됨: 2022-04-28

인공 지능(AI)은 우리 일상 생활에 유비쿼터스되고 있습니다.

알고 있든 없든 AI는 정기적으로 사용하는 많은 기술에 내장되어 있습니다. Netflix가 당신이 좋아할 만한 프로그램을 추천하거나 Google에서 당신이 주로 이용하는 공항에서 온라인으로 여행을 예약할 것을 제안하면 인공 지능이 개입됩니다.

실제로 오늘날 기업의 91%가 AI에 투자하기를 원합니다. AI는 공상 과학 수준에 가까운 매우 기술적인 것처럼 보일 수 있지만 궁극적으로 도구일 뿐입니다. 그리고 어떤 도구와 마찬가지로 좋은 일이든 나쁜 일이든 사용할 수 있습니다. 따라서 AI가 점점 더 정교한 작업을 수행함에 따라 올바른 사용을 위한 윤리적 프레임워크를 마련하는 것이 중요합니다.

AI의 윤리와 관련된 주요 관심사, 윤리적 AI의 몇 가지 예, 가장 중요한 것은 비즈니스 컨텍스트에서 AI를 사용할 때 윤리가 존중되도록 하는 방법에 대해 조금 더 자세히 살펴보겠습니다.

AI의 윤리는 무엇입니까?

AI 윤리는 인공 지능 기술의 개발과 사용을 안내하고 알리기 위한 일련의 도덕적 원칙입니다. AI는 일반적으로 인간의 지능이 필요한 일을 하기 때문에 인간의 의사 결정만큼이나 도덕적 지침이 필요합니다. 윤리적인 AI 규정이 없으면 이 기술을 사용하여 위법 행위를 영속화할 가능성이 높습니다.

금융, 의료, 여행, 고객 서비스, 소셜 미디어, 운송 등 많은 산업에서 AI를 많이 사용합니다. 많은 산업에서 그 활용도가 계속 증가하고 있기 때문에 AI 기술은 전 세계의 모든 측면에 광범위한 영향을 미치므로 규제가 필요합니다.

물론 이제 AI가 배포되는 산업과 상황에 따라 다양한 수준의 거버넌스가 필요합니다. AI를 사용하여 집의 평면도를 결정하는 로봇 청소기는 윤리적인 틀을 사용하지 않는 한 세상을 크게 바꾸지 않을 것입니다. 보행자를 인식해야 하는 자율 주행 자동차 또는 대출 승인을 받을 가능성이 가장 높은 사람 유형을 결정하는 알고리즘은 윤리적 지침이 구현되지 않으면 사회에 심각한 영향을 미칠 수 있고 또 그렇게 될 것입니다.

AI의 가장 중요한 윤리적 문제를 결정하고 윤리적 AI의 예를 참조하고 윤리적으로 AI를 사용하기 위한 모범 사례를 고려하면 조직이 AI를 사용하는 올바른 방향으로 가고 있는지 확인할 수 있습니다.

AI의 주요 윤리적 문제는 무엇입니까?

앞서 언급했듯이 주요 윤리적 문제는 산업, 상황 및 잠재적 영향 규모에 따라 크게 다릅니다. 그러나 대체로 인공 지능과 관련하여 가장 큰 윤리적 문제는 AI 편견, AI가 인간의 직업을 대체할 수 있다는 우려, 개인 정보 보호 문제, AI를 사용하여 속이거나 조작하는 것입니다. 더 자세히 살펴보겠습니다.

AI의 편견

AI가 복잡한 작업을 수행하고 무거운 작업을 수행함에 따라 인간이 AI를 프로그래밍하고 훈련하여 이러한 작업을 수행한다는 사실을 잊지 마십시오. 그리고 사람들은 편견을 가지고 있습니다. 예를 들어, 주로 백인 남성 데이터 과학자가 주로 백인 남성에 대한 데이터를 수집하는 경우 그들이 설계한 AI는 그들의 편견을 복제할 수 있습니다.

그러나 그것이 실제로 AI 편향의 가장 일반적인 원인은 아닙니다. 더 일반적인 것은 AI 모델을 훈련하는 데 사용되는 데이터가 편향될 수 있다는 것입니다. 예를 들어, 수집된 데이터가 통계적 다수로부터만 수집된 경우 본질적으로 편향됩니다.

이에 대한 통렬한 예는 자율 주행 자동차의 물체 인식에 대한 조지아 공대의 최근 연구입니다. 피부색이 어두운 보행자는 피부색이 밝은 사람보다 5% 정도 더 자주 부딪히는 것으로 나타났습니다. 그들은 AI 모델을 훈련하는 데 사용된 데이터가 불의의 원인일 가능성이 있음을 발견했습니다. 데이터 세트에는 피부가 밝은 사람들의 예가 약 3.5배 더 많이 포함되어 있어 AI 모델이 그들을 더 잘 인식할 수 있었습니다. 그 겉보기에 작은 차이가 자율주행차가 사람을 치는 것과 같은 잠재적으로 위험한 것에 관해서는 치명적인 결과를 초래할 수 있습니다.

플러스 측면에서 AI 및 머신 러닝(ML) 모델의 좋은 점은 훈련된 데이터 세트가 수정될 수 있고 충분한 노력을 투자하면 대체로 편향되지 않을 수 있다는 것입니다. 대조적으로, 사람들이 대규모로 완전히 편견 없는 결정을 내리도록 하는 것은 실현 가능하지 않습니다.

AI가 일자리를 대체하다

역사상 거의 모든 기술 혁신은 일자리를 대체한다는 비난을 받아왔고 지금까지 그런 일은 일어난 적이 없습니다. AI가 발전한 것처럼 보일 수 있지만 AI는 조만간 인간이나 직업을 대체하지 않을 것입니다.

1970년대로 돌아가서 자동 입출금기(ATM)가 도입되었고 사람들은 은행 직원의 대량 실업을 두려워했습니다. 현실은 정반대였다. 이제 은행 지점을 운영하는 데 필요한 출납원이 줄어들었기 때문에 은행은 지점 수와 출납원 일자리 수를 전반적으로 늘릴 수 있었습니다. 그리고 ATM이 수표 예금 처리 및 현금 인출과 같은 단순하고 일상적인 작업을 처리했기 때문에 더 적은 비용으로 이를 수행할 수 있었습니다.

이것은 현재 AI와 그 응용 프로그램에서 일어나고 있는 일에 반영됩니다. 예를 들어 AI가 인간의 말을 이해하고 모방하기 위해 처음 도입되었을 때입니다. 챗봇과 지능형 가상 비서(IVA)가 인간 고객 서비스 에이전트를 대체하자 사람들은 패닉에 빠졌습니다. 현실은 AI 기반 자동화가 매우 유용할 수 있지만 AI가 진정으로 인간을 대체할 가능성은 없다는 것입니다.

같은 방식으로 ATM은 사람의 개입이 필요하지 않은 일상적인 작업을 처리했으며 AI 기반 챗봇과 IVA는 단순하고 반복적인 요청을 처리하고 자연어 처리를 사용하여 자연어로 된 질문을 이해하여 도움이 되는 정보를 제공할 수 있습니다. 상황에 맞는 답변.

그러나 가장 복잡한 쿼리는 여전히 인간 에이전트의 개입이 필요합니다. AI 기반 자동화는 어떤 면에서는 제한적일 수 있지만 그 영향은 엄청날 수 있습니다. AI 기반 가상 에이전트는 고객 서비스 수수료를 최대 30%까지 줄이고 챗봇은 일상적인 작업과 고객 질문의 최대 80%를 처리할 수 있습니다.

AI의 미래는 현실적으로 인간과 AI 기반 봇이 함께 작동하는 것으로, 봇은 간단한 작업을 처리하고 인간은 더 복잡한 문제에 집중합니다.

AI 및 개인 정보 보호

아마도 AI의 윤리에 대한 가장 타당한 우려는 프라이버시일 것입니다. 프라이버시는 유엔 인권선언문에서 기본적인 인권으로 인식되고 있으며, 다양한 AI 애플리케이션은 프라이버시에 실질적인 위협이 될 수 있습니다. 감시 카메라, 스마트폰, 인터넷과 같은 기술로 인해 개인 데이터를 수집하기가 더 쉬워졌습니다. 기업이 데이터를 수집하고 저장하는 이유와 방법에 대해 투명하지 않으면 개인 정보가 위험에 노출됩니다.

예를 들어 안면 인식은 여러 가지 이유로 논란의 여지가 있습니다. 한 가지 이유는 이 기술이 이미지를 인식하고 저장하는 방법입니다. 명시적인 동의 없이 모니터링되는 것은 많은 사람들이 비윤리적이라고 생각하는 AI 애플리케이션 중 하나입니다. 실제로 유럽연합 집행위원회는 적절한 윤리적 통제가 이루어질 때까지 공공 장소에서 안면 인식 기술을 금지했습니다.

AI에 대한 윤리적 개인 정보 보호 규정을 만드는 데 있어 문제는 사람들이 일반적으로 일정 수준의 개인화를 위해 일부 개인 정보를 기꺼이 포기한다는 것입니다. 이것은 정당한 이유에서 고객 서비스 및 마케팅의 큰 추세입니다.

80%

의 소비자는 브랜드가 개인화된 경험을 제공할 때 구매할 가능성이 더 높습니다.

출처: 엡실론

몇 가지 예로는 과거 구매를 기반으로 쿠폰을 제공하는 식료품점이나 약국이나 소비자의 위치를 ​​기반으로 거래를 제공하는 여행사가 있습니다.

이 개인 데이터는 AI가 소비자가 원하는 시기적절하고 개인화된 콘텐츠를 제공하는 데 도움이 됩니다. 그러나 적절한 데이터 삭제 프로토콜이 없으면 이 데이터가 처리되어 제3자 회사에 판매되어 의도하지 않은 목적으로 사용될 위험이 있습니다.

예를 들어, 지금은 악명 높은 Cambridge-Analytica 스캔들은 트럼프 캠페인을 위해 일하고 수천만 명의 Facebook 사용자의 개인 데이터를 판매한 정치 컨설팅 회사와 관련되었습니다. 이러한 제3자 회사는 사이버 공격 및 데이터 침해에 더욱 취약합니다. 이는 귀하의 개인 정보가 더 나쁜 사람의 손에 들어갈 수 있음을 의미합니다.

다소 아이러니하게도 AI는 데이터 보호를 위한 훌륭한 솔루션입니다. AI의 자가 학습 기능은 AI 기반 프로그램이 종종 보안 침해로 이어지는 악성 바이러스 또는 패턴을 탐지할 수 있음을 의미합니다. 이는 AI를 구현함으로써 조직이 정보가 도난되기 전에 데이터 침해 시도 또는 기타 유형의 데이터 보안 공격을 사전에 감지할 수 있음을 의미합니다.

AI를 이용한 속임수 및 조작

AI를 사용하여 잘못된 정보를 영속시키는 것은 또 다른 주요 윤리적 문제입니다. 머신 러닝 모델은 실제로 잘못된 텍스트를 쉽게 생성할 수 있습니다. 즉, 가짜 뉴스 기사 또는 가짜 요약이 몇 초 만에 생성되어 실제 뉴스 기사와 동일한 채널을 통해 배포될 수 있습니다.

이는 2016년 선거 기간 동안 소셜 미디어가 가짜 뉴스의 확산에 얼마나 영향을 미쳤는지 잘 설명되어 있습니다. NYU와 스탠포드 연구원의 2017년 연구에 따르면 Facebook에서 가장 인기 있는 가짜 뉴스 기사는 가장 인기 있는 주류 뉴스 기사보다 더 자주 공유되었습니다. 이 잘못된 정보가 Facebook의 규제 없이 퍼질 수 있었고 잠재적으로 대선과 같은 중요한 결과에 영향을 미칠 수 있다는 사실은 매우 불안합니다.

AI는 또한 기존 이미지 또는 비디오의 누군가가 다른 사람으로 대체되는 합성 이미지 및 비디오뿐만 아니라 허위 오디오 녹음을 생성할 수 있습니다. "딥페이크"로 알려진 이러한 거짓 유사성은 매우 설득력이 있습니다.

인공지능이 이런 식으로 의도적으로 속이는 데 사용될 때, 무엇이 진짜인지 아닌지를 분별하는 것은 개인에게 책임이 있으며, 기술 부족인지 의지 부족인지 우리는 인간이 항상 무엇인지 판단할 수 없다는 것을 보았습니다. 진짜인지 아닌지.

AI를 윤리적으로 사용하는 방법

AI가 가져오는 모든 문제와 함께 조직에서 AI를 솔루션으로 구현할 때 위험을 완화하는 방법에 대해 궁금해할 수 있습니다. 다행히도 비즈니스 컨텍스트에서 AI를 윤리적으로 사용하기 위한 몇 가지 모범 사례가 있습니다.

AI 윤리에 대한 교육 및 인식

AI가 할 수 있는 일, 과제 및 한계에 대해 자신과 동료를 교육하는 것으로 시작하십시오. 사람들을 놀라게 하거나 AI의 비윤리적인 사용 가능성을 완전히 무시하기보다는 모든 사람이 위험을 이해하고 완화하는 방법을 알고 있는지 확인하는 것이 올바른 방향으로 가는 첫 번째 단계입니다.

다음 단계는 조직이 준수해야 하는 일련의 윤리적 지침을 만드는 것입니다. 마지막으로 AI의 윤리는 수량화하기 어렵기 때문에 정기적으로 확인하여 목표가 달성되고 프로세스가 준수되고 있는지 확인하십시오.

AI에 대한 인간 우선 접근 방식

인간 우선 접근 방식을 취한다는 것은 편견을 통제하는 것을 의미합니다. 먼저, 데이터가 편향되지 않았는지 확인하십시오(위에서 언급한 자율 주행 자동차의 예와 같이). 둘째, 포괄적으로 만드십시오. 미국에서 소프트웨어 프로그래머 인구는 약 64%가 남성이고 62%가 백인입니다.

이것은 사회가 작동하는 방식을 형성하는 알고리즘을 개발하는 사람들이 반드시 그 사회의 다양성을 대표하지 않는다는 것을 의미합니다. AI 기술을 작업하는 팀의 다양성을 고용하고 확장하는 데 포괄적인 접근 방식을 취함으로써 귀하가 만드는 AI가 그것이 만들어진 세계를 반영하도록 할 수 있습니다.

모든 AI 사용 사례에서 투명성과 보안 우선 순위

AI가 데이터 수집 또는 저장에 관여하는 경우 사용자 또는 고객에게 데이터가 저장되는 방식, 데이터가 사용되는 용도 및 해당 데이터를 공유함으로써 얻을 수 있는 이점에 대해 교육하는 것이 필수적입니다. 이러한 투명성은 고객과의 신뢰를 구축하는 데 필수적입니다. 이런 식으로 윤리적 AI 프레임워크를 고수하는 것은 제한적인 규제가 아니라 비즈니스에 긍정적인 감정을 불러일으키는 것으로 볼 수 있습니다.

윤리적 AI의 예

AI는 비교적 새로운 분야이지만 수십 년 동안 이 분야에 종사해 온 기술 대기업과 개입 및 규제의 필요성을 인식하는 객관적인 제3자가 조직의 정책을 조정할 수 있는 프레임워크를 만들었습니다.

윤리적 AI에 영감을 주는 프레임워크

여러 공정한 제3자가 AI의 윤리적 사용에 대한 지침을 만들고 사용이 사회에 도움이 되도록 해야 할 필요성을 인식했습니다.

경제협력개발기구(OECD)는 더 나은 삶을 위한 더 나은 전략을 만들기 위해 노력하는 국제기구입니다. 그들은 혁신적이고 신뢰할 수 있으며 인권과 민주적 가치를 존중하는 AI의 사용을 장려하는 OECD AI 원칙을 만들었습니다.

유엔(UN)은 또한 AI가 선을 위해 사용될 수 있는 강력한 도구이지만 UN 가치와 모순되는 방식으로 사용될 위험이 있는 방법을 논의하는 윤리적 AI 프레임워크를 개발했습니다. UN에서 AI를 사용하는 것이 윤리적 가치와 일치하도록 하려면 일련의 지침, 정책 또는 윤리 강령을 만들어야 한다고 제안합니다.

기업과 윤리적 AI

객관적인 제3자 외에도 이 분야의 가장 큰 리더들은 AI를 윤리적으로 사용하기 위한 자체 지침을 개발했습니다.

예를 들어 Google은 연구 및 제품에서 인공 지능의 개발 및 사용을 안내하는 윤리적 헌장을 형성하는 인공 지능 원칙을 개발했습니다. 그리고 Microsoft는 Microsoft의 모든 AI 혁신을 안내하기 위해 실행에 옮기는 책임 있는 AI 원칙을 만들 뿐만 아니라 다른 회사가 자체 AI 지원 정책을 만들 수 있도록 AI 비즈니스 스쿨도 만들었습니다.

그러나 윤리적 AI를 옹호하기 위해 실리콘 밸리에 기반을 둘 필요는 없습니다. 일부 소규모 AI 회사도 그 뒤를 따라 윤리를 추진 가치의 일부로 포함하기 시작했습니다.

조직이 비즈니스를 선의의 힘으로 사용한다는 것을 검증하는 B Corp 인증과 같이 영리 기업이 윤리적이고 지속 가능한 것으로 인증될 수 있는 방법도 있습니다.

여러 영리 AI 회사가 B Corp 표준에 합류하여 AI가 영원히 떠오르는 추세임을 보여줍니다. 이러한 유형의 인증은 AI 회사에만 국한된 것은 아니지만 윤리적으로 행동하겠다는 약속을 나타내는 것이며 더 많은 기술 회사가 인증을 받을 수 있고 또 받아야 합니다.

AI for Good

AI의 윤리에 대해 논의할 때 가능한 부정적인 AI 사용 사례와 영향에 더 초점을 맞추지만 AI는 실제로 많은 선행을 하고 있습니다. AI 기술은 단지 잠재적인 문제가 아니라 세계의 가장 큰 문제에 대한 해결책이라는 것을 기억하는 것이 중요합니다.

기후 변화의 영향을 예측하고 이를 해결하기 위한 조치를 제안하는 AI가 있습니다. 로봇 외과 의사는 인간이 처리할 수 있는 것보다 더 정밀해야 하는 수술을 수행하거나 지원할 수 있습니다.

AI 지원 농업 기술은 작물 수확량을 늘리면서 작물 수확량 낭비를 줄이고 있습니다. AI for Good과 같은 비영리 조직도 AI를 전 세계에 영향력을 미치는 힘으로 만드는 데 전념합니다. 그리고 자연스럽게 보일 수 있지만 AI는 교통정보를 탐색하거나 Siri에게 날씨에 대해 묻는 것과 같은 단순하고 일상적인 작업을 더 쉽게 만듭니다.

올바른 윤리로 AI는 더 좋아진다

인공 지능은 일상 생활에 짜여진 강력한 도구가 되었습니다. 거의 모든 서비스와 장치는 AI를 사용하여 삶을 더 쉽고 효율적으로 만듭니다. 물론 AI를 악의적으로 사용하는 것도 가능하지만 대다수 기업은 가능한 한 부정적인 영향을 완화하기 위한 윤리적 원칙을 갖고 있습니다.

모범 사례를 따르는 한 AI는 의료에서 ​​교육에 이르기까지 거의 모든 산업을 개선할 수 있는 잠재력을 가지고 있습니다. 이러한 AI 모델을 만드는 사람들은 윤리를 염두에 두고 자신이 만드는 것이 사회 전체에 어떻게 도움이 될 수 있는지 끊임없이 질문해야 합니다.

AI를 인간 지능을 대체하기보다는 확장하는 방법으로 생각할 때 그렇게 복잡하거나 무섭게 보이지 않습니다. 그리고 올바른 윤리적 프레임워크를 사용하면 세상을 더 나은 방향으로 어떻게 바꿀지 쉽게 알 수 있습니다.

인공 지능을 일상 기능에 통합하고 인공 지능 소프트웨어로 작업을 자동화하십시오.