AI și etică: Luptă pentru încredere

Publicat: 2018-10-02

Am participat recent la Congresul AI și la Summit-ul științei datelor din Londra și mi-am propus să particip la o discuție intitulată Etică și inteligență artificială. Au fost Harriet Kingaby, co-fondatorul Not Terminator și Emma Prest, directorul executiv al DataKind UK.

Etica este o discuție atât de interesantă și poate cel mai important aspect în dezvoltarea inteligenței artificiale (AI). Anul trecut am lansat The Marketers Field Guide to Machine Learning și am discutat subiectul AI și etica alături de subiecte precum corectitudinea, explicabilitatea și securitatea. Dacă AI ar fi dezvoltat complet neetic, ne-am pierde complet încrederea în ea, așa că trebuie să o ținem cont.

În cartea noastră electronică am discutat despre:

Până în prezent, ML și AI au fost implementate în principal pentru a îndeplini sarcini de nivel inferior, în principal banale, pentru a ajuta la îmbunătățirea productivității. Dar în curând pot fi în situația de a decide literalmente viața sau moartea. O mașină cu conducere autonomă va fi însărcinată nu numai să-și aducă ocupanții în siguranță la destinație, ci și să-i păstreze în siguranță pe toți ceilalți din jurul lor. Este doar o chestiune de timp când o mașină cu conducere autonomă se află într-o situație imposibilă; un accident este inevitabil, singura sa alegere este între a vira spre pietonul A din stânga sau pietonul B pe dreapta. Cum ar decide sistemul AI de sub capotă ce acțiune să ia? Pe baza dimensiunii? Vârstă? Statut social? Și atunci când anchetatorii accidentului încearcă să stabilească ce a influențat rezultatul, ar găsi o logică tulburătoare din punct de vedere etic încorporată în el?

Într-adevăr, aceste întrebări ne-au nedumerit atunci, dar de atunci am văzut unele dintre rezultate. Subiectul eticii și inteligenței artificiale nu este discutat doar în sălile de conferințe și în universități, ci și-a făcut loc în paginile legislative și în curând va fi cusut în structura modului în care funcționăm ca societate.

AI bune și rele – se pot întâmpla multe într-un an

De la lansarea cărții noastre electronice de învățare automată cu mai puțin de un an în urmă, au existat multe dezvoltări AI (în bine și în rău).

Tesla a raportat accidente de pilot automat cu mașini care se conduc singure și au apărut tehnologii precum Deepfake , prin care tehnologia de deep learning poate fi utilizată pentru a crea medii digitale prin suprapunerea imaginilor unor persoane reale în situații la care nu au participat cu intenția de a crea știri false sau farseli.

Într-un incident teribil de nefericit, o mașină Uber care se conducea singur a ucis un pieton . Această tragedie a avut loc deoarece societatea noastră a avut încredere într-o tehnologie AI. Deși s-a constatat mai târziu că eroarea umană a jucat un rol în accident, odată ce etichetați aceste lucruri ca fiind AI, este dificil să spuneți că tehnologia nu este suficient de inteligentă pentru a fi lăsată pe propriile sale dispozitive. În ciuda acestei tragedii îngrozitoare, companiile de mașini ( și Ikea ) continuă să anunțe noi planuri de mașini pentru conducerea autonomă.

Și în timp ce etica AI este în discuție din cauza potențialului său de a dăuna, aceeași încredere în dezvoltarea sa a dus, de asemenea, la numeroasele rezultate uimitoare de care beneficiem în prezent.

Tehnologia, ca întotdeauna, face parte din problemă și parte din soluție. Luați în considerare ritmul rapid de dezvoltare și noile aplicații ale AI care apar zilnic, cum ar fi:

  • AI pentru a analiza imaginile tumorale și a recunoaște tipurile de cancer pulmonar
  • AI care face pe toată lumea un mare fotograf
  • AI care poate face fermele de servere mai eficiente

Este posibil să fi auzit sau nu despre aceste tehnologii fascinante și benefice. Senzația media în jurul tragediei este mult mai răspândită. Hype și entuziasm înconjoară greșelile din tehnologia AI, deoarece atrage mult mai multă atenție; de la eșecurile banale, adesea hilare ale asistenților AI, până la povești despre preocupări mai serioase legate de confidențialitate .

Ideea este că, indiferent dacă auziți sau nu despre asta, AI face multe lucruri pozitive, în ciuda greșelilor sale mult mediatizate. Aceste încercări și necazuri i-au făcut pe oameni să vorbească , iar discuțiile care au loc la un nivel superior vor juca cu siguranță un rol în modelarea viitorului nostru.

Un efort organizat pentru a dezvolta IA în mod etic

Greșelile foarte mediatizate, pauzele academice și granițele tehnologice rupte în jurul dezvoltării AI au atras atenția liderilor din întreaga lume. La urma urmei, IA este deja folosită, iar societatea civilă se pregătește pentru o acceptare pe scară largă într-o varietate de moduri.

Guvernele și asociațiile trebuie să monitorizeze și să vorbească despre asta. Și bine că sunt. Iată o scurtă listă de exemple din capul meu:

  • Educarea viitorilor tehnologi AI pentru a avansa tehnologia în beneficiul umanității ( AI4ALL ).
  • ONU lucrează la înțelegerea modului în care poate contribui la obținerea creșterii economice și a lucra pentru binele mai mare
  • Cercetarea implicațiilor sociale ale inteligenței artificiale ( AI Now Institute )
  • Facem apel la liderii tehnologiei într-o scrisoare deschisă să îmbrățișeze o dezvoltare a tehnologiei centrată pe umanitate, transparentă și bazată pe încredere
  • Transformarea inteligenței artificiale în activitatea parlamentară: Comisia selectată a Camerei Lorzilor din Marea Britanie pentru inteligența artificială să ia în considerare implicațiile economice, etice și sociale ale inteligenței artificiale

OS etic

Sistemul de operare etic este practica de a stabili un cadru care încearcă să asigure dezvoltarea tehnologică pentru viitor, reducând la minimum riscurile tehnice și reputaționale viitoare. Se ia în considerare nu doar modul în care o nouă tehnologie poate schimba lumea în bine, ci și modul în care poate deteriora lucrurile sau poate fi utilizată greșit.

Acest sistem de operare propune câteva domenii generale de luat în considerare:

  • Adevărul și dezinformarea
    Tehnologia la care lucrați poate fi transformată într-un instrument care poate fi folosit pentru a „falsifica” lucruri?
  • Dependenta
    Este grozav pentru creatorul unui nou instrument, încât este atât de popular că oamenii petrec mult timp folosindu-l, dar este bun pentru sănătatea lor? Poate instrumentul să fie mai eficient, astfel încât oamenii să-și petreacă timpul bine, dar nu la nesfârșit? Cum poate fi proiectat pentru a încuraja utilizarea moderată?
  • Inegalitate
    Cine va avea acces și cine nu? Vor fi afectați negativ cei care nu vor avea acces? Are instrumentul un impact negativ asupra bunăstării economice și ordinii sociale?
  • Etică
    Sunt datele folosite pentru a construi tehnologia părtinitoare în vreun fel? Tehnologia întărește părtinirea existentă? Este echipa care dezvoltă instrumentele suficient de diversă pentru a ajuta la identificarea distorsiunilor de-a lungul procesului? Este instrumentul suficient de transparent pentru ca alții să-l „auditeze”? Exemplu de AI pentru angajare pentru a elimina prejudecățile – dar cum rămâne cu creatorii săi, ce părtinire ar putea avea?
  • Supraveghere
    Poate un guvern sau armata să transforme tehnologia într-un instrument de supraveghere sau să o folosească pentru a limita altfel drepturile cetățenilor? Datele culese permit urmărirea utilizatorilor de-a lungul vieții? Cine nu ați dori să aibă acces la aceste date în scopurile sale?
  • Controlul datelor
    Ce date colectezi? Ai nevoie de el? Profitați de asta? Utilizatorii dvs. împart acel profit? Au utilizatorii drepturi asupra datelor lor? Ce ar face actorii răi cu aceste date? Ce se întâmplă cu datele dacă compania dvs. este achiziționată?
  • Încredere implicită
    Tehnologia dumneavoastră are drepturi de utilizator? Termenii sunt clari și ușor de înțeles? Ascundeți informații utilizatorilor la care le pasă? Pot utilizatorii să participe și să renunțe la anumite aspecte în timp ce folosesc încă tehnologia? Sunt toți utilizatorii creați egali?
  • Ură și alte crime
    Tehnologia poate fi folosită pentru hărțuire sau hărțuire? Poate fi folosit pentru a răspândi ură, a discrimina pe alții? Poate fi armat?

Există o mulțime de domenii de luat în considerare, dar fiecare are propriile sale implicații care nu sunt de râs. Ethical OS spune că, odată ce riscurile sunt identificate cu o potențială dezvoltare a IA, acestea pot fi împărtășite între părțile interesate pentru a verifica pe deplin problema.

Îndreptarea către un viitor inteligent și etic

Panelul la care am participat la Congresul AI și la Summit-ul științei datelor s- a încheiat cu strategii suplimentare pentru a ajuta dezvoltatorii AI să avanseze mai etic. Ei au spus că etica tehnologiei ar trebui să fie integrată în cultura de afaceri și să facă parte dintr-o viziune corporativă și că vânătorii de recompense AI etici ar putea funcționa similar cu felul în care vânătorii de bug-uri!

Odată cu intrarea în vigoare a legislațiilor majore privind confidențialitatea consumatorilor, cum ar fi GDPR și California Consumer Privacy Act din 2018 , vedem deja cum progresele în domeniul științei datelor vor fi modelate de politică.

Unele ipoteze sugerează că reglementările vor încetini dezvoltarea AI. Deși acest lucru se poate întâmpla în proces, dacă consumatorii au mai multă încredere că datele și informațiile lor personale nu sunt utilizate abuziv, poate crește încrederea în proces. Acest lucru ar putea duce chiar la creșterea utilizării și a adoptării – cine știe.

Cu siguranță nu avem toate răspunsurile, dar suntem foarte atenți la discuție.

Credite de imagine

Imagine caracteristică: Unsplash / Markus Spiske