AI dan Etika: Perjuangan untuk Kepercayaan
Diterbitkan: 2018-10-02Saya baru-baru ini menghadiri Kongres AI dan KTT Ilmu Data di London dan ingin menghadiri diskusi panel berjudul Etika dan AI. Panelisnya adalah Harriet Kingaby, Co-Founder Not Terminator dan Emma Perst Direktur Eksekutif DataKind UK.
Etika adalah pembahasan yang menarik, dan mungkin merupakan aspek terpenting dalam pengembangan kecerdasan buatan (AI). Tahun lalu kami merilis Panduan Lapangan Pemasar untuk Pembelajaran Mesin dan membahas topik AI dan etika di samping topik seperti keadilan, keterjelasan, dan keamanan. Jika AI dikembangkan sepenuhnya secara tidak etis, kami akan kehilangan kepercayaan sepenuhnya, jadi kami harus selalu mengingatnya.
Dalam ebook kami, kami membahas:
Hingga saat ini, ML dan AI sebagian besar telah digunakan untuk melakukan tingkat yang lebih rendah, terutama tugas-tugas biasa untuk membantu meningkatkan produktivitas. Tetapi segera mereka dapat berada dalam posisi untuk benar-benar memutuskan hidup atau mati. Sebuah mobil self-driving akan bertanggung jawab tidak hanya untuk membawa penumpangnya dengan selamat ke tujuan mereka, tetapi juga menjaga keselamatan orang lain di sekitar mereka. Hanya masalah waktu ketika mobil self-driving menemukan dirinya dalam situasi yang mustahil; kecelakaan tidak dapat dihindari, satu-satunya pilihan adalah antara kemudi ke arah pejalan kaki A di sebelah kiri atau pejalan kaki B di sebelah kanan. Bagaimana sistem AI di bawah tenda memutuskan tindakan mana yang harus diambil? Berdasarkan ukuran? Usia? Status sosial? Dan ketika penyelidik kecelakaan mencoba menentukan apa yang memengaruhi hasil, akankah mereka menemukan logika yang mengganggu secara etis di dalamnya?
Memang pertanyaan-pertanyaan ini membingungkan kami saat itu, tetapi sejak itu kami telah melihat beberapa hasilnya. Topik etika dan AI tidak hanya dibahas di dalam ruang konferensi dan di universitas, topik ini juga masuk ke halaman legislatif dan segera akan dijahit ke dalam struktur cara kita beroperasi sebagai masyarakat.
AI Baik dan Buruk – Banyak Yang Bisa Terjadi dalam Satu Tahun
Sejak rilis ebook pembelajaran mesin kami kurang dari satu tahun yang lalu, ada banyak perkembangan AI (baik atau buruk).
Tesla telah melaporkan kecelakaan autopilot dengan mobil self-driving, dan teknologi seperti Deepfake telah muncul, di mana teknologi pembelajaran mendalam dapat digunakan untuk membuat media digital dengan menempatkan gambar orang nyata ke dalam situasi yang tidak mereka ikuti dengan maksud untuk membuat berita palsu atau tipuan.
Dalam satu insiden yang sangat disayangkan, sebuah mobil swakemudi Uber menewaskan seorang pejalan kaki . Tragedi ini terjadi karena masyarakat kita mempercayai teknologi AI. Meskipun kemudian ditemukan kesalahan manusia berperan dalam kecelakaan itu, begitu Anda memberi label hal-hal ini sebagai AI, sulit untuk kemudian mengatakan bahwa teknologinya tidak cukup cerdas untuk diserahkan ke perangkatnya sendiri. Terlepas dari tragedi mengerikan ini, perusahaan mobil ( dan Ikea ) terus mengumumkan rencana mobil self-driving baru.
Dan sementara etika AI diperdebatkan karena potensinya untuk merugikan, kepercayaan yang sama dalam pengembangannya juga telah menghasilkan banyak hasil luar biasa yang saat ini kita manfaatkan.
Teknologi, seperti biasa, adalah bagian dari masalah dan bagian dari solusi. Pertimbangkan langkah cepat pengembangan dan aplikasi baru AI yang muncul setiap hari seperti:
- AI untuk menganalisis gambar tumor dan mengenali jenis kanker paru-paru
- AI yang membuat semua orang menjadi fotografer hebat
- AI yang dapat membuat server farm lebih efisien
Anda mungkin atau mungkin belum pernah mendengar tentang teknologi yang menarik dan bermanfaat ini. Sensasi media seputar tragedi jauh lebih umum. Hype dan kegembiraan mengelilingi kesalahan dari teknologi AI karena mengumpulkan lebih banyak perhatian; dari kegagalan asisten AI yang biasa dan sering kali lucu hingga cerita tentang masalah privasi yang lebih serius .
Intinya adalah, apakah Anda mendengarnya atau tidak, AI melakukan banyak hal positif, meskipun banyak kesalahan yang dipublikasikan. Cobaan dan kesengsaraan ini membuat orang berbicara dan diskusi yang terjadi di tingkat yang lebih tinggi pasti akan berperan dalam membentuk masa depan kita.
Upaya Terorganisir untuk Mengembangkan AI Secara Etis
Kesalahan yang dipublikasikan secara luas, jeda akademis, dan batas-batas teknologi yang dilanggar seputar pengembangan AI telah menarik perhatian para pemimpin di seluruh dunia. Bagaimanapun, AI sudah digunakan dan masyarakat sipil sedang bersiap untuk diterima secara luas dalam berbagai cara.
Pemerintah dan asosiasi harus memantau dan membicarakannya. Dan hal yang baik mereka. Berikut adalah daftar singkat contoh dari atas kepala saya:
- Mendidik teknologi AI masa depan untuk memajukan teknologi untuk kepentingan umat manusia ( AI4ALL ).
- PBB bekerja untuk memahami bagaimana hal itu dapat membantu mencapai pertumbuhan ekonomi dan bekerja untuk kebaikan yang lebih besar
- Meneliti implikasi sosial dari AI ( AI Now Institute )
- Memanggil para pemimpin teknologi dalam sebuah surat terbuka untuk merangkul pengembangan teknologi yang berpusat pada kemanusiaan, transparan, dan berbasis kepercayaan
- Menjadikan AI bagian dari pekerjaan parlemen: House of Lords Inggris Pilih Komite Kecerdasan Buatan untuk mempertimbangkan implikasi ekonomi, etika, dan sosial dari AI
OS etis
OS Etis adalah praktik membangun kerangka kerja yang berupaya untuk pengembangan teknologi masa depan dengan meminimalkan risiko teknis dan reputasi di masa depan. Ini tidak hanya mempertimbangkan bagaimana teknologi baru dapat mengubah dunia menjadi lebih baik, tetapi bagaimana hal itu dapat merusak sesuatu atau disalahgunakan.

OS ini mengusulkan beberapa area umum untuk dipertimbangkan:
- Kebenaran dan Disinformasi
Bisakah teknologi yang sedang Anda kerjakan diubah menjadi alat yang dapat digunakan untuk "memalsukan" sesuatu? - Kecanduan
Ini bagus untuk pencipta alat baru yang sangat populer sehingga orang menghabiskan banyak waktu menggunakannya, tetapi apakah itu baik untuk kesehatan mereka? Bisakah alat itu dibuat lebih efisien sehingga orang menghabiskan waktu mereka dengan baik, tetapi tidak tanpa henti? Bagaimana itu bisa dirancang untuk mendorong penggunaan moderat? - Ketidaksamaan
Siapa yang akan memiliki akses dan siapa yang tidak? Apakah mereka yang tidak memiliki akses akan terkena dampak negatif? Apakah alat tersebut berdampak negatif pada kesejahteraan ekonomi dan tatanan sosial? - Etika
Apakah data yang digunakan untuk membangun teknologi bias? Apakah teknologi memperkuat bias yang ada? Apakah tim mengembangkan alat yang cukup beragam untuk membantu menemukan bias di sepanjang proses? Apakah alat tersebut cukup transparan bagi orang lain untuk “mengaudit”nya? Contoh AI untuk perekrutan untuk menghilangkan bias – tetapi bagaimana dengan penciptanya, bias apa yang mungkin mereka pegang? - Pengawasan
Dapatkah pemerintah atau militer mengubah teknologi menjadi alat pengawasan atau menggunakannya untuk membatasi hak warga negara? Apakah data yang dikumpulkan memungkinkan pengguna mengikuti sepanjang hidup mereka? Siapa yang Anda tidak ingin memiliki akses ke data ini untuk tujuan mereka? - Kontrol Data
Data apa yang Anda kumpulkan? Apakah Anda membutuhkannya? Apakah Anda mendapat untung darinya? Apakah pengguna Anda berbagi keuntungan itu? Apakah pengguna memiliki hak atas data mereka? Apa yang akan dilakukan aktor jahat dengan data ini? Apa yang terjadi dengan data jika perusahaan Anda diakuisisi? - Kepercayaan Tersirat
Apakah teknologi Anda memiliki hak pengguna? Apakah istilahnya jelas dan mudah dipahami? Apakah Anda menyembunyikan informasi dari pengguna yang mungkin mereka pedulikan? Dapatkah pengguna memilih masuk dan keluar dari aspek tertentu saat masih menggunakan teknologi? Apakah semua pengguna diciptakan sama? - Kebencian dan Kejahatan Lainnya
Bisakah teknologi digunakan untuk intimidasi atau pelecehan? Bisakah itu digunakan untuk menyebarkan kebencian, mendiskriminasi orang lain? Bisakah itu dipersenjatai?
Ada banyak area yang perlu dipertimbangkan, tetapi masing-masing memiliki implikasinya sendiri yang bukan bahan tertawaan. OS Etis mengatakan bahwa begitu risiko diidentifikasi dengan potensi pengembangan AI, mereka dapat dibagikan di antara para pemangku kepentingan untuk sepenuhnya memeriksa masalah.
Bergerak Menuju Masa Depan yang Cerdas dan Beretika
Panel yang saya hadiri di AI Congress dan Data Science Summit diakhiri dengan strategi tambahan untuk membantu pengembang AI bergerak maju secara lebih etis. Mereka mengatakan etika teknologi harus dibangun ke dalam budaya bisnis dan menjadi bagian dari visi perusahaan dan bahwa pemburu hadiah AI yang etis dapat beroperasi serupa dengan cara yang dilakukan pemburu serangga!
Dengan mulai berlakunya undang-undang privasi konsumen utama seperti GDPR dan California Consumer Privacy Act of 2018 , kami telah melihat bagaimana kemajuan ilmu data akan dibentuk oleh kebijakan.
Beberapa hipotesis menunjukkan bahwa peraturan akan memperlambat pengembangan AI. Sementara itu mungkin terjadi dalam proses, jika konsumen lebih yakin bahwa data dan informasi pribadi mereka tidak disalahgunakan, itu dapat meningkatkan kepercayaan dalam proses. Itu bahkan bisa mengarah pada peningkatan penggunaan dan adopsi – siapa tahu.
Kami tentu saja tidak memiliki semua jawaban tetapi kami memperhatikan diskusi dengan seksama.
Kredit Gambar
Gambar Fitur: Unsplash / Markus Spiske