Cara Mengambil Pendekatan Berhati-hati terhadap AI Mengurangkan Set Data Pisau

Set Data Bias dan AI Beretika

Penyelesaian bertenaga AI memerlukan set data agar berkesan. Dan penciptaan set data tersebut penuh dengan masalah bias yang tersirat pada tahap sistematik. Semua orang mengalami berat sebelah (sedar dan tidak sedar). Bias boleh mengambil pelbagai bentuk: geografi, linguistik, sosio-ekonomi, seksis, dan rasis. Dan bias sistematik tersebut dimasukkan ke dalam data, yang dapat menghasilkan produk AI yang mengabadikan dan memperbesar bias. Organisasi memerlukan pendekatan yang bijaksana untuk mengurangkan bias yang masuk ke dalam kumpulan data.

Contoh yang Menggambarkan Masalah Bias

Salah satu contoh bias kumpulan data ini yang mendapat banyak tekanan negatif pada masa itu adalah penyelesaian membaca resume yang menggemari calon lelaki berbanding wanita. Ini kerana set data alat perekrutan telah dikembangkan menggunakan resume sejak lebih dari satu dekade terakhir ketika mayoritas pemohon adalah lelaki. Data itu berat sebelah dan hasilnya menunjukkan bahawa berat sebelah. 

Contoh lain yang dilaporkan secara meluas: Pada persidangan pembangun Google I / O tahunan, Google berkongsi pratonton alat bantu dermatologi bertenaga AI yang membantu orang memahami apa yang berlaku dengan masalah yang berkaitan dengan kulit, rambut, dan kuku mereka. Pembantu dermatologi menggarisbawahi bagaimana AI berkembang untuk membantu dengan penjagaan kesihatan - tetapi ia juga menyoroti potensi bias untuk meresap ke dalam AI setelah kritikan bahawa alat ini tidak mencukupi untuk orang-orang yang berwarna.

Semasa Google mengumumkan alat tersebut, syarikat itu menyatakan:

Untuk memastikan kami membangun untuk semua orang, model kami memperhitungkan faktor-faktor seperti usia, jantina, bangsa, dan jenis kulit - dari kulit pucat yang tidak kecokelatan hingga kulit coklat yang jarang terbakar.

Google, Menggunakan AI untuk mencari jawapan bagi keadaan kulit yang biasa

Tetapi sebuah artikel di Vice mengatakan bahawa Google gagal menggunakan set data inklusif:

Untuk melaksanakan tugas tersebut, para penyelidik menggunakan set data latihan sebanyak 64,837 gambar 12,399 pesakit yang berada di dua negeri. Tetapi dari beribu-ribu keadaan kulit yang digambarkan, hanya 3.5 peratus yang datang dari pesakit dengan kulit jenis Fitzpatrick V dan VI — masing-masing mewakili kulit coklat dan coklat gelap atau kulit hitam. 90 peratus pangkalan data terdiri daripada orang-orang dengan kulit cerah, kulit putih lebih gelap, atau kulit coklat muda, menurut kajian itu. Hasil daripada pengambilan sampel yang berat sebelah, pakar dermatologi mengatakan bahawa aplikasi ini dapat menyebabkan orang yang terlalu banyak atau kurang mendiagnosis yang tidak berkulit putih.

Wakil, Aplikasi Dermatologi Baru Google Tidak Direka untuk Orang Dengan Kulit Lebih Gelap

Google bertindak balas dengan mengatakan bahawa ia akan menyempurnakan alat sebelum melepaskannya secara rasmi:

Alat bantu dermatologi bertenaga AI kami adalah puncak penyelidikan lebih dari tiga tahun. Oleh kerana karya kami dipaparkan dalam Nature Medicine, kami terus mengembangkan dan menyempurnakan teknologi kami dengan penggabungan kumpulan data tambahan yang merangkumi data yang disumbangkan oleh ribuan orang, dan berjuta-juta gambar kulit yang lebih banyak perhatian.

Google, Menggunakan AI untuk mencari jawapan bagi keadaan kulit yang biasa

Sebanyak yang kita harapkan program AI dan pembelajaran mesin dapat membetulkan bias ini, kenyataannya tetap ada: hanya seperti itu pintar kerana set data mereka bersih. Dalam kemas kini pepatah pengaturcaraan lama sampah masuk / sampah keluar, Penyelesaian AI hanya sekuat kualiti set data mereka dari awal. Tanpa pembetulan dari pengaturcara, kumpulan data ini tidak memiliki pengalaman latar belakang untuk memperbaiki diri - kerana mereka tidak mempunyai kerangka rujukan lain.

Membangun set data secara bertanggungjawab adalah teras semua kecerdasan buatan yang beretika. Dan orang-orang adalah teras penyelesaian. 

Mindful AI adalah Etika AI

Bias tidak berlaku dalam keadaan kosong. Kumpulan data yang tidak beretika atau berat sebelah berasal dari mengambil pendekatan yang salah semasa peringkat pembangunan. Cara untuk mengatasi kesalahan berat sebelah adalah dengan menerapkan pendekatan yang bertanggung jawab dan berpusat pada manusia yang banyak disebut dalam industri ini sebagai Mindful AI. Mindful AI mempunyai tiga komponen kritikal:

1. Mindful AI Berpusatkan Manusia

Dari permulaan projek AI, pada peringkat perancangan, keperluan orang mesti menjadi pusat setiap keputusan. Dan itu bermaksud semua orang - bukan hanya subset. Itulah sebabnya pembangun perlu bergantung pada pasukan yang terdiri daripada pelbagai orang yang berpusat di seluruh dunia untuk melatih aplikasi AI agar inklusif dan bebas dari berat sebelah.

Menyerahkan kumpulan data dari pasukan global yang pelbagai memastikan bias dikenal pasti dan disaring lebih awal. Mereka yang terdiri daripada pelbagai etnik, kumpulan umur, jantina, tahap pendidikan, latar belakang sosio-ekonomi, dan lokasi dapat dengan lebih mudah melihat set data yang lebih menyukai satu set nilai daripada yang lain, sehingga menyingkirkan bias yang tidak disengajakan.

Lihatlah aplikasi suara. Semasa menerapkan pendekatan AI yang penuh perhatian, dan memanfaatkan kekuatan kumpulan bakat global, pembangun dapat menjelaskan unsur-unsur linguistik seperti dialek dan aksen yang berbeza dalam kumpulan data.

Menetapkan kerangka reka bentuk yang berpusatkan manusia sejak awal adalah penting. Ini jauh untuk memastikan bahawa data yang dihasilkan, disusun, dan dilabel memenuhi harapan pengguna akhir. Tetapi penting juga untuk menjaga manusia sepanjang siklus pengembangan produk. 

Manusia yang berada dalam lingkaran juga dapat membantu mesin membuat pengalaman AI yang lebih baik untuk setiap khalayak tertentu. Di Pactera EDGE, pasukan projek data AI kami, yang berada di seluruh dunia, memahami bagaimana budaya dan konteks yang berbeza dapat mempengaruhi pengumpulan dan penyusunan data latihan AI yang boleh dipercayai. Mereka mempunyai alat yang diperlukan yang mereka perlukan untuk mengatasi masalah, memantau dan memperbaikinya sebelum penyelesaian berasaskan AI disiarkan.

Human-in-the-loop AI adalah projek "jaring pengaman" yang menggabungkan kekuatan orang - dan latar belakang mereka yang pelbagai dengan kekuatan komputer yang pantas. Kerjasama manusia dan AI ini perlu dijalin sejak awal program supaya data berat sebelah tidak menjadi asas dalam projek ini. 

2. AI yang penuh perhatian bertanggungjawab

Bertanggungjawab adalah untuk memastikan bahawa sistem AI bebas dari bias dan bahawa mereka berlandaskan etika. Ini adalah untuk memperhatikan bagaimana, mengapa, dan di mana data dibuat, bagaimana data disintesis oleh sistem AI, dan bagaimana ia digunakan dalam membuat keputusan, keputusan yang dapat membawa implikasi etika. Salah satu cara untuk perniagaan adalah dengan bekerja dengan komuniti yang kurang diwakili untuk menjadi lebih inklusif dan kurang berat sebelah. Dalam bidang anotasi data, penyelidikan baru menyoroti bagaimana model tugas multi-anotator yang memperlakukan label setiap anotator sebagai subtugas yang terpisah dapat membantu mengurangkan masalah yang berpotensi wujud dalam kaedah kebenaran dasar yang tipikal di mana perbezaan pendapat anotator mungkin disebabkan oleh perwakilan yang kurang dan boleh diabaikan dalam pengumpulan anotasi ke satu kebenaran. 

3. boleh dipercayai

Kebolehpercayaan berasal dari perniagaan yang telus dan dapat dijelaskan dalam bagaimana model AI dilatih, bagaimana ia berfungsi, dan mengapa mereka mencadangkan hasilnya. Perniagaan memerlukan kepakaran dengan penyetempatan AI untuk memungkinkan pelanggan membuat aplikasi AI mereka lebih inklusif dan diperibadikan, dengan menghormati nuansa kritis dalam bahasa tempatan dan pengalaman pengguna yang dapat membuat atau memecahkan kredibiliti penyelesaian AI dari satu negara ke negara lain . Sebagai contoh, perniagaan harus merancang aplikasinya untuk konteks yang diperibadikan dan dilokalkan, termasuk bahasa, dialek, dan aksen dalam aplikasi berasaskan suara. Dengan cara itu, aplikasi membawa tahap kecanggihan pengalaman suara yang sama untuk setiap bahasa, dari bahasa Inggeris hingga bahasa yang kurang terwakili.

Kewajaran dan Kepelbagaian

Pada akhirnya, AI yang berhati-hati memastikan penyelesaian dibina berdasarkan set data yang adil dan pelbagai di mana akibat dan kesan hasil tertentu dipantau dan dinilai sebelum penyelesaiannya dipasarkan. Dengan berhati-hati dan termasuk manusia dalam setiap bagian pengembangan penyelesaiannya, kami membantu memastikan model AI tetap bersih, minimal bias, dan etika mungkin.

Apa yang anda fikir?

Laman web ini menggunakan Akismet untuk mengurangkan spam. Ketahui bagaimana data komen anda diproses.