Q:
Mengapa DARPA meneliti "AI yang dapat dijelaskan"?
SEBUAH:Secara umum, kecerdasan buatan yang dapat dijelaskan menjadi bagian yang sangat digembar-gemborkan dari pekerjaan mutakhir dalam ilmu data. Ini membantu memandu kendali manusia terhadap jenis teknologi yang mudah berubah dan dinamis - AI yang dapat dijelaskan membantu menjawab banyak pertanyaan kolektif kita tentang bagaimana kecerdasan buatan akan bekerja.
Untuk memahami AI yang dapat dijelaskan, akan membantu untuk memahami seperti apa "AI biasa" itu. Secara tradisional, ketika AI mulai terbentuk, proyek tipikal terdiri dari kemampuan perangkat lunak baru yang mewah, tersembunyi dalam algoritme dan perangkat pelatihan dan kode linier, semacam "kotak blok" bagi pengguna. Mereka tahu itu bekerja - mereka hanya tidak tahu persis bagaimana caranya.
Ini dapat menyebabkan "masalah kepercayaan" di mana pengguna dapat mempertanyakan dasar di mana teknologi membuat keputusan. Itulah yang seharusnya dijelaskan oleh AI yang dapat dijelaskan: Proyek AI yang dapat dijelaskan datang dengan infrastruktur tambahan untuk menunjukkan kepada pengguna akhir niat dan struktur AI - mengapa ia melakukan apa yang dilakukannya.
Di zaman di mana inovator top seperti Bill Gates dan Elon Musk mengungkapkan keprihatinan tentang bagaimana kecerdasan buatan akan bekerja, AI yang dapat dijelaskan tampaknya sangat menarik. Para ahli berpendapat bahwa AI yang dapat dijelaskan dengan baik dapat membantu pengguna akhir memahami mengapa teknologi melakukan apa yang mereka lakukan, meningkatkan kepercayaan, dan juga meningkatkan kemudahan penggunaan dan pemanfaatan teknologi ini.
Namun, secara khusus, DARPA menjelaskan sendiri secara spesifik mengapa ia tertarik pada proyek-proyek baru. Halaman pada DARPA menunjukkan bahwa Departemen Pertahanan mengantisipasi "semburan" aplikasi kecerdasan buatan, dan sejumlah kekacauan dalam pengembangannya.
“Kemajuan yang berkelanjutan menjanjikan untuk menghasilkan sistem otonom yang akan memahami, mempelajari, memutuskan, dan bertindak sendiri, ” tulis David Gunning. “Namun, efektivitas sistem ini dibatasi oleh ketidakmampuan alat berat saat ini untuk menjelaskan keputusan dan tindakan mereka kepada pengguna manusia. ….
Esai online Gunning menunjukkan bahwa sistem AI yang dapat dijelaskan akan membantu "memberikan alasan" untuk teknologi, menunjukkan kekuatan dan kelemahan mereka, dan membuat kasus penggunaan lebih transparan. Grafik pada halaman menunjukkan bagaimana jalur langsung fungsionalitas kecerdasan buatan dari data pelatihan akan ditambah dengan sesuatu yang disebut model yang dapat dijelaskan dan antarmuka yang dapat dijelaskan yang akan membantu pengguna menjawab pertanyaan. Lebih jauh Gunning menyarankan bahwa program AI yang dapat dijelaskan akan memiliki dua area fokus utama - satu akan menyaring data multimedia untuk menemukan apa yang berguna bagi pengguna, dan fokus kedua akan mensimulasikan proses pengambilan keputusan untuk dukungan keputusan.
DARPA berharap untuk menyediakan “toolkit” yang dapat membantu mengembangkan sistem AI yang dapat dijelaskan di masa depan.