Petisi internal yang meminta Google untuk tetap keluar dari “bisnis perang” memperoleh dukungan pada hari Selasa, dengan beberapa pekerja dilaporkan berhenti karena telah memprotes kolaborasi dengan militer AS.
Sekitar 4.000 karyawan Google dikatakan telah menandatangani petisi yang mulai beredar sekitar tiga bulan lalu yang mendesak raksasa internet itu untuk tidak menggunakan kecerdasan buatan untuk membuat drone militer AS menjadi lebih canggih dalam mengenali apa yang mereka pantau.
Situs berita teknologi Gizmodo melaporkan minggu ini bahwa sekitar selusin karyawan Google berhenti di posisi yang etis.
Perusahaan yang berbasis di California tidak segera menanggapi pertanyaan tentang apa yang disebut sebagai Proyek Maven, yang dilaporkan menggunakan pembelajaran mesin dan bakat teknik untuk membedakan orang dan benda-benda dalam video drone untuk Departemen Pertahanan.
“Kami percaya bahwa Google tidak boleh berada dalam bisnis perang,” kata petisi itu, menurut salinan yang diposting online.
“Oleh karena itu, kami meminta Proyek Maven dibatalkan, dan bahwa Google menyusun, mempublikasikan dan menegakkan kebijakan yang jelas yang menyatakan bahwa baik Google maupun kontraktornya tidak akan membangun teknologi perang.”
‘Menjauh’ dari drone pembunuh
The Electronic Frontier Foundation, sebuah kelompok hak internet, dan Komite Internasional untuk Kontrol Senjata Robot (ICRAC) termasuk di antara mereka yang turut cemas dengan memberikan dukungan.
Sementara laporan menunjukkan bahwa temuan kecerdasan buatan akan ditinjau oleh analis manusia, teknologi ini dapat membuka jalan bagi sistem penargetan otomatis pada drone bersenjata, ICRAC beralasan dalam surat dukungan terbuka kepada karyawan Google terhadap proyek tersebut.
“Ketika komandan militer datang untuk melihat algoritma pengenalan objek dapat diandalkan, itu akan menggoda untuk melemahkan atau bahkan menghapus tinjauan dan pengawasan manusia untuk sistem ini,” kata ICRAC dalam surat itu.
“Kita hanya selangkah lagi dari mengijinkan drone otonom untuk membunuh secara otomatis, tanpa pengawasan manusia atau kontrol manusia yang berarti.”
Google telah mengatakan bahwa pekerjaannya untuk meningkatkan kemampuan mesin untuk mengenali objek bukan untuk penggunaan ofensif, tetapi dokumen yang diterbitkan menunjukkan gambar yang “suram”, Cindy Cohn dan Peter Eckersley dari EFF mengatakan dalam sebuah posting online bulan lalu.
“Jika pembacaan catatan publik kami benar, sistem yang didukung atau dibangun oleh Google akan menandai orang atau objek yang dilihat oleh drone untuk tinjauan manusia, dan dalam beberapa kasus ini akan mengarah pada serangan rudal berikutnya pada orang-orang atau benda-benda tersebut,” kata Cohn dan Eckersley.
“Itu adalah taruhan etis yang kuat, bahkan dengan manusia dalam lingkaran lebih jauh di sepanjang ‘rantai pembunuhan’.”
EFF dan lainnya menyambut debat Google internal, menekankan perlunya kerangka moral dan etika terkait penggunaan kecerdasan buatan dalam persenjataan.
“Penggunaan AI dalam sistem persenjataan adalah topik yang sangat penting dan yang layak mendapat diskusi publik internasional dan kemungkinan beberapa perjanjian internasional untuk menjamin keamanan global,” kata Cohn dan Eckersley.
“Perusahaan seperti Google, serta rekan-rekan mereka di seluruh dunia, harus mempertimbangkan konsekuensinya dan menuntut pertanggungjawaban nyata dan standar perilaku dari lembaga militer yang mencari keahlian mereka — dan dari diri mereka sendiri.”