BAGIKAN
[Clard]

Sebuah tim peneliti di Cornel University yang bekerja sama dengan Wikimedia Foundation telah hadir dengan kerangka kerja digital untuk mendeteksi kapan diskusi online cenderung memburuk. Dalam sebuah makalah yang dipublikasikan di arXiv , tim menjelaskan pendekatan mereka dan seberapa handal algoritma mereka bekerja selama pengujian.

Seperti yang telah dicatat oleh para peneliti, percakapan online seringkali berubah menjadi perselisihan dan tidak sedikit memunculkan serangan secara pribadi. Lebih lanjut mereka telah mencatat bahwa ini sering terjadi ketika orang memasuki lingkungan yang melibatkan kritik, seperti Wikipedia. Di sana, editor amatir didorong untuk menawarkan kritik dari pekerjaan yang telah dihasilkan oleh orang lain sebagai sarana untuk meningkatkan konten dari situs web.

Sayangnya, banyak orang tidak menanggapi kritik semacam itu dengan baik, dan sebagai akibatnya, mengambil jalan dengan memposting komentar buruk. Tim di Wikimedia Foundation ingin mengekang percakapan semacam itu, karena selain memupuk perasaan yang tidak sehat, itu juga memberi reputasi buruk pada situs. Untuk mengatasi masalah ini, tim bekerja dengan kelompok di Cornell, yang telah meneliti masalah yang sama; yaitu, membangun sistem komputer yang mampu mengenali saat percakapan manusia kemungkinan akan merosot menjadi keburukan, dan untuk mengekangnya, atau mengakhiri percakapan untuk orang-orang yang terlibat.

Untuk mengatasi masalah ini, para peneliti menjumpai lebih dari 1.200 percakapan online di halaman Wikipedia-Talk untuk mencari petunjuk linguistik. Dalam konteks ini, isyarat adalah kata-kata yang menunjukkan sikap dan tingkat kesopanan.

Dengan melakukan itu, mereka menemukan bahwa ketika orang-orang menggunakan isyarat seperti “tolong” dan “terima kasih,” ada sedikit kesempatan untuk hal-hal yang menjadi lebih buruk. Ada juga frasa positif, seperti “Saya pikir” atau “Saya percaya” yang menyarankan upaya untuk menjaga hal-hal kesopanan, yang cenderung menjaga hal-hal menjadi dalam keadaan yang lebih seimbang.

Di sisi lain, mereka juga menemukan isyarat yang kurang bermanfaat, seperti ketika percakapan dimulai dengan pertanyaan langsung atau penggunaan kata “Anda.” Isyarat seperti itu cenderung mengarah pada degradasi dalam kesopanan di beberapa titik dan, para peneliti menyarankan, sering dilihat oleh pembaca sebagai bermusuhan dan kontroversial.

Tim kemudian mengembangkan suatu algoritma yang menerima isyarat sebagai data yang dipelajari dan kemudian memilah kalimat-kalimat yang mencari isyarat tersebut dan menerapkan intuisi mirip manusia kepada sistem tersebut.

Hasilnya, berdasarkan laporan tim, merupakan sebuah kerangka terkomputerisasi yang dapat mengenali lebih awal ketika percakapan cenderung merosot menjadi permainan tak berkesudahan yang buruk. Mereka menemukan bahwa sistemnya 61,6 persen akurat. Ketika tes yang sama dilakukan oleh manusia, bagaimanapun, mencetak hasil 72 persen.