Tim peneliti 51动漫 (UNAIR) mengembangkan pendekatan kecerdasan buatan untuk membantu proses klasifikasi buku di perpustakaan hanya berdasarkan judul buku. Inovasi ini ditujukan untuk menjawab persoalan klasik dalam katalogisasi, yakni penentuan kode klasifikasi yang memerlukan waktu, ketelitian, dan keahlian pustakawan, serta kerap menimbulkan perbedaan hasil antarinstansi. Dengan memanfaatkan Natural Language Processing (NLP), sistem ini dirancang untuk memberi saran kode klasifikasi secara cepat sehingga dapat mendukung konsistensi dan efisiensi kerja pustakawan, terutama ketika informasi yang tersedia masih sangat terbatas.
Penelitian ini berfokus pada prediksi kode Library of Congress Classification (LCC) dari judul buku saja. Untuk itu, tim peneliti menggunakan data Project Gutenberg dan membandingkan dua pendekatan, yaitu model dasar TF-IDF plus regresi logistik dan model Transformer ringan DistilBERT. Selain itu, peneliti juga menguji pendekatan dua tahap. Pada tahap pertama, sistem memprediksi huruf awal kelas LCC, misalnya P untuk bahasa dan sastra atau Q untuk sains. Setelah itu, pada tahap kedua, sistem mempersempit pilihan ke subkelas dua huruf yang berada dalam kelompok tersebut, misalnya PR, PS, atau QA. Pendekatan ini dirancang agar proses klasifikasi menjadi lebih terarah dan mengurangi kekeliruan lintas bidang.
Hasil penelitian menunjukkan bahwa klasifikasi buku dari judul saja ternyata cukup layak dilakukan. Dari 60.994 data awal berbahasa Inggris yang memiliki kode LCC valid, sebanyak 52.710 data digunakan setelah tahap praproses. Penelitian juga menunjukkan bahwa judul buku rata-rata sangat singkat, hanya sekitar 7,8 kata, sehingga tugas klasifikasi memang tidak mudah. Dalam pengujian, model DistilBERT satu tahap memberikan hasil terbaik, terutama pada ukuran Macro-F1, yang penting untuk menilai keseimbangan kinerja pada kelas yang sering maupun jarang muncul. Pada skema Merge-Rare, DistilBERT mencapai Top-1 accuracy 0,538, Top-3 accuracy 0,825, dan Macro-F1 0,548, lebih baik daripada model dasar. Sementara pada skema Full, DistilBERT juga unggul pada Macro-F1 meskipun perbedaannya dengan model dasar lebih tipis pada akurasi prediksi tunggal.
Temuan menarik lainnya adalah bahwa pendekatan dua tahap tidak selalu lebih baik untuk semua model. Pada model dasar, strategi dua tahap memberi perbaikan kecil, terutama pada kondisi data yang sangat tidak seimbang, karena membantu mengurangi kesalahan lintas kategori besar. Namun, pada DistilBERT, pembatasan bertahap justru menurunkan performa. Hal ini menunjukkan bahwa model neural seperti DistilBERT mampu memanfaatkan petunjuk lintas bidang yang kadang hilang ketika sistem terlalu cepat mempersempit pilihan. Meski demikian, penelitian ini menegaskan bahwa daftar saran Top-3 tetap sangat berguna untuk membantu pustakawan, karena memberi beberapa opsi yang dapat ditinjau manusia sebelum keputusan akhir diambil.
Bagi dunia perpustakaan, hasil ini membuka peluang penting untuk membangun layanan katalogisasi yang lebih cerdas. Sistem seperti ini tidak dimaksudkan menggantikan pustakawan, melainkan menjadi alat bantu pengambilan keputusan, terutama pada tahap awal pengolahan koleksi atau pada kondisi ketika hanya judul buku yang tersedia. Dengan demikian, AI dapat mempercepat proses kerja tanpa menghilangkan peran profesional pustakawan dalam memastikan ketepatan klasifikasi.
Artikel ini berjudul 淎I-Based Book Classification Using Book Titles: Investigating Two-Stage NLP Approach dan ditulis oleh Faisal Fahmi, Zulfatun Sofiyani, Endang Gunarti, dan Hendro Margono. Penelitian ini menegaskan bahwa perpaduan AI dan ilmu perpustakaan dapat menghasilkan solusi praktis untuk meningkatkan kualitas pengelolaan informasi di era koleksi digital yang terus bertambah.
Penulis: Faisal Fahmi, S.Pd., M.Sc., Ph.D.
Link:





