Studi Peringatkan AI Bisa Meningkatkan Polaritas Media Sosial

Studi Peringatkan AI Bisa Meningkatkan Polaritas Media Sosial

Waktu baca: 3 Mnt

Kecerdasan buatan bisa memperkuat polarisasi di media sosial, peringatan dari peneliti dan mahasiswa Concordia, menimbulkan kekhawatiran terhadap kebebasan berbicara, dan penyebaran informasi yang salah.

Sedang terburu-buru? Berikut adalah fakta-fakta singkatnya:

  • Algoritma AI dapat menyebabkan perpecahan hanya dengan menggunakan jumlah pengikut dan postingan terbaru.
  • Bot pembelajaran penguatan beradaptasi dengan cepat untuk mengeksploitasi kerentanan media sosial.
  • Pakar memperingatkan platform berisiko melakukan sensor atau manipulasi tanpa batas.

Meskipun polarisasi di media sosial bukanlah hal baru, peneliti dan aktivis mahasiswa di Universitas Concordia memperingatkan bahwa kecerdasan buatan bisa memperparah masalah ini.

“Alih-alih ditunjukkan rekaman tentang apa yang terjadi atau konten dari para jurnalis yang melaporkannya, yang kita lihat justru adalah seni AI yang terlalu didramatisir tentang hal-hal yang seharusnya kita pedulikan secara politik […] Ini benar-benar menjauhkan orang dan menghilangkan pertanggungjawaban” kata Danna Ballantyne, koordinator urusan eksternal dan mobilisasi untuk Concordia Student Union, seperti dilaporkan oleh The Link.

Kekhawatirannya mencerminkan penelitian baru dari Concordia, di mana profesor Rastko R. Selmic dan mahasiswa doktoral Mohamed N. Zareer menunjukkan bagaimana bot-bot belajar yang diperkuat dapat memperkuat perpecahan online. “Tujuan kami adalah untuk memahami batas apa yang dapat dimiliki oleh kecerdasan buatan pada polarisasi dan jaringan media sosial, dan mensimulasikannya […] untuk mengukur bagaimana polarisasi dan ketidaksetujuan ini bisa muncul.” kata Zareer seperti dilaporkan oleh The Link.

Temuan ini menunjukkan bahwa algoritma tidak memerlukan data pribadi untuk menciptakan perpecahan, di mana sinyal dasar seperti jumlah pengikut dan postingan terbaru sudah cukup. “Ini menimbulkan kekhawatiran, karena [meski] bukan robot sederhana, ini masih algoritma yang bisa Anda ciptakan di komputer Anda […] Dan ketika Anda memiliki cukup daya komputasi, Anda bisa mempengaruhi lebih banyak dan lebih banyak jaringan,” jelas Zareer kepada The Link.

Ini mencerminkan lebar tubuh penelitian yang menunjukkan bagaimana pembelajaran penguatan bisa dimanfaatkan untuk memisahkan komunitas. Studi oleh Concordia menggunakan Double-Deep Q-learning dan menunjukkan bahwa agen AI yang bersifat adversarial dapat “beradaptasi secara fleksibel terhadap perubahan dalam jaringan, memungkinkannya untuk efektif mengeksploitasi kerentanan struktural dan memperbesar perpecahan di antara pengguna,” seperti yang dicatat oleh penelitian tersebut.

Memang, Double-Deep Q-learning adalah teknik AI di mana bot belajar tindakan optimal melalui coba-coba. Teknik ini menggunakan jaringan saraf yang dalam untuk menangani masalah kompleks dan dua estimasi nilai untuk menghindari penaksiran berlebihan terhadap hadiah. Di media sosial, teknik ini dapat secara strategis menyebarkan konten untuk meningkatkan polarisasi dengan data minimal.

Zareer memperingatkan bahwa pembuat kebijakan menghadapi keseimbangan yang sulit. “Ada garis tipis antara pemantauan dan sensor serta mencoba mengendalikan jaringan,” katanya kepada The Link. Pengawasan yang terlalu sedikit memungkinkan bot memanipulasi percakapan, sementara terlalu banyak dapat berisiko menekan kebebasan berbicara.

Sementara itu, mahasiswa seperti Ballantyne khawatir AI menghapus pengalaman hidup yang telah dilewati. “AI benar-benar menghapus itu,” katanya kepada The Link.

Anda suka artikel ini? Beri Rating!
Saya sangat tidak menyukainya Saya tidak begitu menyukainya Okelah Cukup bagus! Suka sekali!

Kami senang kamu menyukai artikel kami!

Sebagai pembaca yang budiman, maukah Anda memberikan ulasan di Trustpilot? Ini tidak lama dan sangat berarti bagi kami. Terima kasih sekali!

Beri kami peringkat di Trustpilot
0 Rating dari 0 pengguna
Judul
Komentar
Terima kasih atas feedback Anda