NTB, DISWAY.ID - Peraturan Menteri Komunikasi dan Digital Nomor 9 Tahun 2026 terkait larangan penggunaan media sosial bagi anak di bawah 16 tahun merupakan langkah strategis pemerintah untuk melindungi anak dari risiko ruang digital, seperti paparan konten negatif, perundungan siber (cyberbullying), kecanduan media sosial, hingga eksploitasi daring.
Walaupun regulasi ini tidak bisa sepenuhnya menghilangkan risiko karena dimungkinkan masih banyak celah teknis seperti pemalsuan usia, setidaknya kehadiran peraturan ini tetap penting sebagai kerangka perlindungan awal.
Setidaknya, aturan ini menegaskan bahwa negara mengakui adanya ancaman nyata dari ekosistem digital terhadap perkembangan anak.
Untuk mendukung efektivitas implementasi kebijakan ini, beberapa langkah strategis dapat dipertimbangkan untuk dilakukan, di antaranya:
BACA JUGA:Caption Medsos Penuh Semangat untuk Bangkitkan Nasionalisme
1. Kolaborasi antara pemerintah, platform digital, dan masyarakat
Pemerintah tidak dapat bekerja sendiri. Platform media sosial harus didorong untuk memperkuat sistem perlindungan anak, misalnya melalui sistem verifikasi usia yang lebih akurat, pembatasan fitur tertentu, serta moderasi konten yang lebih ketat.
Saat ini, sebagian besar platform media sosial masih mengandalkan sistem deklarasi mandiri ketika pengguna mendaftar akun. Sistem ini relatif mudah dimanipulasi oleh anak yang ingin mengakses layanan yang sebenarnya dibatasi usia.
Oleh karena itu, platform perlu mengembangkan metode verifikasi usia yang lebih kredibel, misalnya melalui teknologi estimasi usia berbasis kecerdasan buatan (AI), verifikasi identitas digital, atau mekanisme persetujuan orang tua (parental consent). Dengan sistem verifikasi yang lebih kuat, peluang anak di bawah umur untuk mengakses platform secara tidak sesuai aturan dapat diminimalkan.
Selain itu, platform juga dapat menerapkan desain layanan yang lebih ramah anak (child-safe design). Misalnya, dengan membatasi fitur yang berpotensi meningkatkan risiko interaksi berbahaya, seperti pesan pribadi dari orang asing, fitur siaran langsung tanpa pengawasan, atau algoritma rekomendasi yang terlalu agresif dalam menampilkan konten.
Selain itu, platform dapat mengatur pengaturan akun anak secara otomatis menjadi privat, membatasi waktu penggunaan, serta menonaktifkan fitur yang berpotensi memicu kecanduan digital.
Platform memiliki tanggung jawab untuk memastikan bahwa konten yang beredar tidak membahayakan pengguna, khususnya anak-anak.
Oleh karena itu, moderasi konten perlu dilakukan secara lebih proaktif, baik melalui teknologi AI maupun tim moderator manusia.
Sistem ini penting untuk mendeteksi dan menghapus konten berbahaya seperti kekerasan, eksploitasi anak, ujaran kebencian, atau bentuk perundungan siber. Selain itu, mekanisme pelaporan (reporting system) harus dibuat lebih mudah diakses agar pengguna dapat segera melaporkan konten yang merugikan.
Platform digital juga perlu menunjukkan komitmen melalui transparansi dalam kebijakan perlindungan anak.
Hal ini dapat dilakukan dengan mempublikasikan standar keamanan, jumlah konten yang ditindak, serta langkah-langkah yang diambil untuk melindungi pengguna anak. Dengan transparansi tersebut, pemerintah dan masyarakat dapat memantau sejauh mana platform menjalankan tanggung jawabnya.