Radius Setiyawan, Pakar Kajian Budaya dan Media dari Universitas Muhammadiyah Surabaya.
“Pakar menilai pembatasan usia pengguna media sosial belum cukup, tanpa regulasi algoritma digital, anak tetap berisiko terpapar konten ekstrem di internet”.
Surabaya, HeadlineJatim.com – Pemerintah Indonesia akan mulai memberlakukan pembatasan kepemilikan akun media sosial bagi anak di bawah usia 16 tahun mulai 28 Maret 2026. Kebijakan ini menyasar sejumlah platform digital populer seperti TikTok, YouTube, Instagram, hingga gim daring seperti Roblox.
Langkah ini diambil sebagai upaya melindungi anak dari berbagai risiko di ruang digital, mulai dari paparan konten berbahaya, perundungan siber, hingga potensi kecanduan media sosial yang semakin meningkat.
Namun di balik kebijakan tersebut, pakar menilai ada persoalan yang tidak kalah besar yang justru tersembunyi di balik layar platform digital, cara kerja algoritma media sosial.
Pakar Kajian Budaya dan Media dari Universitas Muhammadiyah Surabaya, Radius Setiyawan, mengatakan pembatasan usia memang langkah penting, tetapi tidak akan cukup jika sistem algoritma platform digital tidak ikut diatur.
“Masalahnya bukan hanya siapa yang boleh mengakses media sosial, tetapi bagaimana algoritma mendorong pengguna terus berada di dalam platform. Kalau algoritmanya tidak diatur, pembatasan usia bisa saja hanya menjadi kebijakan simbolik,” ujar Radius, Sabtu (7/3/2026).
Menurutnya, platform seperti TikTok dan YouTube menggunakan sistem rekomendasi yang membaca hampir seluruh perilaku pengguna. Mulai dari video yang ditonton, durasi menonton, hingga interaksi seperti komentar dan tanda suka.
Semua data tersebut kemudian diproses oleh sistem algoritma untuk menampilkan konten yang dianggap paling menarik bagi pengguna. Di sinilah potensi risikonya muncul.
Konten yang paling menarik perhatian sering kali bersifat sensasional, kontroversial, atau memancing emosi. Dalam beberapa kasus, sistem algoritma bahkan bisa membuat pengguna, terutama anak-anak secara perlahan diarahkan pada konten yang semakin ekstrem atau tidak sesuai dengan usia mereka.
“Algoritma itu seperti lorong rekomendasi tanpa ujung. Semakin lama digunakan, konten yang muncul bisa semakin sempit dan semakin intens,” jelasnya.
Karena itu, Radius menilai pemerintah perlu mulai mendorong regulasi yang lebih kuat terhadap sistem algoritma platform digital agar lebih aman bagi anak.
Beberapa langkah yang dapat dilakukan antara lain mendorong transparansi cara kerja algoritma, membatasi rekomendasi konten berisiko, serta menyediakan sistem rekomendasi khusus bagi pengguna anak.
Sejumlah negara bahkan telah lebih dulu menerapkan kebijakan serupa. Di Eropa, misalnya, diterapkan aturan Digital Services Act yang mewajibkan perusahaan teknologi lebih transparan terhadap sistem rekomendasi konten mereka.
Sementara di Inggris berlaku Online Safety Act yang menuntut platform digital bertanggung jawab terhadap keamanan pengguna, termasuk perlindungan bagi anak-anak di ruang digital.
Selain regulasi, Radius juga menekankan pentingnya literasi digital bagi anak dan orang tua. Menurutnya, tanpa pemahaman yang cukup, anak-anak tetap bisa mencari celah untuk mengakses media sosial, misalnya dengan memalsukan usia saat membuat akun atau menggunakan akun milik orang dewasa.
“Perlindungan anak di ruang digital tidak cukup hanya dengan pembatasan akses. Perlu edukasi digital, pengawasan keluarga, serta tanggung jawab dari platform,” tegasnya.
Ia menilai kebijakan pembatasan akun media sosial bagi anak merupakan langkah awal yang positif. Namun agar perlindungan anak di ruang digital benar-benar efektif, pemerintah juga perlu memperkuat regulasi terhadap algoritma media sosial.
Dengan begitu, kebijakan tersebut tidak hanya bersifat administratif, tetapi benar-benar mampu melindungi anak dari paparan konten berisiko di internet.






