Was-was risiko AI bagi anak, Anthropic perketat aturan usia

Seluruh pengguna Claude.ai diwajibkan menyatakan berusia 18 tahun ke atas saat pendaftaran akun.

author photo
A- A+
Was-was risiko AI bagi anak, Anthropic perketat aturan usia
cover | topik.id

Anthropic melaporkan telah menetapkan batasan usia minimum 18 tahun bagi pengguna Claude.ai. Kebijakan ini didasarkan pada risiko lebih tinggi dampak negatif AI terhadap pengguna muda. Syarat dan ketentuan tersebut sebagai pendekatan kehati-hatian dalam pengembangan chatbot AI.

Seluruh pengguna Claude.ai diwajibkan menyatakan berusia 18 tahun ke atas saat pendaftaran akun. Pernyataan usia menjadi syarat awal sebelum mengakses layanan percakapan AI. Anthropic menilai verifikasi mandiri ini sebagai lapisan perlindungan dasar.

Jika pengguna menyebutkan bahwa mereka berusia di bawah 18 tahun dalam percakapan, sistem akan menandainya. Akun tersebut akan ditinjau secara internal oleh tim Anthropic. Apabila terbukti milik anak di bawah umur, akun akan langsung dinonaktifkan.

"Semua pengguna Claude.ai harus menyatakan bahwa mereka berusia 18 tahun ke atas saat membuat akun. Jika pengguna di bawah usia 18 tahun menyebutkan usia mereka sendiri dalam percakapan, sistem klasifikasi kami akan menandainya untuk ditinjau dan kami akan menonaktifkan akun yang terbukti milik anak di bawah umur," tulis Anthropic dalam laporan resminya, seperti dilansir topik.id, Jumat (19/12/2025).

Anthropic juga mengembangkan sistem klasifikasi baru untuk mendeteksi sinyal usia yang lebih halus. Sistem ini tidak hanya bergantung pada pengakuan eksplisit pengguna. Pendekatan ini menunjukkan upaya pengawasan yang lebih proaktif dan teknis.

Untuk memperkuat perlindungan, Anthropic bergabung dengan Family Online Safety Institute (FOSI). FOSI dikenal sebagai lembaga yang fokus pada keselamatan anak dan keluarga di dunia digital. Kolaborasi ini diarahkan untuk mendorong standar industri yang lebih aman.

"Kami telah bergabung dengan Family Online Safety Institute (FOSI), sebuah lembaga yang memperjuangkan pengalaman daring yang aman bagi anak-anak dan keluarga, untuk membantu memperkuat kemajuan industri dalam pekerjaan ini," ungkap Anthropic dalam laporannya.

Ke depan, Anthropic berencana terus menambah lapisan pengamanan bagi pengguna. Evaluasi internal terhadap dampak dan risiko AI akan dilakukan secara berkelanjutan. Perusahaan mengakui bahwa sistem yang ada masih perlu penyempurnaan.

Anthropic berkomitmen mempublikasikan metode dan hasil evaluasi secara transparan. Mereka juga membuka kerja sama dengan peneliti serta pakar independen. Ketentuan ini bertujuan meningkatkan akuntabilitas dan tata kelola AI secara luas.

"Kami berkomitmen untuk mempublikasikan metode dan hasil kami secara transparan—dan untuk bekerja sama dengan pihak lain di industri ini, termasuk peneliti dan pakar lainnya, untuk meningkatkan cara kerja alat AI di bidang ini," jelas dalam laporan tersebut.

Share:
Premium.
Komentar
Komentar sepenuhnya tanggung jawab pengguna dan diatur dalam UU ITE.

Update
Indeks