Çocukluk uzun yıllar boyunca belirli sınırlar içinde tanımlandı: ev, okul, sokak. Bu üçlü yapı, çocuğun dünyasını hem koruyan hem de şekillendiren bir çerçeve sunuyordu. Bugün ise bu sınırlar büyük ölçüde ortadan kalkmış durumda. Çocuğun kimlerle temas kurduğu, ne izlediği, neye maruz kaldığı artık fiziksel mekânlarla sınırlı değil.
Daha önemlisi, bu süreç artık yalnızca bireysel tercihlerle değil; algoritmalar, veri işleme mekanizmaları ve platform ekonomisi tarafından yönlendiriliyor. Çocuğun karşısına çıkan içerik, çoğu zaman onun seçimi değil; onun adına yapılmış bir seçimin sonucu.
Bu nedenle 1 Mayıs 2026 tarihli Resmî Gazete’de yayımlanan 7578 sayılı Kanun’un 5651 sayılı İnternet Ortamında Yapılan Yayınların Düzenlenmesi ve Bu Yayınlar Yoluyla İşlenen Suçlarla Mücadele Edilmesi Hakkında Kanun’da yaptığı değişiklikler, yalnızca teknik bir internet düzenlemesi olarak görülmemelidir. Bu değişiklikler, çocuğun dijital ortamda korunmasına ilişkin yeni bir hukuki iradenin ifadesidir.
7578 sayılı Kanun ile 5651 sayılı Kanun’da yapılan değişiklikler:
Kanun’un 21. maddesiyle 5651 sayılı Kanun’un tanımlar maddesine “oyun”, “oyun dağıtıcı”, “oyun geliştirici” ve “oyun platformu” kavramları eklenmiştir. Böylece dijital oyun alanı, ilk kez bu açıklıkta 5651 sayılı Kanun’un kavramsal çerçevesine alınmıştır. “Oyun platformu”; dijital oyunların sergilenmesi, satışı, dağıtımı, indirilmesi veya oynanmasına yönelik teknik altyapı sunan gerçek veya tüzel kişiler olarak tanımlanmıştır. Bu tanım, ilerleyen yükümlülüklerin muhatabını belirlemesi bakımından önemlidir.
Kanun’un 22. maddesiyle 5651 sayılı Kanun’un ek 4. maddesinin 7. fıkrası yeniden düzenlenmiştir. Buna göre sosyal ağ sağlayıcı, on beş yaşını doldurmamış çocuklara hizmet sunamayacak; bu hizmetin sunulmaması için yaş doğrulama dâhil gerekli tedbirleri almakla yükümlü olacaktır. Aynı fıkrada, sosyal ağ sağlayıcının on beş yaşını doldurmuş çocuklara özgü ayrıştırılmış hizmet sunma konusunda gerekli tedbirleri alacağı ve bu tedbirleri kendi internet sitesinde yayımlayacağı düzenlenmiştir.
Aynı maddeyle eklenen 20. fıkrada sosyal ağ sağlayıcılara açık, anlaşılır ve kullanıma elverişli ebeveyn kontrol araçları sağlama yükümlülüğü getirilmiştir. Bu araçların; hesap ayarlarının kontrol edilmesine, satın alma, kiralama ve ücretli üyelik gibi işlemlerin ebeveyn iznine bağlanmasına, kullanım süresinin izlenmesi ve sınırlandırılmasına imkân vermesi gerekmektedir.
Kanun’un 23. maddesiyle 5651 sayılı Kanun’a eklenen Ek Madde 5 ise dijital oyun platformlarını düzenlemektedir. Buna göre oyun platformları, usulüne uygun olarak derecelendirilmeyen oyunları sunamayacak; ancak derecelendirilmeyen oyunları en yüksek yaş kriterine göre derecelendirmek kaydıyla sunabilecektir. Ayrıca oyun platformlarına da ebeveyn kontrol araçları sağlama yükümlülüğü getirilmiştir. Türkiye’den günlük erişimi yüz binden fazla olan yurt dışı kaynaklı oyun platformları için Türkiye’de temsilci belirleme zorunluluğu da öngörülmüştür.
Burada dikkat edilmesi gereken bir nokta vardır: Kanun’un 27. maddesine göre 5651’e ilişkin 22 ve 23. maddeler, yayımı tarihinde değil, yayımı tarihinden itibaren altı ay sonra yürürlüğe girecektir. Bu süre, platformların teknik uyum hazırlığı yapabilmesi bakımından anlamlıdır.
Küresel eğilim:
Türkiye’deki düzenleme, dünyadaki daha geniş bir eğilimle birlikte okunmalıdır. Avrupa Birliği’nde Digital Services Act, 2022 yılında kabul edilmiş; çok büyük çevrim içi platformlar ve arama motorları bakımından 2023’ten, tüm aracılık hizmetleri bakımından ise 17 Şubat 2024’ten itibaren uygulanmaya başlanmıştır. DSA, çocuklara yönelik hedefli reklamların sınırlandırılması, platformların sistemik risk değerlendirmesi yapması ve çocukların çevrim içi güvenliği bakımından daha şeffaf mekanizmalar kurması yönünde önemli yükümlülükler içermektedir.
İngiltere’de Online Safety Act 2023, çevrim içi platformlara çocukların zararlı içeriklerden korunması konusunda kapsamlı yükümlülükler getirmiştir. Ofcom’un 16 Ocak 2025 tarihli açıklamasında, özellikle pornografik içerikler ve çocuklara zararlı içerikler bakımından “etkili yaş doğrulama” ve “yaş güvencesi” mekanizmalarının devreye alınması gerektiği belirtilmiştir. Hükümet açıklamalarına göre Kanun’un çocukların erişim değerlendirmesi ve yaş doğrulama yükümlülükleri kademeli olarak uygulanmaktadır.
ABD’de ise COPPA, yani Children’s Online Privacy Protection Act, 1998 tarihli bir federal düzenlemedir ve 21 Nisan 2000’den itibaren uygulanmaktadır. COPPA, 13 yaş altındaki çocuklardan çevrim içi kişisel veri toplanmasını ebeveyn iznine bağlamaktadır. Burada doğrudan sosyal medya yasağı değil, çocuk verilerinin işlenmesine ilişkin sıkı bir rıza ve bilgilendirme rejimi vardır. FTC’nin düzenlemesi de 13 yaş altındaki çocuklara yönelen veya 13 yaş altından veri topladığını bilen çevrim içi hizmet sağlayıcılarına yükümlülük getirmektedir.
Avustralya ise daha sert bir model benimsemiştir. Online Safety Amendment (Social Media Minimum Age) Act 2024, 10 Aralık 2024’te kabul edilmiş ve sosyal medya kullanımı bakımından 16 yaş altı için minimum yaş sınırı getirmiştir. Düzenleme, sosyal medya platformlarına yaşa tabi kullanıcıların hesap sahibi olmasını önlemek için makul adımlar atma yükümlülüğü yüklemektedir.
Danimarka’da da 2025 yılında hükümet, 15 yaş altı çocukların sosyal medyaya erişiminin yasaklanmasını öngören bir düzenleme hazırlığını açıklamıştır. Modelde, ebeveyn izniyle 13 ve 14 yaşındaki çocuklar bakımından istisna tanınabileceği belirtilmektedir. Bu yönüyle Danimarka yaklaşımı, mutlak yasak ile ebeveyn takdiri arasında ara bir model oluşturmaktadır.
Koruma mı, denetim mi?
Bütün bu örnekler gösteriyor ki mesele yalnızca Türkiye’ye özgü değildir. Devletler artık platformların “tarafsız aracı” olduğu kabulünü sorgulamaktadır. Çünkü çocukların dijital ortamda karşılaştığı riskler; bağımlılık, siber zorbalık, uygunsuz içerik, kişisel verilerin kötüye kullanılması, oyun içi satın alma baskısı ve algoritmik yönlendirme gibi çok katmanlı bir nitelik taşımaktadır.
Ancak düzenlemelerin meşruiyeti kadar uygulanabilirliği de tartışılmalıdır. Yaş doğrulama nasıl yapılacaktır? Kimlik doğrulama sistemleri yeni bir kişisel veri riski doğuracak mıdır? Çocuğu korumak için getirilen mekanizma, çocuğu ve aileyi daha yoğun bir dijital gözetimin konusu hâline getirebilir mi?
Bu sorular, düzenlemenin insan hakları boyutunu gündeme getirir. Birleşmiş Milletler Çocuk Haklarına Dair Sözleşme bakımından temel ilke, çocuğun üstün yararıdır. Ancak çocuğun üstün yararı, çocuğun mahremiyetini, gelişen özerkliğini ve ifade özgürlüğünü tamamen ortadan kaldıran bir denetim anlayışı olarak yorumlanamaz. Avrupa İnsan Hakları Sözleşmesi’nin özel hayatın korunmasına ilişkin 8. maddesi ve Anayasa’nın kişisel verilerin korunmasına ilişkin 20. maddesi de bu tartışmanın hukuki zeminini oluşturur.
Bu nedenle yeni düzenleme, doğru yönde atılmış önemli bir adımdır; fakat tek başına yeterli değildir. Sosyal ağ sağlayıcıların ve oyun platformlarının yükümlülükleri ikincil düzenlemelerle açık, ölçülü ve denetlenebilir biçimde somutlaştırılmalıdır. Yaş doğrulama, çocuğun güvenliğini sağlarken yeni veri güvenliği sorunları üretmemelidir. Ebeveyn kontrolü, çocuğu korurken aile içi ilişkiyi bütünüyle gözetim ilişkisine çevirmemelidir.
Sonuç:
Dijital çağda çocukları korumak, onları yalnızca platformlardan uzaklaştırmak değildir. Asıl mesele, platformları çocuklar bakımından güvenli, şeffaf ve hesap verebilir hâle getirmektir. Hukuk burada yalnızca yasak koyan değil, denge kuran bir araç olmak zorundadır.
Çünkü çocukluk artık yalnızca sokakta, okulda, evde değil; algoritmaların seçtiği, sıraladığı ve yönlendirdiği içeriklerin içinde şekillenmektedir. Ve hukuk, bu yeni çocukluk hâlini görmezden gelirse geç kalır; yalnızca yasakla karşılık verirse eksik kalır. Asıl mesele, çocuğu dijital dünyanın dışında tutmak değil, dijital dünyanın çocuğu tüketmesini engellemektir.




































Yorum Yazın