Adres:
Çetin Emeç Bulv. Yukarı Öveçler Mh. Lizbon Cd. No: 2/3 Çankaya, Ankara
Telefon:
0 (312) 911 81 94
Çok yakın geçmişteki yapay zekâ ve bilişim teknolojilerindeki sıçrama, ceza hukukunun neredeyse her alanına sirayet eden yepyeni sorunlar doğurdu. Özellikle ses ve görüntü işleme kapasitesindeki ilerleme, bir kişinin yüzünü, sesini ve jest-mimik örüntülerini ikna edici şekilde taklit eden içeriklerin saniyeler içinde üretilebilmesine imkân tanıyor. Bu teknik imkân yalnızca mahremiyet, itibar ve kişilik hakları açısından değil; “özel nitelikli” cinsel içeriklerin üretimi ve dolaşıma sokulması yönüyle de ağır sonuçlar doğuruyor. Bugün erişilmesi kolay, maliyeti düşük ve kullanıcıdan ciddi teknik birikim talep etmeyen araçlar, rızaya aykırı cinsel içerik ifşasını, fail bakımından “düşük risk-yüksek etki” kategorisine taşıyor. Hukuk düzenleri bu gerçeklikle yarışmakta zorlanırken, mağduriyetler hızla çoğalıyor.
“Deepfake” kısaca, derin öğrenme yöntemleriyle eğitilmiş sistemlerin, bir kişiye ait örnek verilerden hareketle gerçekte hiç yaşanmamış sahneleri o kişi yaşamış gibi gösteren sesli ve/veya görüntülü içerikler üretmesidir. Bu içerikler, sıradan bir fotoşop müdahalesinden farklı olarak, sıfırdan inşa edilen ve insanı ikna edecek düzeyde gerçekçi bir akış, mimik, dudak senkronu ve ses karakteri sunabilir. Deepfake’in asıl ayırt edici niteliği, bireyin görsel-işitsel özelliklerini istatistiksel olarak öğrenip yeni bir olmayan geçmiş imal etmesidir.
Bu nedenle, montaj etiketiyle hafife alınamayacak, ceza hukuku bakımından türü ve sonucu itibarıyla ayrı değerlendirilmesi gereken bir üretim tekniğinden söz ediyoruz.
Cinsel içerikler açısından tablo daha çarpıcıdır. Üretilen deepfake içeriklerin büyük kısmı pornografik nitelik taşımakta; bu üretim, çoğu zaman gerçek kişilerin kimlikleri hedef alınarak, rızaları olmaksızın yapılmaktadır. Mağdurlar yönünden ağır psikolojik etkiler, sosyal dışlanma, eğitim ve çalışma hayatında kesintiler, hatta sessiz kalmaya zorlanma gibi sonuçlar doğduğu bilinen bir gerçektir. Bu tablo, ceza hukuku araçlarının niteliği gereği geriden geldiği alanlarda, özel olarak cinsel dokunulmazlık, mahremiyet ve çocukların korunması başlıklarını aynı anda gündeme getiriyor.
Klasik özel hayat ihlallerinde hukuka aykırılık çoğu kez bireyin gerçek görüntü veya sesine ilişkin kayıtların rızaya aykırı biçimde ifşa edilmesiyle ortaya çıkarken, yapay zeka destekli üretimlerde sorun, “gerçek olmayanın” gerçekmiş gibi kurgulanıp dolaşıma sokulmasında düğümlenir. Burada mağdurun bedeni gerçekte ifşa edilmese bile, kişiliğine yönelen ağır bir saldırı söz konusudur; zira kişinin yüzü, sesi veya kimliğini işaret eden özellikleri sahte bir cinsel geçmişe eklemlenerek kamu önünde yeniden inşa edilir.
Bu kırılma, kanun tekniği bakımından gerçeklik unsuruna yaslanan mevcut suç tipleriyle aradaki irtibatı zayıflatır. Mahrem yaşamın ifşası tipikliğinde korunan şey gerçek bir özel hayat ürününün yayılması iken, yapay üretimde dolaşıma sokulan içerik teknik olarak özgün değildir. Bu da belirlilik ilkesi ekseninde tipikliği tartışmalı kılar ve mevcut düzenlemelerin uygulama alanını daraltır. Nitekim sahicilik ile kurgu arasındaki sınırın bulanıklaşması, hem soruşturma makamlarının hem de yargı mercilerinin delil değerlendirme ve ispat süreçlerini güçleştirir. Teknik olarak ikna edici sahte kayıtlar, mağdura etkisi gerçek olan sonuçlar doğururken hukuk, “içerik gerçek değil” gerekçesiyle korumayı dışarıda bırakan bir tutuma sürüklenme riski taşır. Oysa sorun salt doğruluk meselesi değildir. Yapay üretim, rızaya aykırı ve itibar zedeleyici bir cinsel temsil aracına dönüştüğünde mağdurun psikolojik, sosyal ve mesleki hayatında telafisi güç zararlara yol açar. Ayrıca tehdide, şantaja veya yeni ihlallerin teşvikine zemin hazırlar. Bu nedenle rızaya aykırı yapay cinsel içeriklerin üretimi ve yayımının, sadece “gerçek olmadığı” için cezalandırma sisteminin dışında tutulması ne mağdurun korunmasıyla ne de güncel sosyal gerçeklikle bağdaşır. Tersine, bu alanı açık normlarla kapsayan, kimlik tespiti ve delil değerlendirmesine özgü güçlükleri hesaba katan ve zarar yoğunlaştığında yaptırımı artıran bir yaklaşım zorunludur.
Türk Ceza Kanunu’nun 226. maddesinde müstehcenlik suçları başlığı altında, pornografik içeriklere ilişkin çeşitli fiiller yaptırıma bağlanmıştır. Öğreti ve uygulamada “müstehcenlik” kavramı, bu bağlamda pornografi ile sınırlı anlaşılmalıdır. Bu isabetli tercih, cinsel içerik üretimi ve dolaşımına ilişkin düzenlemenin odak noktasının pornografi olduğuna işaret eder. Ancak burada iki temel sorun beliriyor: Birincisi, “çocukları, temsili çocuk görüntülerini veya çocuk gibi görünen kişileri kullanmak” ibaresinin yapay üretimi de kapsayıp kapsamadığı; ikincisi ise “sanat ve edebiyat istisnası”nın belirsizlikleri. İlk sorun, deepfake’in “kullanma” unsurunu klasik anlamda karşılayıp karşılamadığına ilişkindir; ikinci sorun ise muafiyetin sınırları belirli değilken kötüye kullanım riskidir.
Müstehcenlik dışında, mahremiyete ilişkin temel koruma TCK m. 134/2’de yer alır: Kişilerin özel hayatına ilişkin görüntü veya seslerin hukuka aykırı ifşası cezalandırılır. Bu hüküm, gerçek bir yetişkine ait gerçek içeriklerin rızaya aykırı ifşası bakımından bugün de en isabetli başvuru noktasıdır. Ancak deepfake üretimi ve paylaşımı burada güç bir sınama yaratır. Zira paylaşılan şey gerçekte mağdura ait olmayan, fakat mağdurun kişiliğini hedef alarak “sahte bir mahrem geçmiş” inşa eden bir içeriktir. Bu yönüyle, sırf “kişisel veri” veya “özel hayat ürünü içerik” olarak nitelendirmenin mümkün olmadığı haller ortaya çıkabilir. Bu nedenle, rızaya aykırı özel içerik ifşasının nitelikli hâllerinin güncellenmesi ve özellikle mahkûm edici amaç, aşağılamaya yönelik saik veya korku-sıkıntı yaratma kastı gibi zarar yoğunlaştırıcı unsurların cezayı artıran hâl olarak açıkça yazılması yerinde olacaktır.
Cinsel taciz başlığı bakımından ise, talep edilmeksizin ve bağlam dışı şekilde cinsel organ görüntülerinin, videoların veya benzer içeriklerin gönderilmesi TCK m. 105 çerçevesinde değerlendirilir; posta ve elektronik haberleşme araçlarıyla işlenmesi, nitelikli görünüm oluşturur. Dijital mekânlarda, hiç ilişki kurulmamış kişiler arasında dahi gerçekleşebilen bu fiiller, “kolay gönderim-yaygın erişim” dinamizmi nedeniyle uygulamada hızla çoğalmaktadır. Yargılamada bağlam analizi ve rıza tartışmaları kaçınılmaz olsa da normatif koruma hattı açıktır.
Tehdit başlığında da önemli bir hat bulunur. “Bu görüntüleri ifşa ederim” veya “şu eylemi yapmazsan bunları yayımlarım” türünden eylemler, kural olarak TCK m. 106’daki tehdit suçunu oluşturur. Tehdidin içeriğine göre yağma, intihara yöneltme, cinsel saldırı veya çocuğun cinsel istismarı gibi çok sayıda başka suç tipi devreye girebilir. Fail sözünü eyleme dökerse, özel hayatın gizliliğinin ihlali ayrıca gündeme gelir. Dijital içeriklerin kolay çoğaltılabilirliği ve silinmezlik algısı, bu fiillerin mağdurlar üzerindeki baskı gücünü artırır. Bu noktaların tamamı bilişim hukukunun önemli ve kritik alanlarını kapsamaktadır.
Çocukların korunması, müstehcenlik rejiminin kalbinde yer alır. Buna rağmen, yapay zekâ ile üretilen ve gerçek bir çocuğu “kullanmayan” fakat çocuğa benzer bir karakteri veya temsili çocuk görüntüsünü içeren üretimlerin bugün hangi hükme tam olarak girdiği tartışmalıdır. “Kullanma” fiilinin lafzî anlamı ve doktrindeki hâkim görüş, salt “yapay üretim”in çocuğun bizzat kullanılmasıyla aynı şey olmadığına işaret eder. Dolayısıyla, sırf yapay zekâ ile “çocuk gibi görünen” bir karakter yaratılıp pornografik içerikte kullanıldığında, mevcut düzenlemenin belirgin bir boşluk bıraktığı kabul edilmelidir. Buna karşılık, bazı durumlarda “temsili çocuk görüntüleri” kategorisi geniş yorumlanarak üretimin bizatihi suç sayılabileceği ileri sürülmektedir; ancak bu yorumun belirlilik ilkesini zorlayacağı da gözden kaçırılmamalıdır.
Gri bölgeyi, gerçek bir çocuğa ait görüntü, ses veya fotoğrafların yapay zekâ ile işlenerek pornografik bir içerik haline getirilmesi oluşturur. Burada teknik üretim “yapay” olsa da ham madde gerçek çocuğa aittir. Kimi görüş bu durumun mevcut düzenlemeyle yakalanabileceğini savunsa da öğretide ve uygulamada belirsizlikler mevcuttur. Hukuki güvenlik bakımından, hem “gerçek çocuğa ait içerikle yapay üretim”e hem de “gerçek çocuk kullanılmaksızın yapay üretim”e özgü açık ve ayrı suç tiplerinin tanımlanması, koruma sistematiğini güçlendirecektir.
Bir diğer zorlu alan, dil işleme programları üzerinden “çocuk karakteri” yaratılarak yürütülen cinsel içerikli sohbetlerdir. Gerçek bir çocuk olmaksızın, bir yetişkinin yapay olarak üretilmiş bir “çocuk persona” ile cinsel içerikli iletişime girmesi, bugün doğrudan tipiklik tartışmasını tetikleyecek niteliktedir. Burada amaç, yalnızca “metin üretimi” değil; çocuk karakterinin sanal olarak yaratılması ve kamuya açık biçimde başkalarınca kullanıma sunulması olabilir. Böyle bir kurgu, yerleşik normlar göz önüne alındığında, suç politikası bakımından müstakil bir yaptırım alanına ihtiyaç olduğunu açıkça gösterir.
Bir yetişkinin yüzü ya da sesi taklit edilerek üretilen cinsel içeriklerde tartışmanın düğümlendiği yer, paylaşılan şeyin mağdura ait “gerçek” bir özel hayat ürünü olup olmadığıdır. Eğer ortada mağdurun gerçekten yaşadığı ve kayda alınmış bir an yoksa, tipiklik bakımından özel hayatın gizliliğini koruyan hükümlerle kurulan klasik bağ zayıflar; çünkü bu hükümler, lafzı ve sistematiği gereği “kişiye ait gerçek görüntü veya sesin” rızaya aykırı elde edilmesi ya da ifşası varsayımı üzerine kuruludur.
Yapay üretimde ise hukuka aykırılık, gerçeğin izinsiz açıklanmasında değil, hiç yaşanmamış bir cinsel sahnenin kişinin kimliğine yapıştırılarak kamu önünde “yaşanmış” gibi sunulmasında ortaya çıkar. Bu fark, yalnızca teknik bir nüans değildir; tipiklik ve ispat yükünün nasıl kurulacağına, hangi hukuki değerin ihlal edildiğine ve hangi yaptırım mimarisinin devreye gireceğine dair tüm dengeyi değiştirir.
Kişisel veri koruması cephesinde de benzer bir sınır etkisi görülür. Yapay üretim, mağdurun yüz hatları ya da ses rengi gibi tanımlayıcı unsurları taklit ederek inandırıcı bir “temsili” yaratır; buna rağmen ortaya çıkan ürün, doğrulanabilir gerçek bilgi içermediği ölçüde kişisel veri rejiminin merkezine yerleşmekte zorlanır. Zira veri koruması yaklaşımı, kural olarak gerçek kişiye ilişkin ve doğrulanabilir nitelikteki bilgilerle işler; oysa burada dolaşıma sokulan içerik, mağdurun özel hayatından alınmış bir kayıt değil, mağdurun kimliğini kullanarak kurgulanan bir sahnedir. Bu nedenle, kişisel veri hukuku kimi aşamalarda (örneğin eğitim verisi toplanması veya model kurulumu sırasında) devreye girse bile, yapay cinsel içeriklerin nihai ürün olarak paylaşımı karşısında ceza hukukuna özgü korumanın eksik kaldığı bir alan doğar.
Bu görünürdeki boşluk, fiilin toplum bakımından zararsız olduğu anlamına gelmez; aksine, rızaya aykırı yapay cinsel içerikler, mağdurun cinsel mahremiyet algısını, onurunu ve sosyal ilişkilerini doğrudan hedef alır. Üstelik bu saldırı, gerçek bir kaydın varlığından bağımsız şekilde itibarı kalıcı biçimde zedeleyebilir, tehdit ve şantaj için kaldıraç işlevi görebilir, iş ve özel yaşamda somut sonuçlar doğurabilir. Bu nedenle, “gerçeklik” eşiğinin sağlanamaması sebebiyle koruma dışında kalan yapay üretimlerin, sırf bu nedenle yaptırımdan azade tutulması ne korunan hukuki yararla ne de güncel sosyal gerçeklikle bağdaşır.
Çözüm, mevcut hükümlerin zorlanmasıyla değil, rızaya aykırı yapay cinsel içeriklerin hem üretimini hem de yayımını açıkça hedef alan özerk bir suç tipinin tanımlanmasıyla sağlanabilir. Bu tip, bir başkasına ait yüz, ses veya benzeri ayırt edici unsurlar kullanılarak, gerçekte yaşanmamış cinsel içeriklerin kurgulanmasını ve bunların kamuya sunulmasını yaptırıma bağlamalı; mağdurun rızasının yokluğu ile içeriklerin kamusal erişilebilirliğe taşınması temel eşik olarak düzenlenmelidir. Böyle bir mimari, bir yandan özel hayatın gizliliği hükümlerinin “gerçek kayıt” şartına dayanan çerçevesini korur, diğer yandan yapay üretimin doğurduğu eşdeğer veya daha ağır sonuçları cezasızlık tuzağından çıkarır. Ağırlaştırıcı nedenler bakımından da aşağılamak veya yıldırmak saikiyle hareket edilmesi, içeriklerin tehdit aracı yapılması ya da yayımın sistematik biçimde gerçekleştirilmesi gibi zarar yoğunlaştıran durumların açıkça sayılması hem ceza normlarında belirlilik hem caydırıcılık bakımından isabetli olacaktır.
TCK m. 226’da yer alan, çocuklara ulaşmasının engellenmesi koşuluyla “sanatsal ve edebî değeri olan” eserlerin müstehcenlik rejimi dışında bırakılacağına dair istisna, uygulamada belirsizlikler üretmeye yatkındır. Değer yargısının öznel oluşu ve değerlendirme merciinin kim olduğu tartışması, özellikle yapay üretim araçlarının “sanat” etiketiyle kötüye kullanımına kapı aralayabilir. İstisnanın muğlak bırakılması yerine, ifade ve sanat özgürlüğüyle ceza korumasını dengeleyen, ölçütleri somutlaştırılmış bir yaklaşım benimsenmelidir.
Deepfake içeriklerin en çetin yönlerinden biri, mağdurun kimliğinin belirlenmesidir. Yapay zekâ ile üretilen görüntülerde, bir kişinin yüzüne benzeyen sahte yüzler, farklı bedenlere eklenebilir; ses benzetimi de ikna edici olabilir. Kimlik doğrulama, özellikle yalnızca yazılı iletişimin söz konusu olduğu cinsel sohbet içeriklerinde daha da güçleşir. Burada kişinin sanal karakterinin yaratıldığının tespiti, salt isim veya genel fiziksel özelliklerin kullanılmasıyla her zaman mümkün olmayabilir. Bu nedenle, tipiklik tartışmasından bağımsız olarak, ispat ve delil rejimi de güncellemeye muhtaçtır.
Sorunun kalıcı çözümü, teknolojik araçların toptan yasaklanmasında değil; kullanım kurallarının net, dinamik ve sürekli güncellenen bir çerçeveye bağlanmasında yatar. Rızaya aykırı yapay cinsel içerik üretimi ve yayımını açıkça suç haline getiren; çocuklara ilişkin hem gerçek içerikle yapay üretimi hem de gerçek çocuk kullanılmaksızın yapay üretimi kapsayan özerk suç tipleri, koruma sistematiğini güçlendirecektir. Mahremiyet ihlallerine ilişkin normlar, özellikle aşağılamaya veya yıldırmaya yönelik saikin varlığı gibi zarar yoğunlaştırıcı unsurları cezayı artıran hâl olarak düzenleyecek şekilde güncellenmelidir. Sanat ve edebiyat istisnasının sınırları, ifade özgürlüğü güvenceleriyle uyumlu fakat kötüye kullanımı önleyecek açıklıkta tanımlanmalıdır.
Bütün bunların yanında, salt cezalandırmaya odaklanan bir mimarinin yeterli olmayacağı açıktır. Önleyici politika bileşenleri, çocukların çevrimiçi güvenliği, dijital okuryazarlık, güvenli internet pratikleri ve kişisel verilerin korunması alanlarında eğitim ve farkındalık çalışmalarını içermelidir. Özellikle yapay zekânın güvenilirlik standardı, eğitim verisine duyduğu ihtiyaç ve bu verilerin niteliği dikkate alınarak, kişisel verilerin korunması cephesinde etkin ve disiplinler arası bir hazırlık zorunludur. Kamu kurumlarının, hızla değişen riskleri izlemek ve tavsiye geliştirmek üzere, siber suçlar alanında uzmanlardan oluşan geçici/kalıcı komisyonlar kurması hem mevzuat üretimini besler hem de pratikte koordinasyonu artırır.
Günlük uygulamada en sık karşılaşılan ihtimaller, sistematik bir çerçeveyle daha görünür hâle gelir. Örneğin bir yetişkinin özel nitelikli gerçek görüntü veya seslerinin rızaya aykırı ifşası, bugün de mahremiyeti koruyan hükümlerin kapsamındadır ve failin dijital araçlardan yararlanması, fiilin nitelikli görünümünü oluşturabilir. Aynı fiil çocuklar bakımından işlendiğinde, psikolojik yıkım ve eğitim hakkından mahrumiyet gibi ağırlaşmış sonuçlar nedeniyle daha ileri bir koruma ihtiyacı doğar; bu sebeple çocuklara karşı işlenmiş olmasının cezayı artıran hâl olarak açıkça yazılması yerinde olacaktır.
Bir yetişkinin sureti kullanılarak üretilmiş deepfake cinsel içeriğin paylaşılmasında, tipikliğin “gerçeğin ifşası” kavramına dayanmadığı; dolayısıyla mevcut hükümlerin boşlukta kaldığı haller mevcuttur. Bu boşluk, kişiye ait olmayan fakat kişiye atfedilen sahte mahrem geçmişin kamuya açıklanmasını yaptırıma bağlayan bir suç tipinin ihdasını gerektirir. Aksi hâlde, salt yanlış içerik olduğu gerekçesiyle cezalandırmadan kaçınmak, fiilin ağır sosyal etkilerini göz ardı etmek anlamına gelir.
Deepfake yoluyla “çocuk pornografisi” üretimi konusunda da ihtimaller ayrışır. Hiçbir gerçek çocuk kullanılmaksızın “çocuk gibi görünen” yapay karakterler üzerinden üretim yapılması ile gerçek bir çocuğa ait görüntü, ses veya fotoğrafların işlenmesi birbirinden ayrılmalıdır. Her iki ihtimal de mevcut yapıyla tam olarak karşılanamadığından, belirlilik ve caydırıcılık için normatif revizyon kaçınılmazdır. Özellikle gerçek çocuğa ait içeriklerin kullanılması hâlinde, kıyas yasağına sapmadan, maddenin koruma amacına uygun bir sistematik kurmak, mağdurun maruz kalacağı kümülatif zararı hesaba katan bir yaklaşımı gerektirir.
Talep edilmeksizin ve bağlam dışında “özel içerik” gönderimi, dijital mecralarda giderek yaygınlaşan bir cinsel taciz biçimidir. Posta ve elektronik haberleşme araçlarının sağladığı kolaylıktan yararlanılarak, teşhir suretiyle işlenen bu eylemler, nitelikli hâl hükümleriyle birlikte değerlendirildiğinde, koruma hattı nettir. Yargılamada, tarafların önceki iletişimi ve platformun niteliği gibi bağlamsal unsurlar dikkatle tartışılmalıdır; ancak normun varlığı mağdura “hoş görme yükümlülüğü” doğurmaz. Rıza yoksa, eylem hukuka aykırıdır; nokta.
Tehdit ve şantaj biçimleri de yapay cinsel içeriklerle iç içe geçmiştir. Elde edildiği iddia edilen sahte içeriklerin ifşası tehdidi, failin yönelttiği menfaat talebine veya mağdurdan beklediği davranış değişikliğine göre yağmadan cinsel saldırıya kadar değişen geniş bir suç kataloğunu tetikleyebilir. Fail tehdidini gerçekleştirir ve içerikleri ifşa ederse, mahremiyet ihlali ayrıca söz konusu olur; mağdurun çocuk olması halinde failin daha ağır yaptırımlarla karşılaşması gerekir.
Dil işleme programları üzerinden “yetişkin-yetişkin” cinsel sohbetleri, teknik olarak müstehcen içerik üretmeye elverişli olsa da salt sohbetin kendisi m. 226 bağlamında “içerik üretimi” sayılmaz; buna karşın programların çocuk karakteri kurgulayarak kamuya açık kullanıma sunulması, çocukların korunması amacıyla müstakil bir yaptırım alanı gerektirir.
Deepfake’i tümüyle yasaklayan veya teknolojiyi baştan suç aleti ilan eden bir yaklaşım, fiilen mümkün olmadığı gibi, ifade-bilgi özgürlüğü ve inovasyon dengesi bakımından da sürdürülebilir değildir. Esas olan, riskleri kontrol altında tutan, değişen araç ve yöntemlere göre hızla güncellenebilen bir normatif ve idari mimaridir. Bu mimarinin üç ayağı olmalıdır: Açık suç tipleri ve etkili yaptırımlar; hızlı içerik kaldırma-erişim engelleme ve platform yükümlülükleri; eğitim-farkındalık ve kişisel veri koruması ekseninde güçlü önleme politikaları.
Özellikle çocukların çevrimiçi güvenliği için, eğitim müfredatlarından okul içi acil eylem planlarına kadar uzanan hazırlıklar, “deepfake kaynaklı kriz” senaryoları gözetilerek tasarlanmalıdır. Sahte içeriklerin “gerçek” karşısında yarattığı güvensizlik, yalnız bireysel mağduriyet üretmez; toplumsal hayatta güven ilişkilerini aşındıran bir hakikat krizi doğurur. Ceza hukuku araçları bu krizi tek başına çözemez; fakat caydırıcı ve koruyucu nitelikleriyle kritik bir rol oynar.
Bugün gelinen noktada, yapay zekâ destekli sahte cinsel içerikler yalnızca teknik bir mesele değildir; toplumsal cinsiyet eşitliği, çocukların üstün yararı, mahremiyet ve kişilik hakları gibi temel değerlerle doğrudan ilgilidir. Mevcut normlar bazı ihtimalleri yakalasa da özellikle “rızaya aykırı yapay cinsel içerik üretimi ve yayımı” ile “gerçek çocuk kullanılmaksızın yapay çocuk pornografisi üretimi” başlıkları, açık ve özerk suç tipleri hâline getirilmedikçe, caydırıcılık sınırlı kalacaktır. Yargılama pratiği ise, delil rejimi, kimlik tespiti ve içerik-gerçeklik ayrımı gibi düğüm noktalarında güncellenmiş teknik bilgiye ihtiyaç duyacaktır. Bir yandan çocukların erişimi bakımından platform yükümlülükleri ve 5651 rejimi işletilmeli; diğer yandan kamusal farkındalık ve kişisel verilerin korunması politikaları güçlendirilmelidir. Bunun için bilişim hukukçuları, bilişim avukatları, bilişim güvenliği uzmanları ve politika yapıcılar eşgüdüm içinde, hızlı, ölçülü ve esnek adımlar atmak zorundadır.
Aksi hâlde, gerçek olmayanın gerçek hayatlarımızda açtığı yaralar büyümeye devam edecektir.