Yapay zekâ temelli sistemlerin hızla gelişmesi hukuk düzenlerinin öngörmekte ve regüle etmekte zorlandığı yeni ihlal türlerini beraberinde getiriyor. Yapay zekanın hukuk düzenlerinde ihlale yola açan en çarpıcı yeniliklerinden biri de “deepfake” teknolojisi. Deepfake; gerçek kişilere ait görüntü, ses veya video verilerinin yapay zekâ aracılığıyla gerçekle ayırt edilemeyecek derecede manipüle edilmesini mümkün kılıyor. Başlangıçta eğlence veya sanatsal üretim gibi masum amaçlarla gündeme gelmiş olsa da günümüzde özellikle rıza dışı ve cinsel içerikli kullanımlar sebebiyle ciddi hukuki ve toplumsal sorunlara yol açıyor.
Dünyada ve Türkiye’de özellikle 2026 Ocak ayı başlarında sosyal medya platformu X (eski adıyla Twitter) ile entegre çalışan yapay zekâ modeli Grok üzerinden bazı kullanıcıların, gerçek kişilere -çoğunlukla kadınlara- ait fotoğraflardan çıplak veya cinsel içerikli sahte görüntüler üretmesi ve yayması durumun vahametini gözler önüne seriyor. Söz konusu sahte görüntüler gerçekte var olmamakla birlikte mağdurlar açısından özel hayatın ihlali, bedensel ve cinsel dokunulmazlığın zedelenmesi ve kişilik haklarının ağır biçimde ihlali sonucunu doğuruyor.
X Platformu arayüzünde yapılan temel arama sonuçları, kamuoyuna yansıyan bilgiler ve haber kaynakları incelendiğinde 1-9 Ocak tarihleri arasında Grok aracılığıyla üretilen görüntülerle sadece Türkiye’de yüzlerce kadının cinsel dokunulmazlığı, şeref ve haysiyeti, kişilik hakları saldırıya uğramıştır.[1] Yapılan şikayetler üzerine Grok’un geliştiricisi olan xAI yetkilileri, görsel üretimini premium üyeliğe özgülediğini ve içerik üretimine sansür getirdiğini duyurmuştur. Dünya çapında yoğun şikayetler sonucu bazı sınırlamalar getirilmiş olsa da kalıcı bir çözümün uygulamaya konduğunu söylemek mümkün değil.[2]
Deepfake Teknolojisinin Hukuki Sorun Alanı
Özellikle kadınlara yönelen bu saldırılar, deepfake içerikler için mevcut normların yetersizliğini, caydırıcılık faktörünün zayıflığını ve yeni regülasyon ihtiyacını gösteriyor. Son dönemde Birleşik Krallık gibi devletler bu tür davranışları açıkça suç hâline getiren yasalar çıkarmış ve içerik üretimini engellemeye yönelik düzenlemeler geliştirmiştir.[3]
Türk hukukunda deepfake yoluyla gerçekleşen hak ihlallerine ilişkin özel bir düzenleme bulunmasa da üretilen bu sahte görüntüler özel hukuk ve ceza hukuku anlamında birçok ihlalin kaynağını oluşturduğu için genel düzenlemeler yoluyla sorumluluğa başvurmak mümkün.
Medeni Hukuk Çerçevesi
Kişilik hakları, her bireyin doğuştan sahip olduğu ve devredilemez nitelikteki haklardır. Bu çerçevede, özel hayatın gizliliği ve beden bütünlüğü gibi değerler anayasal güvence altındadır. Yapay zekâ ile üretilen sahte çıplak görüntüler, gerçek bir fiziksel görüntü olmasa bile mağdurun bedensel ve manevi haklarına saldırı olarak değerlendirilebilir. Türk hukukunda kişilik haklarının korunması, Türk Medeni Kanunu hükümleri uyarınca özel hayatın korunması ve kişilik değerlerine saldırıların önlenmesi ile mümkündür. Deepfake içerikler, genellikle rıza olmadan kişilerin görüntülerini manipüle ettiğinden bu korumanın kapsamına girer ve maddi/manevi tazminat istemlerini gündeme getirir.
Ceza Hukuku Çerçevesi
5237 sayılı Türk Ceza Kanunu’nda sahte içerikli görüntü, video veya haber üretilmesini özel olarak suç haline getiren bir düzenleme bulunmuyor. Fakat deepfake görüntülerin konusu olan ses ve görüntü nihayetinde kişisel veridir. Bu bağlamda kişisel verilerin korunmasına ilişkin TCK m.136 ihlali gündeme gelebilir.
Deepfake içeriğinde mağdur eğer çocuksa, TCK m. 226’da düzenlenen müstehcenlik suçu oluşabilir. TCK m.226/3’te “müstehcen görüntü, yazı veya sözleri içeren ürünlerin üretiminde çocukları, temsili çocuk görüntülerini veya çocuk gibi görünen kişileri kullanan kişi…” düzenlemesi yer alıyor. Deepfake çıplak içeriklere çocukların konu edilmesi durumunda bu hükme başvurmak mümkün. Benzer bir düzenlemeye toplumdaki diğer bireylere ait görüntülerin deepfake görsellerde kullanılması durumunda da yer verilmesi gerekli gözüküyor.
Mevcut suç tipleri, yapay zekâ temelli manipülasyonun özünü doğrudan hedef almadığı için bu alandaki hukuki boşluk belirginleşiyor; bu nedenle kimi hukuk çevreleri yeni suç tiplerinin tanımlanması gerektiğini haklı olarak savunuyor.[4]
Deepfake içeriklere ilişkin cezai sorumluluk bakımından üretici ve yayıcılar, doğrudan fail olarak değerlendirilir. Platformlar açısından ceza sorumluluğunun doğrudan kabul edilmesi ise ceza hukukunun temel ilkeleriyle bağdaşmaz. Ancak yapay zekâ destekli içerik üretiminin giderek platform merkezli bir yapıya evrilmesi ve platformların gerekli önlemleri almaması sonucunda mevcut ceza hukuku normlarının buradaki faillik ve sorumluluk ilişkisini açıklamakta yetersiz kaldığı da açıktır. Dolayısıyla bu alanda daha net, öngörülebilir ve teknolojik gelişmelere paralel düzenlemelere ihtiyaç duyuluyor.
Kişisel Verilerin Korunması Hukuku Çerçevesi
Yapay zekâ aracılığıyla gerçek kişilere ait görüntülerden rıza dışı biçimde üretilen deepfake çıplak görseller, 6698 sayılı Kişisel Verilerin Korunması Kanunu kapsamında açıkça kişisel veri niteliği taşıyor. Bu verilerin işlenmesi çoğu durumda özel nitelikli kişisel veri rejimini de gündeme getiriyor. Zira bireyin yüzü, bedeni ve fiziksel özellikleri, kimliğinin belirlenmesine imkân tanıyan biyometrik veriler kapsamında değerlendirilmekte; bu tür verilerin cinsel içerikli bir bağlamda işlenmesi ise kişinin mahremiyetine ve özel hayatına yönelik ağır bir müdahale teşkil etmektedir. Dolayısıyla gerek deepfake içeriği üreten kullanıcılar gerekse bu içeriğin üretilmesini teknik olarak mümkün kılan ve yayılmasını sağlayan platformlar bakımından KVKK m.5 ve 6 çerçevesinde “veri sorumlusu” veya en azından “veri işleyen” sıfatının tartışılması kaçınılmazdır.
Platform ve Yapay Zeka Sağlayıcısının Sorumluluğu
Grok’un entegre edildiği X platformu ve Grok’un geliştiricisi xAI gibi aktörler için hukuki statü belirlemek önemlidir. Bir platformun aracı hizmet sağlayıcı mı yoksa içerik üretimine etkin katkıda bulunan bir aktör mü olduğu sorusu, yükümlülüklerin sınırını belirlemeye yarar. Aracı hizmet sağlayıcılar, içerik üzerinde teknik erişim sağlar ama içerik üretiminden doğrudan sorumlu kabul edilmezler. Oysa Grok gibi yapay zekâ modelleri, içerik üretim sürecinde aktif bir araç olarak kullanılıyor; bu nedenle sorumluluk rejimi tartışmalıdır.
5651 sayılı İnternet Ortamında Yapılan Yayınların Düzenlenmesi ve Bu Yayınlar Yoluyla İşlenen Suçlarla Mücadele Edilmesi Hakkında Kanun’da deepfake teknolojisi ile işlenen suçlar açıkça tanımlanmasa da bu suçlar açısından da Kanundaki koruma yollarına başvurmak mümkün görünüyor.
Kanun, yer ve içerik sağlayıcılar arasında bir ayrım yapıyor ve aracı hizmet sağlayıcıların sorumluluğunu sınırlı tutuyor. Ancak Grok gibi yapay zekâ modellerinin doğrudan platforma entegre edilerek içerik üretiminde aktif rol üstlenmesi, bu ayrımın günümüz teknolojik gelişmeleri karşısında sorgulanmasını zorunlu kılıyor. Zira yapay zekâ tarafından üretilen deepfake içeriklerde platformun yalnızca teknik destek faaliyeti yürüttüğünden söz etmek güçtür. Bu bağlamda 5651 sayılı Kanun’un öngördüğü bildir–kaldır mekanizmasının, rıza dışı ve cinsel içerikli deepfake üretimi karşısında yetersiz kaldığı ve önleyici yükümlülüklerin yeniden değerlendirilmesi gerektiği kanaatine varılıyor.
Deepfake içeriklerin zararlarıyla mücadelede platformların sağladıkları yapay zekâ içeriklerini yine bir yapay zekayla denetlemesi gerektiği savunuluyor. Avrupa Birliği tarafından kabul edilen Digital Services Act (Dijital Hizmetler Yasası) düzenlemesine göre de platformlar, hizmetlerinin kullanımı sonucunda ortaya çıkabilecek her türlü sistemik riski analiz etmek ve tespit edilen riskleri (örneğin yasa dışı içerik, mahremiyet ihlalleri gibi) gidermeye yönelik etkili içerik denetimi mekanizmaları oluşturmakla yükümlüdür.[5]
Toplumsal Cinsiyet Perspektifi
Yapay zekâ destekli deepfake içeriklerin özellikle kadınları hedef alacak biçimde yaygınlaşması, bu ihlallerin münferit vakalar olmaktan ziyade toplumsal cinsiyete dayalı sistematik bir şiddet biçimi olarak değerlendirilmesini gerekli kılıyor. Kadınlara ait görüntülerin deepfake yoluyla değiştirilmesi, dijital alanda cinsiyet temelli şiddet ve taciz biçimlerinden biridir.
Kadınlara Karşı Her Türlü Ayrımcılığın Önlenmesi Sözleşmesi (CEDAW), devletlere kadınlara yönelik şiddeti önleme, failleri etkili biçimde soruşturma ve mağdurlar için caydırıcı ve koruyucu mekanizmalar oluşturma yükümlülüğü yüklüyor. Avrupa İnsan Hakları Sözleşmesi’nin 8. maddesinde düzenlenen özel hayata saygı hakkı ile 14. maddede yer alan ayrımcılık yasağı birlikte değerlendirildiğinde, dijital mecralarda kadınlara yönelik cinsel içerikli deepfake içerik üretimi, devletin pozitif yükümlülüklerini harekete geçiren bir insan hakları ihlali olarak karşımıza çıkıyor. Bu bağlamda, teknolojik gelişmelerin yarattığı yeni şiddet biçimlerine karşı etkili hukuki ve idari önlemler alınmaması, devletin koruma yükümlülüğünün ihlali sonucunu doğurabilir. Derinlemesine hukuki düzenleme ve toplumsal farkındalık sağlanmadan kadınlara yönelik yoğunlaşan bu sorunla mücadele mümkün görünmüyor.
Hak ihlali olması bir yana bu tacizler sebebiyle kadınlar, toplumsal hayatın bir parçası haline gelen dijital platformlardan uzaklaşmaya itilmekle birlikte kadınların sosyal mecralardaki paylaşım yapma hatta sadece burada var olma güvenliği de tehdit ediliyor. Bu durumu sadece hukuki boyutuyla ele almak toplumsal gerçeklikleri göz ardı ederek bu saldırıların altında yatan asıl nedenlere teğet geçmek anlamına gelir.
Kadınlara ait görüntülerin deepfake çıplak görsellere dönüştürülmesi dijital şiddetin bir türüdür. Kadına yönelik gerçekleştirilen geleneksel şiddetin yeni yüzü olan ve çevrimiçi ortamlardan beslenerek büyüyen, toplumsal cinsiyet eşitsizliğine dayalı pratikleri yeniden üreten ve çevrimdışı şiddete dönüşmesi olası olan dijital şiddetin hangi şekillerde deneyimlendiğini, bu şiddetin mağdurlarının ne şekilde etkilendiğini, dijital şiddete karşı nasıl direnildiğini ve buna karşı nasıl mücadele edildiğini görünür kılarak dijital şiddete yönelik bir durum analizi tablosu sunmak ve bu noktada toplumsal farkındalık oluşturmak son derece büyük önem arz ediyor.[6]
Sonuç ve Çözüm Önerileri
Yapay zekâ ile üretilen deepfake çıplak görüntüler hem bireysel hem toplumsal düzeyde ciddi zararlar doğururken mevcut hukuk sistemleri bu tehditlere yeterince cevap veremiyor. Bu nedenle:
1. Yeni Suç Tipleri: Rıza dışı deepfake üretimi ve yayılması doğrudan ve bağımsız suç tipleri hâline getirilmelidir.
2. KVKK Güncellemesi: Deepfake özelinde veri işleme standartlarının belirlenmesi ve yaptırımların netleştirilmesi gerekir.
3. Platform Sorumluluğu: Aracı hizmet sağlayıcıların ötesinde aktif içerik üretimine ilişkin sorumluluk net biçimde düzenlenmelidir. Platformların yükümlülükleri belirginleştirilmelidir.
4. Toplumsal Farkındalık: Toplumsal cinsiyet temelli tehditler toplumun her kesimince fark edilmeden özellikle kadınları hedef alan deepfake çıplak görüntülerle mücadele de mümkün değil. Bu noktada potansiyel mağdur ve failler; rıza, mahremiyet, cinsel dokunulmazlık ve çevrimiçi etik konularında kurumsal ve eğitsel mekanizmalar yoluyla bilinçlendirilmelidir. Farkındalık çalışmaları soyut düzeyde kalmamalı, sürdürülebilir olmalıdır. Ayrıca mağdurlar için erişilebilir ve güvenli destek mekanizmalarının oluşturulması da oldukça önemlidir. Hukuki başvuru yolları ve içerik kaldırma süreçleri açık ve anlaşılır olmalı, psikolojik destek imkanları sağlanmalıdır.
Sonuç olarak, deepfake teknolojisinin zararlı kullanım biçimleri, özellikle kadınların hukuki korunma beklentilerini aşan bir alana yayılmıştır. Bu nedenle hem ulusal hem uluslararası düzenleyici çabaların yoğunlaşması ve hukuk sistemlerinin derinlemesine güncellenmesi gerekiyor.
