Yapay zekâ, dijital çağın en dönüştürücü teknolojilerinden biri olarak hızla gelişmeye devam ediyor. Ancak bu ilerleme, dünyanın birçok ülkesinde yasal ve etik tartışmaları da beraberinde getiriyor. 2025 yılı itibarıyla birçok hükümet, yapay zekânın kontrolsüz kullanımının olası zararlarını sınırlamak amacıyla çeşitli düzenlemeler hazırlamaya başladı. Bu bağlamda “yapay zekâ yasaklanacak mı?” sorusu hem medyada hem de akademik çevrelerde sıkça gündeme geliyor. Gelin, Türkiye'den Avrupa’ya, Amerika’dan Çin’e kadar bu konudaki son gelişmelere birlikte göz atalım.
Türkiye'de Yapay Zekâya Yönelik Yasal Süreç Ne Durumda?
Türkiye, henüz kapsamlı ve bağlayıcı bir “Yapay Zekâ Yasası” çıkarmış değil. Ancak 2021 yılında Sanayi ve Teknoloji Bakanlığı tarafından yayımlanan Ulusal Yapay Zekâ Stratejisi ile 2025 yılına kadar birçok hedef belirlenmişti. Bu hedefler arasında:
-
Kamu kurumlarında yapay zekâ çözümlerinin yaygınlaştırılması,
-
Etik ilkelere dayalı kullanım kılavuzlarının oluşturulması,
-
Yapay zekâya dayalı karar sistemlerinin şeffaf hale getirilmesi,
-
Ve özel sektör iş birliklerinin desteklenmesi yer alıyordu.
2025 itibarıyla Türkiye'de özellikle KVKK (Kişisel Verileri Koruma Kurumu), algoritmaların bireysel haklara etkisini inceleyen çalışmalar yürütüyor. Ayrıca, Dijital Mecralar Komisyonu da yapay zekâ ile üretilen içeriklerin etik işaretlemelerle sunulması konusunda bir öneri paketi hazırlıyor. Henüz yasa yok ancak denetim ve şeffaflık yönünde ciddi bir hazırlık süreci yürütülüyor.
Avrupa Birliği: AI Act Yürürlüğe Girdi
Avrupa Birliği, yapay zekâ konusunda dünyada ilk somut ve bağlayıcı yasa adımını atan topluluk oldu. AI Act adı verilen bu yasa, 2024’ün sonunda kabul edildi ve 2025 yılı itibarıyla yürürlüğe girdi. Bu yasa ile yapay zekâ sistemleri, kullanım alanlarına göre dört risk kategorisine ayrıldı:
-
Yasaklı Uygulamalar:
-
Gerçek zamanlı biyometrik izleme (örneğin yüz tanıma),
-
Sosyal puanlama sistemleri,
-
Bilinçli olarak insan davranışını manipüle eden sistemler.
Bu uygulamaların tamamı Avrupa Birliği ülkelerinde yasaklandı.
-
Yüksek Riskli Sistemler:
Sağlık, eğitim, işe alım ve hukuk alanlarında kullanılan yapay zekâ sistemleri bu gruba giriyor. Bu sistemler sıkı kontrol, sertifikasyon ve denetim şartına tabi.
-
Sınırlı Riskli Sistemler:
Sohbet botları, öneri motorları gibi sistemler bu grupta yer alıyor. Kullanıcılara bilgilendirme yapılması zorunlu.
-
Düşük Riskli Sistemler:
Spam filtreleri ve oyun içi yapay zekâ gibi sistemler serbestçe kullanılabiliyor.
Bu yasa, sadece dijital alanı değil, aynı zamanda sağlık sistemini de doğrudan etkiliyor. Örneğin, sağlık hizmetlerinde kullanılan yapay zekâ destekli tanı sistemlerine yönelik daha sıkı güvenlik ve şeffaflık yükümlülükleri getirildi.
?? 2026’da Sağlık ve Teknolojide Bizi Bekleyen 10 Büyük Gelişme yazımızda bu etkileri detaylı şekilde inceledik.
ABD: Etik Rehberlik Ama Bağlayıcı Yasa Yok
Amerika Birleşik Devletleri henüz Avrupa’daki gibi kapsamlı bir yasa çıkarmış değil. Ancak 2023 yılında Beyaz Saray tarafından yayımlanan “AI Bill of Rights” adlı belge, algoritmaların adil, güvenli ve açıklanabilir olması gerektiğini vurguladı. OpenAI, Google ve Meta gibi şirketler, gönüllü olarak etik kurallara uymayı taahhüt etse de bu taahhütler yasal zorunluluk taşımıyor.
ABD'de ayrıca, yapay zekânın seçim güvenliği, sağlık hizmetleri ve adli karar süreçlerinde kullanımıyla ilgili kamuoyu baskısı artmış durumda. 2025’te Kongre, yapay zekâ sistemlerinin denetimi için bağımsız bir denetim kurumu kurulmasını gündemine aldı.
Çin: Devlet Kontrolü En Üst Seviyede
Çin, yapay zekâ konusunda devlet kontrolünü en yüksek düzeyde tutan ülkelerin başında geliyor. Özellikle:
-
Deepfake içeriklerin yayınlanması, etiketlenmeden yasaklandı.
-
Yapay zekâ destekli haber üretimi devlet iznine tabi.
-
Büyük yapay zekâ modelleri, algoritmalarını Çin Siber Uzay İdaresi ile paylaşmak zorunda.
Ayrıca Çin’de yapay zekâya dayalı sosyal puanlama sistemleri aktif olarak kullanılıyor ve uluslararası alanda bu sistem yoğun eleştiri alıyor.
Yapay Zekâ Gerçekten Yasaklanıyor mu?
Hayır, yapay zekâ teknolojisinin tamamı yasaklanmıyor. Ancak özellikle yüksek risk taşıyan veya insan haklarına zarar verme potansiyeli olan uygulamalar sınırlandırılıyor ya da tamamen yasaklanıyor.
Şu an için en sıkı kısıtlamalar:
-
Gerçek zamanlı yüz tanıma,
-
Çocukları hedefleyen manipülatif algoritmalar,
-
Derin sahte (deepfake) içeriklerin siyasi amaçlarla kullanımı alanlarında görülüyor.
Yani yapay zekâya karşı bir yasaklama değil, risk odaklı bir sınırlama ve sorumlu kullanım teşviki söz konusu.
2025 ve Sonrası: Ne Bekleniyor?
-
Türkiye’de 2026 sonuna kadar yapay zekâya özel bir yasa çıkması bekleniyor.
-
Avrupa’da AI sistemlerinin lisanslama ve etik denetimi resmen başlatıldı.
-
ABD, gönüllü etik uygulamalardan bağlayıcı yasalara geçiş sürecine hazırlanıyor.
-
Japonya ve Güney Kore, çocuklar ve yaşlılar gibi kırılgan grupları koruyan AI düzenlemeleri getiriyor.
Sonuç: Yapay Zekâ Yasaklanmıyor, Denetleniyor
Özetle yapay zekâ teknolojileri yasaklanmıyor ancak artık hiçbir ülke bu teknolojiyi başıboş bırakmak istemiyor. Özellikle sağlık, adalet ve kamusal güvenlik gibi kritik alanlarda yapay zekâya dair denetim, şeffaflık ve etik çerçeve talepleri giderek artıyor.
Teknolojinin faydasından yararlanırken, insan haklarını ve güvenliği ön planda tutmak artık bir tercih değil, bir zorunluluk haline geliyor.