Avrupa Parlamentosu'nun gündemindeki yasa tasarısına 309 akademisyenden çekince mektubu: Dijital mahremiyeti zayıflatacak

Avrupa Parlamentosunda, siber güvenlik uzmanı 309 akademisyen, tasarıdaki, çocuklara yönelik cinsel istismarı önlemeye dönük bazı kurallara, tüm kullanıcıların verilerinin taranacağı ve mahremiyetin zayıflatılacağı gerekçesiyle karşı görüş bildirdi.

1. resim

Akademisyenler, Avrupa Birliği Komisyonu tarafından hazırlanarak AP'ye sunulan ve görüşmeleri devam eden yasa tasarısının geri çekilmesi için internet ortamında imzaladıkları "açık mektup" ile çağrıda bulundu. Mektupta tasarının, kullanıcıların kişisel veri güvenliğini sağlayacak şekilde yeniden düzenlenmesi talep edildi.

İngilizce hazırlanan mektubu Türkiye'den ilk imzalayan ODTÜ Enformatik Enstitüsü Siber Güvenlik Anabilim Dalı Öğretim Üyesi Doç. Dr. Cihangir Tezcan oldu.

Tezcan, AA muhabirine yaptığı açıklamada, çevrim içi çocuk istismarının önlenmesinin büyük önem taşıdığını belirterek, "Çocuk istismarı her ne surette olursa olsun, doğrudan çocuk haklarının bir ihlalidir ve suçtur. Bunun önlenmesi için gerekli tüm tedbirler alınmalıdır. Ancak alınacak önlemler, tüm internet kullanıcılarının da kişisel verilerinin mahremiyetini sağlamak durumundadır." dedi.

AP'de görüşmeleri devam eden tasarıyla ilgili siber güvenlik uzmanları olarak bir süredir detaylı inceleme yaptıklarını ve düzenlemeye karşı bazı çekinceleri olduğunu dile getiren Tezcan, şunları söyledi:

"Düzenleme ile çocuklara yönelik cinsel istismarı önleme ve mücadele etme konusunda birtakım hükümler getiriliyor. Bu hükümleri incelediğimizde dijital dünyada bazı sıkıntıların doğabileceğini tespit ettik. Örneğin yasa ile sosyal medya, anlık mesajlaşma platformları gibi yazı, ses, fotoğraf ve video içeren tüm haberleşme hizmet sunucularına, tüm kullanıcıların verilerine ilişkin bir tarama zorunluluğu getiriliyor.

Yasanın çıkması halinde, bu hizmet sunucuları, fotoğraf, yazı ve görüntü içeren, yani tüm haberleşme verisini otomatik şekilde tarayıp çocuklara yönelik cinsel istismar içerdiği düşünülen veriyi rapor edecek. Burada sıkıntı şu; böyle otomatik şekilde büyük olasılıkla yapay zeka kullanarak yapılacak taramada çok fazla sayıda yanlış alarmlar olacaktır. Buna siber güvenlikte, 'yanlış pozitifler' diyoruz. Çünkü yapay zekada yüzde 100 başarı elde etmek mümkün değil. Ama günde milyarlarca mesaj gönderildiğini düşünürsek yapılan yanlışları da hesaplamamız mümkün. Bunlar raporlandığı için de aslında hiçbir istismar içermeyen mahrem verilerimizin raporlanması ve bu sayede başkaları tarafından görülmesine neden olabilecek riskler var."

Avrupa Birliği (AB) ülkeleriyle iletişime geçen herkesin verileri taranabilecek

Düzenlemenin bu haliyle yürürlüğe girmesi halinde, hüküm gereği Avrupa Birliğinde bulunan bütün sunucularda dijital ortam yazışmalarının taranmasının zorunlu hale geleceğini belirten Tezcan, "Bu, AB sınırları içinde yaşayanların ya da o ülkelerle iletişime geçen herkesin verilerinin taranması anlamına gelecek. Bu da dijital ortamdaki tüm kullanıcıların mahremiyetin ortadan kalkması demek." dedi.

Bu taramanın, uçtan uca şifreleme olan dijital platformlar için büyük olasılıkla yapay zekayla yapılacağına işaret eden Tezcan, "Bu durumda, yapay zeka algoritması, o an paylaşılan yazışmalarda, fotoğraf ve videolarda bir istismar olduğunu düşünürse bunu raporlamak zorunda olacak. Dolayısıyla kişisel verilerin, bir şekilde sızma ihtimali gündeme gelecektir. Akademisyenler olarak kaygımız, bir kez böyle bir yasaya izin verirsek ileride çok daha kötüye kullanılabileceği yönünde." diye konuştu.

Böyle bir taramaya izin vermenin, ileride kontrol edilemeyecek sonuçlara götürebileceğini kaydeden Tezcan, "Akademisyenler olarak, bu yasa ile getirilecek tarama zorunluluğunun mevcut teknoloji ile kişisel verileri korumada yetersiz kalacağı görüşündeyiz. Bu nedenle de bir kriptografi uzmanı olarak bu mektubu ben de imzaladım." dedi.

Tezcan, yasa tasarısının hem çocuk istismarını önleyecek hem de kişisel verileri koruyacak şekilde yeniden düzenlenmesini talep ettiklerini belirterek, şunları kaydetti:

Herkesin verisini taramak yerine sadece şüphe oluşan durumlarda tarama yapmak yapay zekanın da başarısını artıracak ve yanlış pozitif sayısını düşürecektir. İstismar olduğu bilinen içeriklerin taranması anlamlı olduğu için yasal düzenlemenin sadece bu yönde taramaya izin vermesi gerekiyor. Yapay zeka çok fazla yanlış alarma neden olabilecek, 'Şöyle bir resim raporlandı ama çocuğa yönelik cinsel istismar var mı yok mu' ya da 'Mesajlaşma geldi. Acaba cinsel istismar var mı yok mu' diye insan gözüyle analiz yapmak gerekecek. Günde milyarlarca mesaj gelecek ve bunları analiz etmek için çok ciddi bir insan gücüne ihtiyaç duyulacak. Bu yolda harcanacak enerji yerine çocuk istismarını önlemek için daha akılcı yöntemler geliştirilmesi 309 akademisyen olarak talebimizdir.

Kaynaklar

Tartışma