gdh'de ara...

The Financial Times: Dezenformasyonun felakete yol açması an meselesi

2024 yılında çok sayıda ülke sandık başına giderken, gerçek gibi görünen sahte videolar görebiliriz. Teknoloji hızla gelişiyor ve çok sayıda vicdansız aktör devreye girebilir!

1. resim

ABD'nin önde gelen yayın organlarından The Financial Times'da, özellikle kaynağı belli olmayan internet siteleri ve sosyal medya aracılığı yayılan sahte haberlerin ve Deepfake gibi yeni teknolojilerin ortaya çıkardığı tehlikelerin değerlendirildiği bir analiz yayınlandı.

Tarihte yaşanan çok sayıda sahtecilik süreçlerine dikkat çekilen analizde, 1950'lerde büyük ödüller kazanan bir ressam olan Eric Hebborn'un o dönemde yaptıkları örnek olarak gösterilirken, günümüzde ise bu sahteciliğin sarsıcı sonuçlar ortaya çıkarabilecek bir hale geldiği belirtildi.

Deepfaka gibi teknolojiler ile Trump'dan Putin'e kadar çok sayıda lider hakkında sahte videolar üretilerek kriz ortamı yaratabileceği belirtilen analizde, 2024 yılında dünyada yapılacak olan seçim süreçleri hakkında da uyarılarda bulunuldu.

İşte The Financial Times'da yayınlanan analiz:

Eric Hebborn'un öldürülmesinden kısa bir süre sonra, ünlü ressamın kayıt dışı bir konuşması yayınlandı. Ses kaydında Hebborn, 1950'lerde prestijli bir ödüle layık görüldüğü İngiliz Kraliyet Sanat Akademisi'nde öğrenci olduğu dönemle ilgili çarpıcı iddialarda bulunuyordu.

Yetenekli bir ressam olmasına rağmen bu ödül için onun seçilmesi şaşırtıcı bir seçimdi, Çünkü o günün sanatı gerçekçi tasvirlerle değil, yüksek kavramlarla ilgiliydi.

Ressam ve restaratör Eric Hebborn
Ressam ve restaratör Eric Hebborn

Peki nasıl olmuştu da sıradan bir ressam ödülü kazanmıştı?

Hebborn, bir gün İngiliz Kraliyet Akademisi'nde sarhoş bir hamalın bodrum katında yatacak sakin bir yer aradığını ve orada saklanan bazı öem resimlerden bir yatak yaptığını açıkladı. Bunlardan biri de Leonardo da Vinci'nin, Kraliyet Akademisi'nin merkezine atfen Burlington House Karikatürü olarak bilinen ve günümüze ulaşan tek çizimiydi. Ertesi sabah eskizden geriye sadece silik bir taslak kalmıştı.

Kraliyet Akademisi müdürü, galerinin baş restoratörünü çağırdı. Ancak o da resmin restore edilemeyeceğini, sadece yeniden çizilebileceğini belirtti. Bunun üzerine o dönemde yıldız bir öğrenci olan Eric Hebborn'u çağırdılar ve o, karakalemini kullanarak tabloyu kusursuz bir şekilde yeniden yarattı.

Ancak 1987 yılında bir gün, uzun paltolu bir adam galeriye girdi, çizimin önünde durdu ve bir pompalı tüfek çıkararak sanat eserini havaya uçurdu. Adam tutuklandı ve daha sonra bir akıl hastanesine kapatıldı.

Bu olaydan sonra Eric Hebborn'un yeniden yaptığı ve parçalanan eskizin aslında sahte olduğuna dair söylentiler çıktı.

Daha sonra, Hebborn'un iddialarını da içeren ve galeriyi ağır bir şekilde suçlayan bir haber yayınlandı. Kraliyet Akademisi de bu haberin ardından Hebborn hedef aldı ve "hayatını sahtekarlıkla kazanan birinin iddilarına hayret ettiklerini" belirttiler.

Kesin olan bir şey varsa o da Hebborn'un hayatını sahtekârlıkla kazandığıydı.

Hebborn, mezun olduktan sonra Roma'ya taşındı ve hem bir sanat simsarı hem de üstü kapalı bir şekilde resim restoratörü olarak çalıştı. Eski resimleri temizler ve rötuşlar yapardı. Ardından da bundan çok daha fazlasını yapmaya başladı.

Çok geçmeden Hebborn'dan boş kağıtları "restore etmesi" ya da eski ustaların kayıp eskizlerini "bulması" istenmeye başlandı. Hebborn bu keşiflerini, bazıları ne yaptığını bilen bazıları da bilmeyen diğer satıcılara aktarmaya başladı. Bu süreçte Hebborn'un binden fazla sahte eser yarattığını iddia ediliyordu.

Peki sahte olan hangisiydi? Da Vinci hakkındaki hikaye mi yoksa çizim mi?

Ancak neyin doğru olup olmadığına karar vermek, hızla alışmak zorunda olduğumuz bir şey haline geldi.

Örnek olarak Gazeteci Samantha Cole 2017 yılında dünyayı yeni bir teknolojiyle tanıştırdı. Samantha Cole internette, Gal Gadot'un üvey kardeşiyle seks yaptığı bir videonun olduğunu, ancak videonun Gadot'un yüzünü bir porno oyuncusunun vücuduyla değiştiren özel bir yapay zeka programı kullanılarak oluşturulmuş bir deepfake olduğunu açıkladı.

Ya birisi Donald Trump'ın Çin'e savaş ilan ettiğine dair bir deepfake yaratsaydı?

İlerleyen yıllarda bu tür korkular abartılı göründü ve sadece birkaç deepfake ses getirdi. Ukrayna Devlet Başkanı Zelensky'nin göbek dansı yaptığını gösteren bir video bu ayın başlarında ortalıkta dolaştı.

Bu tür uyarılara rağmen deepfake teknolojisi hala çoğunlukla rıza dışı pornografi için kullanılıyor. Bunun bir nedeni de deepfake yaratmanın aslında zor olması.

Aralık 2023'te sosyal medyada dolaşan videolarda Hamas'ın insanları Gazze'de bir binanın çatısından atarak infaz ettiği iddia ediliyordu. Videolar gerçekt. Ancak vahşet 2015 yılında Irak'ta gerçekleşmişti ve katiller Hamas değil DEAŞ militanlarıydı.

Zira, gerçek video ve resimlerin aldatıcı etiketlerle internette paylaşılması yaygın bir durum.

Bazı yapay zeka uzmanları, bunlara alıştığımızda daha akıllı olacağımız konusunda bize güvence veriyor.

Google ve Washington Üniversitesi'nde bilgisayar bilimcisi olan Profesör Ira Kemelmacher Shlizerman, 2019'da verdiği bir demeçte;

"İnsanlar böyle bir teknolojinin var olduğunu bildiklerinde daha şüpheci olacaklardır. İnsanlar sahte haberlerin var olduğunu bilirse, sahte metinlerin, sahte videoların, sahte fotoğrafların var olduğunu bilirse, o zaman herkes okuduklarına ve gördüklerine daha şüpheci yaklaşacak”

ifadelerini kullandı.

Donald Trump'ın kadınlara cinsel tacizde bulunduğu iddia edilen Access Hollywood'un meşhur kasetini düşünün. Bu kaset Ekim 2016'da yayınlanmış ve siyasi bir krize neden olmuştu.

2016 yılında, düşünce kuruluşu Rand Corporation'dan iki analist Rus hükümetinin gelişen propaganda stratejisini araştırdı.

Propaganda mesajlarına ilişkin geleneksel görüş, mümkün olduğunda doğru olmaları ve her halükarda inandırıcı ve tutarlı olmaları gerektiği yönündedir.

Ancak Rusya'nın ortaya koyduğu yaklaşım oldukça farklıydı. Rus medya kanalları, web siteleri ve bazı sosyal medya hesapları her şeyi yayınlayabiliyordu. Doğru olup olmadığı önemli değildi. İnandırıcı olup olmadığı da önemli değildi. Önemli olan hız, uygunluk ve etkisiydi.

Görüldü ki; bu yöntem işe yaradığında, sosyal medyayı dikkat dağıtıcı, zehirleyici ve bariz saçmalıklarla dolduruyor.

Vladimir Putin, 2023 yılının sonlarında düzenlediği bir basın toplantısında, kendisinin derin taklit edilmiş bir kopyasından gelen bir video çağrısını yanıtladı. Yazılım ikizi "Çok sayıda dublörünüz var mı?" diye sordu. Gerçek Putin sakince soruları cevapladı.

Peki Ruslar neden böyle bir gösteri düzenlediler?

Belki de savaş halindeki bir ülkede bir anlık neşe yaratmak için. Ama bir de alt mesaj vardı. Artık gözlerinize inanamazsınız, kulaklarınıza inanamazsınız, hatta hiçbir şeye inanamazsınız.

Aslında bu yaşananlar tamamen yeni değil. Walter J Scheirer, 2023 tarihli A History of Fake Things on The Internet adlı kitabında, manipüle edilmiş birçok fotoğrafı yayınladı. Örneğin, Mao Zedong 1976'da öldükten sonra, Çinli liderlerin saygı duruşunda bulunduğu bir anma etkinliğinin fotoğrafı çekildi. Ancak etkinliğin resmi fotoğrafı bariz boşluklar içeriyordu. Mao'nun Dörtlü Çete olarak bilinen yakın yardımcıları fotoğraftan silinmişti.

Bizi ne bekliyor?

İngiltere, ABD ve diğer pek çok ülke 2024 yılında sandık başına giderken, bazı rahatsız edici senaryolar üzerinde düşünmeye değer.

Dezenformasyon artık hiç olmadığı kadar ucuz. Otomatik olarak ve muazzam ölçekte üretilen, gerçek gibi görünen sahte ses ve videolar görebiliriz.

Duygusal olarak zorlayıcı, bireyselleştirilmiş propagandaların o kadar yaygın bir şekilde dağıtıldığını görebiliriz ve hiç kimsenin bunları çürütmesi mümkün olmayabilir.

Daha şimdiden, Cumhuriyetçi Parti'nin eski ABD başkan adayı Ron DeSantis gibi tanınmış siyasetçilerin kampanyalarında deepfake reklamlarının kullanıldığını gördük.

Bu teknoloji hızla gelişiyor ve bunu kullanmaya hazır çok sayıda vicdansız aktör var.

Tartışma