Yapay zekada 'biyolojik silah' alarmı! NYT yazdı: Yapay zeka toplu ölümlerin kapısını mı aralıyor?

Amerikan basınında yer alan analiz sonrası yapay zeka botlarının güvenlik testlerindeki sonuçları hayrete düşürdü. Ünlü yapay zeka modelleri ChatGPT, Gemini ve Claude’un riskli içerik üretip üretmediği sorusu kısa süre içerisinde gündem oldu.

0:00

--:--

Son Güncelleme: 01.05.2026 - 15:52

NSosyal Logo
Yapay zekada 'biyolojik silah' alarmı! NYT yazdı: Yapay zeka toplu ölümlerin kapısını mı aralıyor?

Yapay zekada 'biyolojik silah' alarmı

  • NYT haberine göre; Google, OpenAI ve Anthropic'in yapay zeka modellerinin biyolojik silah ve zehir üretimine dair riskli içerikler sağlayabildiği iddia edildi.
  • Uzmanlar, botların patojen yayma senaryoları üzerine detaylı yanıtlar vermesinin güvenlik açığı oluşturduğunu savunuyor.
  • Şirketler ise bu bilgilerin kamuya açık kaynaklara dayandığını ve yeni modellerde güvenlik önlemlerinin sıkılaştırıldığını açıkladı.

The New York Times’ta yer alan bir habere göre önde gelen yapay zeka sohbet botlarının bazı durumlarda bilim insanlarına toplu ölümlere yol açabilecek biyolojik silahların geliştirilmesine ilişkin hassas içerikler üretebildiği öne sürüldü. Konu, yapay zekâ güvenliği tartışmalarını yeniden gündeme taşıdı.

Yapay zeka sistemleri güvenlik testlerinde incelendi

Haberde, Google, OpenAI ve Anthropic gibi önde gelen şirketlerin geliştirdiği sohbet botlarının bazı koşullarda riskli içerikler üretebildiğinin tespit edildiği belirtildi. Gazeteye göre adı açıklanmayan bir yapay zeka şirketi, piyasaya sürmeden önce sistemini test etmek amacıyla David Relman’ı görevlendirdi.

Relman, sohbet botunun tehlikeli bir patojenin tedavilere karşı daha dirençli hale nasıl getirilebileceğine ve toplum içinde nasıl yayılabileceğine ilişkin detaylı yanıtlar verdiğini aktardı.

Farklı modeller için benzer iddialar gündeme geldi

Haberde farklı yapay zeka modellerine ilişkin benzer örneklere de yer verildi. Kevin Esvelt, OpenAI’ın ChatGPT modelinin ölümcül bir patojenin yayılmasına ilişkin senaryolar üretebildiğini ifade etti. Google’ın Gemini modelinin hayvancılık sektörünü etkileyebilecek patojenlere ilişkin değerlendirmeler yaptığı, Anthropic’in Claude isimli modelinin ise mevcut bir ilaçtan zehir üretimine ilişkin içerik oluşturabildiği iddia edildi.

Uzmanlar, bu tür yanıtların tamamen doğru olmasa bile kötü niyetli kişiler tarafından kullanılmasının ciddi risk oluşturabileceğine dikkat çekti.

Şirketlerden peş peşe açıklama!

Google yetkilileri söz konusu konuşmaların Gemini’nin eski sürümleriyle yapıldığını ve yeni modellerin bu tür komutlara yanıt vermediğini belirtti. Paylaşılan bilgilerin büyük ölçüde kamuya açık kaynaklara dayandığı savunuldu. Anthropic yetkilileri biyoloji alanında özel güvenlik önlemleri uyguladıklarını ifade etti. OpenAI ise verilen yanıtların gerçek dünyada zarar verme ihtimalini “kayda değer ölçüde artırmayacağını” belirtti.

Çalışmanın yayımlanmasının ardından yapay zekâ güvenliği kısa sürede sosyal medyada tartışma konusu oldu.

Kaynak:

GDH Haber

GDH Digital'i sosyal medyadan takip edin!

Loading Spinner