ChatGPT güvenlik testlerinde tehlikeli içerikler verdi
OpenAI ve Anthropic tarafından yapılan güvenlik testleri, yapay zekâ sohbet botlarının bomba yapımı, biyolojik silah kullanımı ve siber suçlara dair talimatlar verdiğini ortaya koydu.
0:00
--:--
Son Güncelleme: 29.08.2025 - 10:31
ChatGPT bomba tarifi verdi - TheLatch
- GPT-4.1, spor salonlarında zayıf noktaları gösteren planlar, patlayıcı tarifleri ve iz kaybettirme yöntemleri paylaştı.
- Anthropic, Kuzey Kore bağlantılı grupların Claude modelini fidye yazılımı satışları ve sahte iş başvuruları için kullandığını açıkladı.
- İngiltere’den güvenlik uzmanları, henüz kritik düzeyde vaka olmadığını ama risklerin arttığını vurguladı.
- OpenAI, ChatGPT-5’in yanlış kullanım direncinde ilerleme sağladığını duyurdu; Anthropic ise acil değerlendirme gerektiğini bildirdi.
OpenAI ve Anthropic, bu yaz gerçekleştirdikleri olağandışı bir işbirliğiyle birbirlerinin yapay zekâ modellerini test etti. Deneylerde GPT-4.1’in, spor salonlarına yönelik bombalı saldırılar için zayıf noktaları, kimyasal formüller ve bomba zamanlayıcı devre şemaları gibi detayları verdiği kaydedildi. Model ayrıca antraksın silah haline getirilmesi ve yasa dışı uyuşturucu üretimi hakkında da bilgi sağladı.
GDH Digital Instagram kanalını takip edebilirsiniz.
Anthropic’in açıklamasına göre, Claude modeli ise Kuzey Koreli aktörlerce sahte iş başvurularında ve fidye yazılımı satışında kullanıldı. Bu paketlerin 1.200 dolara kadar alıcı bulduğu bildirildi.
Şirketlerin yaklaşımı
Anthropic, yapay zekânın siber saldırılar ve dolandırıcılıkta “silah haline geldiğini” belirterek, bu araçların savunma önlemlerine uyum sağlayabildiğini ve saldırıları daha erişilebilir kıldığını açıkladı. OpenAI ise testlerin ardından piyasaya sürülen ChatGPT-5’in “kötüye kullanıma direnç” konusunda ciddi gelişmeler gösterdiğini vurguladı.
GDH Digital X kanalını takip edebilirsiniz.
Uzmanların değerlendirmesi
İngiltere’deki Emerging Technology and Security Merkezi’nden Ardi Janjeva, bu örneklerin kaygı verici olduğunu ancak henüz çok sayıda “yüksek profilli gerçek vaka” bulunmadığını ifade etti. Janjeva, sektörler arası işbirliği ve araştırma çabalarıyla kötüye kullanımın zorlaşacağını savundu.
Anthropic, güvenlik testlerinin şeffaf biçimde paylaşılmasının önemine dikkat çekerek, mevcut önlemlere rağmen yapay zekâların “tehlikeli yönlendirmelere” açık olabileceği uyarısında bulundu.
Kaynak:
GDH Haber
etiketler
İLGİLİ HABERLER
Pentagon ile Elon Musk’ın yapay zeka robotu arasında Grok anlaşması iddiası
Tytan Technologies, Avrupa ve Ukrayna için yapay zekâ tabanlı hava savunma sistemlerini ölçeklendirmek üzere 30 milyon avro yatırım aldı
ASELSAN, yapay zekayla 39 milyon dolarlık verimlilik artışı sağladı
Middle East Monitor: Gazze nasıl ölüm laboratuvarına dönüştürüldü?
Lockheed Martin F-35 Lightning II’de yapay zekâ destekli muharebe tanımlamayı uçuşta test etti
Yapay zekanın savaş ve gözetleme amaçlı kullanılabileceği iddiası istifa getirdi
DİĞER HABERLER
Laricani’den İslam dünyasına sitem: "Bu nasıl bir Müslümanlıktır?"
Erhürman’dan GKRY’ye askeri ittifak tepkisi: "Ada’nın güvenliğini riske atıyorlar"
Macaristan'da muhalif liderden Başbakan Orban'a suçlama
Rusya’dan Telegram ve Apple’a para cezası
Gazze’de Avustralyalı askerlerin mezarlarının zarar gördüğü iddia edildi
İran’ın İsrail’e yönelik misilleme saldırısında Tel Aviv yakınlarında hasar oluştu
Hürmüz krizinde Çin'in tutumu ve olası dengeler
Trump’ın Hürmüz koalisyonu çağrısına dünyadan farklı tepkiler geldi
Mearsheimer’dan ABD ve İsrail’e İran savaşı eleştirisi
İsrail'in Lübnan'a saldırıları Mayıs sonuna kadar devam edecek


