Microsoft AI ekibi, 38 TB özel şirket verisini sızdırdı
🔐 Microsoft’un yapay zeka üzerinde çalışan ekibi yanlışlıkla 38 terabayt hassas şirket verisini açığa çıkardı.
🕵🏻♂️ Araştırmacılar veri sızıntısının Azure platformundan kaynaklandığını belirledi. Toplam 38 TB'lık özel dosyaya, Microsoft önlem alana kadar isteyen herkes erişebildi.
Üretken yapay zeka modellerinin eğitimi, birçok geliştirici arasında koordinasyon ve iş birliği gerektiriyor. Bu birlik aynı zamanda ek güvenlik kontrollerini de beraberinde getiriyor.
Görünüşe göre Microsoft’un bu noktada bazı zaafları bulunuyor. Zira, firmanın yapay zeka ekibi şirkete ait büyük miktarda hassas verileri sızdırmış durumda.
Microsoft, 20 Temmuz 2020 ile 24 Haziran 2023 tarihleri arasında GitHub'daki halka açık bir depo aracılığıyla geniş bir veri hazinesini kamuya açtı. Bulut güvenlik şirketi Wiz, 22 Haziran 2023'te sorunu keşfedip Microsoft'a bildirdi ve şirket iki gün sonra açığı kapattı.
Wiz araştırmacıları, Azure platformunun Paylaşılan Erişim İmzası (SAS) özelliğinin Microsoft çalışanları tarafından yanlış kullanıldığını ve 38 terabaytlık özel verilerin bu nedenle açığa çıktığını söylüyor.
Wiz'e göre Microsoft, yapay zeka modelleri için eğitim verilerinin yanı sıra iki çalışanın iş istasyonlarının disk yedeklerini de açığa çıkardı. Yedeklerde özel kriptografik anahtarlar, şifreler ve 359 Microsoft çalışanına ait 30.000'den fazla dahili Microsoft Teams mesajı yer alıyordu. Toplam 38 TB'lık özel dosyaya, Microsoft önlem alana kadar isteyen herkes erişebildi.
Wiz'e göre Microsoft'un multi-terabayt olayı, yapay zeka model eğitimiyle ilgili riskleri vurguluyor. Araştırmacılar, gelişmekte olan bu teknolojinin "eğitmek için büyük veri setleri" gerektirdiğini ve birçok geliştirme ekibinin "büyük miktarda veriyi" işlediğini vurguluyor. Wiz ayrıca geliştirme ekiplerinin verileri meslektaşlarıyla paylaştığını da belirtiyor.