Meta, riskli yapay zeka sistemlerini geliştirmeyi durdurabileceğini duyurdu
Mark Zuckerberg'ün şirketi Meta, yüksek riskli yapay zeka sistemlerindeki tehlikeye dikkat çekti. Siber saldırılar ve biyolojik tehditlerin önünün açılmaması hedefleniyor.
0:00
--:--
Son Güncelleme: 04.02.2025 - 14:15

Meta logosu - Reuters
Haber Özeti:
- Meta, çok riskli gördüğü yapay zeka sistemlerini geliştirmeyi durdurabileceğini açıkladı.
- Şirketin 'Frontier AI Framework' belgesi, siber saldırılar ve biyolojik tehditler oluşturabilecek yapay zeka sistemlerine dikkat çekiyor.
- Meta, bu sistemlerin büyük ölçekli kuruluşlara zarar verebileceğini ve kontrolü ele geçirebileceğini belirtiyor.
Yapay zeka hızla gelişirken, sunduğu fırsatlarla birlikte tehlikeli ellerde bir silaha dönüşme riskini de taşıyor.
Mark Zuckberberg’ün sahibi olduğu Meta, kendi bünyesinde geliştirdiği yüksek yetenekli yapay zeka sistemini kullanıma sunmaktan vazgeçmeyi düşünüyor.
Siber ve biyolojik saldırı tehlikesi
Meta'nın 'Frontier AI Framework' adlı belgesi, şirketin piyasaya sürmek için çok riskli olduğunu düşündüğü iki tür yapay zeka sistemini tanımlıyor: ‘yüksek riskli’ ve ‘kritik riskli’ sistemler.
Söz konusu sistemlerin, siber güvenlik, kimyasal ve biyolojik saldırılara yardımcı olabileceğine dikkat çekiliyor. Aralarındaki fark, şu şekilde açıklanıyor:
Kritik riskli sistemler, hafifletilemeyecek feci bir sonuca yol açabilir.
Yüksek riskli sistemler, saldırı düzenlenmesini kolaylaştırabilir.
Kritik riskli sistem kadar güvenilir veya emniyetli olmayabilir.

Saldırılar hakkında örnekler veren Meta, şu notları paylaştı:
En iyi uygulamalarla korunan kurumsal ölçekli bir organizasyonunun uçtan uca tehlikeye atılması.
Yüksek etkili biyolojik silahların yayılması.
Bu da demek oluyor ki, çok iyi korunmasına rağmen, büyük bir şirket veya kuruluşun kontrolü, düzenlenen siber saldırı sonucu ele geçirilebilir.
DeepSeek manipülasyona açık
Çin merkezli yapay zeka uygulaması DeepSeek, sistemlerini açık olarak kullanıma sunuyor.
Şirketin yapay zekası çok az korumaya sahip ve zararlı çıktılar üretmek için kolayca manipüle edilebiliyor.
Meta, ‘Frontier AI Framework’ uygulamasını yayınlayarak DeepSeek ile karşılaştırma yapmayı amaçlıyor.
Mark Zuckerberg’ün şirketi, yapay zekanın hem faydalarının hem de risklerinin göz önünde bulundurulması gerektiğine inanıyor.
Kaynak:
Tech Crunchetiketler

Batı, Çin’in DeepSeek aracılığıyla hassas verilere erişmesinden endişeli
Haberi Görüntüle
İLGİLİ HABERLER
WhatsApp gizlilik vaadi mahkemelik oldu: Meta mesajları okuyabiliyor mu?
Meta çocuk istismarı davasında jüri karşısında
Çin, yapay zekâ kontrollü silahları doğadan öğrenen algoritmalarla eğitiyor
Sanatta yapay zeka tartışması: Eserleri yiyerek protesto etti
Grok 11 günde milyonlarca cinsel deepfake üretmiş olabilir
Eski çalışan Google'ı İsrailli şirkete yapay zeka desteği sağlayarak ilkeleri ihlalle suçladı
DİĞER HABERLER
Fransa'da X platformuna dev operasyon: Elon Musk ifadeye çağrıldı
Dijital dünyada çocuk güvenliği: Steam ve yeni oyun yasası iş birliği
Arı beyinlerinden esinlenen yeni çipler mikro robotlara tam otonomi kazandırıyor
Popüler metin editörü Notepad++ siber saldırıya uğradı
Firefox yapay zeka dayatmasına son veriyor
Meta çocuk istismarı davasında jüri karşısında
Çinli üreticiden devrim: Dört tekerleği bağımsız dönebilen ilk SUV tanıtıldı
Google Chrome AI ile aramayı bırakıp araştırmaya başlıyor
NVIDIA Earth-2 ile hava durumu tahmininde yapay zeka devrimi başladı
Elon Musk SpaceX, Tesla ve xAI’yı tek çatı altında toplamayı değerlendiriyor



