Meta, riskli yapay zeka sistemlerini geliştirmeyi durdurabileceğini duyurdu

Mark Zuckerberg'ün şirketi Meta, yüksek riskli yapay zeka sistemlerindeki tehlikeye dikkat çekti. Siber saldırılar ve biyolojik tehditlerin önünün açılmaması hedefleniyor.

Son Güncelleme: 04.02.2025 - 11:15

editor avatar
Cahid Atik

Haber Editörü

Meta, riskli yapay zeka sistemlerini geliştirmeyi durdurabileceğini duyurdu

Meta logosu - Reuters

Haber Özeti:

  • Meta, çok riskli gördüğü yapay zeka sistemlerini geliştirmeyi durdurabileceğini açıkladı.
  • Şirketin 'Frontier AI Framework' belgesi, siber saldırılar ve biyolojik tehditler oluşturabilecek yapay zeka sistemlerine dikkat çekiyor.
  • Meta, bu sistemlerin büyük ölçekli kuruluşlara zarar verebileceğini ve kontrolü ele geçirebileceğini belirtiyor.

Yapay zeka hızla gelişirken, sunduğu fırsatlarla birlikte tehlikeli ellerde bir silaha dönüşme riskini de taşıyor.

Mark Zuckberberg’ün sahibi olduğu Meta, kendi bünyesinde geliştirdiği yüksek yetenekli yapay zeka sistemini kullanıma sunmaktan vazgeçmeyi düşünüyor.

Siber ve biyolojik saldırı tehlikesi

Meta'nın 'Frontier AI Framework' adlı belgesi, şirketin piyasaya sürmek için çok riskli olduğunu düşündüğü iki tür yapay zeka sistemini tanımlıyor: ‘yüksek riskli’ ve ‘kritik riskli’ sistemler.

Söz konusu sistemlerin, siber güvenlik, kimyasal ve biyolojik saldırılara yardımcı olabileceğine dikkat çekiliyor. Aralarındaki fark, şu şekilde açıklanıyor:

Kritik riskli sistemler, hafifletilemeyecek feci bir sonuca yol açabilir.

Yüksek riskli sistemler, saldırı düzenlenmesini kolaylaştırabilir.

Kritik riskli sistem kadar güvenilir veya emniyetli olmayabilir.

Meta CEO'su Mark Zuckerberg - Reuters

Saldırılar hakkında örnekler veren Meta, şu notları paylaştı:

En iyi uygulamalarla korunan kurumsal ölçekli bir organizasyonunun uçtan uca tehlikeye atılması.

Yüksek etkili biyolojik silahların yayılması.

Bu da demek oluyor ki, çok iyi korunmasına rağmen, büyük bir şirket veya kuruluşun kontrolü, düzenlenen siber saldırı sonucu ele geçirilebilir.

DeepSeek manipülasyona açık

Çin merkezli yapay zeka uygulaması DeepSeek, sistemlerini açık olarak kullanıma sunuyor.

Şirketin yapay zekası çok az korumaya sahip ve zararlı çıktılar üretmek için kolayca manipüle edilebiliyor.

Meta, ‘Frontier AI Framework’ uygulamasını yayınlayarak DeepSeek ile karşılaştırma yapmayı amaçlıyor.

Mark Zuckerberg’ün şirketi, yapay zekanın hem faydalarının hem de risklerinin göz önünde bulundurulması gerektiğine inanıyor.

etiketler
Meta
DeepSeek
Yapay Zeka
özel haber

Batı, Çin’in DeepSeek aracılığıyla hassas verilere erişmesinden endişeli

Haberi Görüntüle

Loading Spinner