OpenAI yapay zekanın olası risklerine karşı önemli bir adım attı

OpenAI CEO'su Sam Altman, yapay zekanın potansiyel risklerine karşı 555 bin dolar maaşla yeni bir hazırlık birimi kurduklarını açıkladı.

0:00

--:--

Son Güncelleme: 30.12.2025 - 09:36

NSosyal Logo
OpenAI yapay zekanın olası risklerine karşı önemli bir adım attı

Sam Altman - Reuters

  • OpenAI, yapay zekanın olası felaket senaryolarını önlemek için "Hazırlık" birimini kurdu.
  • Pozisyonun yıllık maaşı 555 bin dolar artı hisse olarak açıklandı.
  • Yapay zekanın siber saldırı yapma ve biyolojik riskler üretme kapasitesi kontrol altına alınacak.
  • Chatbotların kullanıcılar üzerindeki psikolojik manipülasyon etkileri ilk kez üst düzey bir yöneticinin sorumluluğuna verildi.
  • Şirket, son dönemde artan davalara ve siyasi baskılara karşı bu birimi bir "etik kalkan" olarak kullanacak.

OpenAI, yapay zeka modellerinin "insanlık için risk" oluşturmaya başladığı tartışmalarının gölgesinde, stratejik bir hamle yaparak "Hazırlık Başkanı" (Head of Preparedness) pozisyonunu duyurdu.

CEO Sam Altman'ın "stresli bir iş" olarak tanımladığı bu rol, 2025 yılında yapay zekanın ulaştığı tehlikeli yetenek seviyesine karşı bir "erken uyarı sistemi" görevi görecek.

YouTube icon

GDH Digital YouTube kanalına abone olabilirsiniz.

Abone Ol

555 bin dolarlık "Kritik" görev

OpenAI'nın bu pozisyon için belirlediği şartlar, sorumluluğun büyüklüğünü kanıtlıyor. Çalışana yıllık 555.000 dolar taban maaş + şirketten ciddi oranda hisse payı verilecek.

Yeni pozisyon ile modellerin siber güvenlik, biyolojik tehditler ve ruh sağlığı üzerindeki etkileri önceden tespit edilecek.

Gelişmiş YZ modelleri piyasaya sürülmeden önce bu birimin onayından geçmek zorunda kalacak.

Yapay zekada biyolojik ve ruhsal tehditler

Sam Altman’ın açıklamalarına göre, hazırlık biriminin odaklanacağı üç ana "tehlike bölgesi" bulunuyor:

  1. Siber Güvenlik: Sistemlerin, dünyanın en gelişmiş bilgisayar ağlarında kritik açıklar bulabilecek kadar otonomlaşması.
  2. Biyolojik Riskler: Yapay zekanın yeni patojenler veya kimyasal silah tasarımları oluşturma potansiyeli.
  3. Ruh Sağlığı: ChatGPT'nin hassas bireylerle kurduğu duygusal bağların, kullanıcıları yanlış yönlendirmesi veya ruhsal çöküntüyü derinleştirmesi.
X icon

GDH Digital X kanalını takip edebilirsiniz.

Takip Et

Hukuki baskılar ve "GUARD Act" etkisi

OpenAI’ın bu birimi kurma hızı, ABD Senatosu'ndaki GUARD Act (YZ arkadaşlık botlarına kısıtlama getiren yasa tasarısı) tartışmalarıyla doğrudan bağlantılı görülüyor.

Şirket, devletin sert yasaklar getirmesinden önce "kendi kendini denetleme" mekanizmasını kurarak güven tazelemeyi amaçlıyor.

Kaynak:

GDH Haber

GDH Digital'i sosyal medyadan takip edin!

Loading Spinner