ChatGPT'nin son sürümlerinde halüsinasyonlar arttı
OpenAI’nin geliştirdiği GPT-o3 ve GPT o4-mini modelleri, daha gelişmiş düşünme teknikleriyle donatıldı. Ancak yapılan testler, bu modellerin daha fazla yanıltıcı bilgi ürettiğini ortaya koyuyor.
0:00
--:--
Son Güncelleme: 08.05.2025 - 14:41
ChatGPT - AA
- GPT-o3 modeli yanıtlarının %33’ünde, o4-mini ise %48’inde yanlış bilgi verdi.
- Yeni modellerde adım adım düşünme tekniği, halüsinasyonları azaltmak yerine artırdı.
- OpenAI, hataları anlatım cesareti ve kapsamlılıkla ilişkilendiriyor.
- Yanıltıcı bilgiler hukuk, sağlık ve kamu politikası gibi alanlarda ciddi riskler taşıyor.
OpenAI'nin son yapay zeka modelleri GPT-o3 ve o4-mini, insan benzeri düşünce yapısını taklit edebilmek için adım adım düşünme mekanizmasıyla tasarlandı. Ancak beklentilerin aksine, bu modeller daha fazla halüsinasyon; yani gerçekte olmayan ama inandırıcı görünen bilgiler üretmeye başladı.
Bir kamu figürleri testinde, GPT-o3 modelinin yanıtlarının yüzde 33'ü hatalıydı. Bu oran, önceki GPT-o1 modeline kıyasla iki kat daha fazla. Daha kompakt ve verimli olması amaçlanan GPT o4-mini ise %48 oranında yanlış bilgi verdi.
"Çok düşünmek" sorunun kendisi olabilir
Yeni modeller, basit metin üretiminin ötesine geçerek mantık yürütmeye çalışıyor. Fakat yapay zekanın düşündükçe hata yapma ihtimali artıyor. Araştırmacılara göre, bu modeller düşünce zincirlerini genişlettikçe, doğruluk oranı düşüyor.
Daha önceki modeller kısa ve öz cevaplar üretirken, bu yeni sistemler daha cesur, ayrıntılı ve teorik açıklamalara yöneliyor. Bu da onları ikna edici ama yanlış kılabiliyor.
Yapay zekanın hataları tehlikeli sonuçlar doğurabilir
Hukuki belgelerde, tıbbi tanılarda ya da devlet belgelerinde yapay zekanın üreteceği en küçük bir hata bile ciddi sonuçlar doğurabiliyor. Yakın zamanda, bazı avukatlar ChatGPT'den aldıkları uydurma mahkeme kararlarını sununca cezalandırıldı.
Benzer şekilde, eğitimde, iş dünyasında ya da kamu yönetiminde kullanılan yapay zeka sistemlerinin hataları daha da geniş çaplı etkiler yaratabilir.
Yapay zeka sistemleri daha fazla görev üstlendikçe, hatasız çalışmaları bekleniyor. Ancak ironik olarak, yapay zeka ne kadar kapsamlı ve detaylı hale gelirse, hata yapma riski de o kadar artıyor.
Kaynak:
GDH Haber
etiketler
İLGİLİ HABERLER
ChatGPT'ye inanıp evliliğini sonlandırma kararı aldı

ChatGPT, yeni özelliğini duyurdu: Derin araştırma
ChatGPT ile bağlanan silahın ateş açtığı görüntüler tartışma yarattı
Fransız şirketlerden hava savunma sistemlerinde yapay zeka kullanımını hızlandırmak için ortaklık girişimi
Türkiye'de bir ilk: Yapay zeka destekli müze deneyimi
Bankalar incelemeye alıyor: Bahise bulaşana kredi ve kredi kartı verilmiyor
DİĞER HABERLER
Trump’tan İran açıklaması: İdam planı yok, ölümler durdu
Yemen'de askeri dengeler değişiyor: Hükümet tek cephede birleşiyor
Avrupa'da enerji krizi: Doğal gaz depolarındaki doluluk tarihin en düşüğüne yaklaşıyor!
Trump 75 ülkenin vize işlemini askıya alıyor!
ABD Sağlık Bakanı Kennedy: Trump bütün gün kendini zehirliyor
ABD Büyükelçisi Barrack: Türkiye ile ortaklığımıza değer veriyoruz
ABD’den Gazze’de ateşkes açıklaması: Planın ikinci aşaması başladı
Macron'dan Trump'ın Grönland planına sert tepki: Zincirleme sonuçları olur
İsrail'de en üst düzey alarm: ABD'nin İran'ı vurması an meselesi
Senatör Graham terör örgütüne arka çıktı: Türkiye ve Şam’a küstah tehdit



