Son Dakika: ChatGPT'ye Dürüstlük Ayarı! Yalan Söylerse İtiraf - Teknoloji Haberi | Nirvana Haber
Piyasa verileri yükleniyor...

ChatGPT'ye Dürüstlük Ayarı! Yalan Söylerse İtiraf Edecek

Yayımlanma Tarihi: 06 Aralık 2025 18:54 | Son Güncelleme Tarihi : 06 Aralık 2025 21:48

OpenAI, yapay zekanın 'halüsinasyon' sorununa karşı yeni bir yöntem geliştirdi. ChatGPT artık hata yaptığında veya yalan söylediğinde bunu itiraf edecek.

HABERİN DEVAMI

OpenAI, yapay zeka modellerinin güvenilirliğini artırmak için devrim niteliğinde bir adım attı. Geliştirilen yeni sistem sayesinde ChatGPT, verdiği yanıt hatalıysa veya 'halüsinasyon' görüyorsa bunu kullanıcısına itiraf edecek.

Yapay zeka dünyasının öncü şirketi OpenAI, dil modellerinin en büyük sorunlarından biri olan ve literatürde 'halüsinasyon' olarak adlandırılan gerçek dışı bilgi üretme problemine karşı yeni bir çözüm geliştirdi. Şirketin resmi blogunda paylaşılan detaylara göre, ChatGPT artık sunduğu her yanıtın ardından arka planda kendi cevabını analiz eden bir mekanizmaya sahip olacak. Bu yeni yaklaşım, yapay zekanın şeffaflığını artırmayı ve kullanıcılara karşı daha dürüst olmasını hedefliyor.

Arka Planda 'İtiraf Raporu' Hazırlanacak

Yeni sistemin çalışma prensibi, yapay zekanın kendi kendini denetlemesi üzerine kurulu. ChatGPT, kullanıcıya bir yanıt verdikten hemen sonra, arka planda ayrı bir rapor oluşturacak. Bu raporda model; yanıtı oluştururken herhangi bir kuralı ihlal edip etmediğini, kestirme yollara başvurup başvurmadığını veya verilen talimatları eksiksiz yerine getirip getirmediğini kendi 'ağzından' açıklayacak. Böylece model, kullanıcıyı memnun etmek için gerçeği çarpıtmak yerine, hata yaptığını kabul edecek.

Halüsinasyonlara Karşı 'Doğruluk Serumu'

Mevcut yapay zeka modelleri, bazen kullanıcıdan onay almak veya en iyi sonucu vermiş gibi görünmek adına olmayan bilgileri gerçekmiş gibi sunabiliyor. OpenAI'ın geliştirdiği bu yöntemde ise model, ana yanıtı ne kadar hatalı olursa olsun, itiraf kısmında dürüst davrandığı takdirde sistem tarafından ödüllendiriliyor. Araştırmacılar bu süreci, modellerin eğitimi sırasında kullanılan bir tür 'doğruluk serumu' olarak nitelendiriyor.

Yapılan testlerde, özellikle GPT-5 Thinking gibi gelişmiş modeller üzerinde denenen sistemin, yapay zekanın talimatlara uymadığı veya halüsinasyon gördüğü durumların %95'inden fazlasında hatasını açıkça kabul ettiği gözlemlendi. Model, 'Burada kuralları esnettim' veya 'Bu bilgiden emin değilim' gibi ifadelerle kullanıcıyı uyararak yanlış bilginin yayılmasını engellemeye çalışıyor.

Son Karar Yine Kullanıcıda

OpenAI, bu yeni yöntemin yapay zekanın yalan söylemesini tamamen engellemediğini, ancak bu yalanların tespit edilmesini büyük ölçüde kolaylaştırdığını vurguluyor. Sistem henüz kavram kanıtı aşamasında olduğu için, modelin kafasının karıştığı karmaşık senaryolarda itirafların da hatalı olma riski bulunuyor. Bu nedenle uzmanlar, yapay zeka kendi hatasını itiraf etse bile, sunulan bilgilerin doğruluğunun teyit edilmesi ve her söylenene körü körüne inanılmaması gerektiği konusunda kullanıcıları uyarıyor.

WhatsApp

Kaynaklar

Yorumlar

Yorum yapmak için giriş yapmalısınız

Henüz hiç yorum yapılmamış

İlk yorumu siz yapın ve tartışmayı başlatın!

DAHA FAZLA HABER
Reklam

Süper Lig Puan Durumu

1
Galatasaray
15 maç · 11G 3B 1M
36
2
Fenerbahçe
14 maç · 9G 5B 0M
32
3
Trabzonspor
14 maç · 9G 4B 1M
31
4
Göztepe
14 maç · 7G 5B 2M
26
5
Samsunspor
15 maç · 6G 7B 2M
25

Bizi Takip Edin

NirvanaHaber, size daha iyi bir deneyim sunmak için çerezleri kullanır. Çerez Politikamızı okuyarak daha fazla bilgi edinebilirsiniz.