OpenAI’ın yeni yapay zeka modelleri, halüsinasyon sorunu yaşıyor!

OpenAI’ın geçtiğimiz hafta tanıttığı yeni jenerasyon yapay zeka modelleri, doğruluk konusunda önemli tasalara yol açtı. O3 ve o4-mini isimli modellerin, vakit zaman gerçek dışı bilgiler ürettiği tespit edildi.
OpenAI’ın yapay zeka modellerinde, doğruluk sorunu yaşanıyor
Yapay zeka alanında “halüsinasyon” terimi, modellerin gerçekte var olmayan yahut doğrulukla bağdaşmayan bilgiler üretmesi manasına geliyor. Bu durum, bilhassa bilgi tabanlı uygulamalar için epey büyük bir risk oluşturuyor.

OpenAI’ın teknik dökümanında paylaşılan şimdiki sonuçlara nazaran, o3 modeli firma tarafından geliştirilen bilgi doğruluğu testi PersonQA üzerinde yüzde 33 oranında halüsinasyon üretti. Evvelki kuşak o1 modelinin bu testteki halüsinasyon oranı yüzde 16, o3-mini modelinin de yüzde 14,8 düzeyindeydi.

WhatsApp, otomatik çeviri özelliği sunacak!
WhatsApp, otomatik çeviri işlevi sunmaya hazırlanıyor. Bu yenilik, kullanıcıları şimdiden heyecanlandırdı.
Yeni modeller ortasında en yüksek oran ise o4-mini modeline ilişkin; bu modelin halüsinasyon üretme oranı yüzde 48 olarak kaydedildi. OpenAI, bu beklenmedik artışın nedenini şimdi kesin olarak belirleyemedi. Şirket tarafından yapılan açıklamada, bu durumun anlaşılması için daha fazla araştırmaya gereksinim olduğu söz edildi.
Özellikle matematiksel çözümleme ve yazılım üretimi üzere alanlarda olumlu performans sergileyen modellerin, bilgi doğruluğu konusunda dengesizlik yaşadığı belirtiliyor. Birtakım uzmanlar, bu durumun kaynağının modelin eğitildiği pekiştirmeli öğrenme (reinforcement learning) süreci olabileceğini düşünüyor.
OpenAI, yeni modellerinin performansını optimize etmek için çalışmalarını sürdürüyor. Pekala siz bu bahis hakkında ne düşünüyorsunuz? Görüşlerinizi aşağıdaki yorumlar kısmından bizimle kolaylıkla paylaşabilirsiniz.