OpenAI’ın yeni yapay zeka modelleri, halüsinasyon sorunu yaşıyor!

OpenAI’ın yeni yapay zeka modelleri, halüsinasyon sorunu yaşıyor!

OpenAI’ın geçtiğimiz hafta tanıttığı yeni nesil yapay zeka modelleri, doğruluk konusunda ciddi endişelere yol açtı. O3 ve o4-mini isimli modellerin, zaman zaman gerçek dışı bilgiler ürettiği tespit edildi.

OpenAI’ın yapay zeka modellerinde, doğruluk problemi yaşanıyor

Yapay zeka alanında “halüsinasyon” terimi, modellerin gerçekte var olmayan veya doğrulukla bağdaşmayan bilgiler üretmesi anlamına geliyor. Bu durum, özellikle bilgi tabanlı uygulamalar için oldukça büyük bir risk oluşturuyor.

OpenAI’ın teknik dökümanında paylaşılan güncel sonuçlara göre, o3 modeli firma tarafından geliştirilen bilgi doğruluğu testi PersonQA üzerinde yüzde 33 oranında halüsinasyon üretti. Önceki nesil o1 modelinin bu testteki halüsinasyon oranı yüzde 16, o3-mini modelinin de yüzde 14,8 seviyesindeydi.

Yeni modeller arasında en yüksek oran ise o4-mini modeline ait; bu modelin halüsinasyon üretme oranı yüzde 48 olarak kaydedildi. OpenAI, bu beklenmedik artışın nedenini henüz kesin olarak belirleyemedi. Şirket tarafından yapılan açıklamada, bu durumun anlaşılması için daha fazla araştırmaya ihtiyaç olduğu ifade edildi.

Özellikle matematiksel çözümleme ve yazılım üretimi gibi alanlarda olumlu performans sergileyen modellerin, bilgi doğruluğu konusunda dengesizlik yaşadığı belirtiliyor. Bazı uzmanlar, bu durumun kaynağının modelin eğitildiği pekiştirmeli öğrenme (reinforcement learning) süreci olabileceğini düşünüyor.

OpenAI, yeni modellerinin performansını optimize etmek için çalışmalarını sürdürüyor. Peki siz bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi aşağıdaki yorumlar kısmından bizimle kolayca paylaşabilirsiniz.

Kaynak = https://shiftdelete.net/openai-yeni-yapay-zeka-modelleri-halusinasyon-sorunu-yasiyor

administrator

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir