
Yapay zeka teknolojilerinin gelişimiyle birlikte, halüsinasyon sorunu daha da görünür hale geldi. Lisan modellerinin itimatla sunduğu uydurma bilgiler; sadece teknoloji meraklılarını değil, bu sistemlere yatırım yapan kurumları da endişelendiriyor.
Yapay zeka, geliştikçe daha fazla halüsinasyon görüyor
Üstelik bu sorun, modellerin daha gelişmiş versiyonlarında azalmak yerine artış gösteriyor. Yayınlanan bir rapora nazaran, OpenAI’ın geçtiğimiz ay tanıttığı “o3” ve “o4-mini” isimli modeller, şirket içi testlerde sırasıyla %33 ve %48 oranında halüsinasyon üretti.

Bu oranlar, evvelki modellere nazaran neredeyse iki katlık bir artışı temsil ediyor. Benzeri formda, Google ve DeepSeek üzere firmaların geliştirdiği modeller de yanılgılı bilgi üretme eğilimine sahip. Sorunun kaynağı modellerin mimarisinden çok, bu sistemlerin nasıl çalıştığının tam olarak anlaşılamamasında yatıyor.
Vectara CEO’su Amr Awadallah’a nazaran, yapay zekaların halüsinasyon üretmesi kaçınılmaz. Awadallah, bu durumun büsbütün ortadan kaldırılmasının mümkün olmadığını vurguluyor. Uzmanlara nazaran bu sırf son kullanıcılar için değil, tıpkı vakitte bu teknolojilere güvenen şirketler için de önemli sonuçlar doğurabilecek bir risk.
Yeni GTA 6 fragmanı yayınlandı! İşte çıkış tarihi
Merakla beklenen GTA 6 oyununun yeni fragmanı yayınlandı. Bu gelişme, serinin meraklılarını hayli heyecanlandırdı.
Gerçek dışı bilgiler, kullanıcı inancını sarsmanın ötesinde, yanlış kararların alınmasına yol açabiliyor. Sistemdeki bu artışın nedenlerinden biri olarak sentetik data kullanımı öne çıkıyor. Gerçek dünya datalarının yetersiz kalması nedeniyle birçok firma, yapay zeka tarafından üretilmiş bilgileri model eğitiminde kullanmaya başladı.
Ancak bu datalarla eğitilen modeller, halihazırdaki yanılgıları çoğaltarak pekiştirebiliyor. Pekala siz bu husus hakkında ne düşünüyorsunuz? Görüşlerinizi aşağıdaki yorumlar kısmından bizimle paylaşabilirsiniz.
Kaynak : Shiftdelete