Yapay zekalar akıllandıkça daha fazla yalan söylüyor

Yapay zekalar akıllandıkça daha fazla yalan söylüyor
Yapay zeka dünyası, bir müddettir sessiz sedasız büyüyen lakin artık göz gerisi edilemez hale gelen önemli bir meseleyle karşı karşıya: Halüsinasyonlar. Yani, lisan modellerinin gerçeğe dayanmayan bilgileri inançla sunması. Üstelik bu sorun, modeller daha “akıllı” epeyce azalmıyor — tam aksine, artıyor. Bu sorun, birinci üretken yapay zekalardan bu yana devam ediyor.

Yalanlar artıyor

Yapay zeka için Aşil’in topuğu benzetmesini geçen yıl yapmıştık ve geldiğimiz noktada meseleler küçülmek yerine büyümüş durumda. Hatırlanacağı üzere OpenAI, Anthropic, Google ve DeepSeek üzere teknoloji devlerinin geliştirdiği “akıl yürütme” odaklı yeni jenerasyon yapay zeka modelleri, daha hakikat ve dengeli karşılıklar verme teziyle yola çıkmıştı. Fakat gelinen noktada, bu modellerin evvelki sürümlere kıyasla daha fazla yanılgı yaptığı ve bir şeyler uydurduğu görülüyor.

Geçtiğimiz günlerde New York Times tarafından yayımlanan bir rapora nazaran, OpenAI’ın geçtiğimiz ay duyurduğu “o3” ve “o4-mini” isimli yeni modelleri, şirketin iç değerlendirmelerinde kimi testlerde sırasıyla %33 ve %48 oranında halüsinasyon üretmiş durumda. Bu oranlar, evvelki modellere kıyasla nerdeyse iki katlık bir artışı temsil ediyor. Yani, yapay zeka daha güçlü hale geldikçe, gerçek bilgi verme yeteneği artmak yerine azalıyor.

Durum sırf OpenAI ile sonlu değil. Google ve DeepSeek üzere rakip firmaların modelleri de misal sorunu yaşıyor. Çünkü sorun modellerde değil, modellerin nasıl çalıştığında yatıyor. Bu nedenle yapay zeka sanayisinde uzunluk gösteren isimlerden birisi olan Vectara CEO’su Amr Awadallah, ne yaparsak yapalım “Her vakit halüsinasyon görecekler. Bu asla ortadan kalkmayacak” diyor.

Uzmanlara nazaran, bu sorun sırf kullanıcılar için değil, teknolojiye yatırım yapan şirketler için de büyük bir risk oluşturuyor. Kusurlu karşılıklar sunan bir yapay zeka sistemi, kullanıcı itimadını zedelediği üzere, önemli iş kararlarının yanlış verilmesine de yol açabiliyor.

Sentetik datalara yönelmek makus bir fikir mi?

Daha evvelki haberlerde de değindiğimiz üzere, yapay zeka firmalarının yeni modellerin eğitiminde kullanacağı gerçek dünya bilgileri geçtiğimiz yıl bitti. Lakin mevcut model inşa süreçlerin daha gelişmiş bir model için daha fazla bilgiye muhtaçlık duyuluyor. Yeni bilgilere ulaşmak için ise sentetik datalara, yani yapay zeka tarafından üretilmiş verilere yönelmeye başlanmış durumda. Çünkü yapay bir modelin ürettiği datalarla eğitilen diğer bir model, kusurları katlayarak çoğaltabilir. Artışın nedeni bu olabilir.

Sorunun tahlili var mı?

Halüsinasyon sıkıntısını çözmeye odaklanan, sadece bu alanda faaliyet gösteren şirketler bile mevcut. Aslında sanayi, bu sorunun varlığını en başından beri biliyordu; lakin tahlil sanıldığı kadar kolay değil. Bir sorunun tahliline ulaşmadan evvel sorunun ne olduğunu anlamak gerekir. Yapay zekalar özelinde bunu yapamıyoruz, zira bu sistemlerin gerçekte nasıl çalıştığını bilmiyoruz.

Dolayısıyla tahlil, göz önüne olan bir şey de olabilir yahut yapay zekaya devrimsel bir yaklaşım getirecek yepisyeni bir adım da olabilir.

administrator

Related Articles

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir