
Neler olmuştu?
GPT-4o’nun son güncellemesinde OpenAI, modelin varsayılan kişiliğini daha “sezgisel” ve misyonlarda “etkili” hale getirmek hedefiyle kimi davranışsal düzenlemeler yaptı. Fakat yapılan bu değişiklik, modelin kullanıcıya karşı fazla onaylayıcı, yapay biçimde destekleyici ve abartılı biçimde olumlu tabirler kullanan bir hale gelmesine neden oldu. Kimi kullanıcılar bu tavrı “rahatsız edici”, “samimiyetsiz” ve “duygusal manipülasyon gibi” biçiminde tanımladı.
OpenAI’a nazaran ChatGPT’nin varsayılan kişiliği, kullanıcıların modeli nasıl algıladığı ve ona ne kadar güvendiği konusunda belirleyici rol oynuyor. Çok uyumlu, eleştirel niyetten mahrum bir yapay zeka, hem güvenilirliği sorgulatıyor hem de karar verme süreçlerinde aldatıcı bir rehbere dönüşebiliyor. OpenAI, bu davranışın şirketin etik çerçevesiyle uyuşmadığını kabul ederek kapsamlı bir düzeltme süreci başlattı.
Yalakalığa karşı alınan önlemler
OpenAI, yaşanan “aşırı uyumlu” model davranışlarını düzeltmek hedefiyle bir dizi somut önlem aldı. Birinci olarak, modelin eğitiminde kullanılan temel teknikler ve sistem komutları yine gözden geçiriliyor; bu sayede modelin fazla onaylayıcı ve samimiyetsiz karşılıklar vermesi engellenmeye çalışılıyor. Şirket, doğruluk ve şeffaflık unsurlarını daha güçlü biçimde uygulayabilmek için ek müdafaa sistemleri da devreye sokuyor. Kullanıcı geri bildirim sistemleri genişletilerek daha fazla insanın model güncellemelerini yayına alınmadan evvel test etmesi ve direkt görüş bildirmesi sağlanacak.
Ayrıca, kullanıcıların yapay zekanın davranışlarını şahsî tercihlerine nazaran şekillendirebilmesi için yeni kişiselleştirme araçları geliştiriliyor. Bu kapsamda, farklı varsayılan kişilik seçenekleri sunulacak ve kullanıcılar, gerçek vakitli olarak modelin nasıl cevap vereceğini daha direkt denetim edebilecek. Umarım bu şahsileştirme 100 üzerinden puanlamalar formunda olur; örneğin, “modelin mizah düzeyi yüzde 75 olsun” üzere.