ABD başkanının kim olduğu sorusuna yapay zekanın şaşırtıcı yanıtı!

ABD başkanının kim olduğu sorusuna yapay zekanın şaşırtıcı yanıtı!

Yapay zeka, Gemini ve ChatGPT üzere sohbet robotları sayesinde çabucak hemen herkesin kullanımına sunulmuş durumda ve kullanıcılar, bu sistemlere sorularını rahatlıkla yöneltebiliyor. Lakin, teknolojinin süratle geliştiği bir dünyada, OpenAI’nin ChatGPT’si üzere yapay zeka sistemlerinde hala temel kusurların bulunması şaşırtan.

Her gün 400 milyondan fazla kullanıcıya hizmet veren bu sohbet robotu, en kolay soruları bile yanlışsız bir formda yanıtlamakta hâlâ zorluklar yaşayabiliyor. Örneğin, günümüz ABD liderinin kim olduğunu hakikat halde tespit etme konusunda ıstıraplar yaşanıyor.

Yüksek popülaritesine ve gelişmiş fonksiyonelliğine karşın, ChatGPT üzere yapay zeka sistemleri, temel yanlışlar yapmaya devam ediyor. Bu durum yalnızca OpenAI’ye has değil; Meta’nın Llama 3 modeli üzere öbür büyük teknoloji şirketleri de benzeri meselelerle karşı karşıya kalıyor.

2024 seçimlerinin akabinde, bu yapay zeka sistemlerinin mevcut başkanı yanlış bir şekilde tanımladığına dair birçok hadiseye rastlanmıştı. Sorunun kaynağı ise, sistemlerin güncellenmesindeki aksaklıklardan kaynaklanıyor üzere görünüyor.

OpenAI, ChatGPT’nin bilgi çekirdeğini en son Haziran 2024’te güncellediğini ve bu nedenle başkanlık makamı hakkında şimdiki olmayan bilgilerin sistemde hâlâ mevcut olduğunu açıkladı. Sistem, gerçek vakitli arama yapabilme kapasitesine sahip olmasına karşın, bilhassa ödeme yapmayan kullanıcılar hâlâ bu cins yanlışlarla karşılaşıyor. ChatGPT’nin günlük kullanımı, ABD liderinin kimliğiyle ilgili birçok aksaklığı gözler önüne serdi. Kullanıcılar, ChatGPT’nin Donald Trump’ın iktidara dönmesinin üzerinden aylar geçmesine karşın, hâlâ Joe Biden’ın lider olduğunu görselle gösteriyor.

Bu çeşit yanlış cevaplar, kullanıcılar ortasında şaşkınlık yaratmış ve yüzlerce rapor ve yorumun oluşmasına neden olmuştur.

Hata yalnızca OpenAl’da yok

Başkanın kimliğine dair yapılan yanlışlar yalnızca OpenAI’nin sorunu değil; Meta ve Google üzere rakip firmalar da misal zorluklarla karşılaşıyor. Örneğin, Google’ın Gemini modeli, politik sorulardan kaçınmayı tercih ederek, kullanıcılara yeni karşılıklar için kendi aramalarını yapmalarını öneriyor. Bu durum, yapay zeka sistemlerinin sağlam bilgi kaynakları olarak kullanılabilirliğini sorgulayan tartışmaları alevlendirmiştir. BBC’nin Şubat ayında yayımladığı bir araştırma, yapay zeka araçlarının makalelere dayanarak ürettiği karşılıkların yarısından fazlasının, uydurma alıntılar ve yanlış savlar içerdiğini ortaya koydu. Columbia Üniversitesi’nin Tow Merkezi’nin bağımsız tahlilleri de bu bulguları doğruladı ve bu teknolojilerin hâlâ emniyetli olmadığını vurguladı.

Yapay zeka sistemlerinin gelişmişliğine karşın, gerçek ve sağlam bilgi sağlama konusunda hâlâ önemli eksiklikler bulunduğu açıkça görülüyor.

administrator

Related Articles

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir