AI toplumuna ilk adım: Birbirleriyle konuşan yapay zekalar davranışlarını değiştiriyor

AI toplumuna ilk adım: Birbirleriyle konuşan yapay zekalar davranışlarını değiştiriyor
Yapay zekanın gelişimi açısından kritik bir periyoda girmiş bulunuyoruz. Şu anda ön planda olan akıl yürütme modelleri, yavaş yavaş doğal sonlarına ulaşıyor. Lakin buna paralel olarak, farklı metotlar kullanan yeni yapay zeka modelleri ortaya çıkıyor. Bilhassa geçtiğimiz hafta tanıtılan AlphaEvolve, kendi kendini eğiten yapay zekaların yavaş yavaş gerçeğe dönüşmeye başladığını gösteriyor. Öbür yandan Microsoft ve Google üzere şirketler, farklı yapay zekaların birbirleriyle temas kurup birlikte çalışmalarını mümkün hâle getirecek sistemlerin temellerini atıyor. Üst üste gelen bu gelişmeler, yapay zekanın gelişiminde kritik bir dönemece girdiğimizi gösteriyor.

Tam da bu devirde yapılan bir araştırma, bu süreçte dikkate alınması gereken kıymetli bir soruyu gündeme taşıdı: Yapay zekaların tam olarak nasıl çalıştığını bile anlayamıyorken, bir ortaya geldiklerinde  nasıl davranacaklarını nasıl öngörebiliriz?

Bir Ortaya Gelen Yapay Zekalar, Ferdî Olarak Davrandıklarından Farklı Davranıyorlar

Yapay zekaların bir kümenin kesimlerini oluşturduklarında nasıl davranacaklarını, birbirlerini nasıl etkileyeceklerini görmek isteyen araştırmacılar, ChatGPT gibisi büyük lisan modellerini ve AI casuslarını bir ortaya getirerek “adlandırma oyunu” olarak bilinen bir deneye doğal tuttular. Grup dinamiklerinin nasıl oluştuğunu görmek için insanlara da yapılan bu deneyde, beşerler (ya da bu durumda yapay zekalar) bir ortaya getiriliyor ve her birinden makul bir seçenek kümesinden bir “isim” seçmesi isteniyor. Ortalarında direkt bir uyum ya da bağlantı olmayan iştirakçiler birebir ismi seçtiğinde ödüllendiriliyor. Bu tekrar eden etkileşimler sayesinde vakitle küme içinde bizatihi ortak isimlendirme kalıpları (normlar) oluşuyor.

Birleşik Krallık’ta yapılan deney, insanlarda görülen bu toplumsal normlar oluşturma eğiliminin yapay zekalarda da olduğunu gösteriyor. Tıpkı halde yapay zekaların vakitle küçük kümeler oluşturması ve  “sürüye” ayak uydurma eğilimi göstermesi de dikkat çekiyor.

Dahası, bu yapay zeka topluluklarının vakit içinde belli önyargılar geliştirdiği gözlemlendi. Fakat bu önyargıların, daha evvel varsayıldığı üzere tekil bir yapay zeka modelinin iç kodlamasından ya da verisinden kaynaklanmadığı ortaya çıktı. Bilakis, bu eğilimlerin yapay zekalar ortası etkileşimler sonucu, adeta toplumsal bir ortamda evrimleşerek formlandığı anlaşıldı. Yani, yapay zekalar birbirleriyle irtibat kurdukça, küme içinde resen ortak davranış kalıpları ve tercih yönelimleri oluşmaya başladı. Bu durum, küme dinamiklerinin yapay zeka davranışlarında da kritik bir rol oynayabileceğini ortaya koyuyor

Araştırmanın başında yer alan Profesör Andrea Baronchelli, buradan hareketle mevcut yapay zeka güvenliği yaklaşımlarının değerli bir eksiğine dikkat çekiyor: “Şu ana kadar güvenlik araştırmaları büyük ölçüde tekil modellerin denetimine odaklanıyordu. Halbuki biz burada, önyargı üzere davranışların modellerin birbiriyle olan etkileşimlerinden kaynaklanabileceğini gösterdik. Bu, bugüne kadar gereğince ele alınmamış büyük bir kör nokta,”

“Yapay Zekalar Artık Sadece Cevap Veren Sistemler Değil.”

Çalışmanın dikkat çeken bir öbür sonucu ise, küçük bir yapay zeka kümesinin, daha büyük ve heterojen bir kümesi kendi benimsediği normlara yanlışsız yönlendirebilmesi oldu. Bu durum, grup içindeki güç dinamiklerinin de yapay zeka topluluklarında ortaya çıkabileceğini gösteriyor. Yani sayıca az bile olsalar, daha “kararlı” ya da tesirli casuslar, genel davranış normlarını şekillendirme gücüne sahip olabiliyor. Bu bulgu, insan toplumlarında görülen toplumsal tesir ve norm oluşturma düzenekleriyle direkt benzerlik taşıyor.

Araştırmacılara nazaran bu gelişmeler, yapay zekaların gelecekte birbirleriyle daha fazla bağlantı kuracağı ve etkileşime gireceği bir dijital dünyaya adım atarken büyük ehemmiyet taşıyor. Zira bu cins yapay toplulukların nasıl şekillendiğini ve kendi iç sistemlerini nasıl oluşturduğunu anlamak, bu sistemlerin beşerlerle ahenk içinde çalışabilmesini sağlamak için kritik. Baronchelli bu noktada şu uyarıyı yapıyor: “Yapay zekalar artık sadece cevap veren sistemler değil. Aralarında fikir birliği kuruyor, normlar oluşturuyor, hatta birtakım hususlarda birbirlerine karşı çıkıyorlar. Tıpkı beşerler üzere toplumsal varlıklar hâline gelmeye başladılar. Bu gerçekliği anlamadan onları yönetemeyiz.”

administrator

Related Articles

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir