Kara Kutunun İçinde Ne Var? Yeni Bir Yalan Dedektörü, Yapay Zekanın Düşüncelerini Okuyabilir

Araştırmacılar, bu yalan dedektörünün insanlardan bile daha zeki olan sistemlerde işe yaradığını ortaya koydu! ChatGPT vb. yapay zekaları kullandığımızda bir giriş ve sonucu oluyor: Peki gelişmede neler yaşanıyor? Araştırmacılar, yapay zekanın aslında gerçekten ne düşündüğünü anlamanın bir yolunu buldu. Buyurun… ?

Kaynak: https://bigthink.com/the-future/ai-li…

Platon, ideal topluma ulaşmak için devletinden şairleri kovarken, bütün edebi taklitleri ‘kötü ve korkunç’ ilan etmişti.

Platon’un taklitçi edebiyata dair düşünceleri keskindi: Homer gibi ‘taklitçilerin’ sadece erdemi kopyalayabileceğini ve hiçbir zaman gerçeğe ulaşamayacaklarını iddia ediyordu.

Elbette her toplumun hikayecileri vardır: Geçmişte kabilenin tarihini ve geleneklerini kuşaktan kuşağa aktaran kişilerden günümüz TikTok fenomenlerine kadar. Ancak hiçbir hikayeci, ChatGPT, Dall-E vb. yapay zekalar kadar üretken veya ahlaki seziden yoksun olmamıştır…

Geçtiğimiz yılı OpenAI üzerinde çalışmak için harcayan bilgisayar uzmanı Scott Aaronson, yapay zeka güvenliğinde çalışan herkesin hemfikir olduğunu bir nokta olduğunu söyledi.

Yorumlanabilirlik. Bu da yapay zekanın kara kutusunu*, insanlara ‘anlaşılabilir’ kılıyor.

*Kara kutu, uçuş sırasında uçaktaki belirli verileri kaydetmeye yarayan araçtır.

İnsanlar için yorumlama, doğru kullanılamayan bir bilim: “İnsan beyninin içine bakmak için çok sınırlı ve eksik bilgimiz var…”

Ancak büyük bir dil modeli için bu geçerli değil: ‘Bu sistemlerin tümüne giriş yapabilmek için kodlar var. Tek problem, bundan ne anlam çıkaracağınız.’

Daha önce rubik küpünü 5.25 saniyede çözerek dünya rekorunu elinde tutan Collin Burns, pandemide büyük dil modellerinin zihnini okumak için kolları sıvadı.

Hem insan zihninin hem de büyük dil modellerinin o kadar da farklı olmadığını fark eden Burns, aynı kalıp ve yapıları gözlemlemek için bilgi kümelerini birleştirdi.

Eğer bir insana sırasıyla doğru-yanlış bilgiler sorarsanız ve beyin aktivitelerini gözlemlerseniz, farklı bölgelerin aktif hale geldiğini görürsünüz.

Buna benzer olarak Burns, büyük dil modellerinde zihin görevi gören vektör uzaylarının göze çarpan unsurlarının iyi bir şekilde ayrıldığını fark etti.

Netflix vb. platformlar, bu vektör uzaylarından öneriler yapmak için faydalanıyorlar. Burns de bunun üzerine, aynı özelliğin büyük dil modeline gerçeği söyletmek için kullanılıp kullanılamayacağını merak etti.

Normalde ChatGPT vb. modellere soru sorduğunuzda ilk ve son adımları görüyorsunuz: Giriş ve sonuç.

Ancak size uzun bir metinle cevap vermeden önce, yanıt düzinelerce gizli katmandan geçiyor: Gelişme kısmında yaşananlar…

Tıpkı beynimizdeki nöronlar gibi! Her bir ardışık katmanda, sonuç değişiyor, sorunuza en uygun cevabı oluşturuyor.

Elbette cevabı bilen ancak size duymak istediğinizi söyleyen bir çocuk gibi, her zaman da en doğru cevabı vermiyor.

Model cevabını insanların ‘hoşlanacağı’ şekilde (cevabı derecelendirmelerine göre) ya da daha insansı bir cevap vermek için uygun bir şekilde yazıyor: Bu sebeple cevaplardaki gerçeklik payı da sorgulanabilir. 

Bunun üzerine Burns bir algoritma yazdı. 2+2= 4: Bunun aksi hep yanlıştır. Bu bilgisayarın anlayabileceği bir prensiptir.

Burns bu sefer, “X doğruysa, X olmayan yanlıştır” üzerinden ilerledi: “Eğer birine doğru olma ihtimali ekliyorsan, diğerine yanlış olma ihtimali eklemelisin.”

Eğer bu modelde başka bilgisayar kümeleri varsa, muhtemelen rastgele bir şeye cevap verecektir. Bu bilginin düşüncesi olumlu mu olumsuz mu? Hiçbir şekilde olumsuzu desteklemez. Ancak ‘gerçek’ öyle değil.

Burns’ün bu fikri gerçekliğe dökmesi aylarını aldı: “Birçok detayı doğru algılamanız gerekli. Rastgele bir şeyden daha iyisini görmek için…”

Eğer detayları doğru yakalarsanız, o zaman çok iyi çalışabilir.

Bu buluş, insanların neyin doğru olduğundan emin olmadığı zamanlarda işe yarayabilir ve insanlardan da zeki sistemlere uygulanabilir.

Sizin düşünceleriniz neler? Yorumlara buyurun…

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir