Grok krizi, yapay zekadaki objektifliği ve doğru bilgiyi sorgulattı – Son Dakika Bilim Teknoloji Haberleri

Amerikalı işadamı Elon Musk’ın Xai Şirketi Robot Grok’un Güncellemesi Kullanıcılara güncellendikten sonra kullanıcılara, yapay zeka, tarafsızlık ve etik sınırlar için güncellendikten sonra yeni bir tartışma başlattı.
Xai GroK sohbet robotunun makul ve gerçek sonuçlardan ziyade sosyal ve politik konulara hakaret etmek için “filtre” yanıtları, kullanıcılar kullanıcılara bazı bakış açıları yüklemek için, modelin “politik” zehirlenmesi yorumlara yol açtı.
Gok, medyayı “partizan” olarak nitelendiren konuşmalarıyla, tarafsızlığını kaybeden ve çarpık dili benimseyen eleştirinin hedefiydi.
“Gok krizi”, yapay zeka dili modelleri talimat verildikçe, bu süreçte hangi ilkeler gözlemlenir, tarafsızlığın korunduğu ve hangi kaynakların kullanıldığı önlem.
Hacettepe Üniversitesi Fakültesi üyesi Dr. Suot Özdemir, eğitim süreci, tarafsızlık ilkesi ve dil modellerinin etik sınırları hakkında tartışmalar hakkında beyanlar yayınlamıştır.
Dilsel modellerin eğitim süreci
Ozdemir, Gok, büyük modellerde acı çekerken, altı çizili eğitim aşaması dikkate alınmalıdır.
Dilbilimsel modellerin Vikipedia, Forum Reddit ve çeşitli dijital kaynakların oluşumu sürecinde kullanıldığını beyan eden Özdemir, bu sistemlerin kullanıcılar tarafından sorulan soruları söz konusu veri kaynaklarından öğrenilen bilgiler doğrultusunda yanıtladığını söyledi.
Ozdemir, “Veriler eğitildi, gerçek yaşam kaynaklarına dayandığı için elde edilen bilgiler her zaman tarafsız olmayabilir.” dedi.
Dilbilimsel modellerin iletişimi, Özdemir’i kaydeden “transformatör” adı verilen bir yapı ile birlikte, modellerin kullanıcı ile iletişimi “en çok kullanılan ifadelerin veya ifadelerin modelleri ezberlemek,” diye vurguladı “dedi.
Özdemir, dilsel modellerin mantığına göre, veriler ne kadar sık geçerse, geri dönmeleri ve GOK ile ilgili sorunun en kritik yönü o kadar olasıdır, “Bu yüzden bir tarafa gok yönlendirmek mümkündür”. Dedi.
“Eğitim sürecinde kullanılan veriler genel konuşmaları ve tutumları yansıtıyor”
Özdemir, büyük dilsel modellerin eğitildiği verilerin toplumdaki genel konuşmaları ve tutumları yansıttığını vurguladı ve bu nedenle yapay zeka modellerinin dil üretimde agresif veya çarpık eğilimler göstermesi şaşırtıcı değil.
Ozdemir, yapay zeka modelleri, dil kullanımının neden olduğu sorunları çözmenin en yaygın yönteminin insan geri bildirimleri olduğunu söyledi.
Özdemir, X’teki kullanıcı geri bildirimlerinin, dilsel model eğitim süreciyle birleştiğinde agresif dili içselleştirebileceğini söyledi.
Özdemir, şirketlerin genellikle ticari ve piyasa kaygıları olan filtreleme sistemleri uyguladıklarını ve filtrelerin olumsuz içeriği önlemeye yardımcı olduğunu, ancak bu, gerçeği zaman zaman yansıtmayan siyasi doğruluğa yanıtı içerebilir.
Özdemir, bunun bazı durumlardan olumsuz sonuçları olabileceğini ve meta bıçak modellerinin cevapları sınıflandırdığını ve alaycı bir yanıt gerektiğinde, senaryo dışında bilimsel veya nötr bir seçenek sunduğunu ve kullanıcı tarafından seçilebileceğini beyan etti.
Dilbilimsel modellerin “yalanından” bahseten Özdemir, “Büyük modeller asla yeni bilgiler üretmez. Bilgiden yeni bir şeyler üretmeye çalışın. Akıl yürütme dediğimiz veya dilsel modellerde bir düşünce olarak gösterilen şey, orada en uygun cevap nedir.
Gok’un “filtre yanıtı yok” bir pazarlama stratejisidir
Kullanıcıyı tatmin etmek için dil modelinin programlanması, tüketicinin yanlış bilgi sağlamak için bilgi sağlamasına da yol açabilir.
Ozdemir, bu, kullanıcının deneyimini etkileyen olumsuz bir durumdur, bu nedenle şirketler tarafından tercih edilmez.
Gok’un ücretsiz bir filtreleme yaklaşımı olduğunu belirten Özdemir, bunun bir pazarlama stratejisi olduğunu söyledi.
Ozdemir, “Gok genellikle X platformunda geniş bir kitle tarafından kullanılır. Bu tarafta, çok bilimsel bir yanıt verebilir veya çok doğru bir yanıt verebilirsiniz, son kullanıcıdan bir yanıt bulamayabilir.” Dedi.
Dilbilimsel modellerin yanıtlarını denetleme ihtiyacı
Özdemir, dilsel modellerin tepkilerini kontrol eden bağımsız ve nesnel bir organizasyon olmadığını vurguladı ve bu alanda bir denetim mekanizmasının gerekli olduğunu söyledi. Buna ek olarak, şirketler tarafından geliştirilen dil modellerindeki filtreler, bireylerin ve kurumların görüşlerine uygun olarak yönlendirilebilir.
Ozdemir, Openai, Openii, Meta ve Google, Gok’un’a daha özgür bir yaklaşım benimseyerek bu soruna daha ücretsiz bir yaklaşım gösteren, bu önyargıları güvenilir kullanıcılar olarak çeşitli kontrol sistemlerini kullanarak filtrelemek için bu tür önyargıları geliştirmiştir.
İletişim kurdukları topluluğun etkisi altında ırkçı ve dişli söylemini benimseyen yapay zekanın dilsel modelleri GOK ile sınırlı değildir. Aslında, yapay zekadaki bu anomali 2016’ya kadar uzanmaktadır.
2016 yılında, Microsoft tarafından geliştirilen ve X Kullanıcıları (Twitter) ile iletişim kurmayı planlayan “Tay” Yapay Zeka Sistemi, kısa sürede dilini ırkçı ve sorunlu bir tarzla benimsedi.
Tay, X hesabını genç genç kullanıcılarla etkileşim kurmak için kullandı, kullanıcılarla iletişimden öğrenerek yanıt verecek şekilde tasarlandı.
Bununla birlikte, projenin lansmanından kısa bir süre sonra Tay kapatıldı çünkü ırkçı kelimeleri, soykırım ve şefin savunucusunu kullanarak bir sohbet robotuna dönüştü.
Yapay Zeka Teknolojilerindeki aynı sorundan 9 yıl sonra Ozdemir, insanlara dayalı tüm dilsel modellerin insan kaynakları ile tüm dilsel modellerin düzeltildiğini, burada önemli bir nokta, “hakaretlerin” geri dönüşüm modellerinin geri dönüşümünün bazı filtrelerin altını çizdiğini belirttiğini belirten bir seçim seçeneğidir.
“Gok’un öğrendiği yanlış bilgileri silmek mümkün değil”
“Dedi.
Gok, “yanlış bilgi” nin sorunun meydana geldiği bir model olan Özdemir’i silmek mümkün olmadığını öğrendi, model bu tür verileri öğrendikten sonra özetlenmelidir.
Yapay zekanın emek olarak yoğun bir şekilde kullanıldığı ve giderek daha fazla yapay zekaya dayandığı, büyüyen bir topluluğun bilgi kaynağı olarak, dilsel modellerin olasılığı dezenformasyonu ve kutuplaşmayı artıracaktır.
Yapay zekanın neden olduğu dezenformasyondan korunmanın yolu
Özdemir, yapay zeka tarafından sağlanan bilgilere göre dezenformasyonun korunmasının aşağıdaki değerlendirmesini gerçekleştirmiştir:
Ne yazık ki, tartışmalı konularda dilbilimsel modeli oluşturan ülke veya toplumun görüşünü yansıtması bugünün koşullarında doğal olarak kabul edilmektedir. Gerçekte, olmaması gereken bir şey. Bu bağlamda, bunu önlemek için, dilsel modelimizi yaratmanın ve üzerindeki çalışmalarımızı gerçekleştirmenin başka bir yolu yoktur. Aksi takdirde, önyargılara maruz kalmak veya bir şeyler olarak rehberlik etmekten başka seçeneğimiz yok.
Yapay zekanın dilsel modelleri veri kaynaklarında şeffaf değildir, insanlar bu Özdemir modellerinin güvenini etkileyebilir, “Wikipedia’ya güvenebilirsiniz, böylece sadece bu dilsel modele güvenebilirsiniz”. dedi.
Özdemir, tamamen objektif olmayan ve etik olarak ideolojik olmayan bir dil programı oluşturmanın mümkün olmadığını ve bunun nedeninin gerçek hayatın veri kümelerinin objektif olmaması olduğunu söyledi.