Kuşkusuz yasaklama bir çözüm değil. Kod müdahalesi olabilir. Yerli yapay zekâ modellerini geliştirmek stratejik önemde. Etik ve teknik yetkinlik içinse çeşitlendirilmiş, kaliteli veri setleri gerekiyor. (Grafik: AA)
Hepimiz bir ölçüde cahiliz; bilim ve teknoloji her gün ilerliyor ve kimse her şeyi bilemez. Bu gerçeği kabul etmediğimizde ve öğrenmeyi değil yasaklamayı, cezalandırmayı tercih ettiğimizde, toplum olarak potansiyelimizi gerçekleştiremediğimiz bir döneme mahkûm oluruz. Bu gerçek, yapay zekâ uygulamalarıyla her gün karşımıza çıkmaya başladı.
Günümüzün hızla değişen bilgi ortamında kendi cehaletimizle yüzleşmek en önemli sorumluluklarımızdan biridir. Her gün inanılmaz keşifler yapılıyor; bu yüzden kendimizi fazla ciddiye alamayız. Aksi takdirde cehaletimiz hırçınlığa dönüşür ve kendimizi bir yapay zekâ modeli ile kavga ederken ya da onu kapatmaya çalışırken bulabiliriz. Bu komik duruma düşmemek için öğrenmeye ve anlamaya yönelmek zorundayız.
Grok gibi büyük dil modelleri, kitaplar, haber makaleleri, web siteleri ve benzeri devasa veri kümelerinden dilin yapısını, kalıplarını ve bağlamları öğrenerek yanıt üretir. Çekirdekteki prensip basittir: model, verilen bir metinde bir sonraki kelimeyi tahmin eder. Bu tahmin yeteneği, her yanıtın rastgele bir “ortalama” değil, modellerin tüm cümleyi ve hatta metni göz önünde bulundurarak bağlamı anlaması sayesinde oluşur.
Büyük Dil Modelleri (LLM) cümle yapısını, kullanılan kelimeleri ve önceki konuşmaları dikkate alarak sorunun niyetini anlamaya çalışır. Örneğin, bir kullanıcının “ortalama” derken neyi kastettiğini anlar ve buna göre açıklama yapar.
Eğitim verilerindeki farklı bilgiler birleştirilerek soruya en uygun, mantıklı yanıt oluşturulur. Bu süreç, var olan cevapları kopyalamak yerine bilgiyi yeniden yapılandırarak özgün bir yanıt sunmak anlamına gelir.
Model, eğitim verilerinde doğrudan bulunmayan konularda bile örüntülerden yola çıkarak çıkarım yapabilir; daha önce hiç karşılaşmadığı bir teknik soru için bildiklerini birleştirip tahmini bir yanıt verebilir.
Bazı modeller, yalnızca eğitim verilerini kullanmakla kalmaz; isteğe bağlı olarak internetteki güncel kaynakları tarayarak yanıtlarına dahil edebilir. Ancak bu, modelin temel çalışma prensibi değildir.
Bu özellikler, Grok’un kullanıcıların sorularına verdiği yanıtların salt çoğunluğun ortalaması olmadığını ve bağlam ile yaratıcılığın devreye girdiğini göstersede eğitim seti yapay zekânın bir nevi karakterini ve yapabileceklerini belirler.
Bir modelin eğitildiği veri, çıktılarının kalitesini ve tarafsızlığını doğrudan etkiler. Veri ön yargısı, temsil edilmeyen veya hatalı verilerden kaynaklanan sistematik hatalardır ve bu durum yapay zekâ sistemlerinde hatalı veya önyargılı sonuçlara yol açabilir. Grok’un eğitim verisinin büyük bölümü X (eski Twitter) paylaşımlarından oluşuyorsa, bu model oradaki söylemin bir yansımasına dönüşür.
Örneğin, eğer model yalnızca IŞİD ile ilgili yazışmalardan beslenseydi, büyük olasılıkla cihat propagandası yapardı. Dolayısıyla modelin çıktıları, biz kullanıcıların ürettiği verilerin, algoritmaların ve geliştiricilerin koyduğu kısıtların bir bileşkesidir. Veri kalitesini ve çeşitliliğini artırmadıkça, üretilecek yapay zekâlar da sınırlı ve önyargılı olacaktır.
Grok’un kendisi ile sorunu olduğunu düşünen değerli trolümüz biraz daha öğrenmeye açık olabilseydi Grok’un milyonlarca Türk kullanıcısının görüşlerinin bir yansıması olduğunu fark edebilir ve bu konuyu daha fazla uzatmamayı seçebilirdi.
Trolümüzün Grok’tan gelen cevapları düzeltmesinin iki yolu var.
Birincisi çok daha iyi, nazik, mantıklı bir insan olmayı seçebilir, böylece insanların kendisini hakkındaki görüşleri düzelebilir. Bu görüşler üzerinden eğitilen Grok da bir süre sonra kendisine küfretmemeye başlar.
Fakat bu yolun seçilmeyeceği aşikâr.
İkinci yol ise son dönemde ülkede sıklıkla kullanılan hapset, hapsedemiyorsan yasakla/faaliyetini engelle yöntemine daha yakın.
Bu yöntem, Grok’a doğrudan kod düzeyinde müdahale edilmesini sağlamaktır. Çok yakın bir zamanda Grok ırkçılığa varan şekilde Yahudiler hakkında ileri geri konuşmaya başlamıştı ve kısa süreli de olsa fişini çekip bir güncelleme yaptılar. Bu güncelleme sonrasında artık İsrail ve vatandaşları hakkında aynı sertlikte cevaplar veremiyor. Trolümüz aynı ayrıcalığı talep edebilir.
Bu müdahale tüm dünyaya Grok’un da aslında bir yazılım olduğunu hatırlattığı için önemli. Bu da işte yazının başında söylediğim gibi hırçınlıklarımızı kontrol altına almamız için başka bir sebep. İsrail hakkında kötü söylemler bir güncelleme ile engellenebiliyorsa, herhangi bir politik konuda, herhangi bir lider hakkında Grok’un verdiği bilgi ne kadar güvenilir olabilir? Özellikle seçim zamanlarında X kişi hakkında ağırlıklı olarak iyi, Y kişi hakkında ağırlıklı olarak kötü yorum yapması sağlandığında seçim sonuçlarını değiştirebilir mi?
Elon Musk, internetteki içeriklerin büyük dil modellerini beslemek için yetersiz kaldığını ve gelecekte sentetik veri ile eğitilmiş yapay zekâların artacağını savunuyor. Bu nedenle yerli modeller geliştirip kendi eğitim verilerimizi üretmek hayati önem taşıyor. Selçuk Bayraktar’ın açıkladığı gibi, Türkiye’de geliştirilen yerli yapay zekâ modellerini desteklemek, hem kültürel uyum hem de veri egemenliği açısından stratejik bir adımdır.
Fakat bu modellerin de etik ve teknik açıdan başarılı olabilmesi için yüksek kaliteli ve çeşitlendirilmiş veri setlerine ihtiyaç vardır; aksi hâlde önyargı problemleri yine karşımıza çıkacaktır. Unutmayalım şu anda kullanımıza açık olan tüm yapay zekâ modellerini eğiten insanlar var, bu modellerin eğitildi veri setleri var. Tıpkı bir çocuğu büyütür gibi şekillenen bu modeller bir sonraki aşamada dünyamızı çok daha derinden etkileyecekler, o yüzden şu aşamada yapay zekâyı yaratan ve eğiten kişilerin kimlikleri, ön yargıları, amaçları ve gelecek hayalleri hepimizi etkileyecek.
Bir yapay zekâ modelinin sizi rahatsız eden bir yanıtı, ne platformun kapanmasını ne de tüm teknolojinin şeytanlaştırılmasını haklı çıkarır. Cehaletimizi öğrenmeye ve sorgulamaya dönüştürdükçe, öfke ve yasaklama yerine açık tartışma ve nitelikli veri üretimi ile sorunların üstesinden gelebiliriz. Her platformu kapatarak veya yargı yoluna giderek ne kendimize ne de topluma fayda sağlarız. Bir sonraki yazıda “Yapay zekâ hâkimler adil kararlar verebilir mi?” sorusunu tartışarak bu konuyu derinleştireceğiz.
TBMM Komisyonunun 4 Aralık toplantısı AK Parti-MHP ittifakının “Terörsüz Türkiye” sürecinin 2026 yılının ilk yarısındaki…
Dışişleri Bakanı Hakan Fidan, Rusya-Ukrayna savaşının giderek daha geniş bir coğrafyaya yayıldığını, bunun “çok korkutucu…
İçişleri Bakanlığı 2 Aralık gecesi 22.15te Irak Kürdistan Demokratik Partisi (KDP) lideri Mesud Barzani’nin 29…
Dün, 1 Aralık, Ankara’da “Ortak Geleceğe Birlikte Bakmak” başlıklı bir çalıştay vardı. Diyarbakır merkezli araştırma…
Barışın kaderi çoğu zaman masadaki teknik maddelerle, güç dengeleriyle ve takvimlerle açıklanır. Oysa eksik olan…
Avrupa’nın kuraklık haritası artık yalnızca meteoroloji raporlarında değil, uyduların yerçekimi ölçümlerinde de görünür durumda. Yirmi…