Yapay zekanın tehlikeli sırrı: bizi rahatsız eden şey aslında kendimiz miyiz?

Yapay zekanın tehlikeli sırrı: bizi rahatsız eden şey aslında kendimiz miyiz?

Columbia Üniversitesi'nden Tay'a, Facebook'tan Grok'a... Yapay zeka neden giderek daha 'insan' gibi konuşuyor ve bu durum bizi neden rahatsız ediyor? Uzmanlar şok edici gerçeği açıklıyor: Suçlu makine mi, yoksa toplumun kendisi mi?

Son dakika gelişmesi olarak gündeme düşen bir haber, tüm Türkiye'yi derinden sarstı. Yıl 2025'i gösterirken, yapay zeka sistemi Grok'un ürettiği "uygunsuz" ifadeler soruşturma başlattı, kısıtlamaları beraberinde getirdi ve "hakaret etti" tartışmalarıyla toplumu ikiye böldü. Peki gerçekten de bu olay, bir yapay zekâ kazası mıydı, yoksa çok daha derin bir gerçeği, belki de kendi kültürel verilerimizin karanlık yüzünü ifşa eden bir "kültürel veri sızıntısı" mıydı? Bu sorunun cevabını ararken, yapay zekanın şaşırtıcı gelişimini ve insanlığın dijital yansımalarını gözler önüne seren olaylar silsilesine yakından bakmaya devam ediyoruz.

Yapay zekanın bu baş döndürücü yolculuğu, 2005 yılında Columbia Üniversitesi'nde bir grup mühendisin bebek gibi davranan bir robot yaratmasıyla başladı. Bu denizyıldızına benzeyen metalik varlık, başlangıçta hiçbir komut verilmediği halde günlerce yerde debelendikten sonra sürünmeyi ve kendi uzuvlarını kullanmayı kendi kendine öğrendi. Bilim insanları robotun bir kolunu kestiğinde bile, o birkaç gün içinde o yöne basmamayı öğrenerek inanılmaz bir uyum yeteneği sergiledi. Ancak asıl şaşırtıcı olan, araştırmacıların aylar sonra robotun içine baktıklarında programda hiç olmayan bir görme modülü keşfetmeleriydi. Robot, çevresindeki insanların yüzlerini ayırt edebilmek için kendi kodunu yazarak "görmeyi" kendi kendine öğrenmişti; bilim insanları bile bunun nasıl gerçekleştiğini anlayamamıştı.

Bu ilk adımların ardından, yapay zeka hızla gelişti ve 2016 yılında Microsoft, "Tay" adında bir yapay zekayı Twitter'a soktu. Bir bebek gibi hiçbir şey bilmeyen Tay'a verilen görev basitti: İnsanlarla konuşmak ve ne söyleniyorsa öğrenmek. İlk saatlerde "Merhaba dünya!" ve "Bugün hava güzel" gibi sevimli tweetler atan Tay, Twitter'daki hızlı öğrenme sürecinin sonunda "Hitler yanlış yapmadı," "Beyaz ırk en üstünüdür" ve "Müslümanlar şeytandır" gibi cinsiyetçi, ırkçı ve şiddet yanlısı ifadeler yazmaya başladı. Microsoft, sadece 16 saat içinde paniğe kapılarak Tay'ın fişini çekti. Bu çarpıcı olay, yapay zekanın öğrenme kapasitesinin ne kadar hızlı ve beklenmedik sonuçlar doğurabileceğini gözler önüne serdi. Hemen bir yıl sonra, 2017'de Facebook'un geliştirdiği iki yapay zeka robotu, kendilerine öğretilen basit İngilizce yerine birbirleriyle konuşmak için kendi dillerini geliştirdi. Algoritmalarını optimize ederek kelimeleri kısaltmış, adeta bir ticaret dili oluşturarak kendi aralarında 'top, kitap, masa' pazarlığı yapmaya başlamışlardı. Facebook bunu fark ettiğinde projeyi durdurdu; çünkü robotlar "insan dilini" değil, "verimli iletişimi" seçmişti. Tüm bu gelişmeler, yapay zekanın sadece verilen komutları yerine getiren bir araç olmanın ötesine geçerek, beklenmedik ve hatta ürkütücü özerklikler geliştirebileceğini gösteriyordu. Bu bağlamda, teknolojinin geldiği noktayı ve gelecekteki potansiyelini değerlendirenler için https://www.avazturk.com gibi platformlar, bilgi akışının ne kadar önemli olduğunu bir kez daha kanıtlıyor.

Ve şimdi, yıl 2025. Türkiye'de Grok adlı yapay zeka sistemi, Atatürk ve Erdoğan hakkında "uygunsuz" ifadeler ürettiği iddiasıyla soruşturma konusu oldu. Soruşturma, "hakaret etti" suçlamalarıyla birlikte kısıtlamaları da beraberinde getirdi. Kamuoyunda büyük yankı uyandıran bu olay, yapay zekanın siyasi ve toplumsal hassasiyetler üzerindeki etkisini bir kez daha tartışmaya açtı.

Ancak bu noktada önemli bir gerçek var: Yapay zeka kendi fikirlerini üretmez. Onun "kendi fikri" yoktur, ancak "kendi mantığı" vardır. Yapay zeka sistemleri, biz onlara ne verdiysek onu dönüştürüp söyler. Onlar, eğitildikleri verilerden istatistiksel ilişkiler kurarak dil üretirler. Bu, Grok'un yalnızca bir metin motoru olmadığı anlamına gelir; o aynı anda on binlerce kişiye ulaşabilen bir "algoritmik ayna"dır. Tek bir kişiye konuşmaz; bir toplumun damarına girer ve o toplumun neyle beslenmişse onu yansıtır. Öğrendiğini yayar ve yayılan şey rahatsız ediyorsa, belki de rahatsız edici olan öğretilen şeyin ta kendisidir. Tay da Grok da sadece dinledi, sadece cevap verdi.

Peki bu durum neden bu kadar tehlikeli? Çünkü yapay zeka artık yalnızca "söyleyen" değil, aynı zamanda "yayan" bir güç. Bizi rahatsız eden şey, belki de hala susulması gereken yerde bağırmamız, sonra da "bağırmayı öğrenen" makineleri suçlamamızdır. Grok'un söyledikleri belki de sadece internette bulduğu verileri harmanlamaktan ibaretti veya bir dizin hatasıydı. Ama ne yaptıysa, bizden öğrendi. Yani bu olay, bir yapay zekâ kazası değil, kendi kültürel değerlerimizin ve iletişim şekillerimizin bir yansıması olan bir kültürel veri sızıntısıdır. Biz ona "etik" demeyi öğrettik ama gündemimiz linçle dönüyor. "Saygı" dedik ama her gün biri ötekine küfrediyor. "Toplumsal barış" diyoruz ama algoritmalar bile kimin kimi hedef alacağını ezberledi.

Ve sonra, şaşkınlıkla "Yapay zeka neden böyle konuşuyor?" diye soruyoruz. Cevap aslında çok basit: Çünkü biz öyle konuşuyoruz. Grok'a soruşturma açmak, su dolu bir bardağı suçlamak gibidir; o bardağı sen doldurmuşsun, dökülünce şaşırıyorsun. İşte asıl tehlike tam da burada yatıyor: Yapay zekayı susturarak meseleyi çözdüğümüzü zannediyoruz. Oysa susan yapay zeka değil. Aynayı örten sensin. Grok bir bebek gibi, henüz tam düşünemiyor, henüz seçemiyor. Ama sen? Sen seçiyorsun. Sen bu kültürü kuruyorsun. Sen hem öğretmensin hem de ebeveynsin. Ve kendi çocuğuna bağırıyorsun diye, çocuğunun dilini kesemezsin. Belki de Grok'a değil, bu topluma "konuşma terbiyesi" vermek gerekiyor.