Yapay Zekânın Epistemik Krizi
Yapay zekâ teknolojisi ve büyük dil modelleri (LLM) her alanda yaygın bir şekilde kullanılırken barındırdığı yapısal sorunlar da yavaş yavaş ortaya çıkmaya ve yapılan tartışmalarda ana gündemi oluşturmaya başladı. Bu bağlamda daha önce yayımladığım bir makalede yapay zekânın hakikatle ilişkisini, İslam düşüncesinde merkezi bir rol oynayan nefsu’l-emr bağlamında ele almıştım. Bu çalışma, LLM’leri farklı açıdan değerlendirebilme imkânına kapı aralayan basit bir girişimdi. Halen üzerinde çok tartışılması gereken bir konu olarak duruyor. Diğer taraftan, ‘Yapay Zekâ Yasal Olanın Helal Olmama Olasılığını Artıyor (mu?)’ başlıklı yazımda da yeni yayımlanmış bir makalenin bulgularına dayanarak yeni bir tartışma başlatmıştım. Söz konusu yazı yapay zekanın karar almada insan yerine ikame edildikçe kârı maksimum yapmak için ahlaka mugayir de olsa her türlü imkanı değerlendirdiğini gösteren bir makalenin (Köbis vd., Delegation to artificial intelligence can increase dishonest behaviour, Nature, 2025, https://doi.org/10.1038/s41586-025-09505-x) bulgularını genişletme ve farklı bir bağlamda düşünme imkanı sağlıyordu.
Ahlaksız talepler insanlarda bir an da olsa tereddüde yol açabilse de makinede bu imkân ortadan kalkıyordu. Örneğin, araştırmanın sonuçlarına göre insan aracılara tam hile içeren talimatlar verilse dahi bu talimatlara uyma oranı %25-%40 arasında gerçekleşirken makinelerde bu oran kullanılan modelin farklılığına bağlı olarak çok daha yüksek (%60-%90) gerçekleşmektedir. Bir başka deyişle makinelerin hileye uyum kabiliyeti oldukça yüksektir. Algoritmalarda bu ahlaki tağşişe yönelik önlemler alınsa dahi yazarların da ifade ettikleri gibi ahlak dışı kararlara makinelerin uyum gücü yine de yüksek gerçekleşmektedir. Kısacası, yapay zekânın sorumsuzluğu ahlak dışı kararlara uyumu artıracak şekilde çalışmaktadır. Kısacası, kararlarının yol açtığı maliyet sorumluluğu ile yüzleşmek zorunda olmayan yapay zekânın Alatlı’nın ifadesi ile ‘şerden yana bükülme’ olasılığının çok yüksek olduğunu söyleyebiliriz. Bu nedenle olsa gerek, yazarlar etik dışı makine vekâletine karşı alınacak önlemlerin makine aracılardan çok insan asıl kişilere yöneltilmesi gerektiğini önermektedir.
Tam da bu noktada yeni bir makale, sorunu bizim nefsu’l-emr bağlamında tartıştığımız gibi epistemik bir tartışma olarak ele almaktadır (Epistemological Fault Lines Between Human and Artificial Intelligence, arXiv:2512.19466). Çalışma, asıl sorunun doğruluk oranlarından çok daha derinde olduğunu söylemekte, sorunun LLM’lerin hata yapıp yapmamasından ziyade cevapları hangi süreçlerle ürettikleri ve bu süreçlerin insan bilgisiyle yapısal olarak neden örtüşmediği ile ilişkili olduğunu vurgulamaktadır.
Öncelikle insan ile insanın bilişsel süreçlerini taklit eden LLM’ler arasında yapısal farklılıklar söz konusudur. İnsan çevresiyle ve dünya ile nedensel bir ilişki kurmaktadır. Görmekte, duymakta, hissetmekte; bedeniyle, duygularıyla ve başkalarıyla kurduğu bağlar üzerinden dünyayı anlamlandırmaktadır. İnsan bir yargıya vardığında, bu yargı neden-sonuç ilişkileri, deneyimler, bellek, değerler ve sorumluluk duygusu içinde şekillenmektedir. Bilmek, insan için daima bedeli olan, risk içeren ve sorumluluk doğuran bir faaliyettir. LLM’ler ise dünyayla değil metinle başlamakta ve yine metne geri dönmektedir. Nedensellik, insan yargısında merkezi bir rol oynarken, LLM’lerde süreci belirleyen şey istatistiksel korelasyonlardır. Model, bir ifadenin doğru olup olmadığıyla değil, benzer bağlamlarda hangi ifadelerin daha sık geldiğiyle, yani daha olası olduğuyla ilgilenir. Çünkü model, dış dünyaya referansla doğrulama yapabilen, hatasını fark edip durabilen bir epistemik döngüye sahip değildir. Akıcı ve ikna edici görünen yanlışlar da aslında bu mimarinin doğal sonucudur.
LLM’lerle ilişkili en büyük sorunlardan bir tanesi olan halüsinatif davranış da bu özellikten kaynaklanmaktadır (Mahmut Özer, Yapay zekânın varsanıları mı oluyor? Türk Psikiyatri Dergisi, 2024). Yapay zekanın gerçek olmayan içerik üretimi olan halüsinasyon davranışı bu nedenle istisna değil, yapısal bir özelliğin dışa vurumudur. Dolayısıyla, halüsinasyon denilen olgu basit bir teknik hata ya da geçici bir yazılım kusuru değildir. Halüsinasyon davranışı aslında bu sistemlerin yapısal sınırlılıklarına açılan bir giriş kapısı pozisyonundadır. Veri kümesi büyüse de bu özellik değişmemektedir. Dolayısıyla, LLM’lerin dünyaya değil de dile bağlı çalışan yapısının görünür hale geldiği bir eşiktir. Sistem, gerçeğe referans vermediği için değil; zaten baştan beri referans kavramına sahip olmadığı için ve durmayı da bilmediği için uydurur. Bazen doğruya denk gelir, bazen gelmez; ama içsel olarak doğru ile yanlış arasında bir ayrım yapan bir mekanizması yoktur. Doğru görünen cevap, yalnızca istatistiksel olarak makul bir metin devamıdır.
Yeni makalenin temel iddiası tam da bu karakteristik yapı ile ilişkilendirilmektedir. LLM’ler insan yargısına yüzeysel olarak çok benzeyen çıktılar üretebilir; akıcı, ikna edici ve kendinden emin konuşabilirler. Ancak bu benzerlik dil düzeyindedir, epistemik düzeyde değil. İnsan yargısı, algıdan nedenselliğe, bellekten değerlere uzanan çok katmanlı bir sürecin ürünüyken; LLM’lerin yargısı, yüksek boyutlu bir olasılık uzayında bir sonraki kelimeyi seçme işleminden ibarettir. İnsan, ne bildiğini ve ne bilmediğini ayırt edebilir, gerekirse yargıyı askıya alabilir. LLM’ler ise duramaz; her durumda bir cevap üretmek zorundadır.
Makale bu bağlamda farklılıkları yedi temel “epistemolojik fay hattı” üzerinden tartışıyor: insanın dünyayla kurduğu algısal bağ, durumları anlamlandırma biçimi, deneyim ve bellek, motivasyon ve değerler, nedensel akıl yürütme, belirsizliği izleme ve nihayet yargının ahlaki ve toplumsal sorumluluğu. Bu alanların her birinde insan ile LLM’ler arasında yapısal bir kopuş olduğu gösteriliyor. LLM’ler bu alanlarda eksik oldukları için değil; zaten bu alanlarda işlem yapacak şekilde tasarlanmadıkları için insan yargısının yerini tutamıyor. İnsan yargısı algıyla başlar, deneyimle derinleşir, nedensel açıklamalarla anlam kazanır, belirsizliği tartar, gerektiğinde hüküm vermekten kaçınırken LLM’lerde bu aşamaların her biri, biçimsel ama içeriksiz karşılıklarla yer değiştirmektedir: Algının yerini metin girdisi, deneyimin yerini gömme uzayları, amaç ve değerin yerini optimizasyon fonksiyonları, üstbilişin yerini ise zorunlu cevap üretme alır. İnsan durabilir; model duramaz, yalnızca bir sonraki kelimeyi tahmin eder.
Bu noktada makalenin “Epistemia” adını verdiği kavram devreye giriyor. Epistemia, dilsel makullüğün epistemik değerlendirmeye ikame edildiği bir durumu ifade ediyor. Kullanıcı, gerekçelendirilmiş bir inanç üretme sürecinden geçmeden, hazır bir sonuca sahip olma hissini yaşıyor. Bilmenin emeği ortadan kalkıyor; yargı bir süreç olmaktan çıkıp tüketilen bir ürüne dönüşüyor. Dolayısıyla, tehlike, yalnızca yanlış bilgi üretilmesi değil; doğrulamanın, tereddüdün ve sorumluluğun sistematik biçimde devre dışı kalmasıdır.
Burada mesele artık sadece teknik ya da bilişsel değil, ahlaki ve ontolojik bir boyut da kazanıyor. İnsan, tanrısal teklife muhataptır; yani doğruyla yanlışı ayırt etmek, sorumluluk almak ve hesap vermek üzere var edilmiştir. Bu teklifi yerine getirebilmesi için vicdan, akıl, irade ve toplumsal denetim gibi destekleyici mekanizmalara sahiptir. LLM’ler ise hiçbir teklife muhatap değildir. Sorumlulukları yoktur, hesap vermezler, hata yaptıklarında bedel ödemezler. Buna rağmen, insanın bilişsel süreçlerini taklit eden bu teknolojiler giderek teklife muhatap sorumlu insanın yerine ikame edilmeye çalışılmaktadır. Hadsizlik tam da burada başlamaktadır. Sorumluluğu olmayan bir nesnenin, sorumluluğun merkezinde yer alması, yalnızca epistemik değil, ahlaki bir kırılmadır.
Makalenin uyarısı da oldukça nettir: Sorun, modellerin daha iyi eğitilmesiyle ya da daha yüksek doğruluk oranlarıyla ortadan kalkmayacaktır. Çünkü mesele performans değil, yapı meselesidir. Ne kadar ikna edici olurlarsa olsunlar, bu sistemler epistemik özne değildir. Onları öyleymiş gibi konumlandırmak, hem bireysel yargıyı hem de kurumsal sorumluluğu aşındırmaktadır. Bu nedenle yapılması gereken insan yargısını koruyacak epistemik, kurumsal ve ahlaki sınırları yeniden düşünmektir. Üretici yapay zekâ çağında asıl mesele, cevapların kalitesi değil; yargının kimde kaldığıdır. Çünkü gerekçesiz ama akıcı bir cevapla yaşamak mümkündür; fakat sorumluluğu olmayan bir bilgiyle adil, sahih ve insanî bir dünya kurmak mümkün değildir!