İngiltere’deki Leeds Üniversitesinde algoritmik ayrımcılık üzerine doktora yapan Sümeyye Kara, algoritmaların insan karar vericilere kıyasla daha nesnel gördüldüğünü belirterek, "İnsanların duygusal, ön yargılara sahip olduğu, algoritmaların ise duyguları olmadığı için daha adil kararlar vereceği varsayılıyor ancak bu algı gerçeği yansıtmıyor." dedi.
Dijitalleşme, eğitimden istihdama kadar birçok alanda karar alma süreçlerini köklü biçimde dönüştürüyor. Üniversite kabullerinden işe alıma, kredi değerlendirmelerinden suç riski analizlerine kadar pek çok alanda algoritmalar, "hızlı, verimli ve nesnel" çözümler olarak öne çıkarılıyor ancak bu teknolojik dönüşüm, algoritmaların gerçekten adil olup olmadığı ya da mevcut eşitsizlikleri teknik bir dille yeniden üretip üretmediği tartışmalarını da beraberinde getiriyor.
Ankara Üniversitesi Sosyoloji Bölümü’nden mezun olduktan sonra İngiltere’deki Leeds Üniversitesinde sosyoloji alanında doktora çalışmalarını sürdüren Sümeyye Kara, AA muhabirine, eğitim alanında giderek yaygınlaşan algoritmik karar sistemlerinin tarafsız araçlar olarak sunulduğunu, buna karşın bu sistemlerin geçmişten devralınan sınıfsal, ırksal ve cinsiyet temelli eşitsizlikleri görünmez kılarak yeniden üretebildiğini anlattı.
Algoritmik ayrımcılığın, çoğu zaman sanıldığı gibi kasıtlı dışlama sürecine dayanmadığını belirten Kara, geçmişte üretilmiş eşitsizliklerin, teknik olarak optimize edilmiş karar mekanizmalarına aktarılmasıyla ortaya çıktığını ifade etti.
Kara, "Algoritmalar, tarafsız ve nesnel araçlar olarak sunuluyor. Oysa tasarım süreçlerinde kullanılan veriler ve bu sistemlerin uygulandığı kurumsal bağlamlar, zaten eşitsizliklerle yüklü. Dolayısıyla sorun yalnızca algoritmanın kendisinde değil onu mümkün kılan tarihsel ve toplumsal yapılarda." diye konuştu.
- "Ön yargı ortadan kalkmıyor, teknik bir forma bürünüyor"
Algoritmaların eğitim veya işe alım gibi karar süreçlerine dahil edilmesinin teknik zorunluluk veya tarafsız iyileştirme olarak görüldüğüne dikkati çeken Kara, özellikle büyük ve merkezi sistemlerde binlerce başvurunun aynı anda değerlendirilmesinin ciddi idari yük oluşturduğunu anlattı. Kara, bu noktada yapay zeka algoritmalarının, kararları hızlandıran ve standartlaştıran araçlar olarak tercih edildiğini belirtti.
Kara, algoritmaların kullanılmasının nedenlerine ilişkin, "İnsanlar, algoritmaları insan karar vericilere kıyasla daha nesnel görüyor. İnsanların duygusal, ön yargılara sahip olduğu, algoritmaların ise duyguları olmadığı için daha adil kararlar vereceği varsayılıyor ancak bu algı gerçeği yansıtmıyor." yorumunda bulundu.
Algoritmik kararların çoğu zaman “hesaplanmış, bilimsel ve tarafsız” olarak algılanmasının, ayrımcılığa itiraz edilmesini zorlaştırdığına işaret eden Kara, sözlerini şöyle sürdürdü:
"Algoritmalar, insanlardan bağımsız değil. Tam tersine, insanların geçmişte verdiği kararlardan eğitiliyorlar. Bu nedenle sınıfsal, ırksal ya da cinsiyet temelli eşitsizlikleri veriler üzerinden öğrenip bunları objektif bir çıktı gibi sunabiliyorlar yani ön yargı ortadan kalkmıyor, yalnızca teknik bir forma bürünüyor."
- "Algoritmalar, erkekleri ideal aday olarak öğreniyor"
Algoritmik ayrımcılığın somut örneklerle açıkça görülebildiğini belirten Kara, bu durumu iki örnekle açıkladı.
Amazon’un bir dönem kullandığı işe alım algoritmasının, geçmişte şirkette istihdam edilen çalışanların öz geçmişlerini temel alarak yeni adayları değerlendirdiğini beliten Kara, kısa süre sonra algoritmanın kadın adayları sistematik biçimde dezavantajlı hale getirdiğinin ortaya çıktığını, bunun teknik hatadan ziyade tarihsel gerçekliğin sonucu olduğunu vurguladı.
Kara, "Amazon’un geçmiş verilerine baktığınızda mühendislik kadrolarının büyük oranda beyaz erkeklerden oluştuğunu görüyorsunuz. Algoritma da bu profili ideal aday olarak öğreniyor ve yeniden üretiyor. Geçmişteki yapısal eşitsizlikler ve farklı veriler arasında örüntüler kurarak kadın veya siyahi erkeklere ayrımcılık yapabiliyor." değerlendirmesinde bulundu.
İkinci örneğin ise ABD’deki ceza adaleti sisteminde kullanılan COMPAS algoritması olduğunu belirten Kara, bu sistemin bireylerin yeniden suç işleme riskini tahmin etmek amacıyla kullanıldığını anlattı.
Kara, araştırmaların, algoritmanın siyahi sanıkları beyaz sanıklara kıyasla daha yüksek riskli olarak etiketlediğini ortaya koyduğunu dile getirdi.
Meselenin algoritmanın ırk bilgisini doğrudan kullanması olmadığına işaret eden Kara, "Polis kayıtları, tutuklanma oranları ve mahalle bazlı denetimler gibi veriler, zaten ırksallaştırılmış bir adalet sisteminin ürünü. Algoritma, bu verilerden öğreniyor ve aynı suçu işlemiş iki kişi arasında, yaşadığı mahalle nedeniyle siyahi sanığı daha riskli olarak sınıflandırabiliyor." ifadelerini kullandı.
- "Özel okullardaki öğrenciler, daha yüksek tahmini notlar alıyor"
Kara, doktora çalışmasının merkezinde algoritmaların teknik doğruluğundan ziyade, bu sistemlerin adalet ve hakkaniyetin farklı aktörler tarafından nasıl algılandığının yer aldığını belirtti.
Çalışmasında özellikle üniversite kabul süreçlerine odaklandığını dile getiren Kara, öğrencilerin ve kabul ekiplerinin algoritmik kararları nasıl deneyimlediğini incelediğini söyledi.
Bu bağlamda İngiltere’deki üniversite kabul sistemine dikkati çeken Kara, sürecin büyük ölçüde öğretmenler tarafından verilen tahmini notlara dayandığını anlattı. Kara, üniversitelerin kaynaklarını daha iyi yönetebilmek için öğrenci sayılarını önceden belirlemek istemesinin, bu tahminli notları kritik hale getirdiğini ancak bu yapının ciddi eşitsizlikler barındırdığının altını çizdi.
Kara, "İngiltere’deki özel okullardaki öğrenciler, genellikle daha yüksek tahmini notlar alırken dezavantajlı bölgelerdeki devlet okullarında öğretmenler, daha temkinli davranıyor. Öğretmenler ve okullar, denetim baskısı altında olduğu için bu durum, pedagojik olduğu kadar hesap verilebilirlikle de ilgili." dedi.
Pandemi döneminde sınavların iptal edilmesiyle algoritmaların not tahmininde kullanılmasının süreci daha da tartışmalı hale getirdiğini belirten Kara, bireysel performans yerine okulun geçmiş başarı ortalamalarına dayanan bu uygulamanın, dezavantajlı öğrencileri ciddi biçimde mağdur ettiğini ve yoğun protestolar sonrası iptal edildiğini söyledi.
- "Algoritma, uygun görmediği başvuruları düşük puanlıyor"
ABD’de bazı üniversitelerde de algoritmaların kabul süreçlerinde kullanıldığını ifade eden Kara, bu sistemlerin çoğu zaman ön eleme aracı olarak devreye girdiğini anlattı.
Kara, "Algoritma, uygun görmediği başvuruları düşük puanlıyor ve insan karar vericiler, bu dosyaları hiç incelemeyebiliyor." dedi.
Kara, bu duruma örnek olarak, "Bunlardan birisi, Texas Üniversitesinde bilgisayar mühendisliği bölümünde kullanılan GRADE isimli algoritma. Bu algoritmanın, bölüm seçiminden dolayı kadınlara ve siyahi öğrencilere ayrımcılık yaptığı 7 yıl sonra anlaşılıyor ve kullanımı durduruluyor." şeklinde konuştu.
Algoritmaların yalnızca teknik araçlar olmadığını, aynı zamanda güven ve kaygı gibi duyguları da ürettiğini belirten Kara, algoritmik sistemlerin nasıl deneyimlendiğini anlamanın teknik doğruluk kadar önemli olduğuna dikkati çekti.
Kara, daha şeffaf, hesap verebilir ve toplumcu yapay zeka yaklaşımına ihtiyaç olduğunu sözlerine ekledi.
Yorumlar
Kalan Karakter: