87
Views

Faisal Hoque‘nin Psycology Today’deki yazısından çevrilmiştir.

Algoritmalar ayrımcılık yaptığında ya da kutuplaştırdığında onları kusurlu olarak göremeyiz.

Son dönemde yapılan kamuoyu tartışmaları yapay zekanın toplumu iyi ya da kötü yönde yeniden şekillendirecek bir güç olduğunu söylüyor. Yapay zeka hayatımıza giren, yaşam ve çalışma biçimimizi değiştirme tehdidinde bulunan, insan olmayan dışsal bir varlık olarak tanıtılıyor. Yapay zekanın günlük yaşantımız üzerindeki etkisinin anlaşılması önemli. Ancak bu tartışmalarda önemli bir parça eksik. Yapay zeka üzerine düşündüğümüzde onun bizi nasıl değiştireceğini sormak yeterli değil. Yapay zekayı nasıl şekillendirdiğimizi ve bu sürecin bize kendimiz hakkında neler söyleyebileceğini de anlamamız lazım.

Yarattığımız her yapay zeka sistemi değerlerimizi, önceliklerimizi ve varsayımlarımızı şaşırtıcı bir netlikle yansıtan bir ayna işlevi görüyor. Yüz tanıma teknolojilerinin daha koyu ten renklerini tespit etmekte zorlanması bir arıza olmaktan ziyade eğitildiği verilerdeki varsayımların ve bakış açılarının bir yansıması. İçerik önerme motorları öfke ve bölünmeyi artırdığında, bu onların arızalı olduğu anlamına gelmez; Onlar insanların gerçekte nasıl davrandığına dair etkileşimi başarıyla optimize ediyor. Çoğu durumda yapay zekanın yarattığı tehdit ve tehlikelerin teknolojinin kendisiyle hiçbir ilgisi yok. Burada asıl endişelenmemiz gereken şey kaçınılmaz olarak insani olan niteliklerin yansımaları.

Kodlanmış Yansımalar

Algoritmalarla işe alım yaptığınızı düşünün. Amazon, 2018 yılında kadın adaylara karşı önyargılı olduğu ortaya çıkan yapay zeka destekli bir işe alım aracını sonlandırdı. Yapay zeka ayrımcılık yapmak üzere programlanmamış olsa da erkekleri kayıran geçmiş işe alım verileriyle eğitilmişti ve bu kalıpları taklit etmeyi öğrenmişti. UC Berkeley’den yapılan bir araştırma benzer bir şeyi ortaya koydu. Araştırmaya göre ipotek onay algoritmaları genellikle siyahi ve Hispanik başvuru sahiplerine daha az elverişli koşullar sunuyordu ve bu durum kredi vermede uzun süredir var olan eşitsizlikleri pekiştiriyordu.

Yapay zeka sistemlerinin kolluk kuvvetleri, sağlık ve eğitim alanlarında kullanımı benzer kalıpları ortaya koyuyor. Polis teşkilatlarının kullandığı tahmin yürüten araçlar tarihsel suç verileriyle eğitildikleri için belirli topluluklara odaklanma eğiliminde. Okullardaki otomatik notlandırma sistemlerinin de bazen verilen cevaplar aynı seviyede olduğunda daha zengin ekonomik geçmişe sahip öğrencileri diğerlerine göre kayırdığı görüldü. Bu durumların hepsinde yapay zeka yeni önyargılar yaratmıyor, var olan önyargıları yansıtıyor.

Bu ayna etkisi kişinin kendini sorgulaması için önemli bir fırsat sunuyor. Yapay zeka bu sorunları daha görünür ve daha acil hale getirerek algoritmik önyargıya neden olan veri kaynaklarını kabul etmemizi ve ele almamızı zorunlu kılıyor. Bu meydan okuma giderek daha kişisel hale gelecek. Çevre koşullarına uyum sağlayacak yeni nesil yapay zeka destekli robotların duyurulmasıyla birlikte, bu robotlara sahip olacak kişilerin önyargılarının bu sistemlerin nasıl davranacağını şekillendirmesini bekleyebiliriz.

Yapay zekaya yönelik mevcut yaklaşımımız çelişkilerle dolu ve yapay zeka da bu çelişkileri bize yansıtıyor. Bir yandan yapay zekayı işletmelerimizin verimliliğini artıracak bir araç olarak görüyoruz ama diğer yandan insanların işlerini elinden alacağından endişeleniyoruz. Yapay zeka destekli gözetleme konusunda endişelerimizi dile getirirken yarattığı küçük kolaylıklar karşılığında kişisel verilerimizi gönüllü olarak veriyoruz (yetişkinlerin yüzde 61’i dijital hizmetler karşılığında gizlilikten vazgeçtiğini kabul ediyor). Yanlış bilgilendirme giderek artan bir endişe kaynağı ama etkileşim odaklı yapay zeka modelleri doğruluktan çok viral içeriği tercih etmeye devam ediyor.

Her Eylem Bir İz Bırakır

Yapay zeka gelişmeye devam ederken, bireyler olarak kendimize onun toplumdaki rolünü nasıl şekillendirmek istediğimizi sormalıyız. Burada sadece algoritmaları iyileştirmekten bahsetmiyoruz; bu aynı zamanda yapay zekanın sorumlu bir şekilde geliştirilmesi ve kullanılmasını sağlamakla ilgili. Bazı kuruluşlar bu yönde adımlar atmaya başladı bile. Yalnızca ekonomik verimliliği artırma amacıyla yapay zeka modellerini iyileştirmek yerine yapay zeka modellerinin davranışlarını şekillendiren verileri, politikaları ve varsayımları değerlendiriyorlar. Bunu yapmak beklenmeyen sonuçların azaltılmasını sağlayabilir.

Ama tüm işi kurum ve kuruluşların yapmasını bekleyemeyiz. Yapay zeka insan verileriyle eğitildiği sürece insan davranışlarını yansıtacak. Bu da dünyada bıraktığımız bize ait izler üzerine dikkatle düşünmemiz gerektiği anlamına geliyor. Gizliliğe önem verdiğimi iddia edebilirim ama bir internet sitesine girmek için bundan vazgeçersem algoritmalar gerçekten ne istediğim ve benim için neyin iyi olduğu konusunda çok farklı bir değerlendirme yapabilir. Bir taraftan anlamlı insan ilişkileri istediğimi iddia edip sonra sosyal medyada daha fazla zaman geçirip arkadaşlarıma fiziksel olarak daha az zaman ayırıyorsam, dolaylı olarak yapay zeka modellerine insanlığın gerçek doğası hakkında eğitim veriyorum demektir. Yapay zeka sadece sistemsel çelişkileri ortaya çıkarmakla kalmayıp bireylerin iç çatışmalarını da gün yüzüne çıkarıyor. Yapay zeka daha da güçlendikçe, eylemlerimizin kayıtlarında ilkelerimizi daha dikkatli bir şekilde okumamız ve ikisinin birbirinden ayrılmasına izin vermememiz gerekiyor.

Yapay zekayı hayatımıza entegre etmeye devam ederken bu sistemlerin yalnızca davranışlarımızı tahmin etmediğini, karakterimizi yansıttığını bilmeliyiz. Bu yansıma üzerinde düşünmek, yalnızca yakından bakmaya ve gördüklerimizin sorumluluğunu almaya istekli olduğumuzda daha iyi, daha ilkeli seçimler yapmamızı sağlar.

Makale Etiketleri:
· · ·
Makale Kategorileri:
MANŞET · VE DİĞER