Açıklanabilir Yapay Zeka için Kavramsal bir Çerçeve

Bu yazıda, bir önceki yazıda ana hatlarıyla tanıttığımız Açıklanabilir Yapay Zeka (AYZ) için kavramsal bir çerçeve sunacağım. Bu kavramsal çerçeve AYZ’yı temellendirildiği bilgi kuramını kısaca açıklamayı amaçlamaktadır. Yapay Öğrenme (Machine Learning) son on yılda önceki yıllardaki gelişimine kıyasla oldukça geniş bir uygulama alanı bulmuştur. Günümüz YZ’sının dayandığı yapı olan Yapay Öğrenme, diğer bir deyişle Bağlantıcı Modeller, genel olarak işlem performansına odaklanmaktadır. Yıllar süresince bu gelişim, bilgisayarlar açısından daha karmaşık ve gelişkin hesaplama gücü ve veri işleme yetisi sağlamıştır. Dolayısıyla bu gelişimin bir yan ürünü olarak bugün black box (kara kutu) modeller olarak adlandırılan verimli işlek dizgelerin kullanıcılarına yorumlanabilir ve anlaşılabilirlik bakımından çok karmaşık açıklamalar sunması, açıklanabilirlik sorunu olarak adlandırdığımız sorunu doğurmaktadır. Diğer bir deyişle, YZ uygulamaları sonuçlarıyla, yani çıktılarıyla, bu çıktılara ulaşan bilgisayar uslamlaması arasından bir açıklama boşluğu vardır. Bu durum YZ uygulamalarına karşı başta güven ve açıklık sorunları olmak üzere bir takım sorunlar yaratmaktadır.

AYZ çeşitli YZ uygulamalarının kullanıcıları tarafından anlaşılabilir olmasını amaçlayan yöntem ya da tekniklerin tanımlayan kavramsal bir ad olduğunu tanımlamıştır. AYZ kavramını doğuran nedenler ise altı ana başlık altında incelenebilir.

  • Gizlilik

  • Güvenlik ve Güvenirlik

  • Hesap Verilebilirlik

  • Açıklık

  • Sorumluluk

  • Tarafsızlık ve Eşitlik

Bu bağlamda mevcut açıklanabilirlik ve yorumlanabilirlik yöntemlerini iki temel başlık altında toplayabiliriz. Bu yöntemlerden ilki YZ işleyişiyle ilgili açıklanabilirlik modelini, sistemin kurulumu veya gelişimi aşamasında sonuçlandırmaya çalışan, diğer bir deyişle açıklanabilirliği yapay öğrenmenin başlangıç aşamasından itibaren anlaşılır şeffaflaştırma yaklaşımıdır. Bu bakımdan iki yöntem türünden söz edebiliriz. Birincisi modelin nasıl işlediğini anlamak, diğer bir deyişle modeli şeffaf yapmaktır. İkincisi ise post-hoc açıklanabilirlik olarak adlandırılan yapay zekanın verdiği kararı, çıktı alındıktan sonra anlamaya çalışmaktır.

Şeffaflık temelli yaklaşımlar, ya da yazındaki ante-hoc açıklamalar, modelin içsel işleyişi hakkında kullanıcılarına açıklanabilirliği modelin kurulumundan itibaren sunmayı amaçlar.

Lipton ünlü çalışmasında yapay zeka şeffaflığının üç türünden söz eder. Birinci tür şeffaflık, bilgisayımsal işlemler söz konusu olduğunda bütün modelin, kullanıcıları tarafından erişilebilirliğinin düzeyini ifade eder. İkinci tür şeffaflık, yapay zekayı oluşturan belirli tekil içeriklerin veriler, girdiler ve hesaplamalar söz konusu olduğun modelin parçalarının sezgisel açıklamaları sunabilmesini ifade eder. Son olarak üçüncü tür şeffaflık eğitim ve başlangıç algortimalarının açıklanabilirlik düzeyini ifade eder. Bu türe aynı zamanda algoritma şeffaflığı da denir.

Sıklıkla kabul gördüğü üzere en iyi açıklamanın modelin kendisini olabildiğine dair basit dilsel ifade biçimiyle açıklayan ve modelin bütünün kapsamlı bir biçimde temsil eden açıklamadır. Bu yalnızca açıklanabilirliğin anlaşılmasını kolaylaştırmaz aynı zamanda model çıktılarında doğrusal modeller, karar ağaçları ve kural yöntemleri gibi karmaşıklığı düşürücü sınırlamaları gösterir.

Yapay zekada açıklanabilirlik ve yorumlanabilirlik yöntemlerini ikinci temel başlığı post-hoc açıklamalardır. Sözcük anlamı “olgudan sonra” olan bu dizgede, modelin işleyişi, model çıktılarından hareketle daha önceki verili yapay zeka çıktılarıyla bağıntılar kurularak modelleme yapılır. Diğer bir deyişle modelin deneme verileri gibi benzer bilinen örnekleri ancak model çıktıları alındıktan sonra açıklanabilirlik ve yorumlanabilirlik açısından kullanılabilir. Bu büyük teknoloji firmaları tarafından sıklıkla tercih edilen ve uygulamada işleyişi oldukça pratik olan bir yöntemdir. Ne var ki bilimsel bir yaklaşım olarak doğrulanabilirlik ve yinelenebilirlik ölçütleri söz konusu olduğunda kapsamlı bir yöntem sunmaktan oldukça uzak görünmektedir.

  • İfadesel Açıklamalar

  • Görselleştirmeler

  • Yerel-bağımlı çıktı açıklamaları

  • Örneksel açıklamalar

Günümüzde öne sürülen açıklanabilirlik yaklaşımlarının iki türü de melez yaklaşımlar olarak adlandırılan kara kutu yöntemleri ve modelin yorumlanabilirliği arasında belirli bir uyumsallaştırma sunarak sonuçların olanaklı açıklanabilirliği ile tahmini performansı arasında bir köprü kurar.

Bunları da sevebilirsiniz