Açıklanabilir yapay zekanın, üretim yapay zekasına nasıl yarar sağladığını okuyun

Açıklanabilir yapay zeka nedir?

Açıklanabilir yapay zeka (xAI), insan kullanıcıların makine öğrenmesi algoritmaları tarafından oluşturulan sonuçları ve çıktıları kavramalarına ve bunlara güvenmelerine olanak sağlayan bir dizi süreç ve yöntemdir. Açıklanabilir yapay zeka, bir yapay zeka modelini, beklenen etkisini ve bununla ilgili olası önyargıları tanımlamak için kullanılır. Yapay zeka destekli karar almada model doğruluğu, adillik, şeffaflık ve sonuçların karakterize edilmesine yardımcı olur. Açıklanabilir yapay zeka kuruluşlar için, yapay zeka modellerini üretimde kullanırken güven oluşturma bakımından çok önemlidir. Yapay zekanın açıklanabilirliği, kuruluşların yapay zekanın geliştirilmesine ilişkin sorumlu bir yaklaşım benimsemelerine yardımcı olur.

Yapay zeka giderek gelişirken, insanlar algoritmanın bir sonuca nasıl vardığını anlama ve takip etme konusunda zorlanırlar. Tüm hesaplama süreci, genellikle "kara kutu" olarak ifade edilen ve yorumlanması imkansız bir olguya dönüşür. Bu kara kutu modelleri doğrudan verilerden oluşturulur. Algoritmayı yaratan mühendisler veya veri bilimciler bile onların içinde tam olarak ne olduğunu ya da yapay zeka algoritmasının belirli bir sonuca nasıl vardığını anlayamaz ya da açıklayamazlar.

Yapay zeka özellikli bir sistemin belirli bir sonuca nasıl yol açtığını anlamanın pek çok avantajı vardır.Açıklanabilirlik, geliştiricilerin sistemin beklendiği gibi çalıştığından emin olmalarına yardımcı olur, düzenleyici standartları karşılamak için gerekli olabilir ya da bir karardan etkilenenlerin bu sonucu sorgulamalarına veya değiştirmelerine olanak vermesi bakımından önemli olabilir.¹

Dizüstü bilgisayar üzerinde çalışan profesyonel

Açıklanabilir yapay zeka neden önemli?

Kuruluşlar için, yapay zekanın hesap verebilirliği ve model izleme yoluyla yapay zeka destekli karar alma süreçlerine ilişkin tam bir anlayışa sahip olmak ve bu süreçlere körü körüne güvenmemek çok önemlidir. Açıklanabilir yapay zeka, insanların makine öğrenmesi (ML) algoritmalarını, derin öğrenmeyi ve sinir ağlarını anlamalarına ve açıklamalarına yardımcı olabilir.

ML modelleri genellikle, yorumlanması imkansız olan kara kutular olarak düşünülür.² Derin öğrenmede kullanılan sinir ağları insanlar için anlaşılması en zor olan teknolojilerdendir. Genellikle ırk, cinsiyet, yaş ya da lokasyona dayalı önyargılar, yapay zeka modellerinin eğitilmesinde uzun zamandır devam eden bir risk olmuştur. Ayrıca, üretim verileri eğitim verilerinden farklı olduğundan, yapay zeka modelinin performansı yetersiz kalabilir ya da düşebilir. Bu durum, bu tür algoritmaları kullanmanın etkisini ölçerken diğer yandan yapay zekanın açıklanabilirliğini teşvik etmek amacıyla modelleri sürekli olarak izlemeyi ve yönetmeyi işletmeler için son derece önemli hale getirir. Açıklanabilir yapay zeka ayrıca, son kullanıcı güvenini, modelin denetlenebilirliğini ve yapay zekanın verimli kullanımını teşvik etmeye yardımcı olur. Ayrıca üretimde kullanılan yapay zekanın uyumluluk, hukuk, güvenlik ve itibar ile ilgili risklerini azaltır.

Açıklanabilir yapay zeka, sorumlu yapay zekanın uygulanmasına yönelik temel gerekliliklerden biridir. Bu, yapay zeka yöntemlerinin gerçek kuruluşlarda, büyük ölçekli olarak adil bir biçimde, model açıklanabilirliğine ve hesap verebilirliğe imkan verecek şekilde uygulanmasına yönelik bir metodolojidir.³ Yapay zekanın sorumlu bir şekilde uygulanmasına yardımcı olmak için kuruluşların, güvene ve şeffaflığa dayalı yapay zeka sistemleri oluşturarak yapay zeka uygulamalarına ve süreçlerine etik ilkeleri yerleştirmeleri gerekir.

Dizüstü bilgisayarda görüntülü toplantıdaki insanlara bakan bir kişi

Sürekli model değerlendirmesi

Açıklanabilir yapay zeka ile bir işletme, model performansıyla ilgili sorunları giderip performansı iyileştirirken aynı zamanda paydaşların yapay zeka modellerinin davranışlarını anlamalarına yardımcı olabilir. Devreye alma durumu, adillik, kalite ve sapmalarla ilgili model içgörülerini izleme yoluyla model davranışlarının incelenmesi, yapay zekanın ölçeklenmesinde kritik önem taşır. Sürekli model değerlendirmesi, işletmelere model tahminlerini karşılaştırma, model riskini ölçme ve model performansını optimize etme olanağı sağlar. Açıklamaları oluşturmak için kullanılan verilerle model davranışlarındaki pozitif ve negatif değerlerin görüntülenmesi, model değerlendirmelerini hızlandırır. Bir veri ve yapay zeka platformu, model tahminleri için özellik atamaları oluşturabilir ve ekiplerin interaktif grafikler ve dışa aktarılabilir belgelerle model davranışını görsel olarak incelemelerine olanak sağlayabilir.

Dizüstü bilgisayar üzerinde çalışan profesyonel

Açıklanabilir yapay zekanın değeri

IBM Cloud Pak for Data üzerinde açıklanabilir yapay zeka ve model izlemeyi ele alan bir Forrester araştırmasından

Açıklanabilir yapay zekanın avantajları

Yapay zekayı güvenle işlevsel hale getirin

Üretim yapay zekasına ilişkin güven oluşturun. Yapay zeka modellerinizi hızla üretime geçirin. Yapay zeka modellerinin yorumlanabilirliğini ve açıklanabilirliğini sağlayın. Modellerin şeffaflığını ve izlenebilirliğini artırırken değerlendirme sürecini basitleştirin.

Yapay zekadan daha hızlı sonuç elde edin

İş sonuçlarını optimize etmek için modelleri sistematik olarak izleyin ve yönetin. Model performansını sürekli olarak değerlendirin ve geliştirin. Sürekli değerlendirmeye dayanarak model geliştirme çabalarınızı iyileştirin.

Model yönetişiminin riskini ve maliyetini en aza indirin

Yapay zeka modellerinizin açıklanabilir ve şeffaf olmasını sağlayın. Mevzuat, uyumluluk, risk ve diğer gereksinimleri yönetin. Manuel incelemelerden ve yüksek maliyetli hatalardan kaynaklanan giderleri en aza indirin. Kasıtsız önyargı riskini en aza indirin.

IBM'in açıklanabilir yapay zeka yaklaşımı

100 yıldan uzun bir süredir IBM, yalnızca birkaç kişiye değil, herkese yarar sağlayabilecek inovasyonlar için sürekli olarak çalışmaktadır. Bu felsefe yapay zeka için de geçerlidir: İnsan tarafından yürütülen karar verme sürecinin yerini almayacak, ama bu süreci güçlendirebilecek güvenilir bir teknoloji yaratmayı ve sunmayı hedefliyoruz.

Yapay zeka, çok sayıda uygulama çapında değerli içgörüler ve kalıplar sunma sözünü tutuyor olsa da, yapay zeka sistemlerinin geniş bir şekilde benimsenmesi önemli ölçüde, insanların yapay zekanın sonuçlarına güvenebilmelerine dayanacaktır. İnsanın teknolojiye duyduğu güven, onun nasıl işlediğini anlamamıza ve güvenlik ve güvenilirliğiyle ilgili değerlendirmelerimize dayanır. Açıklanabilir yapay zekayı bu kadar önemli kılan da budur.  IBM 'in açıklanabilir yapay zeka yaklaşımı, yapay zekayı güvenilir ve adil kılmak, sorumlu tutulabilir yapmak ve hiçbir zarara yol açmayacağını garanti etmeye yardımcı olmaktır.

İnovasyonumuzun temelinde IBM Research, adillik, sağlamlık, açıklanabilirlik, hesap verebilirlik ve değer uyumunun nasıl sağlanacağına ve bunların bir yapay zeka uygulamasının tüm yaşam döngüsüne nasıl entegre edileceğine ilişkin çeşitli yaklaşımlar geliştirir. IBM Research tarafından tasarlanan ve IBM Cloud Pak for Data platformuna entegre edilen açıklanabilir yapay zeka çerçeveleri ve araç setleri, işletmelerin yapay zeka teknolojimizden yönetilen, güvenli ve ölçeklenebilir bir şekilde yararlanabilmelerine olanak sağlar.

Bir ofis penceresinin önünde durmuş cep telefonuna bakan kişi

Açıklanabilir yapay zekayla ilgili göz önünde bulundurulması gereken 5 konu

Açıklanabilir yapay zekayla ilgili göz önünde bulundurulması gereken 5 konu

Açıklanabilir yapay zeka ile istenen sonuçların elde edilmesini desteklemek için aşağıdakileri göz önünde bulundurun.

Adil olma ve önyargılardan arındırma: Adaletliliği yönetin ve izleyin. Olası önyargıları saptamak üzere uygulamanızı tarayın. 

Model sapmasını azaltma: Modelinizi analiz edin ve en mantıklı sonucu temel alarak öneriler yapın. Modeller amaçlanan sonuçlardan saptığında uyarı verin.

Model risk yönetimi: Model riskini ölçün ve azaltın. Bir model yetersiz performans gösterdiğinde uyarı alın. Sapmalar devamlılık gösteriyorsa neler olduğunu anlayın.

Yaşam döngüsü otomasyonu: Modelleri tümleşik veri ve yapay zeka hizmetlerinin bir parçası olarak oluşturun, çalıştırın ve yönetin. Modelleri izlemek ve sonuçları paylaşmak için araçları ve süreçleri bir platform üzerinde birleştirin. Makine öğrenmesi modellerinin bağımlılıklarını açıklayın.

Çoklu buluta hazır: Yapay zeka projelerini, genel bulutlar, özel bulutlar ve şirket içi ortamları içeren hibrit bulutlar genelinde dağıtın. Açıklanabilir yapay zeka ile güven ve güvenilirliği teşvik edin.

Modern bir cam binanın yakından görünümü

IBM Cloud Pak for Data ile yapay zekanın açıklanabilirliğini artırın

IBM Cloud Pak® for Data platformu, veri ve yapay zeka hizmetlerini birleşik bir ortamda sağlayarak işletmelerin yapay zekanın açıklanabilirliğini artırmak üzere veri ve modellerin etkisini ve ilişkilerini değerlendirmelerine olanak sunar. Ayrıca, işletmelerin devreye alma, adil olma, kalite ve risk konularında model içgörüleri elde etmelerine de yardımcı olur. Bu çözüm, yapay zeka işlemlerinin, kategorik modellerin, görüntü modellerinin ve yapılandırılmamış metin modellerinin, karşılaştırmalı açıklamalarla ve LIME (Local Interpretable Model-Agnostic Explanations; Yerel Yorumlanabilir Model-Agnostik Açıklamalar) gibi araçlarla açıklanmasına yardımcı olur. Yapay zeka yaşam döngüsünün modern bir bilgi mimarisi üzerinde otomatikleştirilerek yapay zekanın açıklanabilir ve şeffaf kılınması, üretim yapay zekasının başarısı için hayati önem taşır.

Açıklanabilir yapay zeka hakkında daha derine inin

Açıklanabilir yapay zeka nasıl çalışır?

Açıklanabilir yapay zekanın yanı sıra yorumlanabilir makine öğrenmesi ile, kuruluşlar yapay zeka teknolojisinin temelinde yatan karar alma gücüne erişebilir ve ayarlama yapma olanağına sahip olurlar. Açıklanabilir yapay zeka, son kullanıcının yapay zekanın doğru kararlar aldığına güvenmesine yardımcı olarak bir ürün veya hizmetin kullanıcı deneyimini iyileştirebilir. Yapay zeka sistemleri, ona güvenebileceğiniz kararını vermenize yeterli güveni ne zaman verebilir ve yapay zeka sistemi ortaya çıkan hataları nasıl düzeltebilir?⁴

Yapay zeka daha gelişmiş hale gelirken, yapay zeka modeli sonuçlarının doğru olduğundan emin olmak için makine öğrenmesi (ML) süreçlerinin hala anlaşılması ve kontrol edilmesi gerekiyor. Yapay zeka (AI) ile açıklanabilir yapay zeka (XAI) arasındaki farka, AI'yi XAI'ye dönüştürmek için kullanılan yöntem ve tekniklere, yapay zeka süreçlerini yorumlama ve açıklama arasındaki farka bir bakalım.

AI ve XAI karşılaştırması

"Normal" yapay zeka ve açıklanabilir yapay zeka arasındaki fark tam olarak nedir? XAI, ML sürecinde alınan her kararın izlenebilir ve açıklanabilir olmasını sağlamak için belirli teknikler ve yöntemler uygular. Diğer yandan yapay zeka ise, genellikle bir ML algoritmasını kullanarak sonuca varır, ancak yapay zeka sistemlerinin mimarları, algoritmanın bu sonuca nasıl ulaştığını tam olarak anlayamazlar. Bu, doğruluğu kontrol etmeyi zorlaştırır ve denetimin, hesap verilebilirliğin ve denetlenebilirliğin kaybedilmesine yol açar.

Açıklanabilir yapay zeka teknikleri

XAI teknikleri, üç ana yöntemi içerir. Tahmin doğruluğu ve izlenebilirlik teknoloji gereksinimlerini karşılarken, kararın anlaşılması ise insan gereksinimlerine yanıt verir. Geleceğin savaşçıları, yapay zekalı makine ortaklarının yeni neslini anlamak, onlara yeterince güvenmek ve onları etkili bir şekilde yönetmek istiyorlarsa, açıklanabilir yapay zeka — özellikle açıklanabilir makine öğrenmesi — kritik önem taşıyacak.⁵

Tahmin doğruluğu
Doğruluk, günlük faaliyetlerde yapay zekanın kullanımının ne kadar başarılı olduğuna ilişkin temel bir bileşendir. Simülasyonlar yaparak ve XAI sonuçlarını eğitim verileri kümesindeki sonuçlarla karşılaştırarak, tahmin doğruluğu saptanabilir. Bunun için kullanılan en yaygın teknik, ML algoritması tarafından sınıflandırıcıların tahminini açıklayan LIME (Local Interpretable Model-Agnostic Explanations) tekniğidir.

İzlenebilirlik
İzlenebilirlik, açıklanabilir yapay zekada başarıyı yakalamak için başka bir temel yöntemdir. Bu, örneğin kararların alınma şeklini sınırlandırarak ve ML kuralları ve özellikleri için daha dar bir kapsam oluşturarak elde edilir. İzlenebilirlik XAI tekniğine örneği olarak DeepLIFT (Deep Learning Important FeaTures) verilebilir. DeepLIFT, her bir nöronun aktivasyonunu referans nöronuyla karşılaştırır ve aktive edilmiş her bir nöron arasında izlenebilir bir bağlantı gösterir, hatta bunların aralarındaki bağımlılıkları da gösterir.

Karar anlayışı
Bu, insan faktörüdür. Birçok insan yapay zekaya güvenmez, ancak yapay zekayla verimli bir şekilde çalışmak için ona güvenmeyi öğrenmeleri gerekir. Bu, yapay zekayla çalışan ekibi yapay zekanın nasıl ve neden kararlar aldığını anlayacak şekilde eğiterek gerçekleştirilir.

Yapay zekada açıklanabilirliğin ve yorumlanabilirliğin karşılaştırılması

Yorumlanabilirlik, bir gözlemcinin bir kararın nedenini ne derecede anlayabileceğini ifade eder. Bu, insanların bir yapay zeka çıktısının sonucunu tahmin edebilmedeki başarı oranlarıdır. Açıklanabilirlik ise bir adım ileri gider ve yapay zekanın ilgili sonuca nasıl vardığına bakar.

Açıklanabilir yapay zeka ile sorumlu yapay zeka arasında nasıl bir bağlantı var?

Açıklanabilir yapay zeka ve sorumlu yapay zeka benzer amaçlara sahip, ancak farklı yaklaşımlardır. Açıklanabilir ve sorumlu yapay zeka arasındaki başlıca farklar şunlardır:

  • Açıklanabilir yapay zeka, sonuçlar hesaplandıktan sonra yapay zekanın sonuçlarına bakar.
  • Sorumlu yapay zeka ise yapay zekaya planlama aşamalarında bakarak, sonuçlar hesaplanmadan önce yapay zeka algoritmasının sorumlu tutulmasını amaçlar.
  • Açıklanabilir ve sorumlu yapay zeka, daha iyi yapay zeka için birlikte çalışabilir.

Açıklanabilir yapay zeka hakkında daha fazla bilgi edinmek için bir IBMid için kaydolun ve IBM Cloud Pak for Data denemenizi hemen başlatın.

Açıklanabilir yapay zekanın uygulanması

Açıklanabilir yapay zekanın nasıl uygulanabileceği hakkında daha fazla bilgi edinmek için bu kaynakları kullanın.

Çevrimiçi seminer: Modellerin yönetilmesi ve izlenmesi Modelleriniz çalışmadığında neler yapabileceğinize ilişkin bilgi edinin.
Web seminerini izleyin (bağlantı IBM dışındadır) →
Öğrenme yolu: Yapay zekayı güvenle yönetin Yapay zekayı değişen iş koşullarına uygun hale getirip yönetirken, yapay zekadan elde edilen sonuçları yaşam döngüsü boyunca nasıl izleyip ölçeceğinizi öğrenin.
Eğitici programa bakın →

Uygulamalı laboratuvar: Makine öğrenmesi modellerini izleyin Modellerin adillik, doğruluk ve açıklanabilirlik bakımından değerlendirilmesine ilişkin adım adım süreçleri keşfedin.
Laboratuvara bakın →

Açıklanabilir yapay zeka kullanım senaryoları

Sağlık hizmetleri

Ameliyat yapan 3 cerrahın yakın çekim fotoğrafı

Tanılama, görüntü analizi, kaynak optimizasyonu ve tıbbi tanılama işlemlerini hızlandırın. Hasta bakımı için karar vermede şeffaflığı ve izlenebilirliği artırın. Açıklanabilir yapay zekayla ilaç onay süreçlerini sorunsuz hale getirin.

Finansal hizmetler

Dizüstü bilgisayarda çalışırken kredi kartı tutan kişi

Şeffaf bir borç ve alacak onaylama süreciyle müşteri deneyimlerini iyileştirin. Kredi riski, varlık yönetimi ve finansal suç riski değerlendirmelerini hızlandırın. Potansiyel şikayetlerin ve sorunların çözümünü hızlandırın. Fiyatlandırma, ürün önerileri ve yatırım hizmetlerinde güveni artırın.

Ceza yargılaması

Olay yeri bantlarıyla çevrilmiş bir alanın önünde duran polis

Tahmin ve risk değerlendirmesi süreçlerini optimize edin. Açıklanabilir yapay zekayı, DNA analizi, hapishane nüfusu analizi ve suç tahminlerinde kullanarak kararları hızlandırın. Eğitim verilerindeki ve algoritmalarındaki olası önyargıları saptayın.

Dipnotlar

¹ ”Explainable AI,” The Royal Society, 28 Kasım 2019. (bağlantı IBM dışındadır)
² ”Explainable Artificial Intelligence,” Jaime Zornoza, 15 Nisan 2020. (bağlantı IBM dışındadır)
³ ”Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI,” ScienceDirect, Haziran 2020. (bağlantı IBM dışındadır)
⁴ ”Understanding Explainable AI,” Ron Schmelzer, Forbes yazarı, 23 Temmuz 2019. (bağlantı IBM dışında)
⁵ ”Explainable Artificial Intelligence (XAI),” Dr. Matt Turek, The U.S. Defense Advanced Research Projects Agency (DARPA). (bağlantı IBM dışındadır)