Günümüzün yapay zekâ sistemleri yalnızca veriyi işleme biçimimizi değil, dünyayı anlama, karar verme ve birbirimize güven duyma pratiklerimizi de dönüştürüyor. Bir yapay zekâya “Neden böyle bir karar verdin?” diye sorabilmek, insanın açıklama ve anlam arayışının teknolojiyle kesiştiği noktada ortaya çıkan yeni bir ihtiyaçtır.
Açıklanabilir Yapay Zekâ (Explainable AI – XAI) tam da bu kesişimde yer alır. Açıklama talebi, bilişsel bilimin insan zihni üzerine geliştirdiği teorilerle, yapay zekânın teknik yöntemleriyle ve sosyal bilimlerin etik-toplumsal tartışmalarıyla iç içe gelişen bir alandır. Bu eğitimde, açıklamanın insan zihnindeki bilişsel temellerinden başlayarak, yapay zekâ modellerinin nasıl “anlaşılır” kılındığını, bu açıklamaların toplumsal güven ve etik sorumlulukla nasıl ilişkilendiğini ve geleceğe dair felsefi ufuklarını inceleyeceğiz.
Üç haftaya yayılan bu eğitim programı, farklı disiplinlerden katılımcılar için tasarlanmıştır. Önceden teknik bilgi gerektirmez. Haftada bir gerçekleştirilecek üç oturum boyunca, açıklamanın bilişsel ve kültürel işlevleri, yapay zeka modelleri ve yapay zeka açıklamalarının nasıl yapılacağı, ayrıca burada etik sorunlar ve geleceğe yönelik perspektifler ele alınacaktır.
Fatih Bildirici, Ankara Üniversitesi’nde Yapay Zekâ alanında doktora çalışmalarını sürdürmekte olup aynı zamanda ODTÜ’de Bilişsel Bilimler alanındaki yüksek lisans eğitimine devam etmektedir. Daha önce Yönetim Bilişim Sistemleri alanında yüksek lisans derecesini tamamlayan Bildirici, çok disiplinli bir akademik arka planla insan, biliş ve teknoloji etkileşimini incelemektedir. Akademik ilgi alanları arasında özellikle Açıklanabilir Yapay Zekâ (Explainable AI), yapay zeka sistemlerinin toplumsal entegrasyonu, etik ve şeffaflık sorunları ile insan-merkezli yapay zekâ tasarımları yer almaktadır. Akademiyle birlikte sektör içinde de aktif olarak çalışan Bildirici, yapay zekânın iş süreçlerine entegrasyonu ve sorumlu yapay zekâ uygulamaları üzerine çeşitli projeler yürütmekte; böylece araştırma ve uygulama deneyimlerini birbirini besleyen bir bütünlük içinde geliştirmektedir.
Eğitim 6, 13, 20 Kasım Perşembe günleri akşam saat 19:30-22:30 arasında çevrimiçi olarak Zoom uygulaması üzerinden gerçekleşecek. Toplamda yaklaşık 9 saat sürecek.
1. Hafta (6 Kasım): Açıklamanın Bilişsel Temelleri
- Açıklama nedir? İnsan zihninde açıklamanın işlevleri
- Bilişsel psikolojide neden-sonuç çıkarımları ve anlam oluşturma süreçleri
- Yapay zekâda “kara kutu” sorununun tarihsel bağlamı
- Anlamış hissetmek ile gerçekten anlamak arasındaki fark
Bu oturumda, insanın açıklama ihtiyacının bilişsel kökenleri ile yapay zekâ sistemlerinin şeffaflık sorunları yan yana ele alınacaktır.
2. Hafta (13 Kasım): XAI Yaklaşımlarına Genel Bir Bakış
- Özellik önemliliği
- Yerel ve genel açıklamalar (LIME, SHAP), örnek tabanlı yöntemler,
- Olgusal açıklamalar,
- Oyun teorisi temelli yöntemler
Bu oturumda, açıklamanın toplumsal ve etik işlevleri ile mevcut teknik yöntemlerin sunduğu imkânlar bütünlüklü bir biçimde tartışılacaktır.
3. Hafta (20 Kasım): Geleceğe Bakış ve Yansımalar
- Açıklamanın kalitesini değerlendirmek: güven, doğruluk ve bilişsel yük
- Regülasyonlar ve etik yönergeler: GDPR, yapay zekâ politikaları, ulusal stratejiler
- Açıklamanın riskleri: yanıltıcı şeffaflık, sahte güven, manipülasyon
- Açıklanabilirliğin insanlık için anlamı: güven inşası, insan-makine işbirliği, açıklama hakkı
Bu oturumda, açıklamanın kalitesinin nasıl değerlendirileceği, etik ve hukuki düzenlemelerle ilişkisi, yanıltıcı şeffaflık gibi potansiyel riskleri ve nihayetinde insan-makine etkileşiminde güven, işbirliği ve haklar açısından taşıdığı anlamlar ele alınacaktır.
Eğitimin ücreti kişi başı KDV dahil 1800 TL’dir. Ödeme bilgileri, başvurusu onaylanan katılımcılar ile en kısa zamanda e-posta ile paylaşılacaktır.