İçeriğe atla
Instagram Twitter Linkedin Youtube
  • Home
  • Activities
    • Events
    • Publication
  • This paragraph should be hidden.

  • Who are we?
  • Upcoming Events
  • Contact
  • TR
  • Home
  • Activities
    • Events
    • Publication
  • This paragraph should be hidden.

  • Who are we?
  • Upcoming Events
  • Contact
  • TR

Derin Öğrenme ve Bedenlenme — Pietro Perconti, Alessio Plebe

Çevirmen: Elif Akyel
Editör: Ege Kingir

Özgün adı: “Deep Learning and Embodiment”

Özet

Bedenlenmiş biliş (embodiment) yaygın bir bilişsel bilim dalı haline gelmiş ve birçok önemli teorik ve deneysel ilerlemeyi beraberinde getirmiştir. Bedenlenmiş bilişle ilgilenen bazı bilim insanları, eylem ve bedensel duruma bağlı bilişin, klasik temsilci (representationalist) ve hesaplamaya dayalı yaklaşımla kıyaslanamaz olduğunu iddia etmiştir. Bu argüman için, sıklıkla, görsel algılama durumu en iyi örnek olarak sunulur. Son yıllarda, “derin öğrenme” (deep learning) adı altında toplanan algoritmalar ailesi yapay zekâyı kökten değiştirmiştir. Bu aileler, makinelerin pek çok karmaşık bilişsel görevde, özellikle de görmede, insansı performanslara ulaşmasını sağlamıştır. Bu tür sonuçlara statik görüntü yığınlarının öğrenilmesiyle ulaşılır fakat bu yöntem; hareketleri, zamana bağlılığı ve çevreyle olan herhangi bir etkileşimi de görmezden gelir. Derin öğrenme modelleri mühendislik amaçları için geliştirilmişti ve bilişsel bilimi ilerletmek, bu araştırma topluluğunun hedeflerinden biri değildi. Ancak, derin öğrenme modelinin görme (vision) olayı konusundaki başarıları bedenlenmiş (embodied) ve etkileşimci (enactive) biliş alanlarında görsel algılamaya dair yaygın varsayımlara karşı çıkmaktadır.

1. Introduction

20 yılı aşkın süredir, bedenlenmiş biliş kavramı bilişsel bilim alanında ilgi odağıdır. Kabaca açıklamak gerekirse bedenlenmiş biliş, bedenin bilişte oynadığı rolü mümkün olan birkaç şekilde vurgulamaktadır. Bunu yapmanın bir yolu kavram manipülasyonu ve akıl yürütme mekanizmalarının, Lakoff ve Johnson’ın [44] da iddia ettiği gibi, bedenimizin davranma ve algılama mekanizmalarından ayrılamaması olabilir. Beden, eylemlerin lokasyonu olduğu için bedenlenmiş biliş, Noë’nın [56, 53] de ima ettiği gibi, doğal olarak etkileşimci bilişe (enacted cognition) gönderme yapar. Aslında, beden çevresiyle etkileşime geçer ve bu yüzden bedenlenme, Gibson’ın ekolojik psikoloji kuramı (ecological psychology) ile bağdaştırılır [20, 21, 27]. Bedenlenmeye bir diğer önemli destek de yapay zekâdan gelir: Bilişsel kapasitenin simüle edilebilmesi için sisteme mekanik bir beden ve etkin kontrollerin eklenmesi gerekir [2, 57]. Bedenlenme kesinlikle bilişsel bilimde esas ilerlemelere katkı sağlamıştır; ama hesaplamaya ve temsile dayalı zihin kuramının reddedilmesi, bedenlenmenin tartışmalı bir tarafı olmuştur [19, 5, 31]. Bedenlenmenin (embodiment) çeşitli yönleri hakkında daha fazla bilgiden ve zihnin hesaplamaya dayalı kuramına karşı çıkması konusundan ikinci başlıkta detaylarıyla bahsedilecektir.

Biz, bu tartışmaya yeni ve beklenmedik bir aktörün adım atacağını iddia etmekteyiz: derin öğrenme (deep learning). Bu terim pek çok sayıda heyecan verici sonuçlar biriktiren yapay sinir ağı (artificial neural network) tekniklerini ifade eder. 2012 yılında, Geoffrey Hinton (derin öğrenmenin mucidi) önderliğinde Toronto Üniversitesinden bir grup insan çok zorlu ve geniş çaplı bir görsel sınıflandırma (image classification) yarışını kazandı. Sonrasında Hinton, derin öğrenmeyi görsel arama motoru için kullanmakta olan Google tarafından davet edildi. 2016 yılında ise, Demis Hassabis tarafından kurulan ve daha sonra da Google tarafından satın alınan DeepMind adlı şirket, satrançtan daha karmaşık olan bir Çin dama tahtası oyunu Go’da dünya şampiyonunu yenilgiye uğrattı [73]. Önde gelen İnternet şirketleri derin öğrenmeyi daha geniş çapta ilk kez kullananlar arasındaydı [25] ve bu şirketler dahili ihtiyaçlarından da öte bu konuda araştırmaya en fazla yatırım yapan şirketlerdir.

Derin nöral modeller (deep neural models) nesne tanıma görevlerinde (object recognition tasks) düzenli olarak insanlardan daha üstün performans sergileyen tek yapay algılama sistemidir (artificial perception systems) [80]. Bu performans bedenlenmiş (enacted/etkileşimci, embedded/gömülü) biliş perspektifinden bakıldığında endişe vericidir, çünkü çevreyle olan herhangi bir etkileşimi, dinamiği, hareketi yok sayan hesaplamalarla bu performans gerçekleştirilmiştir. Sonuca varmadan önce dikkatli olmak kesinlikle gereklidir çünkü derin nöral modeller (deep neural models) biliş üzerine çalışmak için kullanılan aletler olarak üretilmemiştir ve biyolojik olarak gerçekçi modeller değillerdir (bkz. 4. başlık). Ancak, en azından, bu sonuçlar görmede bedenlenmiş bilişin içerenlerinin, tanıma görevi (recognition task) için önemli bir parça olduğunu ama ayrılmaz bir parça olmadığını bizlere düşündürebilir.

2. Bedenlenmiş Biliş ve İşlemselcilik (Computationalism)

Bu hikâyede genellikle bilişsel bilim kendini iki adımda gösterir: ilki insan zekasının modellenmesi için hesaplamaya dayalı tek bir tanımının (computational account) olmasına dayanan ve ikincisi insan beyninin aslında kendi çevresiyle etkileşim halinde nasıl çalıştığını anlamayı amaçlayan daha ekolojik ve biyolojik bir yaklaşım. Erken dönem hesaplamalı psikolojide esas görev bilişsel mimariler, yani bazı bilgi işleme cihazlarının verilen bir bilişsel görevi yerine getirmek için birbirleriyle nasıl etkileşim kurduğunu gösteren modeller tasarlamaktı. Ve şimdi bile bilişsel bilim için ana amaç bu. Ancak, erken dönem hesaplamalı psikoloji (computational psychology) tüm bu işlemenin gerçekleştiği maddesel ortamı dikkate almıyorken bilişsel bilimin daha yeni bir aşaması bedenlenmiş (embodied) olacaktır, yani insan beyninin aslında nasıl çalıştığı ve insan vücudunun tümüyle çevreden gelen bilgiyi nasıl kodladığı esas alınacaktır. Söz konusu olan değişimdeki dönüm noktaları son birkaç on yıllık zaman zarfında nörobilim alanındaki inanılmaz başarıları içerir: James Gibson’ın ekolojik yaklaşımı (ecological vision approach) [21] ve Paralel Dağılımlı İşleme (PDP) (Parallel Distributed Processing) [68]. Bu araştırma programları zekâyı anlamanın statik bir dünyanın önündeki soyut ve bedenden ayrılmış (disembodied) bir maddeyi görüntüleme konusu değil; tüm sahnenin dikkate alınması konusu olduğunu belirtir. Bu sahnede pek çok kolaylıkla donatılmış algısal senaryolar insan vücuduna amaçlarını nasıl gerçekleştirecekleri konusunda fikir verir.

Bu tür muhakemenin ilk kurbanı tabii ki de mental temsil (mental representation) düşüncesiydi. Bu düşünce, mental temsillerin (mental representations) özellikle bilgi işleme için dünya ve özne arasında bir tür arabulucu olduğu keskin bir dualizm fikrini öne sürer. Buna karşılık 4E (embodied/bedenlenmiş, embedded/gömülü, enactive/etkileşimci ve extended/uzatılmış) biliş taraftarları, bireylerin daha direkt bir yolla çevredeki diğer şeylerle etkileşime geçtiği daha dinamik bir görüşü tercih eder. Ancak bu oldukça yanıltıcı. Mental temsil kavramının kendisi, aslında bedensel olasılıklar ve kısıtların reddini gerektirmez. Bu kavram basitçe soyut bir kuraldır ve birtakım çevresel olaylarla bedensel kodlamayı (bodily encoding) sistematik bir şekilde birleştirir. Soyut bir kuralın dünya üzerinde nasıl böyle bir nedensel rolü olduğu zihnin temsilî işlemleme teorisine göre (representational computational theory of mind) en takdir edilen başarılardandır. Ancak mesele hesaplamalı psikolojinin (computational psychology) biliş ekolojisi hakkında tarafsız olmasıdır. Hesaplamalı psikoloji basitçe, tabiri caizse zihin-beden problemini çözme şeklidir; bilginin nasıl çalıştığını anlarken ekolojik ve dinamik faktörleri ayırmak değil. Eğer işleyişini doğru bir şekilde tasarlarsak, mental temsiller birçok 4E biliş savunucusunun da istediği gibi dinamik ve ekolojik yapılar olabilir. Bugünlerde nörobilim ve nöral ağlar üzerinden bunu yapabilmek mümkündür [58, 32, 59, 60]. Bu, mental temsillerin gerçekten ne olduğunu anlama konusudur, onları sahneden atma konusu değil. Ve belki de tüm bunları akılda tutarak, bedenlenmiş bilişi klasik hesaplamalı psikoloji ile bağdaştırmak mümkündür [52]. Bedenlenme (embodiment) ve etkileşimcilikte (enactivism) gerçek problem sadece 4E biliş tanımını benimseyerek doğru bir şekilde bilişle başa çıkabileceğimiz düşüncesidir. Bir başka deyişle, eğer bir biliş mimarisi insansı bir biçimde modellenmezse, ilgilendiğimiz biliş sürecini de anlamayabiliriz. Ancak, bu derin öğrenme modellerinin (deep learning models) tam olarak tartışmaya açtığı konudur. Temelleri PDP’ye[1] dayanmakla beraber derin öğrenme modelleri, nöral ağlar (neural networks) bağlamında, bunun ötesinde bir biyolojik kısıtlamayı takip etmez ve sonuçlarına sadece matematiksel bir yolla ulaşır; hatta herhangi bir bilişsel kaygı da gütmez. Bedenlenmiş biliş için bu bir skandal gibidir: İnsansı bilişsel performansları başka bir şekilde elde edebiliyorsak biyolojik kısıtlamaları ne yapmalı?

Benzer bir skandal birkaç yıl önce bilişsel etoloji[2] (cognitive ethology) alanında meydana gelmiştir. Gordon Gallup’ın [17] işaret testini, bir diğer adıyla ayna testini, tasarlamasından sonra pek çok başka etolog hayvanların aynaya yansıyan kendi görüntülerini tanıma kapasitesini ölçmekle meşguldü. İnsanların yanı sıra bu yeteneği gösteren diğer türlerin de bizlere yakın olanlar olduğu sonucu ortaya çıkmıştır. En iyi sonuçlar büyük insansı maymunlardan elde edilmiştir. Bunun filogenetik bir nedeninin olduğu düşünülebilir. Kendini tanıma (self-recognition) kapasitesi için insansı bir beyne ihtiyaç vardır. Bu çerçevede, saksağan kuşlarının da, karga familyasından ötücü bir kuş, kendini tanıma yeteneğine sahip olduğu ortaya çıkınca küçük bir skandal baş gösterir. İşin ilginç yanı saksağanlar primatlardan ve diğer memelilerden çok farklı bir beyne sahiptir, beyinlerinde neo-korteks, yani, kendini tanımanın (çoğu üst seviye işlemede) meydana geldiği beynin dış yüzeyindeki geniş bir alan bulunmaz. Derin öğrenmenin obje tanıma (object recognition) performanslarında olduğu gibi temkinli olmak zorundayız. Yakın zamandaki araştırmalar kuşların dorsal telansefallarındaki belli nöronal hücre türleri ve memelilerin neokortikal devrelerindeki hücre türleri arasında bir benzeşiklik (homology) olduğunu öne sürmektedir [33, 3]. Ama ne olursa olsun, bedenlenme (embodiment) fanatizmini yatıştırmamız gerektiği gibi, neokorteks hevesimizi de yatıştırmamız gerekir.

3. Derin Nöral Modeller

Derin nöral modeller, ayrıca derin öğrenme modelleri olarak da bilinir, birkaç on yıl süren yavaş ve yetersiz ilerlemelerden sonra yapay zekânın yeniden ortaya çıkışından sorumludur [71]. Derin öğrenme bütün varyasyonlarında, çoğunlukla insan performansına yaklaşarak birçok uygulamada eşi benzeri görülmemiş bir başarı göstermiştir [49]. Derin öğrenme, 80’lerde PDP (parallel distributed processing- paralel dağılımlı işleme) projesi ile yapay nöral ağlardan ortaya çıkmıştır [68]. “Paralel dağılımlı”nın temel yapısı ayrı katmanlar şeklinde düzenlenmiş basit birimlerden oluşur. Her bir katman ve takip eden katman arasında tek yönlü bağlantılar vardır. İleri bildirim ağı (feedforward network) olarak bilinen bu yapı çoğu derin öğrenme modelinde korunmuştur. PDP, herhangi bir anlamlı fonksiyonu sadece deneyimle sıfırdan öğrenen modellerle yeniden güçlü bir deneyci açıklama kurmuştur. PDP’nin başarısı çoğunlukla geri yayılım (backpropagation) olarak bilinen etkili bir matematik kuralı sayesindedir. Bu kural, öğrenme sırasında gösterilen birkaç girdi çıktıya (input/output) göre nöronlar arasındaki bağlantıları ayarlar. Derin ağlardaki (deep networks) öğrenme matematiği, PDP modellerindeki matematiksel kuralın evrilmiş ve geliştirilmiş halidir. Aslında Geoffrey Hinton [28] PDP projesinde esas olarak emeği geçenlerden biriydi.

PDP tarzındaki ileri bildirim ağına (feedforward network) “derin” ifadesinin eklenmesi sadece girdi (input) ve çıktı (output) katmanlarının arasında, genellikle “saklı” katmanlar olarak da bilinen katmanların sayısından kaynaklanır. Nöral modeller birimlerin sayısını arttırılmasıyla giderek daha karmaşık işlevleri öğrenebilir. Ancak bu şekilde, optimizasyon için kullanılan parametre sayısı da artar ve öğrenme zorlaşır. Özellikle, katmanların eklenmesiyle birim sayısının arttırılmasının, tek bir saklı katmanın genişliğinin arttırılmasından daha az etkili olduğu gözlemlenmiştir [10].

Yine Hinton’ın geliştirmiş olduğu özgün bir öğrenme stratejisi, üçten daha fazla sayıda katman olmaması sınırını kırmada başarılı olmuştur [29], bu da derin modellerin önünü açmıştır. Şu sıralar, en başarılı öğrenme modeli, klasik geri yayılım (backpropagation) modelinden çok da farklı olmayan stokastik gradyan iniş[3] (stochastic gradient descent) modelidir [37, 72].

Yapay nöral ağların (artificial neural networks) ilk jenerasyonu ve derin nöral modeller (deep neural models) arasında amaç bakımından temel bir fark vardır. İlki Rumelhart ve Mcclelland’ın “Bilişin Mikro Yapısına Dair Keşifler (Explorations in the Microstructure of Cognition)” kitabının başlığından da anlaşılacağı üzere, “Bilişin Mikro Yapısına Dair Keşifler (Explorations in the Microstructure of Cognition)” yapmak amacıyla geliştirilmiştir [68]. Buna karşılık, derin nöral ağlar mühendisliğe dair hedeflerle geliştirilmiştir. Bu gelişimdeki ana kahramanların çoğu, önceki yapay nöral ağların geliştirilmesinde etkili olan isimlerle aynı olsa bile bu sefer bilişi keşfetme gibi bir hırs ya da ilgi yoktur. Bunun çarpıcı örneği yakın bir zamanda varyasyonel otomatik kodlayıcı (variational autoencoder) olarak bilinen derin bir modelin icadıdır [38, 64], ki bu matematiksel formülasyon bakımından Friston’ın “öngörücü beyinler” teorisindeki (predictive brains) serbest enerji ilkesine (free-energy principle) oldukça yakındır [12, 13]. Friston’ın teorisi bilişsel bilimde geniş bir yankı bulmasına rağmen bütün varyasyonel otomatik kodlayıcı (variational autoencoder) savunucuları ya bu rastlantının farkında değiller ya da bu rastlantıya karşı tamamen ilgisizler. Derin öğrenmenin çoğu bileşeni- örneğin pekiştirici öğrenme (reinforcement learning) ve kendini tekrarlayan ağlar (recurrent networks)- aslında uzaktan da olsa PDP kökenli olduğundan nörobilime ve bilişsel bilime bir şeyler borçludur ama bu bağlantı şimdilik ihmal edilmekte: Önemli olan tek şey uygulamalarındaki pragmatik başarılar. Bu başarılar, derin modellerin bilişsel bilimin tümüyle veya “genel” yapay zekâyla ilişkisine dair bazı düşüncelere yol açacak kadar ses getirmiş durumda. Bunlar bilişsel bilim için önemli hususlar ama burada incelenecek konular değil. Odağımız derin öğrenmenin yapay görme (artificial vision) alanında elde ettiği sonuçlar ve bu sonuçların bilişsel bilimin konularından olan bedenlenme ile alakasıdır.

4. Bedenden Ayrılmış (Disembodied) Görme

Görmeyi (vision), derin öğrenme ile ulaşılan sonuçların bedenlenmiş bilişe meydan okuduğu durum olarak kabul etmenin birkaç nedeni vardır. İlk olarak, ikinci başlıkta da görüleceği üzere görme, bedenlenmiş bilişin desteklenmesinde kullanılan paradigmatik bir durumdur. Görme ayrıca, görme bilimi camiası tarafından da tanındığı üzere derin öğrenmenin en başarılı uygulama alanıdır [80]:

Onlarca yıl, algılama (perception), biyolojik sistemlere özgü bir beceri olarak düşünüldü, çok az kişi onun mekanizmalarını anladı ve yapay sistemlerde de aynı algılamayı üretmek hemen hemen imkânsızdı. Ama bu mevcut durum son yıllarda ‘derin öğrenme’ yaklaşımları sayesinde geliştirilen bilgisayar algılama modellerindeki etkileyici gelişmelerle tersine döndürüldü […]. Hatırladığım kadarıyla biz algı bilimciler, makalelerimizde ve araştırma bursu başvurularımızda insansı seviyedeki yapay algı sistemlerinin eksikliğini fazlasıyla kendi lehimize kullandık […]. Ama şimdi nöral ağlar […] düzenli olarak obje tanıma görevlerinde insanlardan daha üstün performans sergilemektedir[..]. Bahanemiz artık yok.

Görme konusuna ilgi duymak için bir başka neden, bu uygulama için kullanılan derin modellerin genellikle beyne sıradan katmanlı nöral ağlardan daha yakın göründüğü kabul edilen kendine özgü bir mimarisinin olmasıdır. Bu tür mimariye Derin Evrişimli Nöral Ağ (DCNN- Deep Convolutional Neural Network) denir, çünkü evrişim işlemini [67] katmanlı bir öğrenilmiş yapı içine entegre eder. Bu strateji ilk olarak Neocognitron[4] adlı bir mimaride önerilmiştir [15], ki bu mimaride “neo” daha önceki Cognitron’a bir gönderme idi [14]. Neocognitron’da S- hücre tipi birimleriyle C-hücre tipi birimler birbiri ardı sıra dizilirler. Hücre tipleri için kullanılan bu isimlendirme, Hubel ve Wiesel [30]’ın basit ve karmaşık hücre sınıflandırmasını çağrıştırmaktadır. C- birimleri uzamsal ortalama (spatial averaging) ile evrişim sonucunda oluşan görüntüleri altörneklerken (downsample) S- birimleri evrişim çekirdeği görevi görür. Görüntü işlemede geleneksel evrişimden çok önemli farkı ise Neocognitron’daki çekirdeklerin nöral ağ tarafından kendi kendine öğreniliyor olmasıdır. Neocognitron’un ilk versiyonu denetimsiz ve kendi kendine organizasyon ile öğrenmiş, bunun için bir “kazanan hepsini alır (winner-take-all)” stratejisi kullanmıştır: Belirli bir alanda yalnızca en fazla yanıt veren (respond) S-birimleri ile onlara komşu olan hücrelerin ağırlıkları modifiye edilmiştir. Daha sonraki bir sürüm [16] zayıf bir denetleme biçimi kullandı: eğitimin başında S-katmanında değiştirilecek birimler kazanan hepsini alır yöntemi yerine manuel olarak seçilir, bu tür bir ilk seçimden sonra eğitim denetimsiz bir şekilde devam eder.

Neocognitron ve PDP projesi arasındaki yakınlaşma, Fukushima S- hücre tipinin iki katmanı ve onları takip eden sıradan PDP nöral katmanlarından oluşan bir mimariye geri yayılım (backpropagation) uygulanmasıyla gerçekleşti [46]. Bu DCNN’e doğru atılan ilk adımlardandı. PDP projesinin yapay nöral ağları gibi, Neocognitron ve geri yayılımın (backpropagation) bu karışımı özellikle karakter tanıma [47] alanında görece iyi bir başarı elde etti ama ana akım bilgisayarlı görmede (computer vision) ilk seçim değildi. DCNN’lerin, bir kez daha Hinton’ın PhD öğrencisi Krizhevsky ile çalışması [42] sayesinde, sıradan katmanlı ağlar gibi “derin” olmasıyla büyük bir değişim meydana geldi. Bu model bilgisayarla görme alanındaki en büyük yarışma olan “ImageNet Büyük Ölçekli Görsel Tanıma Yarışması’nı domine etti. Model, ImageNet Yarışmasının hata oranını yüzde 26’dan yüzde 16.4’e düşürdü. Bu ilk başarı bilgisayarlı görmeyi DCNN’lere yöneltti ve hatta birkaç düzeltme insan deneklerininkini de aşarak performansları geliştirmeye devam etti [63]. Bu sonucun nasıl elde edildiğini ayrıntılı olarak görmek buradaki amaçlarımız açısından oldukça önemlidir. ImageNet, her leksikal maddenin yüzlerce görüntü ile ilişkilendirildiği bir leksikal sözlük olan WordNet’teki isimlerin hiyerarşisine göre organize edilmiş bir görüntü veritabanıdır [69]. Görsel Tanıma Yarışması, ImageNet’in 1000 farklı kategoriden oluşan bir alt kümesini kullanmakta. Bu 1000 kategorinin her biri WordNet’teki eş anlamlı kelime dizilerinden (synset) birine karşılık gelir. Her alt küme kabaca 1000 görüntüden oluşur. Yaklaşık 1.2 milyon görüntü modelleri eğitmek için,150 bin görüntü de test etmek için kullanılır. DCNN modellerine, bilinen kategorileriyle birlikte eğitim görüntüleri birkaç kez gösterilir. Tüm görüntüler 256×256 büyüklüğündedir. Model daha fazla bilgiden habersiz: Ne her bir görüntünün bağlamı hakkında, ne kategoriler arasındaki ilişkiler hakkında, ne her objenin uzayda üstlenebileceği duruşlar hakkında, ne objeler tarafından sağlanan olanaklar hakkında, ne de objelerin zaman içerisinde görünüşlerini nasıl değiştirebileceği hakkında bir bilgisi var. Özetle model, tamamen bedenden ayrılmış (disembodied) biçimde objeleri tanımayı öğrenir.

Bilgisayarla görme topluluğunun bedenlenmiş bilişten [70, 56, 57] öğrendiği ana ders, bir görüntüyü statik bir görev olarak anlamaya çalışmanın umutsuz olduğuydu. Ancak, görme etkileşimli bir süreç olarak ele alındığında, yapıcının (agent) çevreyle etkileşime geçmesi sonucunda çok daha kolay bir hale gelir. Hâlbuki bedenlenmiş ve etkileşimci (enactive) sistemlerdeki yapay görme, DCNN modellerinin performansına hiçbir şekilde yaklaşamadı. Çoğu kez aktif görme modelleri çok basitleştirilmiş olan kolay görevler için geliştirilmiştir, örneğin sadece daire ve elmastan oluşan iki kategori [1] ya da kedi, köpek, zürafa ve attan oluşan dört kategori [81]. En iyi aktif görme modelleri karşılaştırıldığında [9], 100 farklı bireysel obje setindeki hata oranı yüzde 40 civarında ya da daha kötüydü.

Bu makale derin öğrenmenin avantajlarını ve dezavantajlarını kapsamamaktadır, bunu belirtmemizde fayda var. 3. bölümde bunun için referanslar sağladık. Düşüncelerimiz derin öğrenmenin görmede, var olan diğer tüm metotlar karşısındaki büyüleyici avantajının deneye dayalı gözleminden gelir.

Hala, birisi DCNN modellerinin doğal görmenin çalışma şeklinden oldukça uzak şekilde tasarlanmış bir yazılım olduğu ve bu nedenle bilişsel tezleri değerlendirmek için kullanılamayacağı şeklinde bir itirazda bulunabilir. Aslında, derin öğrenme modellerindeki “nöronlar” biyolojik kuzenlerine çok az benzerler. Ancak, yakın dönemdeki çalışmalar evrişimli nöral model katmanlarındaki aktivasyon örüntüleri ve aynı görüntüleri gören deneklerdeki voksel[5] örüntüleri arasında şaşırtıcı benzerlikler ortaya çıkarmıştır. DCNN sonuçlarını görsel sistemle ilişkilendirmeye yönelik ilk teşebbüslerden biri, belli bir yapay ağ modeli seviyesine voksel uzayında voksellerin tepkisini tahmin eden bir katman eklemeye ve bu katmanı görüntü setleri ve bu görüntülere karşılık gelen fMRI sonuçlarıyla eğitmeye dayanıyordu [23]. Bu metot kullanılarak, AlexNet’e [4] çok benzer bir model fMRI verisiyle [24] karşılaştırıldı. Bu karşılaştırmada model ile fMRI arasındaki harita (eşleştirme), 1750 görüntü ve onların voksel karşılıklarıyla eğitilerek oluşturuldu. Model yanıtları, V1[6] alanları için 0.5’ten çok az daha düşük, LO (lateral oksipital korteks) alanı içinse 0.3’ten çok az daha düşük bir oranla, görsel korteksteki vokseller için şans denilemeyecek kadar öngörücü nitelikteydi. Aynı teknikten ayrıca, retinotopi veya yüz/mekân kontrastı gibi klasik görme deneylerinde kullanılan uyarıcıları kullanarak yapay fMRI verisi üretilmesinde faydalanıldı ve yapay fMRI sonuçları ile DCNN arasında önemli ortaklıklar bulundu.

Sentetik fMRI verisinin kullanımı önceki çalışmalardan da geniş kapsamlı bilgi toplayarak yüksek görsel korteksteki aktivitenin istatiksel bir modelini oluşturmaya dayanan farklı bir strateji ile devam etti [36]. Bu model deneysel amaçlar için ihtiyaç duyulduğunda yeni yanıtların eklenmesine izin verir. Bu metodu kullanan Bryan Tripp [77] kortikal yanıtlarla ve DCNN modelleri arasındaki benzerlikleri çeşitli özellikler üzerine test edebilmiştir: nüfus seyrekliği, yönelim (orientation), boyut ve konum ayarı, tıkanma, dağınıklık vb. Test edilen DCNN’ler, AlexNet [42] ve VGG- 16 [74] idi.

DCNN modelleri ve fMRI sonuçlarını karşılaştırabilme için alternatif bir metot, Nikolaus Kriegeskorte tarafından tanıtılan temsili benzerlik analizidir (representational similarity analysis) [41, 40]. Bu metot herhangi bir uyarana verilen herhangi bir dağıtık (distributed) tepkiye uygulanabilir. Metot, her bir uyaran çifti arasındaki korelasyonu 1’den çıkartır. Ortaya çıkan matris uyaranlar kategorik benzerliklerine göre gruplandırıldığında bilhassa bilgilendiricidir. Aslında tüm fikir şudur: Uyaranlara verilen tepkiler öyle bir uzayı yansıtmalı ki, bu uzaydaki tepkilerin arasındaki karşılıklı ilişkiler, uyaranlar arasındaki ilişkiye karşılık gelsin. Bu tam olarak, bilişsel bilimin temel konseptlerinden olan yapısal temsiller (structural representations) fikridir [76,54,60]. Temsili benzerlik analizi, insanlarda fMRI ile ölçülen yüksek görsel korteksteki yanıtların ve maymunlarda hücre kaydı ile ölçülen yanıtların birkaç yapay modelle ölçülen yanıtlar ile karşılaştırılmasında uygulanır [35]. Bu çalışma çok ilginç çünkü AlexNet’in yanı sıra biyolojik olarak daha uygun olan birkaç model içerir.

Biyolojik olarak en uygun model beş katmana ayrılmış VisNet’tir [83, 66]. Böylece bağlantısallık (connectivity) V1, V2, V4, posterior inferior temporal korteks ve inferior temporal korteks’in alıcı (receptive) alanlarının büyüklüklerine yaklaşır. Ağ, Hebbian kuralından [26] ortaya çıkarılan sinaptik modifikasyonlar aracılığıyla denetimsiz kendi kendini yönetme ile öğrenir [84]. VisNet tamamen bedenlenmiş ve etkileşimci bilişe bağlı değildir ama bir objeye doğru hareket ediyorken ya da obje hareket ediyorken objenin algılanmasını biyolojik olarak uygun bir modelin içine dâhil etmeye çalışır. Bu amaçla öğrenme, spesifik bir mekanizma gerektirir. Bu mekanizma bellek izi (trace memory) olarak adlandırılır çünkü bir hücrenin öğrenmesi, önceki hücre aktivitesinin azalmakta olan izinden etkilenir. Bu kural, objeler hareket ederken onlara bir sürü farklı açıdan bakmaya dayalı bir eğitimle, modelin her seferinde objeyi tanımayı öğrenmesini sağlar; dolayısıyla görmenin bedenlenmiş ve etkileşimli bileşenini tekrar ortaya çıkarmayı amaçlar.

Kriegeskorte ve iş arkadaşları çeşitli canlı ve cansız kategorileri kapsayan doğal görüntü setleri üzerine birkaç temsili benzerlik matrisi oluşturdular [35] ve inferior temporal korteksi (IT) temsil eden vokselleri modellerle (çalışma aslında 37 farklı modeli karşılaştırmış, bu makalede yalnızca AlexNet ve VisNet’e odaklanılmıştır) karşılaştırdılar. Analiz AlexNet’in VisNet’e göre canlı/cansız kategori ayrımının IT yapısal temsiline daha benzer olduğunu ortaya çıkarmıştır.

DCNN ve görsel sistem arasındaki benzerlikler üzerine yapılan bu çalışmalar, görsel nörobilim camiasında derin öğrenme modellerinin kendi bilimsel amaçlarına uygunluğu üzerine engin bir tartışmaya yol açtı. Görüşler; çoğunlukla pozitif kabul etme durumundan [18, 80] dikkatli bir ilgiye [48, 22] ve daha şüpheci duruşlara [55, 65, 8] kadar çeşitlenir. Kesinlikle görsel sistemin bir DCNN modelinden şiddetle ayrılan çok sayıda yapısal özelliği var. Birkaçından bahsetmek gerekirse: Korteksteki görsel haritaların birçok güçlü ara bağlantıları (interconnection) ve pek çok sayıda da daha zayıf bağlantıları vardır [79, 78, 51]; alıcı alan (receptive field) büyüklükleri bir kortikal haritada değişir ve değişimlerin derecesi yüksek kortikal alanlarda daha büyük orandadır [34]; alıcı alanlar (receptive fields) ayrıca görevlerle sürekli düzenlenir [39]; hareket alanlarına ek olarak sahne dinamikleri de tanıma alanlarını etkiler [75]. Ve her şeyden önemlisi, beyindeki görsel sistemin bedenlenmiş ve etkileşimci olduğu kesinlikle doğrudur [6, 62]. Fakat hâlâ esas nokta, DCNN’in aynı zamanda görmede insan performansları sergilemeyi başaran ve aynı görsellere bakan deneklerin beyin aktivasyonuna benzerlik gösteren tek model olduğudur. Bu gerçek, özellikle bilginin lokal örüntülerini hesaplamada çalışan ve sahnenin içeriğini ayırt etme için gerekli olan merkez (core) bir işlemenin olduğunu gösterebilir. Bu lokal işlem çevresel ve bedensel ipuçlarından görece bağımsızmış gibi duruyor.

5. Sonuç

Görsel örüntü tanımada derin öğrenme modelleriyle elde edilen performans, 4E biliş tanımından ve bilhassa bedenlenmeye dair endişelerden son derece etkilenmiş olan çağdaş bilişsel bilimde oldukça beklenmedik bir durumdur. Aslında bunun olmaması gerekir. Ana akım beklentilere rağmen bu durumun yaşandığı gerçeği klasik bilişsel bilim ve bedenlenme kaygıları arasındaki kutuplaşmanın ne kadar yanlış yönlendirici olduğunu gösterir. Yukarıda bahsedildiği gibi, hesaplamalı psikoloji ve klasik mental temsiller ekolojik açıdan nötrlerdir. Ayrıca, bilişsel bilimin gelişiminde bir tür mikro-tekillik (micro-singularity) ile, yani yapay zekânın insan zekâsını geçtiği bir durumla karşı karşıyayız: Hem bilişsel bilim hem de sağduyu için yapay zekâ alanından kaynaklanan yeni bir güçlük. Bu belki de hikâyenin kıssadan hissesi: Bizler, biyolojiden etkilenmiş ve bedenlenmiş bilişsel mimarilerin başarılı bir işlemleme için garanti olmayacağını kabul edebilmek adına şimdiki teorik beklentilerimizi gözden geçirmeliyiz.

Kaynakça

1. Beer, R.D.: The dynamics of active categorical perception in an evolved model agent. Adaptive Behavior 11, 209–243 (2003)
2. Brooks, R.A.: Intelligence without representation. Artificial Intelligence 47, 139–159 (1991)
3. Calabrese, A., Woolley, S.M.N.: Coding principles of the canonical cortical microcircuit in the avian brain. Proceedings of the Natural Academy of Science USA 112, 3517–3522 (2015)
4. Chatfield, K., Simonyan, K., Vedaldi, A., Zisserman, A.: Return of the devil in the details: Delving deep into convolutional nets. CoRR abs/1405.3531 (2014)
5. Chemero, A.: Radical embodied cognitive science. MIT Press, Cambridge (MA) (2009)
6. Churchland, P.S., Ramachandran, V., Sejnowski, T.: A critique of pure vision. In: Koch, C., Davis, J. (eds.) Large-Scale Neuronal Theories of the Brain. MIT Press, Cambridge (MA) (1994)
7. Cichy, R.M., Kaiser, D.: Deep neural networks as scientific models. Trends in Cognitive Sciences 23, 305–317 (2019)
8. Conway, B.R.: The organization and operation of inferior temporal cortex. Annual Review of Vision Science 4, 19.1–19.22 (2018)
9. De Croon, G.C., Sprinkhuizen-Kuyper, I.G., Postma, E.: Comparing active vision models. Image and Vision Computing 27, 374–384 (2009)
10. de Villers, J., Barnard, E.: Backpropagation neural nets with one and two hidden layers. IEEE Transactions on Neural Networks 4, 136–141 (1992)
11. Eickenberg, M., Gramfort, A., Varoquaux, G., Thirion, B.: Seeing it all: Convolutional network layers map the function of the human visual system. NeuroImage 152, 184–194 (2017)
12. Friston, K., Kilner, J., Harrison, L.: A free energy principle for the brain. Journal of Physiology — Paris 100, 70–87 (2006)
13. Friston, K., Stephan, K.E.: Free–energy and the brain. Synthese 159, 417–458 (2007)
14. Fukushima, K.: Cognitron: a self-organizing multilayered neural network. Biological Cybernetics 20, 121–136 (1975)
15. Fukushima, K.: Neocognitron: a self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position. Biological Cybernetics 36, 193–202 (1980)
16. Fukushima, K.: Neocognitron: a hierarchical neural network capable of visual pattern recognition. Neural Networks 1, 119–130 (1988)
17. Gallup, G.: Chimpanzees: Self-recognition. Science 167, 86–87 (1970)
18. Gauthier, I., Tarr, M.J.: Visual object recognition: Do we (finally) know more now than we did? Annual Review of Vision Science 2, 16.1–16.20 (2016)
19. Gelder, T.v.: What might cognition be, if not computation? Journal of Phylosophy 91, 345–381 (1995)
20. Gibson, J.J.: The senses considered as perceptual systems. Houghton Miflin, Boston (MA) (1966)
21. Gibson, J.J.: The Ecological Approach to Perception. Houghton Miflin, Boston (MA) (1979)
22. Grill-Spector, K., Weiner, K.S., Gomez, J., Stigliani, A., Natu, V.S.: The functional neuroanatomy of face perception: from brain measurements to deep neural networks. Interface Focus 8, 20180013 (2018)
23. G¨u¸cl¨u, U., van Gerven, M.A.J.: Unsupervised feature learning improves prediction of human brain activity in response to natural images. PLoS Computational Biology 10, 1–16 (2014)
24. G¨u¸cl¨u, U., van Gerven, M.A.J.: Deep neural networks reveal a gradient in the complexity of neural representations across the ventral stream. Journal of Neuroscience
35, 10005–10014 (2015) 25. Hazelwood, K., Bird, S., Brooks, D., Chintala, S., Diril, U., Dzhulgakov, D., Fawzy, M., Jia, B., Jia, Y., Kalro, A., Law, J., Lee, K., Lu, J., Noordhuis, P., Smelyanskiy, M., Xiong, L., Wang, X.: Applied machine learning at Facebook: A datacenter infrastructure perspective. In: IEEE International Symposium on High Performance Computer Architecture (HPCA). pp. 620–629 (2018)
26. Hebb, D.O.: The Organization of Behavior. John Wiley, New York (1949)
27. Heras-Escribano, M.: The Philosophy of Affordances. Palgrave Macmillan, London (2019)
28. Hinton, G.E., McClelland, J.L., Rumelhart, D.E.: Distributed representations. In: Rumelhart and McClelland [68], pp. 77–109
29. Hinton, G.E., Salakhutdinov, R.R.: Reducing the dimensionality of data with neural networks. Science 28, 504–507 (2006)
30. Hubel, D., Wiesel, T.: Receptive fields and functional architecture of mokey striate cortex. Journal of Physiology 195, 215–243 (1968)
31. Hutto, D.D., Myin, E.: Radicalizing enactivism: basic minds without content. MIT Press, Cambridge (MA) (2013)
32. Isaac, A.M.: Embodied cognition as analog computation. Italian Journal of Cognitive Science 14, 239–259 (2018)
33. Karten, H.J.: Vertebrate brains and evolutionary connectomics: on the origins of the mammalian neocortex. Philosophical transactions of the Royal Society B 370, 20150060 (2015)
34. Kay, K.N., Winawer, J., Mezer, A., Wandell, B.A.: Compressive spatial summation in human visual cortex. Journal of Neurophysiology 110, 481 — 494 (2013)
35. Khaligh-Razavi, S.M., Kriegeskorte, N.: Deep supervised, but not unsupervised, models may explain it cortical representation. PLoS Computational Biology 10, e1003915 (2014)
36. Khan, S., Tripp, B.P.: One model to learn them all. CoRR abs/1706.05137 (2017)
37. Kingma, D.P., Ba, J.: Adam: A method for stochastic optimization. In: Proceedings of International Conference on Learning Representations (2014)
38. Kingma, D.P., Welling, M.: Auto-encoding variational bayes. In: Proceedings of International Conference on Learning Representations (2014)
39. Klein, B., Harvey, B.M., Dumoulin, S.O.: Attraction of position preference by spatial attention throughout human visual cortex. Neuron 84, 227–237 (2014)
40. Kriegeskorte, N.: Relating population-code representations between man, monkey, and computational models. Frontiers in Neuroscience 3, 363–373 (2009)
41. Kriegeskorte, N., Mur, M., Bandettini, P.: Representational similarity analysis — connecting the branches of systems neuroscience. Frontiers in Systems Neuroscience 2, 4 (2009)
42. Krizhevsky, A., Sutskever, I., Hinton, G.E.: ImageNet classification with deep convolutional neural networks. In: Advances in Neural Information Processing Systems. pp. 1090–1098 (2012)
43. Lake, B.M., Ullman, T.D., Tenenbaum, J.B., Gershman, S.J.: Building machines that learn and think like people. Behavioral and Brain Science 40, 1–72 (2017)
44. Lakoff, G., Johnson, M.: Philosophy in the Flesh. The Embodied Mind and its Challenge to Western Thought. Basic Books, New York (1999)
45. Landgrebe, J., Smith, B.: Making AI meaningful again. Synthese https://doi.org/10.1007/s11229-019-02192-y, 1–21 (2019)
46. LeCun, Y., Boser, B., Denker, J.S., Henderson, D., Howard, R.E., Hubbard, W., Jackel, L.D.: Backpropagation applied to handwritten zip code recognition. Neural Computation 1, 541–551 (1989)
47. LeCun, Y., Bottou, L., Bengio, Y., Haffner, P.: Gradient-based learning applied to document recognition. Proceedings of the IEEE 86, 2278–2324 (1998)
48. Lehky, S.R., Tanaka, K.: Neural representation for object recognition in inferotemporal cortex. Current Opinion in Neurobiology 37, 23–35 (2016)
49. Liu, W., Wang, Z., Liu, X., Zeng, N., Liu, Y., Alsaadi, F.E.: A survey of deep neural network architectures and their applications. Neurocomputing 234, 11–26 (2017)
50. L´opez-Rubio, E.: Computational functionalism for the deep learning era. Minds and Machines 28, 667–688 (2018)
51. Markov, N., Ercsey-Ravasz, M.M., Gomes, A.R.R., Lamy, C., Magrou, L., Vezoli, J., Misery, P., Falchier, A., Quilodran, R., Gariel, M.A., Sallet, J., Gamanut, R., Huissoud, C., Clavagnier, S., Giroud, P., Sappey-Marinier, D., Barone, P., Dehay, C., Toroczkai, Z., Knoblauch, K., Essen, D.C.V., Kennedy, H.: A weighted and directed interareal connectivity matrix for macaque cerebral cortex. Cerebral Cortex 24, 17–36 (2014)
52. Mi lkowski, M.: Embodied cognition meets multiple realizability. Italian Journal of Cognitive Science 14, 349–364 (2018)
53. No¨e, A.: Action in Perception. MIT Press, Cambridge (MA) (2004)
54. O’Brien, G., Opie, J.: Notes toward a structuralist theory of mental representation. In: Clapin, H., Staines, P., Slezak, P. (eds.) Representation in Mind — New Approaches to Mental Representation. Elsevier, Amsterdam (2004)
55. Olshausen, B.A.: Perception as an inference problem. In: Gazzaniga, M.S. (ed.) The Cognitive Neurosciences, pp. 295–304. MIT Press, Cambridge (MA) (2014), fifth edition
56. O’Regan, J.K., No¨e, A.: A sensorimotor account of vision and visual consciousness. Behavioral and Brain Science 24, 939–1031 (2001)
57. Pfeifer, R., Bongard, J.: How the body shapes the way we think: a new view of intelligence. MIT Press, Cambridge (MA) (2007)
58. Piccinini, G.: Computation and representation in cognitive neuroscience. Minds and Machines 28, 1–6 (2018)
59. Plebe, A.: Cognition and computation. Italian Journal of Cognitive Science 14, 281–286 (2018)
60. Plebe, A., De La Cruz, V.M.: Neural representations beyond “plus X”. Minds and Machines 28, 93–117 (2018)
61. Prior, H., Schwarz, A., G¨unt¨urk¨un, O.: Mirror-induced behavior in the magpie (pica pica): Evidence of self-recognition. PLoS Biology 6, 1–9 (2008)
62. Ramachandran, V., Arnel, C., Foster, C., Stoddard, R.: Object recognition can drive motion perception. Nature 395, 852–853 (1998)
63. Rawat, W., Wang, Z.: Deep convolutional neural networks for image classification: A comprehensive review. Neural Computation 29, 2352–2449 (2017)
64. Rezende, D.J., Mohamed, S., Wierstra, D.: Stochastic backpropagation and approximate inference in deep generative models. In: Xing, E.P., Jebara, T. (eds.) Proceedings of Machine Learning Research. pp. 1278–1286 (2014)
65. Robinson, L., Rolls, E.T.: Invariant visual object recognition: biologically plausible approaches. Biological Cybernetics 109, 505–535 (2015)
66. Rolls, E.T., Stringer, S.M.: Invariant visual object recognition: A model, with lighting invariance. Journal of Physiology — Paris 100, 43–62 (2006)
67. Rosenfeld, A.: Picture Processing by Computer. Academic Press, New York (1969)
68. Rumelhart, D.E., McClelland, J.L. (eds.): Parallel Distributed Processing: Explorations in the Microstructure of Cognition. MIT Press, Cambridge (MA) (1986)
69. Russakovsky, O., Deng, J., Su, H., Krause, J., Satheesh, S., Ma, S., Huang, Z., Karpathy, A., Khosla, A., Bernstein, M., Berg, A.C., Fei-Fei, L.: ImageNet large scale visual recognition challenge. International Journal of Computer Vision 115, 211–252 (2015)
70. de Sa, V.R., Ballard, D.H.: Category learning through multi-modality sensing. Neural Computation 10(5) (1998)
71. Schmidhuber, J.: Deep learning in neural networks: An overview. Neural Networks 61, 85–117 (2015)
72. Schmidt, M., Roux, N.L., Bach, F.: Minimizing finite sums with the stochastic average gradient. Mathematical Programming 162, 83–112 (2017)
73. Silver, D., Huang, A., Maddison, C.J., Guez, A., Sifre, L., van den Driessche, G., Schrittwieser, J., Antonoglou, I., Panneershelvam, V., Lanctot, M., Dieleman, S., Grewe, D., Nham, J., Kalchbrenner, N., Sutskever, I., Lillicrap, T., Leach, M., Kavukcuoglu, K., Graepel, T., Hassabis, D.: Mastering the game of Go with deep neural networks and tree search. Nature 529, 484–489 (2016)
74. Simonyan, K., Zisserman, A.: Very deep convolutional networks for large-scale image recognition. CoRR abs/1409.1556 (2015)
75. Stigliani, A., Jeska, B., Grill-Spector, K.: Encoding model of temporal processing in human visual cortex. Proceedings of the Natural Academy of Science USA 1914, E11047–E11056 (2017)
76. Swoyer, C.: Structural representation and surrogative reasoning. Synthese 87, 449 – 508 (1991)
77. Tripp, B.P.: Similarities and differences between stimulus tuning in the inferotemporal visual cortex and convolutional networks. In: International Joint Conference on Neural Networks. pp. 3551–3560 (2017)
78. Van Essen, D.C.: Organization of visual areas in macaque and human cerebral cortex. In: Chalupa, L., Werner, J. (eds.) The Visual Neurosciences. MIT Press, Cambridge (MA) (2003)
79. Van Essen, D.C., DeYoe, E.A.: Concurrent processing in the primate visual cortex. In: Gazzaniga, M.S. (ed.) The Cognitive Neurosciences. MIT Press, Cambridge (MA) (1994)
80. VanRullen, R.: Perception science in the age of deep neural networks. Frontiers in Psychology 8, 142 (2017)
81. Volpi, N.C., Quinton, J.C., Pezzulo, G.: How active perception and attractor dynamics shape perceptual categorization: a computational model. Neural Networks 60, 1–16 (2014)
82. von der Malsburg, C.: Network self-organization. In: Zornetzer, S.F., Davis, J., Lau, C. (eds.) An Introduction to Neural and Electronic Networks. Academic Press, New York (1990)
83. Wallis, G., Rolls, E.: Invariant face and object recognition in the visual system. Progress in Neurobiology 51, 167–194 (1997)
84. Willshaw, D.J., von der Malsburg, C.: How patterned neural connections can be set up by self-organization. Proceedings of the Royal Society of London B194, 431–445 (1976)

[1] PDP (Parallel Distributed Processing) bir biliş modelidir. Bilginin temsilinin bir dizi varsayımsal nöral birimler üzerine aktivasyon örüntüleri olarak dağılmış olduğu fikrine dayanır. Bu nöral birimler birbirine paraleldir ve interaktif bir şekilde işlev görür (Ç.N.).

[2] Bilişsel etoloji, bilinç ve kasıtlılık (intentionality) gibi zihinsel deneyimlerin hayvanlarda incelenmesidir. Ayrıca, bu alan bu deneyimlerin hayvanlar çevreleriyle etkileşime geçtiğinde hayvanlar üzerinde nasıl etkiler yarattığını inceler (Ç.N.).

[3] Stokastik gradyan inişi makine öğrenmesinde karşılaşılan problemleri çözmede kullanılan bir optimizasyon algoritmasıdır (Ç.N.).

[4] Neocognitron, 1979 yılında Kunihiko Fukushima tarafından önerilen hiyerarşik, çok katmanlı bir yapay sinir ağıdır (Ç.N.).

[5] fMRI, beynin çeşitli bölgelerinde oksijen seviyesinin karşılaştırılması üzerinden, herhangi bir aktivite esnasında hangi beyin bölgelerinin aktif olduğunu görmemizi sağlayan bir tekniktir. Fakat bu teknikte hücreleri teker teker inceleyecek çözünürlüğe sahip değiliz; binlerce hatta belki milyonlarca hücreden oluşan birimlerin aktivasyon seviyesini görebiliriz. İşte fMRI’da aktivitesini gözlemleyebildiğimiz en küçük birimlerden her birine voksel denir.

[6] V1 serebral korteksin ana görme alanıdır (Ç.N.).

Enaksiyon ve Diyalektik (1. Bölüm) — Ezequiel Di Paolo

08/03/2023

Özgün Adı: Enaction and Dialectics — Part I Anahtar kelimeler: Otopoiesis, biyolojik otonomi, biliş, diyalektik, ekosistem, enaksiyon, organizma Enaktif yaklaşım (enactive approach), Francisco Varela ve meslektaşlarının çalışmalarını

Read More »

Elon Musk’ın Neuralink’i Tam Bir Nörobilim Tiyatrosu — Antonio Regalado

25/10/2020

Özgün adı: “Elon Musk’s Neuralink is neuroscience theater” Elon Musk’ın beyin nakli canlı yayın gösterisi, tutması güç sözler verdi. Korkusuzca dağa tırman. Kafanın içinde kendi

Read More »

Zihinsel Temsil Kavramının Tarihsel Gelişimi — Elif Şirin

20/12/2023

Önsöz Ege Üniversitesi Psikoloji bölümünden Dr. Cansu Pala’nın, lisans öğrencilerinin çalışmalarını bir araya getirerek oluşturduğu Psikoloji Tarihi Arşivi bilişsel bilimler için değerli bir kaynak oluşturuyor.Her biri bir

Read More »

Copyrights @2026 CogIST All Rights Reserved

Event Submission

Manuscript Submission

Privacy Policy

Distance Sales Agreement

Course Participation Agreement

Feedback Survey

Instagram Twitter Linkedin Youtube