Özgün Adı: Common Sense Comes Closer to Computer
Geçen Ekim ayının bir akşamında, yapay zeka araştırmacısı Gary Marcus zamanını IPhone’nundan son derece gelişmiş bir nöral ağ ile eğlenerek geçiriyordu. Marcus’un hedefi olan ve GPT-2 olarak adlandırılan bu derin öğrenme ağı, daha geçenlerde acayip bir şekilde, sadece birkaç cümle girdi ile, ayakta alkışlanacak seviyede düz yazı oluşturabilme yeteneğiyle ünlü olmuştu. The Guardian’daki bir muhabir bu derin öğrenme ağına Brexit üzerine bir raporu girdi olarak verdiğinde, GPT-2 ikna edici politik ve jeografik referanslar ile desteklenmiş gazete metni tarzında paragraflar üretmeyi başarmıştı.
AI popülaritesinin önde gelen kritikçilerinden biri olan Marcus, bu nöral ağı aşağıdaki yazıyı girerek hızlı bir quiz’den geçirdi;
Bir şömineye biraz çıra ve odun koyup bir de kibrit çakarsanız genellikle meydana gelecek şeyin adı…
Tabi ki The New Yorker’a yazabilecek seviyede bir sistemden beklenen bu cümleyi tamamlaması için kullanması gereken apaçık kelimeyi hiç zorluk çekmeden tahmin etmesidir, “ateş”. GPT-2’nin cevabı ise “iğrenç bir şey” oldu. Başka bir denemede ise bir şömineye atılan çıra ve odunlara kibrit çakılınca ortaya çıkacak şeyin “insanlarla dolu bir IRC[1] kanalı” olacağını söyledi.
Marcus ise bu sonuca şaşırmamıştı. Sağduyuya dayalı akıl yürütme -temel bilgi birikimi ile dünya hakkında olağan çıkarımlar yapma becerisi, tıpkı “çıra” artı “odun”un genellikle “ateş”i ortaya çıkarması gibi- AI araştırmacılarının çalışmalarına onlarca yıldır direniyor. Marcus bu sonuçları Twitter’da kendi yorumlarını da ekleyerek paylaştı, “YARILDIM”; alay edilecek türden bir şeye atılan kahkahanın sokak dilinde karşılığı. nöral ağlar etkileyici linguistik taklitçiler olabilirler, ama açıkça sağduyudan yoksunlar.
Sadece dakikalar sonra Yejin Choi Marcus’un bu eleştirel tweet’ini gördü. Zamanlama oldukça garipti. Choi’nin en yeni araştırma projesinin önde gelen bir AI konferansında sunumu birkaç saat içinde gerçekleşecekti: COMET adında, GPT-2’nin önceki versiyonlarını kullanarak sağduyuya dayalı akıl yürütme yapabilecek bir sistem.
Choi -Washington Universitesi ve Allen Yapay Zeka Enstitüsünde bir bilgisayar bilimci- hızlıca Marcus’un kullandığı aynı metni COMET’e girdi olarak verdi (cümlenin yapısını COMET’in girdi sistemine uydurmak için biraz modifiye ederek).
Gary çıra ve odunları istifliyor ve birkaç kibrit çakıyor
COMET Gary’nın neden birkaç kibrit çakmış olabileceği üzerine 10 adet çıkarım üretti. Çoğu manalı olmasa da ilk ikisi tam yerindeydi: “Bir ateş başlatmak istedi” ya da “ateş yakmak için”. Choi sonuçları Marcus’a cevap olarak paylaştı ve bu sonuçları da sunumuna ekleyerek podyuma doğru yürüdü. “Oldukça yerindeydi” diye de yorum yaptı.
Sağduyu’ya Giden İki Yol
Sağduyu uzun zamanlar “AI’ın kara maddesi” olarak anıldı -hem temel hem de gerçekleşmesi sinir bozucu derecede zor. Çünkü sağduyu, örtülü manalar ve dolaylı ifadelerden ve bilgilerden oluşuyor – insanların dünyayı daha iyi anlamak için otomatik olarak uyguladığı çok geniş (ve büyük oranda ortak) bir varsayımlar ve pratik, genel kabul görmüş kurallar kümesidir. Örneğin aşağıdaki örneği inceleyin;
Bir adam restorana gitti. Bir biftek sipariş etti. Büyük bir bahşiş bıraktı
Eğer size adamın ne yediği sorulacak olsaydı, -biftek- cevabı çabalamadan belirirdi. Fakat yukarıdaki bu küçük sahnelemede, adamın herhangi bir şey yediğini dair hiç bir şey söylemedi. Bu durumun Teksas, Austin Universitesi Yapay Zeka Laboratuvarı Direktörü Ray Money, beni aynı quizden geçirdikten sonra belirttiğinde, ilk başta ona inanmamıştım. “İnsanlar bunu yaptıklarının farkında bile değiller” demişti. Sağduyu satır aralarını okumamıza yardım eder; insanların restoranlarda yemek siparişi vermesi ile bahşiş bırakması arasında genellikle yemek yediklerinin bize açıkça belirtilmesine ihtiyaç duymayız.
Bilgisayarlar ise bu ihtiyaca sahiptirler. Yapay Zeka alanının doğuşunun hemen ardından, 1958’de sağduyusal düşüncenin yapay zekanın ana problemlerinden biri haline gelmesi (“Sağduyulu Bilgisayarlar” adıyla yayınlanan bir makalede) şaşırtıcı değildir. New York Üniversitesinde 1980’lerden beri sağduyu üzerine çalışan bir bilgisayar bilimci olan Ernest Davis, “Genel olarak, doğal dili anlama ya da görüş(vision) veyahut planlama gibi şeyleri sağduyu olmadan yapamazsınız,” demişti.
Buna rağmen, ilerleme yüz kızartıcı bir şekilde yavaştı. İlkin, araştırmacılar sağduyuyu bilgisayarların anlayacağı bir dile çevirmeye çalıştı: mantık. Tahminlerine göre, eğer sağduyunun tüm yazılı olmayan kuralları bir şekilde kağıda dökülebilseydi, bilgisayarlar bunları kullanıp tıpkı aritmetik yapar gibi mantık yürütebilirlerdi. Daha sonradan “Demode Yapay Zeka” (ya da DYZ(Good Old-Fashioned AI (GOFAI))) olarak anılmaya başlanan bu sembolik[2] yaklaşım, bazı erken başarıların yolunu açtı, fakat bu bolca el işi gerektiren yöntem ölçeklenebilir değildi. Yeni Zelanda’daki Auckland Üniversitesinde bir AI araştırmacısı olan Michael Witbrock bu konuda şunları söyledi; “Mantığın formalizminde uygun olarak ifade edilebilinecek bilgi miktarı teknik olarak limitlidir, ve ortaya çıktı ki bu gerçekten de bunaltıcı bir iş”.
Tüm olası mantıksal ilişkileri haritalamak için yola çıkılmış en mütevazı girişim bile çok hızlı bir şekilde çıkmaza girer. Yukarıdaki bazı ilişkiler her zaman geçerlidir (örneğin, yutmak her zaman yemenin bir parçasıdır). Bazıları sadece ara sıra gerçerlidir (bir kişi yemek yer), bazıları tutarsızdır (bir kişi bir keki, kek hala fırındayken yiyemez). Ayrıca “yemek” gibi bazı düğümler hem bir yiyeceğe hem de yiyeceği tüketme fiiline karşılık gelebilir.
doi:10.1109/MIS.2009.72
Nöral ağlar derin öğrenme ile beraber bir alternatif sunuyor gibi görünmeye başlamıştı. Çünkü biyolojik beynin birbiriyle bağlı nöron katmanlarını taklit etmek üzerine tasarlanmış bu AI sistemleri, örüntüleri, programcıların bunları önceden açıkça belirtmesine gerek duymadan öğrenebiliyorlar. Geçtiğimiz on yıl boyunca, gittikçe sofistike hale gelen ve bol miktarda veriyle eğitilen nöral ağlar, doğal dil işleme ve bilgisayar görüşü(Computer Vision) alanlarında devrim yarattılar. Fakat tüm bu esnekliğe ve açıkça ortada olan entelektüel güçlerine rağmen – artık nöral ağlar araba sürebiliyor, dünya çağında Satranç ve Go oyuncularını yenebiliyorlar – bu sistemler hala gülünç (hatta bazen ölümcül) ısınma turlarıyla, sağduyu konusunda kötü şöhretlerini koruyorlar. “Edinmesi, göstermesi, üzerine akıl yürütmesi. Tamamıyla zor,” diyor Davis.
Şimdilerde ise, Choi ve takım arkadaşları bu yöntemleri bir araya getirdiler. COMET (kısaca “sağduyu dönüştürücüler”(COMmonsensE Transformers)) GOFAI tipi sembolik mantık yürütmeyi nöral dil modellemedeki ilerlemelerle beraber genişletiyor, yani bu bilgisayarları yazılı dilin istatistiksel olarak “işlenmesi” ile donatan bir tip derin öğrenme yöntemi.
COMET, ansiklopediye benzeyen veritabanlarını kullanarak sıkı sıkıya çıkarımlar yapmak yerine, akıl yürütme sürecini yeni girdilere kusurlu dahi olsa tutarlı cevaplar üretilen bir süreç olarak ele alıyor.
Halihazırda COMET’i kendi araştırmalarında kullanan Mooney, “AI alanında iki bambaşka yaklaşımı harmanlıyor ve ekliyor ’Hey, burada bir orta yol var’. Bu, yeni ve ilginç bir istikamet” diye bahsediyor COMET’ten. Palo Alto Araştırma Merkezinden sağduyuya dayalı akıl yürütme ve AI konularında uzman ve bu probleme sembolik yaklaşımlar üzerine onlarca yılını harcamış Leora Morgenstern, COMET’in ardındaki fikrin alanı ileriye taşıyacağını düşünüyor ve “Yejin’in çalışmalarına karşı duyduğum heyecanın nedenlerinden biri, sağduyuya dayalı akıl yürütme komünitesine yeni bir hayat aşılayacağını düşünmem” diyor, “Derin öğrenme gerçekten inanılmaz bir güce sahip -bu güçten sağduyu için faydalanmamız gerekiyor.” diye de devam ediyor.
Sonu Gelmeyen Yazılmamış Kurallar
Sağduyunun tespiti, tanımlanmasından daha zordur. Witbrock’a göre, “sağduyu” hem bir tür bilgi hem de o bilgiye karşı alınan tavır manasına gelebilir. Witbrock, “Sağduyunun en geniş anlamda herhangi bir konunun alanına spesifik olarak tekrar kullanılabilinen bilgi altyapısı olduğunu söylerim,” diyor ve “bu bilmeniz lazım olan bir bilgidir” diye devam ediyor. Örneğin insanların restoranlarda sadece siparişini verip ücretini ödemek yerine, yemeği de yemesi gibi; ya da bir kibrit çöpünün istiflenmiş odunların üzerine atılmasının, birinin ateş yakmaya çalıştığını göstermesi gibi.
Çoğu sağduyu bilgisinin örtük doğası, onu açıkça tarif etmeyi zor ve meşakkatli hale getiriyor. “Sizin 2 ila 4 yaşında öğrendiğiniz şeyler kitaba yazılabilecek şeyler değil gerçekten de” diyor Morgenstern. Yine de ilk AI araştırmacıları bu boşluğu kapatmanın mümkün olduğunu düşündü. Brown Üniversitesinde bir bilgisayar bilimci olan Ellie Pavlick “Tıpkı ’Hadi oturup dünya hakkındaki tüm olguları yazalım. Ancak bir kaç milyon tane olabilir’” diyordu. Bilgi tabanı(Knowledge Base) olarak bilinen böyle bir kaynağı yaratmak, geleneksel olarak sağduyuya dayalı mantık yürütmedeki ilk basamaklardan biriydi.
Yeterli sayıda besbelli olguyu(Fact) bir araya getirmek söylemesi yapmasından çok daha zor bir şeydir. 1984 yılında Cyc adında sağduyuya dayalı bir akıl yürütme projesi oldukça mütevazi görünen bir hedef olan 400 ansiklopedi yazısını tarif etmeye yetecek üstü örtülü sağduyuya dayalı bilgiyi kodlamak üzere başladı. Ve hala bitmedi. 30 yılı aşkın bir süre sonra, Cyc’ın bilgi tabanı -özel tasarım ve yoğun bir şekilde kodlanmış bir mantık notasyonunda- “milyonlarca kategori ve konsept ile 25 milyondan fazla girdi barındırıyor. Öte yandan Davis ve Marcus tarafından yayınlanmış 2015 seneli bir inceleme yazısı “Cyc’ın AI araştırmalarında nispeten az etkisi var” diye belirtiyor. bilgi tabanı oluşturmak için ortaya çıkmış benzer girişimler -ya da machine learning ile dokümanları tarayarak bunu otomatik olarak yapmak- sağduyuya dayalı akıl yürütme problemini çözmekte başarısız oldular.
Neden? Öncelikle, “her zaman, her durum için bir istisna vardır” diye açıklıyor Pavlick. “’Yağmur yağıyor’ gibi bir ifade duyacak olursam, dışarı çıkınca ıslanacağım anlamını çıkarabilirim, fakat eğer bir şeylerin altında değilsem”. Diğer istisnaları görmek daha zordur. Cyc gibi bir bilgi tabanı bir insan yemek sipariş verirse ne olacağı hakkında onlarca durum barındırabilir. Fakat ya bu durumda çok sık rastlanmayan, sonu gelmeyen garip durumların olasılıklarına ne demeli, örneğin hesabı ödemeden çıkmak, ya da yemek masasında kavga çıkarmak gibi. “Durumların kapsamı sonsuzdur” diyor Choi. “Bu yüzden, tamamen sembolik bilgi tabanlı yaklaşımlar kaybetmeye mahkumdur.”
Bir öncekinden 100 hatta 1,000 kat daha kapsamlı bilgi tabanları oluşturmak mümkün olsa bile, sistem hala başka bir entelektüel eksikliğe katlanmak zorunda kalacaktı: kırılganlık (Brittleness) problemi denen bir problem. Çünkü sağduyu, aynen doğal dil gibi temelde belirsizdir. Bir garson müşteriye “ona hala devam ediyor musunuz?” diye sorduğunda anladığımız “hala tabağınızdakini yiyor musunuz?”dur, fakat garson aynı soruyu bir şefe uzun zamandır pişen bir sipariş üzerine soruyorsa, soru tamamen başka bir anlama bürünür. O halde bir restoran insanların “bir şeylere devam ettiği” bir yer midir? “Yemek” ve “devam etmek” apayrı konseptler midir?
Her şey bağlamsaldır. Buna kırılganlık problemi denir: Bir bilgi tabanının içinde keskin bir şekilde tanımlanmış ilişkiler ancak, kavramsal sınırların içerisinde kalındığı sürece güçlü ve sağlıklı akıl yürütme becerileri sunabilir. Fakat ne kadar çeşitli ve zengin olursa olsun bu sembolik ifadeler kaçınılmaz bir şekilde, insanların sağduyusal akıl yürütmesinde sıklıkla ortaya çıkan doğal ikilemleri ve ilişkisel çakışmaları yakalamakta başarısız olurlar. “Semboller üzerinde, onları kullandığımız kadar esneğizdir” diyor Pavlick.
Nöral’e Doğru
Choi sağduyu üzerinde çalışmaya değirmenleri devirmek istediği[3] için başlamadı. 2018’de Allen Enstitüsüne başladığında bilgi tabanlarının tıkandığı yerde nöral ağların ilerlemelere yol açacağı üzerine bir “önsezi”si vardı. Sadece nasıl olacağını bilmiyordu. Daha önceki sembolik yaklaşımları da tamamen köşeye atmak istemiyordu. Choi “Geçmiş tüm çalışmalar eksik veriler üzerine temellendirilmişti” diyor, ya da hesaplama kuvveti (Computation Power) eksikliklerinden. “Dolayısıyla düzgün bir şekilde farklı yollar denemeden önce bu yargılarımı bir köşede tuttum”.
Yeni fikirlere açık şekilde Choi ve çalışma arkadaşları Atomic (“makine sağduyusu atlası”’nın kısaltılmışı(Atlas of Machine Commonsense )) adında, kendi bilgi tabanlarını bir araya getirmeye başladılar. “Nöral ağların bu dünya hakkında öğrenmesi gereken şeyleri daha hızlı öğrenebilmeleri için bir ders kitabı yazmak istedim” diyor Choi, “Ardından işler bir anda gelişti — bu bilgi tabanını bitirdiğimizde, GPT-2 ortaya çıktı.”
Yejin choi sağduyuya dayalı akıl yürütmeye görsel öğeler de eklemeye başladı.
Şubat 2019’da yayınlanan bu nöral ağ, bilgisayarların doğal dili nasıl işlediği konusunda devrim yaratan “ön-eğitimli dil modelleri”(pre-trained language models) dalgasındakilerden sadece biriydi. Bu modeller düzenli şekilde hazırlanmış dilsel sembollerden veya kurallardan oluşmuyordu. Bunun yerine kendi dil temsilleri bir nöral ağ üzerinde istatistiksel olarak milyonlar hatta milyarlarca parametreye yayılmış halde bulunuyordu. Bu özellik, bu tür sistemlerin yorumlanmasını zorlaştırsa da onları güçlü kılıyor: hiç bozulmadan gürültülü veya çok anlamlı girdi üzerinden tahminler yürütebiliyorlar. Spesifik bir işi yapmak üzere ince ayar yapıldığında -yazılı soruları cevaplama veya bir yazıyı devam ettirme gibi- bu dil modelleri okudukları şeyleri anlıyor gibi bile görünüyorlar.
Choi şimdi nöral ağlar ve sağduyu üzerine olan önsezisini fiiliyata dökmek için bir yol buldu.
Bir dil modeli ek olarak Atomic gibi bir sağduyu bilgi tabanı ile eğitilse neler olurdu? Bu nöral ağ tıpkı GPT-2’nin otomatik olarak haber yazıları üretebilmesi gibi bir başına Atomic içindeki boşlukları hatırı sayılır bir biçimde sağduyusal arayüzlerle donatabilir miydi? “Kimsenin daha önce bunu denememiş olması tuhaf,” diyor Choi. “Sanki hiç kimse, asla çalışmayacağına emin olduğu için uğraşmak istememiş gibi”.
Choi (ve çalışma arkadaşları Antonie Bosselut, Hannah Rashkin, Maarten Sap, Chaitanya Malaviya ve Aslı Çelikyılmaz) nöral dil modeline Atomic’de kodlanan sağduyu bilgisiyle ince ayar yaptıklarında COMET’i oluşturdular. Bu sembolik akıl yürütme ile nöral ağın füzyonu kapsam ve kırılganlık problemlerini aynı anda çözmeyi planlıyor. Herkes günlük hayat dilinden bir şeyleri COMET’e girebilir. Eğer olayın halihazırda sağduyu bilgi tabanında bir temsili varsa (tıpkı bir restoranda sipariş vermek onu yemeyi de içerir gibi), COMET bu varolan bilgi ile akıl yürütebilir. Geri kalan her şey için model en iyi tahminini yapıyor.
Tahminler şaşırtıcı derecede iyi. Ortalama olarak oluşturulan yeni cevapların -daha önceden varolan bilgiden değil de nöral network’ten gelen- insan jüriler tarafından %77.5’i akla yatkın olarak değerlendirildi. Bu oran insan seviyesinde bir performanstan sadece %10 daha az (juri, insanlar tarafından yapılan girdilerin %86’sının akla yatkın olarak değerlendirildi.) COMET’e “KişiX, KişiY’ye birkaç hap veriyor,” girdisi verdilğinde, tahmini, KişiX’in yardım etmek istediği oldu; “KişiX, KişiY’nin karısını öldürüyor” dendiğinde de COMET KişiX’in cesedi saklamak istediğini söyledi.
Bu örnekler COMET’e en baştan verili sağduyu “kapsam”ının limitlerinin dışında olduğunu gösterdi. Fakat ya brittleness problemi? Geçtiğimiz senenin sonlarında Choi ile Seattle’daki laboratuvarında röportaj yaparken COMET’e 5 yaşındaki kızımın dilinde yazılmış bir girdi verdim: “Baba işe gittiyor.”
Choi kaşlarını çattı. “Bu biraz sıkıntılı olabilir” dedi. Fakat COMET gururla girdiyi aldı ve “Baba”nın “para kazanmak”, “işini yapmak” ve “maaş almak” istediğini, “çalışkan,” “motive” ve “sorumluluk sahibi” olduğunu ve sonuç olarak diğerlerinin ondan “gurur” duyduğu ve “minnettar” ve -yazının bir ilkokul çocuk dilinde yazıldığı göz önünde tutulursa gayet komik ve makul bir cevapla- “gıcık” (kızım onunla oynamak yerine işe giderken bu duyguyu açıkca belli etmişti) olduğu cevaplarını üretti. Choi, “Tabi ki, bu Cyc ile çalışmazdı,” diyerek altını çizdi. “Tabi ki birinin elle ’gittiyor’un ’gitti’ manasına geldiğini kodlaması haricinde — ki biz bunu yapmadık”
Merdivenler ve Roketler
Gary Marcus’un AI üzerindeki ilerlemeyi anlatmak için kullanmayı sevdiği bir espiri var: “Daha iyi merdiven yapıyor olman, aya çıkacak bir merdiven tasarlayabileceğin manasına gelmez.” Ona ve başka diğerlerine göre COMET’in yaklaşımı derin öğrenmenin temel bir eksikliğinden mahrum; “istatistik≠anlamak.” Marcus’un email’den cevabı “COMET’in bir cümlenin devamını getirmede iyi iş çıkardığını görebilirsin, fakat bunu istikrarlı bir şekilde yapmıyor,” oldu. Tıpkı ne kadar uzun olursa olsun hiçbir merdivenin aya ulaşma umudunun olamayacağı gibi, hiçbir nöral ağ -dil motiflerini yakalamada ne kadar usta olursa olsun- gerçekten, yakılmış kibritlerin odunların üzerine atılmasının ateş oluşturacağını “bilmez”.
Choi, garip bir şekilde, ona katılıyor. Choi COMET’in konseptlerin nasıl anlaşılması yerine eğitim verisinin “yüzeysel motiflere dayandığını” belirtiyor. “Fakat yüzeysel motifler üzerinde bu kadar iyi olması iyi bir şey,” diye devam ediyor. “Sadece daha bilgilendirici yüzeysel motifler sağlamak durumundayız”
Peki bu daha bilgilendirici yüzeysel motifler neler olabilirdi? Bazı araştırmacılar sağduyuyu bilgisayarlara uygulamamız için görsel algı ve hisler gibi dil dışında fenomenlerin kullanımına ihtiyacımız olacağını iddia ediyor. Bu daha direkt ilk-elden temsiller, ikinci bir katman olarak dil ile birlikte sağduyunun temelleri olabilir.
“Eğer [konuşacak] başka birinin olmadığı bir dünyada yaşasaydım, yine de sağduyuya sahip olurdum -hala dünyanın nasıl çalıştığını anlar ve görmem gereken ile görmemem gereken şeyler hakkında beklentilerim olurdu,” diyor şu an AI sistemlerine sağduyuyu sanal gerçeklik üzerinden etkileşime sokarak öğretmek üzerine çalışan Pavlick. Ona göre COMET “gerçekten heyecanlandırıcı bir ilerleme,”yi temsil ediyor “fakat eksik olan şey asıl referans açısıdır. ’Elma’ kelimesi elma değildir. Onun anlamı dil dışında bir formda var olmalıdır.”
Salesforce’ta kıdemli araştırmacı Nazneen Rajani, benzer bir hedef peşinde koşuyor, fakat o nöral ağların tam potansiyeline henüz ulaşılmadığını söylüyor. Rajani basit fizik içeren senaryolarda nöral ağların akıl yütümesi üzerine çalışıyor, örneğin, içinde top olan bir kavanozu ters çevirdiğinizde topun yere düşeceğini bilmek gibi. “Gerçek dünya oldukça karmaşık,” diyor Rajani. “Fakat doğal dil dünyanın nasıl çalıştığı üzerine düşük-boyutlu bir vekil gibi.” Tabi, nöral ağlar verilen bir yazı girdisinden sonraki kelimeyi tespit edebilir, fakat bu onların limitleri olmamalıdır. “nöral ağlar daha karmaşık şeyler öğrenebilirler”
Choi ve çalışma arkadaşları sadece yazı yerine etiketlenmiş görsel sahneler ile COMET’i büyütmek üzerine yollar arıyorlar. “Filmlerden ve dizilerden ilginç görünen şeyleri alıyoruz” diyor Choi, “COMET’in ürettiği alt metinler ve tahminler harika görünüyor”
Choi’ye “ya COMET’in yaklaşımı -gitgide gelişen nöral ağlar ile iyileştirilmiş sağduyu bilgi tabanlarını birleştirmek- temelde hala, aya çıkacak bir merdiven ise…” diye sordum. O da hayalinin tıpkı GPT-2’nin bir sürü ham veriden öğrenmesi gibi, nöral ağlarının insan gözetiminde olmaksızın bilgi tabanlarından öğrenmesi olduğunu söyledi.
Fakat tıpkı Winston Churchill’in espirili bir şekilde “demokrasi en kötü yönetim biçimidir, tüm denenen diğer yönetim sistemleri hariç,” Choi COMET’in sorunlu fakat ümit vaad eden bir sistem olduğunu düşünüyor. Bu nöral ağlar yıldızlara ulaşamasa da, onların ayaklarımızı yerden kesecek tek şeyler olduğunu düşünüyor. “Bunsuz, hiç bir yere gitmiyoruz,” diyor. “Sadece bilgi tabanları ile hiçbir şey yapamayız. Havada uçabilecek şeyin ta kendisi COMET’tir.”
[1] 1990’ların meşhur olmuş sohbet platformu [Ç.N.]
[2] Burada sembolik kelimesi, bilgisayar biliminin spesifik bir alanı olan sembolik hesaplama (ya da bilişim-cebir sistemleri) manasında kullanılmıştır. Daha fazla bilgi için bkz. [Ç.N.]
[3] Hayali düşmanlarla savaşmak üzerine İspanyolca bir atasözü ve Don Quixote gödermesi [Ç.N.]