İçeriğe atla
Instagram Twitter Linkedin Youtube
  • Home
  • Activities
    • Events
    • Publication
  • This paragraph should be hidden.

  • Who are we?
  • Upcoming Events
  • Contact
  • TR
  • Home
  • Activities
    • Events
    • Publication
  • This paragraph should be hidden.

  • Who are we?
  • Upcoming Events
  • Contact
  • TR

Yapay Zekanın Varoluşsal Riskleri Üzerine — Romain Brette

Çevirmen: Neslihan Çalışkan
Editör: Kaan Hamurcu

Özgün Adı: On the existential risks of artificial intelligence

Yapay zekadaki etkileyici ilerleme insanlığın eninde sonunda silinip yok olması veya yapay süperzekalar tarafından köleleştirilmesi korkusunu yeniden canlandırdı. Bu yeni bir korku değil. Örneğin, bu korku, robotların insanları korumak için içlerinde 3 yasayı barındıracak biçimde tasarlandıklarını hayal eden Isaac Asimov’un çoğu kitabının temelini oluşturur.

Burada bahsetmek istediğim bu tarz olayların imkansız olduğunu sergilemek değil. Aksine, asıl bahsetmek istediğim, özerk, insan yapımı varlıklar halihazırda varlar ve bu varlıklar yapay zeka yaygaracılarının bahsettiği aynı risklere sebep olabilmelerinin yanı sıra gerçekler. Bu doğrultuda, şeytani yapay zeka fantezileri tamamiyle antropomorfik bir çılgınlıktır.

Hemen birkaç yanlış anlaşılmayı azletmeme izin verin. ChatGPT dili anlıyor mu? Tabii ki de hayır. Büyük dil modelleri temelinde bir sonraki kelimeleri tahmin etmek için tasarlanmış algoritmalardır. Fakat, biz burada insanların anladığı manada bir “kelimeden” bahsetmiyoruz. Bilgisayar mantığıyla kelime, biz insanların anlam atfettiği bir sembole tekabül eder. ChatGPT muzlar hakkında konuştuğunda, bir muzun tadının nasıl olduğu konusunda bir fikre sahip değildir (tabii çünkü bir fikre sahip değildir). Hiçbir muzu görmemiş ve tatmamıştır (tabii çünkü daha önce hiç görmemiş ve tatmamıştır). “Muz” sadece başka ağlardan oluşan, dış dünyadan, özellikle de bir muz kelimesinin aslında neyi kastettiğinden tamamiyle kopuk bir ağ grafiğinin bir parçasıdır. Bu bilişsel bilimde sembol temellendirme problemi olarak bilinir ve bu problem büyük dil modellerinin çözemediği zor bir problemdir. Böylece, belki de, büyük dil modelleri dili “anlarlar”, fakat bu ancak siz “anlamak” kelimesini kelimelerin ne anlama geldiğini bilmenin şart koşulmadığı bir şekilde tanımlamaya gönüllüyseniz mümkündür.

Makine öğrenmesi algoritmaları biyolojik organizmalar değillerdir. Onlar algılamazlar, bilinçsizdirler ve insan mantığıyla bir maksatları yoktur. Fakat bunun bir önemi yok. Yapay zeka üzerine bulunan genel endişe basitçe bu algoritmaların genel olarak öncesinde tanımlanmış kriterleri (örneğin tahmin hatası) optimize etmek üzerine tasarlanmış olmalarıdır. Ve şayet biz onlara bunu yapabilecekleri etkili yollar sunarsak, spesifik olarak dünyadaki gerçek eylemlerle muhatap olurlarsa onların kullanımının bir gün bizim için tehlike oluşturmayacağını nereden bilebiliriz? Bir noktada mutlaka şeytani bir zihni doğru varsaymadan da biz insanlar bazı optimizasyon kriterlerinin birer aracı haline gelebiliriz. Makineye bazı teknik hedefler edindirebiliriz, ama bunların insani değerlerle örtüştüğüne emin olmak oldukça zordur. Buna “ayarlama” problemi adı verilir.

Peki neden olmaz? Belli olduğu üzere henüz bu hedefe yakın değiliz, fakat belki, olası bir gelecekte, ya da bir düşünce deneyinde, bu mümkün olabilir. Ama beni yanlış ayarlama anlatısından asıl muzdarip kılan şey, konuya antropomorfik şeytani robotların ötesinde bakmayı tercih ederseniz bu senaryo hiç de farazi kalmıyor. Gerçekten hiç mi hedefleri olan ve bu hedefleri insanların değer yargılarıyla örtüşmeyen insan yapımı varlıkları duymadınız? Güçlü ve insanlar tarafından kontrol edilmesi zor olan varlıklar?

Eğer teknolojik alandan ziyade sosyal alana bakarsanız bu soruya çok bariz bir cevap bulursunuz: Modern finansallaşmış çok uluslu kurum. Modern kurum, çıkarı maksimize etmek için tasarlanmış, insan yapımı bir organizasyondur. İnsanlar gibi hedefleri veya amaçları yoktur fakat aynı yapay zeka “ayarlama” anlatısında olduğu gibi, önceden belirlenmiş bir kriteri maksimize etmek için eldeki bütün imkanları kullanmak üzere tasarlanmıştır, ki bu insanların değer yargılarıyla örtüşebilir de örtüşmeyebilir de. Bu tür şirketlere “çıkar robotları” diyelim.

Peki bu çıkar robotları insanlardan ne kadar özerktir? Günümüzün büyük modern şirketleri insanlara değil kurumsal taraflara aittir. Yatırım fonları buna bir örnektir. Başka bir deyişle, aynı hedeflere sahip diğer organizasyonlar. Bilindiği üzere, onların çok uluslu doğası kendilerini devletlerin yasalarına karşı dayanıklı kılıyor (dolayısıyla mali optimizasyon, ucuz işçi kullanımı vs. gibi uygulamaların sonuçlarından korunurlar). Ayrıca, bir çıkar robotunun kaynaklarının büyük bir kısmının pazarlama ve reklamcılığa adandığını yani insanları kendi ürünlerini almak için manipüle edilmesi üzerine kullanıldığı da herkes tarafından bilinen bir gerçek.

Çıkar robotları ek olarak bazı insan yasalarını esnetmek için yoğun bir lobicilikte de bulunur. Fakat daha da önemlisi, yasa kavramı bir çıkar robotuyla bir insan için aynı değildir. İnsanlar için yasa, etik olarak yapılabilecekler ve yapılamayacaklar arasına bir sınır çizer. Fakat çıkar robotu bir insan değildir ve bir etik prensibine sahip değildir. Böylelikle, yasa sadece belirli bir sınırlamadır, doğrusu, bir finansal tutar veya risktir — bir şirket hapse girmez. Bunun için çarpıcı bir örnek olarak “Dieselgate (Dizel Kapısı)” skandalı verilebilir. Yine insanlara ait olmayan bir şirket olan Volkswagen, bilinçli olarak araba motorlarını öyle bir programladı ki arabaların Amerikan piyasasına sürülebilmeleri için geçmeleri gereken kirlilik testleri esnasında araba emisyonları gizli kaldı. Bildiğim kadarıyla, ne hissedarlar ne de tüketiciler bu konu hakkında bilgilendirilmedi. Şirket özerkçe kendi çıkarları adına yasaları çiğnedi. Tabii bu şirketin şeytani olduğu anlamına gelmez çünkü o bir insan değil. Bu şekilde davranmasının sebebi bir robot olması, tıpkı yapay zekaya dair yanlış ayarlama anlatısında anlatıldığı gibi.

Hep asıl gücün eninde sonunda neyi satın alacaklarına kendileri karar verdikleri için tüketicide olduğunu duyarız. Bu oldukça yanlıştır. Tüketiciler, Volkswagen’in kirlilik testlerinde hile yaptığını bilmiyordu. Tüketiciler ürünlerin hangi koşullarda üretildiği hakkında ve hatta hangi şirkete ait olduğu konusunda nadiren bir bilgiye sahiptir. Bu tip bir bilgi tüketiciden kasten gizlenir. Diğer yandan çıkar robotları, tüketicileri kendi ürünleri almaya ikna etmek için manipüle ederler. Peki ürünlerin ömrünün planlı olarak kısaltılmasına ne demeli? Kimse kasıtlı olarak erkenden bozulmak için tasarlanmış ürünleri istemez -ki bunlar tam olarak çıkar robotlarının tasarladığı ürünlerdir. Yani evet, çıkar robotları büyük oranda insanların oluşturduğu toplumdan özerktir.

Çıkar robotları insanlar için varoluşsal bir risk mi teşkil eder? Bunu söylemek kulağa biraz dramatik gelebilir, fakat pekala oldukça belirgin riskler teşkil ettikleri söylenebilir. Rahatsız edici bir gerçek bunu resmediyor: Kutuplardaki buzullar küresel ısınma yüzünden eriyor, böylece petrol şirketleri ortaya çıkan yeni kaynakları çıkarmaya hazırlanıyor. Açıkça bu insanların ilgisini çeken bir şey değil, fakat bu Shell gibi sadece %6’sı direkt olarak insanlara ait olan, hedeflerini sürdürmesi gereken, tıpkı diğer çıkar robotları gibi çıkarlarına erişmek için her yolu mübah gören şirketlerin yapması gerekendir. Yani evet, insan yapımı varlıkların kontrolünün kaybedilebilmesi ve hedeflerinin insanların değer yargılarıyla örtüşmemesi gibi bir risk mevcut. Bu oldukça yerinde bir endişedir çünkü bu endişe çoktan gerçeğe dönüştü. Tek istisna bu durumun henüz teknolojik alanda gerçekleşmemiş olması. Bu ironik (fakat pek de şaşırtıcı olmayan) bir gerçek: Milyarderler yapay zekayı yanlış ayarlama anlatısına inanıyorlar fakat aynı anlatının kendi maddi varlıklarının dayandığı şirketleri de kapsadığı gerçeğini görmekte güçlük çekerler, fakat bu çoktan gerçek olmuştur.

Yapay zeka adına yerinde bir endişe kendisinin dünyanın kontrolünü ele geçirmesi değil: Asıl endişe duyulması gereken durum yapay zekanın halihazırda kontrolü kaybetmiş, yanlış ayarlanmış çıkar robotları için daha da güçlü imkanlar sunuyor olmasıdır. Bu bağlamda şeytani yapay zeka fantezileri halihazırda yaratmış olduğumuz asıl sorunlardan antropomorfik bir kaçış biçimidir.

Funda Yıldırım ile Röportaj — CogIST

10/05/2023

Türkiye’de bilişsel bilimle ilgilenen gerek amatör, gerek öğrenci, gerekse uzmanları kapsayan bir sosyal ağ oluşturma hedefi doğrultusunda, farklı alan ve kurumlardan hocalarla kendi çalışma sahaları

Read More »

Elektriksel Uyarımla Belleği Modüle Etmek Mümkün Müdür? — Tuba Aktürk

13/09/2023

Tuba Aktürk, 2022 yılında çift doktorasını Nörobilim alanında İstanbul Medipol Üniversitesinde ve Kognitif Sinirbilim alanında Maastricht Üniversitesinde tamamladı. Şu anda İstanbul Medipol Üniversitesinde öğretim üyesidir. Sağlık

Read More »

Senin Mavi Rengin Benim İçin Yeşil Olabilir mi? — Rabia Kurşun

24/01/2024

Rabia Kurşun, İstanbul Üniversitesi psikoloji öğrencisi, akademik hayatını biliṣsel nörobilim alanında ilerletmek istiyor. Bir elma hayal edin, bu elmayı herkes aynı şekilde mi hayal ediyordur?

Read More »

Copyrights @2025 CogIST All Rights Reserved

Event Submission

Manuscript Submission

Privacy Policy

Distance Sales Agreement

Course Participation Agreement

Feedback Survey

Instagram Twitter Linkedin Youtube