Ana Sayfa Bilim Gündemi Yapay zekânın bir felakete neden olup olmayacağını nasıl anlayabiliriz?

Yapay zekânın bir felakete neden olup olmayacağını nasıl anlayabiliriz?

725
0
Görsel: MS Tech

Süper güçlü yapay zekânın ortaya çıkıp yıkıcı sonuçlar doğurduğu bir sabaha uyandığımızı düşünelim. Nick Bostrom’ın Süper Zekâ, Max Tegmark’ın Yaşam 3.0 gibi kitapları ve aynı zamanda son zamanlardaki makaleler kötü niyetli yapay zekânın insanlık için bir risk olduğunu savunuyor.

Konu hakkında sonsuz fikir ortaya atılabilir ancak daha somut ve deneysel bir soru sormamız gerekirse: Bir felaketin yaklaştığını nasıl anlayacağız?

Aslında manipüle edilmiş süper zekânın yaklaşmakta olduğunun işaretini felaket habercisi/ kanarya olarak adlandırabiliriz. Eğer bir yapay zekâ programı çok temel ve yeni bir yetenek geliştirirse bu durum “felaketin yaklaşmakta olduğunun göstergesi” olabilir.

Peki, meşhur Turing testi bir felaket habercisi/kanarya olabilir mi? Turing testi, 1950 yılında Alan Turing tarafından yapılmış olup insan-insan iletişimi ile insan-bilgisayar iletişimi arasındaki fark hissedilemediğinde başarılı olan bir yapay zekâ testidir. Önemli bir test ancak bir felaket habercisi/kanarya değil. Sadece hâlihazırdaki yapay zekâ çalışmalarının çoktan insanlık seviyesine ulaştığının göstergesi olacaktır. Çoğu bilgisayar uzmanı böyle bir ulaşma anına süper zekânın hızla ayak uyduracağına inanıyor. Bu sebeple daha orta seviyeli bir dönüm noktasına ihtiyacımız var.

Yapay zekânın oyun performansı bir gösterge mi?
Yapay zekânın Go, Poker ya da Quake 3 oyunlarındaki performansı bir felaket habercisi/kanarya olabilir mi? Hayır. Bu tür oyunlarda sözde yapay zekâ olarak adlandırılan şey aslında bir problem üretip ona çözüm bulan insan işidir. Go şampiyonlarına karşı zafer elde eden AlphaGo, insan ürünü bir algoritmayı çalıştıran makine olarak başarısını DeepMind’daki yetenekli ekibe borçlu. Bu, yapay zekânın başarısına basit bir araştırma ile açıklama getirmenin neden yıllarca süren sıkı çalışmaya ihtiyaç duyduğunu gösteriyor aslında. Dünya standartlarında yarışan Go’yu kısa sürede öğrenen AlphaZero bile 2017’den beri kendi kapsamını önemli ölçüde genişletemedi. Derin öğrenme gibi teknikler çok genel ancak bu tür teknikler belli bir görevi yerine getirmek için kapsamlı insan müdahalesine ihtiyaç duyuyorlar.

Daha genel bir şekilde makine öğrenimi, yapay zekânın son 10 yıldaki başarısının merkezinde. Lakin “makine öğrenimi” kavram olarak yanlış kullanılıyor. Makineler, insanların zengin ve çok yönlü öğrenme kabiliyetlerinin sadece küçük bir kısmına sahiptir. “Makineler öğrenebilir” demek bebek penguenlerin balık tutmayı bildiğini söylemek gibidir. Gerçekte olan şudur ki; yetişkin penguen yüzer, balığı yakalar, sindirir ve yavruların gagasına kusar. Yapay zekâ da aynı şekilde bilim insanları ve mühendisler tarafından beslenir.

Makine öğreniminin aksine, insan öğrenimi kişisel motivasyondan (“Ailemden bağımsız olabilmek için araba sürmeyi öğrenmek istiyorum.”) daha stratejik bir öğrenme planına (“Sürücü kursu derslerini hafta sonları al.”) doğru yol çizer. Birey, belirli öğrenme hedeflerini formüle eder (“Paralel parka daha çok çalış.”) onları toplar, verileri sınıflandırır (“Bu sefer park açısı yanlıştı.”) geri dönüt ve arka plan bilgilerini bünyesinde bir araya getirir. (“Eğitmen dikiz aynalarını nasıl kullanacağımı açıkladı.”) İnsanlar, problemleri tanımlar, düzenler ve şekillendirir. Bu insana özgü kabiliyetler makineler tarafından taklit edilemez. Makineler insanüstü hesaplamalar yapabilir fakat bu hesaplamalar, öğrenmenin sadece son adımını oluşturur.

O halde problem öğrenmede otomatik formülleştirme bizim ilk kanaryamız. Bu kanaryanın, bir felaket habercisi olma noktasından ise oldukça uzaktayız.

İkinci kanarya ise otonom araçlardır. Otonom araçlar, Elon Musk gibi üreticilerle beklentilerin çok ötesindeler ancak yapay zekâ, tekerlekli sandalyesi ile karşıdan karşıya geçen bir insanın varlığı gibi alışılmadık durumlarda feci bir kazaya sebebiyet verebilir. Araba sürme, bir önceki yapay zekâ görevlerinden daha çok çaba gerektiriyor çünkü önceden tahmin edilemeyecek gerçek dünya, sürücüler, yayalar vs. ile etkileşim içerisinde olan hayati önem taşıyan, anlık karar alma becerisine ihtiyaç duyuyor. Elbette, kaza oranları azaldığı anda sınırlı sayıda otonom aracın kullanımı yaygınlaştırılabilir; keza insan seviyesinde bir sürüş elde edildiği takdirde felaket habercisi olmaktan çıkacaktır.

Tek başına yapay zekâ doktorluğu ne kadar mümkün?
Yapay zekâ doktorları, üçüncü kanaryamız. Daha şimdiden yapay zekâ tıbbi görüntülemeleri insanüstü bir doğruluk ile analiz edebiliyor. Ne var ki, bu işlem gerçek doktorların yaptığı işin küçük bir kısmı. Yapay zekâ doktorlarının hastalarla görüşmesi, komplikasyonları hesaba katması, diğer doktorlara danışması ve daha pek çok görevi yapması gerekecektir. Bu tür zorlu görevler insanı, onun konuştuğu dili ve tıp bilimini anlamayı gerektirmektedir. Böyle bir doktorun sırf karşısındaki insan diye onu kandırmasına gerek kalmayacaktır. İşte, Turing testinden farklı olması bu sebepten ötürüdür. Yine de insan doktorların geniş yelpazede yapabildikleri görevlerdeki ve beklenmedik durumlardaki kabiliyetlerine sahip olmaları gerekecektir.

Turing testinin kendisi olmasa dahi, bu testin değişik sürümleri felaket habercisi olabilir. Var olan yapay zekâ insanları, onların niyetlerini ve hatta “Şişme havuz camdan sığar mı?” gibi basit soruları dahi anlayamamaktadır. Alexa ve Google Home gibi yapay zekâ ürünleri aracılığıyla küçük çaplı bir Turing testi uygulayıp ne kadar kısıtlı dil ve dünya algıları olduğunu görebiliriz. Bilgisayar bilimcisi Hector Levesque’nin Winograd Şeması’na dayalı basit örnekler düşünelim. Alexa’ya “Kupam bavuluma sığmıyor çünkü çok büyük. Ne yapmalıyım?” gibi bir soru soralım. Alexa’nın cevabı “Bilmiyorum” olacaktır. Alexa, nesnelerin boyutlarını bilmediği için büyük olarak kast edilenin kupa mı bavul mu olduğuna karar veremeyecektir. Kast edilen anlamı algılamayan yapay zekânın, dünyayı ele geçirmeye hazır olduğuna inanmak çok zor. Eğer Alexa, kapsamı geniş bir konuda anlamlı bir diyalog kurabiliyor olsaydı bu bizim için dördüncü felaket habercisi olabilecekti.

Günümüzdeki yapay zekâ ürünleri “aptal dâhilerdir”: Go oynamak, MR görüntülerini sınıflandırmak gibi kapsamı dar görevlerde başarılı; fakat insanların çok yönlülüğünden ve genelliğinden yoksundurlar. Her aptal dahi insan eliyle üretilmektedir ve bizler, beş yaşındaki bir çocuğun çok yönlü kabiliyetlerini yakalamaktan onlarca yıl uzaktayız.

Olasılık dahilindeki her olayı baştan araştırmalı mıyız?
Bazı kuramcılar, Bostrom gibi, her ne olursa olsun olabilirliği düşük fakat sonuçları ağır olayları planlamamız gerektiğini çünkü bu tür olayların kaçınılmaz olduğunu düşünüyor. Söylediklerine göre sonuçlar o kadar etkili ki olasılıklar hakkındaki tahminlerimiz o kadar da önemli değil. Saçma bir iddia çünkü herhangi bir konuda gerekçe olarak sunulabilir. 17.yüzyıl filozofu Blaise Pascal’ın “Ebedi azap sebebiyle Hristiyan Tanrı varmış gibi davranmak mantıklı mıdır?” savının modern versiyonu aslında. Pascal savunmasını “bir hatanın sonsuz bedeli” olarak; yani bir davranış biçimi imkânsız görünen bir önerme olsa dahi rasyonel kabul edilebilir şeklinde açıklıyor. Lakin sonsuz bedel ile ilgili iddialar zıttı olduğu görüşleri de destekleyebilir. Örneğin, Hristiyan olmayan ve her Hristiyan davranışı için cehennem azabını vaat eden bir Tanrı düşünün. Mantık çerçevesinde düşünüldüğünde oldukça ihtimal dışı olsa da İncil’deki Tanrı’ya inanmak kadar makuldür. Bu çelişki bizlere sonsuz bedel tartışmalarının kusurunu gösteriyor.

Felaket habercileri veya kanarya listemiz kapsamlı olmaktan çok açıklayıcı ve örnekleyici fakat insan seviyesindeki yapay zekâdan ne kadar uzak olduğumuzu da göstermektedir. Bir kanarya öldüğünde, insan seviyesindeki yapay zekâ ortaya çıkmadan bir kapama düğmesi üretmek ve kendi kırmızı çizgilerimizi belirlemek için bolca vaktimiz olacaktır. Deney kanaryaları olmadan yapay zekâ eskatolojisi (kıyamet bilim) istihdam alanında etkisi, ceza hükümlerinde kullanımı veya kredi notlarında ayrımcılık oluşmamasını sağlama gibi var olan güncel sorunlardan uzaklaşmaya çalışıyor.

Dünyadaki en seçkin yapay zekâ uzmanlarından Andrew Ng’nin dediği gibi, “Yapay zekânın şeytani bir varlığa dönüşmesinden endişe duymak, Mars’ın nüfus artışından endişe duymak gibidir.” Kanaryalar ölmeye başlayana kadar, dediklerinde tamamen haklı.

Kaynak: https://medium.com/mit-technology-review/how-to-know-if-artificial-intelligence-is-about-to-destroy-civilization-1bf6ca366158