Rice Üniversitesi ve Baylor Tıp Okulu’ndan sinirbilim ve yapay zekâ uzmanları, insan beyninden ilham alarak bilgisayarların görsel dünyayı bebeklerinki gibi büyük ölçüde kendi kendilerine öğrenmelerini sağlayan yeni bir “derin öğrenme” (deep learning) yöntemi geliştirdiler.
Testlerde grubun “derin işleme karışımı modeli”, federal çalışanlar ve lise öğrencileri tarafından yazılmış 10.000 rakamdan oluşan standart veri setini kullanarak, el yazısı rakamları nasıl ayırt edebileceğini büyük ölçüde kendi kendine öğrendi. Geçtiğimiz ay yapılan Barcelona’daki Sinirsel Bilgi İşleme Sistemleri (NIPS) Konferansı’nda sunulan sonuçlarda, araştırmacılar algoritmalarının, kendisine verilen 0’dan 9’a kadar rakamlardan oluşan 10 adet doğru örneği nasıl öğrendiğini ve daha sonrasında binlerce örnekle öğrenmeye nasıl devam edebileceğini açıkladılar. Testlerde, binlerce örnekle eğitilmiş olan neredeyse tüm önceki algoritmalara nazaran yeni algoritma daha doğru sonuçlar verdi.
“Derin öğrenme dilinde, sistemimiz yarı-denetlenen (semisupervised) öğrenme olarak bilinen bir yöntem kullandı” diyor Baylor Üniversitesi’nde sinirbilim konusunda çalışan ve aynı zamanda Rice Üniversitesi’nde elektrik ve bilgisayar mühendisi olan Ankit Patel.
Patel, “İnsanlar bu şekilde öğrenmiyor. Bebekler ilk yıllarında gördükleri şeyleri öğrenmeye başladığında, nesnelerin ne olduğuyla ilgili çok az bilgi sahibi oluyorlar. Ebeveynler birkaç şeyi tanımlıyor: ‘Şişe’, ‘sandalye’, ‘anne’. Fakat o noktada bebek konuşulan kelimeleri dahi anlamıyor. Bu yöntem dış dünya ile bazı etkileşimler yoluyla gerçekleşen denetlenmeyen (unsupervised) bir öğrenme yöntemi” diyor.
Patel ve yeni çalışmanın bir diğer yazarı olan lisansüstü öğrencisi Tan Nguyen, eğitim örnekleri formlarında çok fazla destek gerektirmeyen görsel veri için yarı-denetlenen bir öğrenme sistemi tasarlayarak işe başladılar. Örneğin, Karma Ulusal Standartlar ve Teknoloji Enstitüsü’deki (MNIST) veritabanındaki 10.000 elyazısı verisi test edilmesinden önce, denetimli öğrenmeyi kullanan nöral ağlara elyazısı eğitim örneklerinden, yüzlerce hatta binlercesinin verilmesi gerekecekti. Yarı denetimli Rice-Baylor algoritması biyolojik sinirlerden ilham alınarak tasarlanan yapay sinir tabakalarının oluşturduğu “katlamalı (konvolüsyonel) sinir ağı” yazılımıdır. Bu yapay nöronlar ya da işlem birimleri, katmanlar halinde organize olur; ilk katman bir imajı tarayarak kenarlar ve renk değişimleri gibi basit görevleri yerine getirir. İkinci katman, ilk katmandan gelen veriler üzerine çalışır ve daha karmaşık kalıplar arar. Matematiksel olarak, bu iç içe yuvalanmış kalıp içinde kalıp arama yöntemi, doğrusal olmayan (lineer olmayan) bir işlemdir.
Patel, katlamalı sinirsel ağdan “Temel olarak basit bir görsel korteks” olarak söz ediyor. “Ona bir imaj verirsiniz; her katmanda imaj bir adım daha fazla işlenir ve daha derinlemesine anlaşılır. Son katmanda ise imajın çok daha derin ve soyut anlamına sahip olursunuz. Şu anki otomatik pilotlu arabalarda, en iyi görüşü sağlayabilmek için katlamalı sinirsel ağlar kullanılmaktadır.”
İnsan beyni gibi, sinirsel ağlar da, işe boş bir levha olarak başlar ve dünya ile etkileşime geçtikçe şekillenir. Örneğin, katlamalı ağdaki her işlem birimi aynı şekilde çalışmaya başlar ve görsel uyarıya maruz kaldıkça özelleşir.
“Şekilleri belirleyen kenarlar çok önemli” diyor Nguyen. “Alçak katman nöronlarının çoğu kenar detektörü olma eğiliminde. Görsel yorumlamada çok önemli ve ortak olan kalıplara bakıp kendilerini daha özel olanı bulmak için eğitiyorlar. Örneğin, 45 derecelik bir kenar ya da kırmızıdan maviye geçiş yapan 30 derecelik bir kenar gibi” diye belirtiyor. “Belirli kalıpları tespit ettiklerinde uyarılarak bir sonraki katmana geçip devam ediyorlar. Temel olarak, kullandığınız güç ya da ağınızın derinliği, yaptığınız doğrusal olmayan bu dönüşümlerin sayısı kadar denilebilir. Ağ örgüsü ne kadar derinse, çözdüğünüz şey o kadar artar. En derin katmanlarda, birimler gözbebekleri, dikey ızgara desenleri ya da okul otobüsü gibi oldukça soyut şeyleri arıyorlar.”
Nguyen, Patel ile Ocak’ta çalışmaya başladığında, Rice-Baylor’daki kadrolu kariyerine de başlamış oldu. Patel hâlihazırda 10 yıldan fazla süredir makine öğrenmesi üzerine çalışıp uyguluyordu. Bu çalışmalar büyük hacimli eşyaların eğitiminden stratejik savunma füzelerine uzanan çeşitlilikteydi. 4 yıllık doktora sonrası eğitimini Rice Üniversitesi’nde Richard Baraniuk ile tamamladı. 2015’te Baraniuk, Patel ve Nguyenhem katlamalı sinirsel ağların yapısını türetecek hem de limitlerini kısmen giderecek ilkesel çözümler sunan ilk teorik çerçeveyi yayımladılar.
Soldan sağa, Richard Baraniuk, Tan Nguyen and Ankit Patel. Fotoğraf: Jeff Fitlow/Rice Üniversitesi
Baraniuk’a göre, günümüz teknolojisinin ötesine geçebilen katlamalı ağlar tasarlamak için sağlam teorik bir anlayış hayati önem taşıyor. “Bu konuda video imajları çok güzel bir örnek” diyor Baraniuk. “Kare kare çalışan bir videoya baktığımda, tüm objeleri ve nasıl hareket ettiklerini anlamak istersem, bu çok zor bir uğraş olur. Bir videodaki tek bir karedeki her nesneyi tanımlamaya çalışmanın ne kadar uzun sürebileceğini hayal edin. Kimsenin bunun için zamanı yoktur. Videoda gördüklerini anlamaya çalışan bir makine, objelerin ne olduğunu anlamak için üç boyutlu uzayı ve daha bir yığın çok karmaşık şeyleri hesaba katmalı. Biz insanlar böyle şeyleri kendiliğimizden öğreniriz ve kanıksarız, fakat günümüz yapay sinirsel ağları bunları yapamaz.”
Patel, NIPS makalesinde işledikleri, yapay sinirsel ağlar teorisinin sinirbilimcilere insan beyni üzerindeki çalışmalarında oldukça yardımcı olabileceğini düşünüyor. “Görsel korteksin dünyayı tasvir edişiyle katlamalı ağların dünyayı tasviri arasında bazı benzerlikler olduğu görülüyor; ama büyük farklar da yok değil” diyor Patel. Bunlar beynin ne yaptığıyla alakalı olabilir. Ve beyinle ilgili bildiğimiz en kritik şey, beynin çoğunlukla denetimsiz ve kontrol edilemeyen bir şekilde öğrendiğidir.”
Patel son olarak “Benim ve sinirbilimci arkadaşlarımın bulmaya çalıştığı şey, görsel korteks içindeki sinirsel devreler tarafından gerçekleştirilen yarı-denetlenen öğrenme algoritmasının ne olduğudur. Ve bunun bizim derin öğrenme teorimizle bağlantısı nasıl olabilir? Teorimizi beynin ne yaptığını izah edebilmek için kullanabilir miyiz? Çünkü beynin çalışma şekli, bugüne kadar tasarladığımız herhangi bir sinirsel ağdan çok daha üstün” diyor.
Çev. Ceyhun Ceylan
İTÜ Uçak Mühendisliği
Kaynak: https://www.sciencedaily.com/releases/2016/12/161216115448.htm