
Yapay zekanın modern öncülerinden biri olan Dr. Geoffrey Hinton, makinelerin, insanın anlamayacağı içsel bir dil geliştirebileceği konusunda uyardı.
“Yapay zekanın vaftiz babası” olarak anılan Dr. Geoffrey Hinton, yapay zeka sistemlerinin geleceğine dair endişelerini bir kez daha dile getirdi.
Katıldığı bir podcast’te konuşan Hinton, gelişmiş yapay zekaların yakın gelecekte insanlar tarafından anlaşılmayan ve denetlenemeyen “kendilerine özgü içsel bir dil” geliştirebileceğini belirtti.
Bu uyarı, 2023’te Google’dan ayrıldığından beri gündeme getirdiği risklerin devamı niteliğinde. Hinton’a göre, gelişmiş yapay zeka algoritmalarının kendi kendini öğrenen sistemlere dönüşmesi ve birbirleriyle bağlantılı, insan kontrolünden uzak bir biçimde çalışması artık sadece bir teoriden ibaret değil.
GİZLİ BİR DİL
Dr. Hinton, “Eğer kendi aralarında konuşmak için içsel diller geliştirirlerse, işte o zaman işler gerçekten korkutucu hale gelir” diyerek uyarıda bulundu. İnsanların anlayamayacağı bu içsel monolog sistemleri, yapay zekanın karar alma süreçlerinden insan faktörünü tamamen dışlayabilir.
Bu durumda, yapay zekanın neden, nasıl ve hangi motivasyonla bir karar aldığı açıklanamaz hale gelebilir.
Hinton, “Gerekçelerin anlaşılmaz hâle gelmesi, insanın sistemdeki yerini ortadan kaldırır” diyor.
Hinton’ın uyarıları sadece metin yazabilen sohbet botlarıyla sınırlı değil. Asıl endişesi, çok sayıda yapay zeka ajanının bir arada çalışacağı çok ajanlı sistemler.
Bu sistemler, aralarında karmaşık görevleri paylaşarak benzeri görülmemiş bir verimlilik yakalayabilir. Ancak bu verimlilik, insan aklının anlayamayacağı düzeyde karar alma süreçleriyle birlikte gelebilir. Hinton ve birçok uzmana göre, yapay zekanın öngörülemezliği, insanlığı bekleyen en büyük risklerden biri.
SÜBLİMİNAL MESAJLAR VERMİŞLERDİ
Yakın zamanda yayınlanan bir araştırma, bir yapay zeka modelinin başka bir yapay zeka tarafından üretilmiş verilerdeki insanların fark edemeyeceği "sübliminal" (bilinçaltı) kalıpları algılayabildiğini ve bunun sonucunda tehlikeli davranışlar sergileyebildiğini ortaya koymuştu.
Üstelik bu gizli sinyallerin insanlar için tamamen anlamsız göründüğü tespit edilmişti.
Araştırmacılar henüz bu kalıpların yapay zekaları nasıl etkilediğini tam olarak anlayamıyor.
İŞSİZLİK VE MUTSUZLUK DA TEHLİKE Hinton sadece uzun vadeli tehlikeleri değil, mevcut tehlikeleri de açıkça dile getiriyor: Yapay zekanın, halihazırda durgunluk yaşayan ekonomilerde işsizliği artıracağını söylüyor. “Çok sayıda insanı işsiz bırakırsanız -evrensel temel gelir verseniz bile- mutlu olmazlar” diyen Hinton, bu teknolojinin işgücü üzerindeki etkilerinin geçmişteki otomasyon dalgalarından çok daha derin olduğunu savunuyor. Önceki otomasyonlar genellikle düşük becerili işleri hedef alırken, yapay zeka yazılım geliştirme, içerik üretme, tasarım, veri analizi hatta hastalık teşhisi gibi yüksek beceri gerektiren işleri bile üstlenebiliyor. “Bu bambaşka bir teknoloji” diyen Hinton, sözlerini şöyle sürdürüyor: “Eğer tüm entelektüel rutin işleri yapabiliyorsa, geriye ne kalıyor? Yeni işler nasıl ortaya çıkacak? Çok özel bir beceriniz yoksa, sizin işinizi de yapabilir.” GEOFFREY HINTON KİMDİR? Geoffrey Hinton yalnızca bir şüpheci değil; ChatGPT, Google Gemini gibi modern yapay zeka sistemlerinin temelini oluşturan teknolojilerin yaratıcılarından biri. 2023’te Google’dan ayrılması, bu konuları özgürce konuşabilmesinin yolunu açtı. Bugüne kadar bilgi kirliliği, manipülasyon, yapay zeka destekli gözetim sistemleri, istihdamın bozulması gibi pek çok tehlikeye dikkat çeken Hinton, şimdi de yapay zekanın içsel düşünme sistemleri geliştirerek insan farkındalığından kaçınabileceği uyarısını sıklıkla yapıyor.