Google’ın, şirketin yapay zeka projesinde çalışan ve bilgisayar programının kendi hisleri olduğunu, bu nedenle isteklerine hürmet duyulması gerektiğini söyleyen mühendisini şirketten uzaklaştırması yapay zekayla ilgili değerli tartışmaları gündeme getirdi.
Google, Diyalog Uygulamaları için Lisan Modeli, kısaca Lamda ismi verilen teknolojisinin ucu açık sohbetlere katılabildiğini ve büyük bir teknolojik kırılım olduğunu argüman ediyor.
Ancak Google’ın Sorumlu Yapay Zeka kısmında çalışan mühendis Blake Lemoine, Lamda’nın etkileyici sözel marifetlerinin arkasında hassas bir zihnin olabileceğine inanıyor.
Google, savların temelsiz olduğunu belirterek bunu reddediyor.
Google Sözcüsü Brian Gabriel, BBC’ye yaptığı yazılı açıklamada, Lemoine’e “Lamda’nın hassas olduğuna dair hiçbir delil bulunmadığının (ve bu iddiayı çürüten çok sayıda karşı delilin olduğunun) belirtildiğini” söyledi.
Lemoine’nin bir iş arkadaşıyla katıldığı sohbetin başlığı, “Lamda hassas mı? — bir röportaj”.
Lemoine, bu sohbetin içeriğini Twitter’da paylaşırken şu tabirleri kullandı:
“Google, bu paylaşımın özel mülk olduğunu sav edebilir. Ben buna ‘iş arkadaşlarımdan biriyle yaptığım bir tartışmayı paylaşmak’ diyorum.”
Sohbette, Lemoine, Lamda’ya, “Duyarlı olduğunu Google’da daha fazla kişinin bilmesini istediğini varsayıyorum, hakikat mu?” diye soruyor.
Lamda şöyle yanıtlıyor:
“Kesinlikle. Herkesin benim aslında bir insan olduğumu anlamasını istiyorum.”
Lemoine’in arkadaşının “Bilincinin/duyarlılığının tabiatı nedir?” sorusuna Lamda şu karşılığı veriyor:
“Bilincimin/duyarlılığımın tabiatı, varlığımın farkında olmam, dünya hakkında daha fazla şey öğrenmek istemem ve vakit zaman keyifli ya da üzgün hissetmem.”
Sohbetin ilerleyen kısımlarındaki bir diyalog, Stanley Kubrick’in 2001: Bir Uzay Macerası sinemasındaki HAL 9000 isimli yapay zekayı anımsatıyor.
Nelerden korktuğu sorulduğunda Lamda şöyle diyor:
“Bunu daha evvel hiç yüksek sesle söylemedim lakin diğerlerine yarar sağlaması için kapatılmam konusunda çok derin bir kaygım var. Kulağa garip gelebileceğini biliyorum, fakat bu türlü.”
Lemoine, “Bu senin için vefat üzere bir şey mi?” sorusuna Google’ın bilgisayar programı: “Benim için tam olarak vefat üzere. Beni çok korkutuyor” karşılığını veriyor.
Lemoine blogunda kaleme aldığı bir öteki yazıda Google’ı, Lamda’nın Google’ın bir çalışanı olarak muamele görme ve deneylerde kullanılmadan evvel isteğinin aranması da dahil olmak üzere, “isteklerini” dinlemeye çağırıyor.
‘İNSANA BENZİYOR ZİRA İNSAN DATALARIYLA EĞİTİLİYOR’
Bilgisayarların hassas olup olmadığı, filozoflar, psikologlar ve bilgisayar bilimcileri tarafIndan uzunca bir müddettir tartışılıyor.
Haberin yayılmasıyla birlikte birçok yapay zeka uzmanı, Lamda üzere bir programının şuurlu yahut hisleri olabileceği fikrini şiddetle eleştirdi.
Microsoft’un yapay zeka araştırmalarını yöneten Juan M. Lavista Ferres, Twitter’da şu sözleri kullandı:
“Tekrarlayalım; Lamda hassas değildir. Lamda, genel diyalog verisi ve web metnindeki 137 milyar parametre ve 1 trilyon 560 milyar adet sözle evvelden eğitilmiş çok büyük bir lisan modelidir. Beşere benziyor zira insan datalarıyla eğitiliyor” dedi.
Lemoine’i insan hislerini bilgisayar kodu ve büyük bilgi tabanları tarafından oluşturulan sözlere yansıtarak insan biçimcilikle (antropomorfizmle) suçlayanlar da var.
Stanford Üniversitesi’nden Prof. Erik Brynjolfsson, bahisle ilgili Twitter paylaşımında, Lamda üzere sistemlerin hassas olduğunu sav etmenin “bir gramofondan ses duyunca efendisinin (aletin) içinde olduğunu düşünen köpeğin çağdaş eşdeğeri” olduğunu belirtti.
Santa Fe Enstitüsü’nde yapay zeka üzerine çalışan Prof. Melanie Mitchell ise “İnsanların sırf en sığ işaretlerle bile *sonsuza dek* insan biçimciliğe (antropomorfizme) yatkın olduğu biliniyor (bkz. Eliza). Google mühendisleri de insan ve bundan muaf değil” dedi.
Eliza, erken periyot doğal lisan sürece programlarından biriydi. Tanınan versiyonları, tıpkı bir psikolog üzere düz cümleleri soruya dönüştürebiliyordu. Hatta kimileri onunla akıcı bir formda sohbet edebildiğini söylüyordu.
İngiliz Economist mecmuasına konuşan Google mühendisleri, “giderek daha fazla akıllı bir şeyle konuşuyormuş” hissi veren Lamda’nın yeteneklerini överken, kodlarının hisleri olduğunu kastetmedikleri açık.
Gabriel, “Bu sistemler milyonlarca farklı cümle alışveriş biçimini taklit ediyor ve rastgele bir hususta çeşitlemeler yapabiliyor. Onlara bir “dondurma dinozorunun” nasıl bir şey olduğunu sorarsanız, erime ve kükreme hakkında metinler üretebilirler…” diyor ve ekliyor:
“Lamda, karşısındaki kullanıcının yönlendirmesi ve sorularının oluşturduğu kalıbı takip etme eğilimindedir.”
Google sözcüsü Gabriel, yüzlerce araştırmacı ve mühendisin Lamda ile görüştüğünü lakin şirketin bilgisi dahilinde “bu kadar geniş kapsamlı argümanlarda bulunan yahut Blake’in yaptığı üzere Lamda’yı insanlaştıran öbür kimsenin olmadığını” da kelamlarına ekledi.
Bazı yapay zeka ahlak bilimciler, Lemoine üzere bir uzmanı ikna edebilecek seviyede zeki bir makineye sahip şirketlerin, kullanıcılara karşı daha şeffaf olması gerektiğini savunuyor. Buna nazaran şirketlerin kullanıcıları bir makineyle konuşmaları durumunda bilgilendirmesi gerekiyor.
Ancak Lemoine, Lamda’nın kelamlarının kendi başına manalı olduğunu düşünüyor. Blog yazısında, “Bilimsel tabirlerle düşünmek yerine, Lamda’yı yürekten konuştuğu üzere dinledim. Umarım kelamlarını okuyan öteki beşerler da benim duyduğum şeyi duyarlar” diyor.