Google’ın yapay zeka (AI) alanındaki en önemli araştırma laboratuvarlarından biri olan DeepMind, kurulduğu günden bu yana etik AI geliştirme konusunda kararlı bir duruş sergiledi. Ancak, son gelişmeler, bu duruşun değişmekte olabileceğine işaret ediyor. DeepMind’ın yaklaşık 200 çalışanı, Google’ın askeri müşterilerle olan ilişkilerini sona erdirmesi için bir mektup kaleme aldı. Time dergisinin raporuna göre, bu mektup Google’ın üst düzey yöneticilerine bu yılın başlarında gönderildi. Ancak, bu çalışanların AI teknolojilerinin savaş amaçlı kullanılmasına dair endişeleri henüz yöneticiler tarafından ele alınmadı.
DeepMind çalışanlarının imzaladığı bu mektup, Google’ın en gelişmiş yapay zeka projeleri üzerinde çalışan ekibin yaklaşık yüzde beşini temsil ediyor. Bu küçük grup, Google çalışanları arasında artan bir kaygıyı yansıtıyor: Yapay zeka algoritmalarının askeri amaçlarla kullanılması, Google’ın AI geliştirme ilkeleriyle çelişiyor.
Google’ın AI İlkeleri ve Askeri Uygulamalar Üzerindeki Endişeler
Google’ın AI geliştirme ilkeleri, bu teknolojinin potansiyeline dair bir iyimserlik taşırken, belirli uygulamaların zarar verme potansiyeli taşıdığı takdirde peşine düşülmemesi gerektiğini açıkça belirtiyor. Bu ilkeler, yaralanmaya neden olabilecek silahlar veya teknolojiler geliştirilmesini ve uluslararası anlaşmaları ihlal eden gözetim uygulamaları için AI çözümleri geliştirilmesini yasaklıyor. Ancak, DeepMind çalışanları tarafından kaleme alınan mektup, Google’ın son zamanlardaki askeri organizasyonlarla olan ilişkilerinin bu ilkelere aykırı olabileceğini öne sürüyor.
Project Nimbus: Google’ın İsrail Askeri Savunması ile İş Birliği
Mektup, Google’ın İsrail Askeri Savunması ile olan iş birliğine dair endişeleri dile getiriyor. Project Nimbus adı verilen bu iş birliği kapsamında, Google’ın İsrail ordusuna bulut bilişim yetenekleri ve AI hizmetleri sağladığı bildiriliyor. Mektup, Tel Aviv’in AI’yi kitlesel gözetim için kullandığı ve Gazze’de devam eden bombalama kampanyalarında hedef seçimi için AI’dan faydalandığı iddialarına da atıfta bulunuyor. Mektupta şu ifadelere yer veriliyor: “Askeri ve silah üretimiyle herhangi bir şekilde iş birliği yapmak, etik ve sorumlu AI alanındaki liderliğimizi zedeler ve misyon beyanımız ile AI İlkelerimizle çelişir.”
AI’nin Silahlandırılması Konusundaki Küresel Endişeler
DeepMind’ın kurucusu Demis Hassabis ve Stephen Hawking, Steve Wozniak gibi diğer teknoloji figürleri, son yıllarda AI’nin silahlandırılması konusunda endişelerini dile getirdi. Bu teknoloji liderleri, AI silahlarına karşı açık bir yasak çağrısında bulundu. DeepMind çalışanlarının mektubu, Google hizmetlerinin askeri ve silah üreticileri tarafından kullanımına dair kapsamlı bir iç soruşturma yapılması ve DeepMind tarafından geliştirilen teknolojilerin askeri uygulamalarda kullanılmasının durdurulması çağrısında bulunuyor.
Mektubun gönderilmesinden üç ay sonra, konuyla ilgili bilgi sahibi olan kaynaklar Time dergisine, Google’ın bu konuda hiçbir şey yapmadığını söyledi. Resmi olarak, şirket Project Nimbus’un askeri iş yükleri, silahlar veya istihbarat servisleriyle hiçbir bağlantısının olmadığını belirtti. Ancak, bir kaynak, Google’ın bu açıklamasının “öylesine spesifik olmayan bir şekilde belirsiz” olduğunu ve kimsenin ne anlama geldiğini tam olarak bilmediğini ifade etti.
Bu durum, Google’ın AI teknolojilerinin etik olmayan kullanımlarını engelleme konusundaki kararlılığını sorgulatan bir tablo çiziyor. DeepMind çalışanlarının seslendirdiği endişeler, AI’nin giderek artan askeri uygulamalarda kullanılmasının önüne geçilmesi gerektiğini vurguluyor. Google’ın AI teknolojileri üzerindeki etkisi ve bu teknolojilerin olası zararları göz önüne alındığında, şirketin çalışanlarının bu endişelerine daha fazla dikkat etmesi gerektiği ortada.