OpenAI CEO’su Sam Altman, Pentagon ile yapılan anlaşmanın ardından şirket çalışanlarına operasyonel kararlara müdahale edemeyeceklerini açık bir şekilde ifade etti. Bu açıklama, OpenAI’nin ABD ordusunun yapay zekayı savaşta nasıl kullandığına dair kontrol yetkisi bulunmadığını ortaya koydu.
Altman, şirket içindeki bir toplantıda çalışanlara “operasyonel kararları siz vermezsiniz” diyerek, askeri karar mekanizmasında çalışanların moral ve etik itirazlarının etkili olmayacağını vurguladı.
Pentagon ile yapılan anlaşmanın sonuçları neler?
Bloomberg ve CNBC’nin aktardığına göre, Altman, çalışanlarının belirli askeri eylemler hakkında kişisel görüşlerinin olabileceğini, ancak bu görüşlerin askeri stratejileri etkilemeyeceğini belirtti. Bu durum, ABD ordusunun yapay zekayı savaşta kullanma şekli ve bu kullanımın etik sonuçları hakkında devam eden tartışmaların ortasında geldi.
Son günlerde, Pentagon’un yapay zeka şirketlerinden, askeri uygulama alanını genişletmek amacıyla modellerdeki güvenlik bariyerlerini gevşetmesini istediği yönünde haberler gündeme geldi. İddialara göre, yapay zeka destekli sistemler, Venezuela lideri Nicolás Maduro’nun esir alındığı operasyonda ve İran’a yönelik saldırılarda hedefleme ve planlama süreçlerinde kullanıldı.
Altman'ın açıklamaları ve tepkiler
Wall Street Journal’ın haberine göre, Altman, toplantıda anlaşmayı savunurken imzadan pişman olmadığını, ancak duyurunun aceleye geldiği için OpenAI’nin “fırsatçı” bir imaj sergilediğini ifade etti. Altman, doğru olduğuna inandığı bir kararı almanın ardından kişisel olarak eleştirilmenin zor olduğunu belirtti.
Bu anlaşma, Pentagon’un Anthropic’i tedarik zinciri riski olarak nitelendirdiği günlerde duyuruldu. Anthropic, modelinin kitlesel gözetim veya tam otonom silahlar için kullanılabileceği endişesiyle Pentagon ile anlaşmayı reddetmişti. OpenAI tarafında ise hem kamuoyundan hem de şirket içinden gelen eleştiriler, anlaşmanın Pentagon’a boyun eğildiği yönündeydi.
OpenAI'nin tepkilere yanıtı ve geleceği
OpenAI çalışanlarının bir kısmı, anlaşmada kitlesel gözetim ve tam otonom silahları yasaklayan net hükümler görmek istediklerini ifade etti. WSJ’ye göre, OpenAI, gelen tepkiler üzerine anlaşmayı revize ederek metne “yurt içi gözetim yasaktır” ifadesini ekledi. Altman, bu süreçte yasal çerçevede kalacaklarını belirterek hasar kontrolü yapmaya çalıştı.
Altman, OpenAI’nin geliştirdiği teknolojinin hükümetler için “temel araç” haline geleceğini savunarak, bu alanda kararlar şekillenirken şirketin dışarıda kalmak istemediğini vurguladı. Bu durum, Silikon Vadisi’nde etik, güvenlik bariyerleri ve devletle çalışma sınırları konusundaki tartışmaları daha da derinleştirdi.