Yapay zeka devi OpenAI, güvenliğin hiçe sayıldığı iddiasıyla gündem oldu. OpenAI için çalışan önemli araştırmacılarından Jan Leike, güvenlik süreçlerinin ve kültürünün “parlak ürünler” (tutacak ürünler) uğruna geri planda bırakıldığını ve artık güvenli olmadığını söyleyerek istifa etti.
İnsan gibi düşünebilen yapay zeka üzerinde çalışan OpenAI, güvenlik protokollerini uygulamadaki ana teknik zorlukları çözmek için kurulmuştu. Ancak OpenAI'nin bu ekibi tamamen dağıttığını Wired'ın haberi bizlere söylüyor.
Leike, Twitter’da yaptığı açıklamalarda, “Son yıllarda güvenlik kültürü ve süreçleri, parlak ürünler uğruna geri plana atıldı” dedi. Bu açıklamalar, OpenAI içindeki artan gerilimleri ve yapay zekanın yaratabileceği potansiyel tehlikeleri yönetme konusundaki endişeleri gözler önüne serdi. Leike, ekibinin “kritik” çalışmaları gerçekleştirmek için güvenlik gerektiren kaynaklara erişemediğini ve bu durumun sonunda istifasını getirdiğini belirtti.
OpenAI şirketinin yapay zeka güvenliği artık Jan Leike’dan sorulmayacak. Leike’nin geride bıraktığı görevleri, daha önce Sam Altman’ı destekleyen başka bir OpenAI kurucusu olan John Schulman devralacak. OpenAI’da güvenlik tehlikesi ile oluşan ofis içi çatışmaların, yapay zeka dünyasında büyük yankı uyandırması pek şaşırtıcı değil. Sonuçta OpenAI, yapay zeka’ya yön veren birkaç şirketten biri.
Leike istifa ettikten sonraki açıklamalarında, OpenAI’ın yapay zekanın yaratacağı güvenlik dışı ve tehlikeli olacak sonuçlarla ilgili ciddi bir şekilde hazırlanması gerektiğini vurguladı. Leike, “Ancak o zaman yapay zekanın tüm insanlık için faydalı olmasını sağlayabiliriz” dedi. Bu olaylarla birlikte, OpenAI’nin güvenlik politikalarının ne derece dikkate aldığı sorgulanıyor.