İnsanlığı yok etme riski yüzde 70!
Eski ve mevcut OpenAI çalışanlarının güvenlik sorunlarını dile getirdikleri için susturulduklarını iddia eden açık bir mektup...
Eski ve mevcut OpenAI çalışanlarının güvenlik sorunlarını dile getirdikleri için susturulduklarını iddia eden açık bir mektup yayınlamalarının ardından, mektubu imzalayanlardan biri daha da korkutucu bir tahminde bulundu: yapay zekanın insanlığı yok etme ya da feci şekilde zarar verme olasılığı yazı tura atmaktan daha büyük.
RİSKLERİ GÖRMEZDEN GELMEKLE SUÇLADI
Eski OpenAI yönetim araştırmacısı Daniel Kokotajlo, The New York Times'a verdiği bir röportajda şirketi, karar vericileri yapay genel zeknın (AGI) sunduğu olanaklardan çok etkilendikleri için yapay genel zeknın oluşturduğu muazzam riskleri görmezden gelmekle suçladı.
Kokotajlo, 'OpenAI, AGI'yi inşa etme konusunda gerçekten heyecanlı' dedi ve ekledi: 'Bu konuda ilk olmak için pervasızca yarışıyorlar.'
'YAPAY ZEKANIN İNSANLIĞI YOK ETME RİSKİ YÜKSEK'
Kokotajlo'nun gazeteye yaptığı en keskin iddia ise, yapay zekanın insanlığı mahvetme ihtimalinin yüzde 70 civarında olduğuydu.
Yapay zekanın insanlığın sonunu getirme olasılığını ifade eden 'p(doom)' terimi, makine öğrenimi dünyasında sürekli tartışılan bir konudur.
31 yaşındaki Kokotajlo NYT'ye verdiği demeçte, 2022 yılında OpenAI'ye katıldıktan ve kendisinden teknolojinin ilerleyişini tahmin etmesi istendikten sonra, yalnızca endüstrinin 2027 yılına kadar AGI'ye ulaşacağına değil, aynı zamanda bunun insanlığa feci şekilde zarar verme ve hatta yok etme olasılığının büyük olduğuna ikna olduğunu söyledi.
BÜYÜK RİSKE KARŞI BİRLİK OLDULAR
Açık mektupta belirtildiği üzere Kokotajlo ve yoldaşları -ki aralarında Google DeepMind ve Anthropic'in eski ve mevcut çalışanlarının yanı sıra geçen yıl benzer kaygılar nedeniyle Google'dan ayrılan 'Yapay Zekanın Babası' Geoffrey Hinton da bulunuyor- yapay zekanın oluşturduğu riskler konusunda kamuoyunu 'uyarma haklarını' savunuyorlar.
Kokotajlo, yapay zekanın insanlık için büyük riskler oluşturduğuna o kadar ikna oldu ki, sonunda OpenAI CEO'su Sam Altman'a şirketin 'güvenliğe dönmesi' ve teknolojiyi daha akıllı hale getirmeye devam etmek yerine onu dizginlemek için korkulukları uygulamaya daha fazla zaman harcaması gerektiğini bizzat söyledi.
DİLEDİĞİ GİBİ DAVRANIYOR
Altman, eski çalışanın anlattığına göre, o zamanlar onunla aynı fikirdeymiş gibi görünüyordu, ancak zamanla bu sadece sözde bir hizmet gibi geldi.
Bıkan Kokotajlo, Nisan ayında firmadan ayrıldı ve ekibine gönderdiği bir e-postada, OpenAI'nin insan seviyesine yakın yapay zeka oluşturmaya çalışırken 'sorumlu davranacağına dair güvenini kaybettiğini' söyledi.
'DÜNYA HAZIR DEĞİL, BİZ DE HAZIR DEĞİLİZ'
NYT ile paylaşılan e-postasında 'Dünya hazır değil, biz de hazır değiliz' diyerek ekledi 'Ve her şeye rağmen acele etmemizden ve eylemlerimizi rasyonalize etmemizden endişe duyuyorum.'
Şirket bu haberin yayınlanmasının ardından yaptığı açıklamada, 'En yetenekli ve en güvenli yapay zeka sistemlerini sağlama konusundaki geçmişimizle gurur duyuyoruz ve riski ele alma konusundaki bilimsel yaklaşımımıza inanıyoruz' dedi.
'Bu teknolojinin önemi göz önüne alındığında titiz bir tartışmanın çok önemli olduğu konusunda hemfikiriz ve hükümetler, sivil toplum ve dünyanın dört bir yanındaki diğer topluluklarla iletişim kurmaya devam edeceğiz.'
ŞİRKET GÜVENSİZ BİR DURUMUN OLMADIĞINI BELİRTİYOR
Açıklamanın devamında, 'Bu nedenle, çalışanlarımızın endişelerini dile getirmeleri için anonim bir dürüstlük hattı ve yönetim kurulu üyelerimiz ile şirketin güvenlik liderleri tarafından yönetilen bir Güvenlik ve Emniyet Komitesi de dahil olmak üzere yollarımız var' denildi.
HABER MERKEZİ