MeGa
Active member
OpenAI, giderek güçlenen yapay genel zeka (AGI) ve bunun toplum üzerindeki etkisi ile şirket içinde nasıl başa çıkılacağı gibi konularda şirkete tavsiyelerde bulunması gereken “AGI Hazırlık” ekibini dağıttı. Bu CNBC'nin bir raporundan geliyor. OpenAI, ekibin dağılmasıyla ilgili herhangi bir neden belirtmedi. Takımın giden lideri Miles Brundage, Substack aracılığıyla yayınlanan bir bildiride AGI'den gelebilecek tehlikeler konusunda uyarıyor.
Reklamcılık
Brundage, gönderisinde şöyle yazıyor: “Ne OpenAI ne de herhangi bir sınır laboratuvarı hazır ve dünya da hazır değil.”
Her şeyden önce, OpenAI'nin şirketi kâr odaklı hale getirme ve bir YGZ geliştirirken güvenliğe daha az önem verme çabalarına karşı çıkıyor.
Kıdemli çalışanların ciddi ayrılışları
OpenAI, yapay zeka aracılığıyla uzun vadeli risklerin değerlendirilmesinde yer alan Superalignment ekibini Mayıs ayında dağıtmıştı. Ekibin o zamanki başkanı Jan Leike, OpenAI'de “güvenlik kültürü ve süreçlerinin cilalı ürünlere arka planda kalması gerektiği” gerçeğini eleştirdi.
Eylül ayında üç yönetici şirketten ayrıldı: CTO Mira Murati, araştırma başkanı Bob McGrew ve araştırmadan sorumlu başkan yardımcısı Barret Zoph. OpenAI kurucu ortağı Ilya Sutskever'in yanı sıra kıdemli çalışanlar Andrey Karpathy ve John Schulman, bazıları OpenAI patronu Sam Altman'ın yaklaşımını eleştiren şirketten çoktan ayrılmışlardı. Her halükarda, Altman geçen sonbaharda ters rüzgarlarla karşı karşıya kaldı ve bu durum, denetim kuruluna olan güven kaybı nedeniyle CEO'nun kısa süreliğine görevden alınmasıyla sonuçlandı.
Brundage ayrıca yapay zeka şirketlerinde, yapay zeka geliştirirken mali kaygıları güvenliğin önüne koyan tehlikeli bir eğilim olduğunu da görüyor. Diğer şeylerin yanı sıra, yapay zeka şirketlerinin denetimi önlemek için daha az düzenlemeye tabi olma arzusunu eleştiriyor. Ancak güvenli bir YGZ geliştirmek hükümetlerin, şirketlerin ve toplumun bilinçli kararlarını gerektirir. “Bunu bu şekilde yapmak için ortak bir çaba göstermediğimiz sürece yapay zekanın mümkün olduğu kadar güvenli ve faydalı olması pek mümkün değil” diye yazıyor.
Brundage'ın geleceği
Brundage, yapay zeka araştırmaları ve savunuculuğuna odaklanan kar amacı gütmeyen bir kuruluş kurmayı veya mevcut bir kuruluşa katılmayı planlıyor. Brundage'ın açıklamasına göre AGI ekibinin eski üyelerine şirket içinde başka görevler verilecek. Birçok eski OpenAI çalışanı, yapay zekanın güvenli ve güvenilir bir şekilde geliştirilmesine kendini adamış olan rakip Anthropic'e geçti. Eski CTO Mira Murati şu sıralar yeni bir startup için para topluyor. Ilya Sutskever de serbest meslek sahibi oldu – şirketinin adı Güvenli Süper İstihbarat.
CNBC, OpenAI'nin Brundage'in kararını desteklediğini belirtti. Şirket gelecekte bağımsız çalışmalarından bir şeyler öğrenmek istiyor.
(olb)
Reklamcılık
Brundage, gönderisinde şöyle yazıyor: “Ne OpenAI ne de herhangi bir sınır laboratuvarı hazır ve dünya da hazır değil.”
Her şeyden önce, OpenAI'nin şirketi kâr odaklı hale getirme ve bir YGZ geliştirirken güvenliğe daha az önem verme çabalarına karşı çıkıyor.
Kıdemli çalışanların ciddi ayrılışları
OpenAI, yapay zeka aracılığıyla uzun vadeli risklerin değerlendirilmesinde yer alan Superalignment ekibini Mayıs ayında dağıtmıştı. Ekibin o zamanki başkanı Jan Leike, OpenAI'de “güvenlik kültürü ve süreçlerinin cilalı ürünlere arka planda kalması gerektiği” gerçeğini eleştirdi.
Eylül ayında üç yönetici şirketten ayrıldı: CTO Mira Murati, araştırma başkanı Bob McGrew ve araştırmadan sorumlu başkan yardımcısı Barret Zoph. OpenAI kurucu ortağı Ilya Sutskever'in yanı sıra kıdemli çalışanlar Andrey Karpathy ve John Schulman, bazıları OpenAI patronu Sam Altman'ın yaklaşımını eleştiren şirketten çoktan ayrılmışlardı. Her halükarda, Altman geçen sonbaharda ters rüzgarlarla karşı karşıya kaldı ve bu durum, denetim kuruluna olan güven kaybı nedeniyle CEO'nun kısa süreliğine görevden alınmasıyla sonuçlandı.
Brundage ayrıca yapay zeka şirketlerinde, yapay zeka geliştirirken mali kaygıları güvenliğin önüne koyan tehlikeli bir eğilim olduğunu da görüyor. Diğer şeylerin yanı sıra, yapay zeka şirketlerinin denetimi önlemek için daha az düzenlemeye tabi olma arzusunu eleştiriyor. Ancak güvenli bir YGZ geliştirmek hükümetlerin, şirketlerin ve toplumun bilinçli kararlarını gerektirir. “Bunu bu şekilde yapmak için ortak bir çaba göstermediğimiz sürece yapay zekanın mümkün olduğu kadar güvenli ve faydalı olması pek mümkün değil” diye yazıyor.
Brundage'ın geleceği
Brundage, yapay zeka araştırmaları ve savunuculuğuna odaklanan kar amacı gütmeyen bir kuruluş kurmayı veya mevcut bir kuruluşa katılmayı planlıyor. Brundage'ın açıklamasına göre AGI ekibinin eski üyelerine şirket içinde başka görevler verilecek. Birçok eski OpenAI çalışanı, yapay zekanın güvenli ve güvenilir bir şekilde geliştirilmesine kendini adamış olan rakip Anthropic'e geçti. Eski CTO Mira Murati şu sıralar yeni bir startup için para topluyor. Ilya Sutskever de serbest meslek sahibi oldu – şirketinin adı Güvenli Süper İstihbarat.
CNBC, OpenAI'nin Brundage'in kararını desteklediğini belirtti. Şirket gelecekte bağımsız çalışmalarından bir şeyler öğrenmek istiyor.
(olb)