Ana Sayfa TEKNOLOJİ AI uzmanları acilen hükümetleri belki bir şeyler yapmayı düşünmeye çağırıyor

AI uzmanları acilen hükümetleri belki bir şeyler yapmayı düşünmeye çağırıyor

35
0

Herkes, yapay zekanın, korunmasız olarak çalıştırılırsa muazzam zarar potansiyeline sahip hızla gelişen ve gelişmekte olan bir teknoloji olduğunu fark ediyor gibi görünüyor, ancak temelde hiç kimse ( Avrupa Birliğibir çeşit) nasıl düzenleneceği konusunda anlaşabilir. Bu nedenle, AI’nın faaliyet göstermesine nasıl izin vereceğimiz için internet ve dar bir yol oluşturmaya çalışmak yerine, alandaki uzmanlar yeni bir yaklaşım seçtiler: Hepimizin kötü olduğunu düşündüğümüz ve bunu kabul ettiğimiz aşırı örnekleri bulmaya ne dersin?

Pazartesi günü, bir grup politikacı, bilim adamı ve akademisyen, AI kırmızı çizgileri için küresel çağrıdünyanın hükümetlerinin bir araya gelmesi ve yapay zekanın konuşlandırılmasından kaynaklanabilecek “evrensel olarak kabul edilemez riskleri” önlemek için en geniş korkuluklar üzerinde anlaşma konusunda bir itiraz. Grubun amacı, bu kırmızı çizgileri 2026’nın sonuna kadar belirlemektir.

Teklif, sektör uzmanlarından, siyasi liderlerden ve Nobel Ödül kazananlarından çok 200’den fazla imza topladı. İrlanda eski cumhurbaşkanı Mary Robinson ve eski Kolombiya cumhurbaşkanı Juan Manuel Santos, Nobel kazananları Stephen Fry ve Yuval Noah Harari gibi. Geoffrey Hinton ve Yoshua Bengio, üç adamdan ikisi yaygın olarak “AI Godfathers“Uzaydaki temel çalışmalarından dolayı isimlerini listeye ekledi.

Şimdi, bu kırmızı çizgiler neler? Bu karar vermek için hala hükümetlere kalmış. Çağrı, belirli politika reçeteleri veya önerileri içermez, ancak kırmızı çizgi olabileceğine dair birkaç örnek çağırır. Grup, nükleer silahların başlatılmasını yasaklamak veya kitle gözetim çabalarında kullanım için potansiyel bir kırmızı çizgi olacaktır, grupta, insan geçersiz kılma tarafından sonlandırılamayan AI’nın oluşturulmasını yasaklamanın AI davranışı için olası bir kırmızı çizgi olacağını söylüyor. Ama çok açıklar: Bunları taşa koymayın, sadece örnekler, kendi kurallarınızı yapabilirsiniz.

Grubun somut olarak sunduğu tek şey, herhangi bir küresel anlaşmanın üç sütun üzerine inşa edilmesi gerektiğidir: “Açık bir yasak listesi; sağlam, denetlenebilir doğrulama mekanizmaları; ve taraflar tarafından uygulamayı denetlemek için kurulan bağımsız bir organın atanması.”

Bununla birlikte, ayrıntılar hükümetlerin kabul etmesi içindir. Ve bu biraz zor kısım. Çağrı, ülkelerin bunları çözmek için bazı zirvelere ve çalışma gruplarına ev sahipliği yapmasını önermektedir, ancak bu konuşmalarda kesinlikle birçok rakip güdü vardır.

Örneğin Amerika Birleşik Devletleri zaten taahhüt etti AI’nın nükleer silahları kontrol etmesine izin vermemek (Biden yönetimi altında yapılan bir anlaşma, bu yüzden Rab bunun hala oyunda olup olmadığını biliyor). Ancak son raporlar, Trump yönetiminin istihbarat topluluğunun bölümlerinin, bazı AI şirketlerinin araçlarını yerli gözetim çabaları için kullanmalarına izin vermeyeceği gerçeğinden rahatsız olduğunu gösterdi. Peki Amerika böyle bir teklif için işe başlayacak mı? Belki 2026’nın sonuna kadar öğreniriz… eğer bu kadar uzun yaparsak.

kaynak