DOLAR 32,5038 0.08%
EURO 34,7826 -0.12%
ALTIN 2.496,260,50
BITCOIN %
İstanbul
12°

ORTA ŞİDDETLİ YAĞMUR

02:00

İMSAK'A KALAN SÜRE

Endüstri liderleri, AI’nın nükleer savaşla eşit ‘yok olma riski’ sunduğunu söylüyor
  • Eğirdir Haber
  • Teknoloji
  • Endüstri liderleri, AI’nın nükleer savaşla eşit ‘yok olma riski’ sunduğunu söylüyor

Endüstri liderleri, AI’nın nükleer savaşla eşit ‘yok olma riski’ sunduğunu söylüyor

ABONE OL
Mayıs 30, 2023 14:40
Endüstri liderleri, AI’nın nükleer savaşla eşit ‘yok olma riski’ sunduğunu söylüyor
0

BEĞENDİM

ABONE OL

ChatGPT, Bard ve diğer büyük dil modellerinin (LLM’ler) yükselişiyle birlikte, Elon Musk gibi ilgili kişilerden yapay zekanın (AI) ortaya koyduğu riskler hakkında uyarılar alıyoruz. Şimdi, bir grup yüksek profilli endüstri lideri, bu korkuları etkili bir şekilde doğrulayan tek cümlelik bir açıklama yayınladı.

AI kaynaklı yok olma riskini azaltmak, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerin yanı sıra küresel bir öncelik olmalıdır.

Web sitesine göre, “yapay zekadan kaynaklanan toplumsal ölçekli riskleri azaltma” misyonuna sahip bir kuruluş olan AI Safety Center’a gönderildi. İmzacılar, OpenAI CEO’su Sam Altman ve Google DeepMind başkanı Demis Hassabis de dahil olmak üzere AI endüstrisinin kimdir kimdir. Birçok kişi tarafından modern yapay zekanın vaftiz babaları olarak kabul edilen Turing Ödüllü araştırmacılar Geoffrey Hinton ve Yoshua Bengio da ona isimlerini koydular.

Son birkaç ay içinde bu türden ikinci açıklama. Mart ayında Musk, Steve Wozniak ve 1.000’den fazla kişi, endüstrinin ve halkın teknolojiyi etkili bir şekilde yakalamasına izin vermek için yapay zekaya altı aylık bir ara verilmesi çağrısında bulundu. Mektupta, “Son aylarda AI laboratuvarlarının, hiç kimsenin – yaratıcılarının bile – anlayamayacağı, tahmin edemeyeceği veya güvenilir bir şekilde kontrol edemeyeceği daha güçlü dijital zihinler geliştirmek ve dağıtmak için kontrolden çıkmış bir yarışa kilitlendiğini gördük.”

AI, bazılarının korktuğu gibi (muhtemelen) kendinin farkında olmasa da, derin sahtekarlıklar, otomatik dezenformasyon ve daha fazlası yoluyla kötüye kullanım ve zarar verme riskleri sunuyor. LLM’ler aynı zamanda içeriğin, sanatın ve edebiyatın üretilme şeklini değiştirebilir ve potansiyel olarak çok sayıda işi etkileyebilir.

ABD Başkanı Joe Biden geçtiğimiz günlerde yapay zekanın tehlikeli olup olmadığını “görüleceğini” belirterek, “bence teknoloji şirketlerinin, ürünlerini halka açmadan önce güvenli olduğundan emin olma sorumluluğu var… hastalık ve iklim değişikliği gibi bazı çok zor zorluklar, ancak aynı zamanda toplumumuza, ekonomimize ve ulusal güvenliğimize yönelik potansiyel riskleri de ele almak zorunda.” Yakın tarihli bir Beyaz Saray toplantısında Altman, potansiyel riskler nedeniyle yapay zekanın düzenlenmesi çağrısında bulundu.

Etrafta dolaşan pek çok fikirle, yeni, kısa açıklama, taraflar bunların ne olduğu konusunda hemfikir olmasalar bile, AI riskleriyle ilgili ortak bir endişeyi göstermeyi amaçlıyor.

Bildirinin önsözünde, “Yapay zeka uzmanları, gazeteciler, politika yapıcılar ve halk, yapay zekadan kaynaklanan geniş bir yelpazedeki önemli ve acil riskleri giderek daha fazla tartışıyor.” “Yine de, gelişmiş yapay zekanın en ciddi risklerinden bazıları hakkındaki endişeleri dile getirmek zor olabilir. Aşağıdaki kısa ve öz ifade, bu engelin üstesinden gelmeyi ve tartışma başlatmayı amaçlıyor. Aynı zamanda, artan sayıda uzman ve kamuoyu hakkında ortak bilgi oluşturmayı amaçlıyor. gelişmiş yapay zekanın en ciddi risklerinden bazılarını da ciddiye alan kişiler.”

Bu yazı yorumlara kapatılmıştır.

Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.