DOLAR 32,4887 -0.03%
EURO 34,7517 -0.67%
ALTIN 2.440,180,18
BITCOIN %
İstanbul
17°

PARÇALI AZ BULUTLU

02:00

İMSAK'A KALAN SÜRE

ataşlar, papağanlar ve güvenlik ve etik

ataşlar, papağanlar ve güvenlik ve etik

ABONE OL
Mayıs 21, 2023 15:55
ataşlar, papağanlar ve güvenlik ve etik
0

BEĞENDİM

ABONE OL

OpenAI CEO’su ve kurucu ortağı Sam Altman, 16 Mayıs 2023 Salı günü Washington, DC, ABD’de düzenlenen bir Senato Yargı Alt Komitesi duruşmasında konuşuyor. Kongre, ChatGPT gibi ürünler yükseldikçe yapay zekanın potansiyelini ve tuzaklarını tartışıyor. yaratıcı endüstrilerin geleceği ve gerçekleri kurgudan ayırt etme becerisi hakkında sorular.

Eric Lee | Bloomberg | Getty Resimleri

Geçen hafta, OpenAI CEO’su Sam Altman, Washington DC’de bir oda dolusu politikacıyı akşam yemeğinde büyüledi ve ardından bir Senato oturumunda yapay zekanın potansiyel riskleri hakkında yaklaşık üç saat boyunca ifade verdi.

Duruşmanın ardından, genel halk arasında yaygın olarak bilinmeyen terimler kullanarak AI düzenlemesi konusundaki tutumunu özetledi.

ilgili yatırım haberleri

İlk çeyrekte bu AI stoklarına yığılmış hedge fonları

CNBC Pro

Altman, “AGI güvenliği gerçekten önemli ve sınır modelleri düzenlenmeli” dedi. “Düzenleyici yakalama kötü ve eşiğin altındaki modellerle uğraşmamalıyız.”

Bu durumda “AGI”, “yapay genel zeka” anlamına gelir. Bir kavram olarak, şu anda mümkün olandan önemli ölçüde daha gelişmiş, kendini geliştirmek de dahil olmak üzere çoğu şeyi çoğu insandan daha iyi veya daha iyi yapabilen bir yapay zeka anlamına gelir.

“Sınır modelleri”, üretimi en pahalı olan ve en çok veriyi analiz eden yapay zeka sistemlerinden bahsetmenin bir yoludur. OpenAI’nin GPT-4’ü gibi büyük dil modelleri, fotoğraflardaki kedileri tanımlamak gibi belirli görevleri gerçekleştiren daha küçük AI modelleriyle karşılaştırıldığında sınır modelleridir.

Çoğu insan, geliştirme hızı arttıkça yapay zekayı yöneten yasaların olması gerektiği konusunda hemfikirdir.

Bir bilgisayar bilimi profesörü olan My Thai, “Makine öğrenimi, derin öğrenme, son 10 yılda çok hızlı gelişti. ChatGPT çıktığında, hiç hayal etmediğimiz bir şekilde gelişti, bu kadar hızlı gidebileceğini” söyledi. Florida Üniversitesi’nde. “Neler yapabileceğini tam olarak anlamadığımız ve tahmin edemediğimiz daha güçlü bir sisteme doğru yarıştığımızdan korkuyoruz.”

Ancak bu tartışmanın dili, akademisyenler, politikacılar ve teknoloji endüstrisi arasındaki iki büyük kampı ortaya koyuyor. Bazıları daha çok “” dedikleri şeyle ilgilenir.Yapay zeka güvenliği.“Diğer kamp ne dedikleri konusunda endişeli”AI etiği.

Altman, Kongre’ye konuştuğunda, çoğunlukla jargondan kaçındı, ancak tweet’i, çoğunlukla Altman tarafından yönetilen OpenAI, Google DeepMind ve iyi sermayeli girişimler gibi şirketlerdeki birçok endüstri lideri tarafından paylaşılan bir duruş olan AI güvenliği hakkında endişe duyduğunu gösterdi. Hayal edilemez güçlere sahip düşmanca bir AGI inşa etme olasılığından endişe ediyorlar. Bu kamp, ​​kalkınmayı düzenlemek ve insanlığın zamansız sonunu önlemek için hükümetlerin acil ilgisine ihtiyacımız olduğuna inanıyor – nükleer silahların yayılmasının önlenmesine benzer bir çaba.

DeepMind kurucusu ve mevcut Inflection AI CEO’su Mustafa Süleyman, “Bu kadar çok insanın AGI güvenliği konusunda ciddileşmeye başladığını duymak güzel.” tweet attı Cuma gününde. “Çok iddialı olmamız gerekiyor. Manhattan Projesi ABD GSYİH’sının %0,4’üne mal oldu. Bugün eşdeğer bir güvenlik programının neler başarabileceğini hayal edin.”

Ancak Kongre’de ve Beyaz Saray’da düzenlemeyle ilgili tartışmaların çoğu, mevcut zararlara odaklanan bir AI etik merceğinden geçiyor.

Bu açıdan bakıldığında, hükümetler yapay zeka sistemlerinin verileri nasıl topladığı ve kullandığı konusunda şeffaflığı sağlamalı, barınma veya istihdam gibi ayrımcılıkla mücadele yasasına tabi alanlarda kullanımını kısıtlamalı ve mevcut yapay zeka teknolojisinin nasıl yetersiz kaldığını açıklamalıdır. Beyaz Saray’ın geçen yılın sonlarına ait AI Bill of Rights teklifi bu endişelerin çoğunu içeriyordu.

Bu kamp kongre duruşmasında tarafından temsil edildi. IBM Milletvekillerine bu teknolojiler üzerinde çalışan her şirketin bir “AI etiği” iletişim noktasına sahip olması gerektiğine inandığını söyleyen Baş Gizlilik Sorumlusu Christina Montgomery.

Montgomery, Kongre’ye “Yapay zekanın son kullanımları veya doğası gereği yüksek riskli olan yapay zeka destekli faaliyet kategorileri hakkında net bir rehberlik olmalıdır” dedi.

AI dilini içeriden biri gibi nasıl anlarız?

Ayrıca bakınız: AI hakkında içeriden biri gibi nasıl konuşulur?

Yapay zeka etrafındaki tartışmanın kendi dilini geliştirmesi şaşırtıcı değil. Teknik bir akademik alan olarak başladı.

Bugün tartışılan yazılımların çoğu, “çıkarım” adı verilen bir işlemle istatistiksel olarak olası cümleleri, görüntüleri veya müziği tahmin etmek için grafik işleme birimleri (GPU’lar) kullanan sözde büyük dil modellerine (LLM’ler) dayanmaktadır. Elbette, önce “eğitim” adı verilen bir veri analizi sürecinde yapay zeka modellerinin oluşturulması gerekir.

Ancak, özellikle yapay zeka güvenlik savunucularından gelen diğer terimler, doğası gereği daha kültüreldir ve genellikle paylaşılan referanslara ve şakalara atıfta bulunur.

Örneğin, AI güvenlik çalışanları, bir şeye dönüşmekten endişe duyduklarını söyleyebilirler. Ataç. Bu, filozof Nick Bostrom tarafından popüler hale getirilen ve süper güçlü bir yapay zekaya – bir “süper zekaya” – mümkün olduğu kadar çok ataç yapma görevi verilebileceğini ve mantıksal olarak insanları öldürmeye karar vererek ataçları çıkarabileceğini öne süren bir düşünce deneyine atıfta bulunuyor. onların kalıntıları.

OpenAI’nin logosu bu hikayeden esinlenmiştir ve şirket logosu şeklinde ataç bile yapmıştır.

AI güvenliğindeki bir başka kavram da “sert kalkış” veya “hızlı kalkışBu, birisi bir AGI inşa etmeyi başarırsa, insanlığı kurtarmak için çok geç olacağını ima eden bir ifadedir.

Bazen, bu fikir bir onomatope olarak tanımlanır – “Küfür” – özellikle kavramın eleştirmenleri arasında.

“Sanki her şeyin nasıl çalıştığına dair hiçbir fikrin yokmuş gibi görünen saçma sert kalkış ‘foom’ senaryosuna inanıyor gibisin.” tweet attı AGI iddialarına şüpheyle yaklaşan Meta AI şefi Yann LeCun, sosyal medyada yakın tarihli bir tartışmada.

AI etiğinin de kendi dili vardır.

Anlamı anlayamayan ancak yalnızca insana benzeyen bir dil üreten mevcut LLM sistemlerinin sınırlamalarını tanımlarken, yapay zeka etiği insanları genellikle bunları “” ile karşılaştırır.Stokastik Papağanlar.”

Yazarlardan bazıları Google’dayken yazılan bir makalede Emily Bender, Timnit Gebru, Angelina McMillan-Major ve Margaret Mitchell tarafından ortaya atılan benzetme, gelişmiş yapay zeka modellerinin gerçekçi görünen metinler üretebilmesine karşın yazılımın anlamadığını vurguluyor. dilin arkasındaki kavramlar – bir papağan gibi.

Bu LLM’ler yanıtlarda yanlış gerçekler icat ettiğinde, bunlar “halüsinasyon görmek.”

Duruşma sırasında IBM’den Montgomery’nin üzerinde durduğu konulardan biri “açıklanabilirlik” AI sonuçlarında. Bu, araştırmacıların ve uygulayıcıların, daha büyük AI modellerinin çıktılarını elde etmek için kullandıkları işlemlerin kesin sayılarına ve yoluna işaret edemediğinde, bunun LLM’lerdeki bazı doğal önyargıları gizleyebileceği anlamına gelir.

UST-Global yapay zeka mimarı Adnan Masood, “Algoritma etrafında açıklanabilirliğe sahip olmalısınız” dedi. “Önceden, klasik algoritmalara bakarsanız, size ‘Neden bu kararı alıyorum?’ Şimdi daha büyük bir modelle, bu devasa model haline geliyorlar, onlar bir kara kutu.”

Bir diğer önemli terim ise “korkuluklarBig Tech şirketlerinin veri sızdırmamalarını veya rahatsız edici içerik üretmemelerini sağlamak için şu anda yapay zeka modelleri etrafında oluşturdukları yazılım ve politikaları kapsar.raydan çıkmak.

Ayrıca, Nvidia’nın “NeMo Guardrails” ürünü gibi AI yazılımını konunun dışına çıkmaktan koruyan belirli uygulamalara da atıfta bulunabilir.

Montgomery bu hafta yaptığı açıklamada, “Yapay zeka etik kurulumuz, teknolojiyi dünyaya sorumlu ve güvenli bir şekilde tanıtmamızı sağlamak için makul korkuluklar oluşturarak, iç yapay zeka yönetişim süreçlerini denetlemede kritik bir rol oynuyor” dedi.

Bazen bu terimler, ” örneğinde olduğu gibi birden fazla anlama sahip olabilir.ortaya çıkan davranış.”

Microsoft Research’ten “yapay genel zeka kıvılcımları” adlı yakın tarihli bir makale, OpenAI’nin GPT-4’ünde grafikler için bir programlama dili kullanarak hayvanları çizme yeteneği gibi birkaç “ortaya çıkan davranışı” tanımladığını iddia etti.

Ancak, kuşların sürüler halinde uçarken yaptıkları modeller veya yapay zeka söz konusu olduğunda, ChatGPT ve benzeri ürünler milyonlarca insan tarafından kullanıldığında ne olduğu gibi çok büyük ölçekte basit değişiklikler yapıldığında ne olduğunu da açıklayabilir. yaygın spam veya dezenformasyon olarak.

BCA Araştırması: Yapay zekanın tüm insanlığı yok etmesi için 50/50 şans

Bu yazı yorumlara kapatılmıştır.

Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.