Yapay Zeka Tehlikeli Yavrularını Nasıl İzleyebilir?

İçindekiler:

Yapay Zeka Tehlikeli Yavrularını Nasıl İzleyebilir?
Yapay Zeka Tehlikeli Yavrularını Nasıl İzleyebilir?
Anonim

Önemli Bilgiler

  • Yeni bir makale, hangi araştırma projelerinin diğerlerinden daha fazla düzenlemeye ihtiyaç duyabileceğini yapay zekanın belirleyebileceğini iddia ediyor.
  • Ne tür bir yapay zekanın tehlikeli olabileceğini keşfetme çabasının bir parçası.
  • Bir uzman, yapay zekanın gerçek tehlikesinin insanları aptallaştırması olduğunu söylüyor.

Image
Image

Yapay zeka (AI) birçok fayda sağlar, ancak aynı zamanda bazı potansiyel tehlikeler de sunar. Ve şimdi, araştırmacılar bilgisayarlı yaratımlarına göz kulak olmak için bir yöntem önerdiler.

Uluslararası bir ekip, yeni bir makalede yapay zekanın hangi tür araştırma projelerinin diğerlerinden daha fazla düzenlemeye ihtiyaç duyabileceğini belirleyebileceğini söylüyor. Bilim adamları, biyoloji ve matematik kavramlarını harmanlayan ve ne tür bir yapay zekanın tehlikeli olabileceğini keşfetme çabasının bir parçası olan bir model kullandılar.

"Tabii ki, buna karar verirsek AI'nın 'bilimkurgu' tehlikeli kullanımı ortaya çıkabilir […], AI'yı tehlikeli yapan şey AI'nın kendisi değil, [onu nasıl kullandığımızdır], " Thierry Rayna, Fransa'daki École Polytechnique'de Değişim için Teknoloji başkanı, bir e-posta röportajında Lifewire'a söyledi. "Yapay zekayı uygulamak ya yetkinliği arttırıcı (örneğin, insanın/işçinin beceri ve bilgisinin alaka düzeyini güçlendirir) ya da yetkinliği yok edebilir, yani yapay zeka, mevcut becerileri ve bilgiyi daha az kullanışlı veya eskimiş hale getirebilir."

Sekmeleri Tutma

Son makalenin yazarları, varsayımsal AI yarışmalarını simüle etmek için bir model oluşturduklarını bir gönderide yazdılar. Gerçek dünyadaki yapay zeka yarışlarının nasıl sonuçlanabileceğini tahmin etmeye çalışmak için simülasyonu yüzlerce kez çalıştırdılar.

Bilim adamları, "Özellikle önemli bulduğumuz değişken, yarışın "uzunluğu"ydu - simüle edilmiş yarışlarımızın amaçlarına (işlevsel bir yapay zeka ürünü) ulaşmak için geçen süre, " diye yazdı. "AI yarışları hedeflerine hızlı bir şekilde ulaştığında, güvenlik önlemlerini her zaman göz ardı etmek için kodladığımız rakiplerin her zaman kazandığını gördük."

Aksine, araştırmacılar, uzun vadeli yapay zeka projelerinin o kadar tehlikeli olmadığını keşfettiler çünkü kazananlar her zaman güvenliği gözden kaçıranlar değildi. "Bu bulgular göz önüne alındığında, düzenleyicilerin, beklenen zaman çizelgelerine göre farklı düzenlemeler uygulayarak farklı AI yarışlarının ne kadar süreceğini belirlemeleri önemli olacak" diye yazdılar. "Bulgularımız, sprintlerden maratonlara kadar tüm AI yarışları için tek bir kuralın ideal olmaktan uzak bazı sonuçlara yol açacağını gösteriyor."

Yapay zeka konusunda danışmanlık yapan bir şirket olan Coda Strategy'nin genel müdürü David Zhao, Lifewire ile yaptığı bir e-posta röportajında, tehlikeli yapay zekayı tanımlamanın zor olabileceğini söyledi. Zorluklar, yapay zekaya yönelik modern yaklaşımların derin bir öğrenme yaklaşımı benimsemesinde yatmaktadır.

"Derin öğrenmenin, görüntü algılama veya konuşma tanıma gibi çok sayıda kullanım durumunda daha iyi sonuçlar verdiğini biliyoruz," dedi Zhao. "Ancak, insanların bir derin öğrenme algoritmasının nasıl çalıştığını ve çıktısını nasıl ürettiğini anlaması imkansız. Bu nedenle, iyi sonuçlar üreten bir yapay zekanın tehlikeli olup olmadığını söylemek zor çünkü insanların neler olup bittiğini anlaması imkansız."

AI firması MixMode'un strateji direktörü Matt Shea, e-posta yoluyla yaptığı açıklamada, yazılımların kötü aktörler tarafından istismar edilebilecek veya yanlış sonuçlar üretebilecek güvenlik açıklarına sahip kritik sistemlerde kullanıldığında "tehlikeli" olabileceğini söyledi. Güvenli olmayan yapay zekanın sonuçların yanlış sınıflandırılmasına, veri kaybına, ekonomik etkiye veya fiziksel hasara neden olabileceğini de sözlerine ekledi.

"Geleneksel yazılımlarla geliştiriciler, kaynak koduna bakarak bir güvenlik açığının nasıl kapatılacağını veya bir hatayı nasıl düzelteceğini bulmak için bir kişi tarafından incelenebilecek algoritmaları kodlar," dedi Shea."Yine de AI ile mantığın büyük bir kısmı, verinin kendisinden oluşturulur, sinir ağları ve benzerleri gibi veri yapılarına kodlanır. Bu, güvenlik açıklarını bulmak ve düzeltmek için incelenemeyen "kara kutular" olan sistemlerle sonuçlanır. normal yazılım gibi."

Önümüzdeki Tehlikeler?

YZ, Terminatör gibi filmlerde insanlığı yok etmeyi amaçlayan kötü bir güç olarak resmedilse de uzmanlar, gerçek tehlikelerin daha sıradan olabileceğini söylüyor. Örneğin Rayna, yapay zekanın bizi daha aptal yapabileceğini öne sürüyor.

"İnsanları beyinlerini eğitmekten ve uzmanlık geliştirmekten mahrum bırakabilir" dedi. “Zamanınızın çoğunu startup başvurularını okumaya harcamazsanız, risk sermayesi konusunda nasıl uzman olabilirsiniz? Daha da kötüsü, AI herkesin bildiği gibi "kara kutu" ve çok az açıklanabilir. Belirli bir AI kararının neden alındığını bilmemek, ondan öğrenilecek çok az şey olacağı anlamına gelir, tıpkı bir Segway'de stadyumda dolaşarak uzman bir koşucu olamayacağınız gibi.”

İyi sonuçlar üreten bir yapay zekanın tehlikeli olup olmadığını söylemek zor çünkü insanların neler olduğunu anlaması imkansız.

Bir e-posta röportajında, AI'nın yasal sonuçları hakkında yazan bir avukat Lyle Solomon, Yapay zekadan kaynaklanan en acil tehdidin, önyargılı sonuçlar sağlayabilme olasılığı olduğunu söyledi.

"Yapay zeka toplumsal bölünmelerin derinleşmesine yardımcı olabilir. Yapay zeka esasen insanlardan toplanan verilerden oluşturulur," diye ekledi Solomon. "[Fakat] geniş verilere rağmen, minimum alt kümeler içeriyor ve herkesin ne düşündüğünü içermeyecek. Bu nedenle, yorumlardan, kamuya açık mesajlardan, incelemelerden vb., içsel önyargılarla toplanan veriler, AI'nın ayrımcılığı ve nefreti artırmasına neden olacaktır."

Önerilen: