Önemli Bilgiler
- Şirketler, nasıl sonuç aldığını açıklayan yapay zekayı giderek daha fazla kullanıyor.
- LinkedIn, müşterilerin iptal etme riskiyle karşı karşıya olduğunu tahmin eden ve sonuçlara nasıl ulaştığını açıklayan yapay zekayı kullandıktan sonra abonelik gelirini kısa süre önce artırdı.
- Federal Ticaret Komisyonu, açıklanamayan yapay zekanın araştırılabileceğini söyledi.
Yazılımdaki en yeni trendlerden biri, sonuçlarına nasıl ulaştığını açıklayan yapay zeka (AI) olabilir.
Açıklanabilir AI, yazılım şirketleri AI'yı daha anlaşılır hale getirmeye çalıştıkça karşılığını veriyor. LinkedIn, müşterilerin iptal etme riskini öngören ve sonuçlara nasıl ulaştığını açıklayan yapay zekayı kullandıktan sonra abonelik gelirini kısa süre önce artırdı.
SynerAI CEO'su ve Microsoft Finansal Hizmetler Baş Veri Bilimi Travis Nixon Lifewire'a bir e-posta röportajında \u200b\u200b"Açıklanabilir AI, çıktıya güvenmenin yanı sıra makinenin oraya nasıl geldiğini anlamakla ilgilidir.".
"'Nasıl?' birçok AI sistemine sorulan bir sorudur, özellikle de ideal olmayan kararlar alındığında veya çıktılar üretildiğinde, " diye ekledi Nixon. "Farklı ırklara adaletsiz davranmaktan kel bir kafayı futbol sanmaya kadar, yapay zeka sistemlerinin neden sonuçları ürettiğini bilmemiz gerekiyor. 'Nasıl'ı anladığımızda, şirketleri ve bireyleri 'sırada ne?' yanıtını vermeye yönlendiriyor."
AI'yı Tanımak
AI, doğruluğunu kanıtladı ve birçok türde tahminde bulunuyor. Ancak yapay zeka genellikle sonuçlara nasıl ulaştığını açıklayabilir.
Ve düzenleyiciler, yapay zekanın açıklanabilirlik sorununu dikkate alıyor. Federal Ticaret Komisyonu, açıklanamayan yapay zekanın araştırılabileceğini söyledi. AB, kullanıcıların yapay zeka tahminlerini yorumlayabilmelerine ilişkin gereksinimleri içeren Yapay Zeka Yasası'nın geçişini düşünüyor.
Linkedin, açıklanabilir yapay zekanın karı artırmaya yardımcı olabileceğini düşünen şirketler arasında yer alıyor. Daha önce, LinkedIn satış görevlileri bilgilerine güveniyordu ve hangi hesapların iş yapmaya devam etmesinin muhtemel olduğunu ve bir sonraki sözleşme yenileme sırasında hangi ürünlerle ilgilenebileceklerini belirlemek için çevrimdışı verileri gözden geçirmek için büyük miktarda zaman harcadılar. LinkedIn, sorunu çözmek için trendleri belirleyen ve satış görevlilerine yardımcı olan CrystalCandle adlı bir program başlattı.
Başka bir örnekte, Nixon, bir şirketin satış gücü için bir kota belirleme modelinin oluşturulması sırasında, şirketinin, başarılı bir yeni satış işe alımına işaret eden özellikleri belirlemek için açıklanabilir yapay zekayı dahil edebildiğini söyledi.
"Bu çıktıyla, bu şirketin yönetimi, herhangi bir büyük sorun ortaya çıkmadan önce, hangi satış görevlilerinin 'hızlı yola' koyulacağını ve hangilerinin koçluğa ihtiyaç duyduğunu fark edebildi, " diye ekledi.
Açıklanabilir Yapay Zeka için Birçok Kullanım
Nixon, Açıklanabilir AI'nın şu anda çoğu veri bilimci için içgüdüsel bir kontrol olarak kullanıldığını söyledi. Araştırmacılar modellerini basit yöntemlerle çalıştırıyorlar, hiçbir şeyin tamamen bozuk olmadığından emin olduktan sonra modeli gönderiyorlar.
"Bunun nedeni kısmen, birçok veri bilimi kuruluşunun sistemlerini bir KPI olarak 'zamana göre değer' etrafında optimize etmesi ve bunun da acele süreçlere ve eksik modellere yol açmasıdır," diye ekledi Nixon.
Sorumsuz modellerin geri tepmesinin AI endüstrisini ciddi bir şekilde geriletebileceğinden endişeleniyorum.
İnsanlar genellikle yapay zekanın açıklayamadığı sonuçlara ikna olmaz. Cogito'nun Baş Mühendislik Sorumlusu Raj Gupta, bir e-postada, şirketinin müşterilerle anket yaptığını ve şirketlerin kullanımları konusunda daha açık olmaları durumunda tüketicilerin yaklaşık yarısının (%43) bir şirket ve AI hakkında daha olumlu bir algıya sahip olacağını bulduğunu söyledi. teknolojinin.
Açıklanabilir yapay zekadan yardım eli alan sadece finansal veriler değil. Stevens'ta doçent olan Samantha Kleinberg, yeni yaklaşımdan yararlanan bir alan, algoritmanın bir görüntünün hangi bölümlerinin gerekli olduğunu düşündüğünü belirtmenin kolay olduğu ve bir insanın bu bilginin anlamlı olup olmadığını bilmesinin kolay olduğu görüntü verileridir. Teknoloji Enstitüsü ve açıklanabilir yapay zeka uzmanı, Lifewire'a e-posta yoluyla anlattı.
"Bunu bir EKG veya sürekli glikoz izleme verileriyle yapmak çok daha zor," diye ekledi Kleinberg.
Nixon, açıklanabilir yapay zekanın gelecekte her yapay zeka sisteminin temeli olacağını öngördü. Ve açıklanabilir yapay zeka olmadan sonuçların korkunç olabileceğini söyledi.
"Umarım bu cephede, açıklanabilir yapay zekayı gelecek yıllarda olduğu gibi kabul edecek kadar ilerleriz ve bugün geriye dönüp baktığımızda, herhangi birinin anlamadığı modelleri dağıtacak kadar deli olmasına şaşırmışızdır., " ekledi."Geleceği bu şekilde karşılamazsak, sorumsuz modellerden gelen tepkinin yapay zeka endüstrisini ciddi bir şekilde geriletebileceğinden endişeleniyorum."