AI Sonunda Nefret Söyleminin Engellenmesine Yardımcı Olabilir

İçindekiler:

AI Sonunda Nefret Söyleminin Engellenmesine Yardımcı Olabilir
AI Sonunda Nefret Söyleminin Engellenmesine Yardımcı Olabilir
Anonim

Önemli Bilgiler

  • Yeni bir yazılım aracı, yapay zekanın internet yorumlarını nefret söylemi açısından izlemesine olanak tanır.
  • Yapay zeka, insan yeteneklerini aşan muazzam miktarda malzeme nedeniyle internet içeriğini denetlemek için gereklidir.
  • Ancak bazı uzmanlar, konuşmanın AI tarafından izlenmesinin gizlilik endişelerini artırdığını söylüyor.
Image
Image

Çevrimiçi nefret söylemi arttıkça, bir şirket insan moderatörlere dayanmayan bir çözümü olabileceğini söylüyor.

Spectrum Labs adlı bir girişim, platform sağlayıcılarına toksik alışverişleri gerçek zamanlı olarak algılamaları ve kapatmaları için yapay zeka teknolojisi sağlıyor. Ancak uzmanlar, AI izlemenin gizlilik sorunlarına da yol açtığını söylüyor.

Bir güvenlik ve gizlilik uyumluluğu değerlendirme şirketi olan Schellman'da kıdemli bir çalışan olan David Moody, Lifewire'a bir e-posta röportajında \u200b\u200b" AI izleme genellikle zaman içindeki kalıplara bakmayı gerektirir, bu da verilerin saklanmasını gerektirir " dedi. "Bu veriler, yasaların gizlilik verileri (kişisel olarak tanımlanabilir bilgiler veya PII) olarak işaretlediği verileri içerebilir."

Daha Fazla Nefret Söylemi

Spectrum Labs, çok eskilere dayanan nefret söylemi sorununa yüksek teknolojili bir çözüm vaat ediyor.

Şirket, web sitesinde "ortalama olarak, platformların içerik denetleme çabalarını %50 oranında az altmasına ve toksik davranışların tespit edilmesini 10 kat artırmasına yardımcı oluyoruz", diyor.

Spectrum, 40'tan fazla davranış tanımlama modeli oluşturmak için belirli zararlı davranışlarda uzmanlığa sahip araştırma enstitüleriyle birlikte çalıştığını söylüyor. Şirketin Guardian içerik denetleme platformu, bir grup veri bilimci ve moderatör tarafından "toplulukların toksisiteden korunmasını desteklemek" için oluşturuldu."

Bir insanın çevrimiçi trafiğin her parçasını izlemesi imkansız olduğundan, nefret söylemiyle mücadele etme yollarına artan bir ihtiyaç var, Dylan Fox, konuşma tanıma sağlayan ve nefreti izlemeye dahil olan müşterileri olan bir girişim olan AssemblyAI'nin CEO'su Lifewire'a bir e-posta röportajında anlattı.

"Sadece Twitter'da günde yaklaşık 500 milyon tweet atılıyor" diye ekledi. "Bir kişi her 10 saniyede bir tweet'i kontrol edebilse bile, Twitter'ın bunu yapmak için 60 bin kişiyi istihdam etmesi gerekir. Bunun yerine, süreci otomatikleştirmek için AI gibi akıllı araçlar kullanıyoruz."

Bir insandan farklı olarak, yapay zeka 7/24 çalışabilir ve potansiyel olarak daha adil olabilir, çünkü kendi kurallarını tüm kullanıcılara herhangi bir kişisel inanç karışmadan aynı şekilde uygulamak üzere tasarlanmıştır, dedi Fox. İçeriği izlemesi ve denetlemesi gereken kişiler için de bir maliyet vardır.

"Kişinin ruh sağlığına zarar verebilecek şiddete, nefrete ve iğrenç davranışlara maruz kalabilirler" dedi.

Spectrum, çevrimiçi nefret söylemini otomatik olarak tespit etmeye çalışan tek şirket değil. Örneğin, Malezya Merkezi kısa süre önce Malezyalı netizenler arasında nefret söylemi bulmak için tasarlanmış bir çevrimiçi izleyici başlattı. Tracker Benci adlı geliştirdikleri yazılım, özellikle Twitter'da çevrimiçi nefret söylemini tespit etmek için makine öğrenimini kullanıyor.

Zor olan, insanların gerçekten yapıcı bir şekilde birbirleriyle etkileşim kurabilecekleri alanların nasıl yaratılacağıdır.

Gizlilik Endişeleri

Spectrum gibi teknoloji çözümleri çevrimiçi nefret söylemiyle savaşabilirken, bilgisayarların ne kadar polislik yapması gerektiği konusunda da soru işaretleri yaratıyor.

Santa Clara Üniversitesi Markkula Uygulamalı Etik Merkezi'nde internet etiği direktörü Irina Raicu, Lifewire'a bir e-postada, ücretsiz konuşmanın sonuçları olduğunu, ancak yalnızca gönderileri nefret söylemi olarak kaldırılacak olan konuşmacılar için geçerli olmadığını söyledi. röportaj.

Raicu, "'İfade özgürlüğü' adına tacize izin verilmesi, bu tür konuşmaların hedeflerini (özellikle belirli bireylere yönelik olduğunda) konuşmayı bırakmaya, çeşitli sohbetleri ve platformları tamamen terk etmeye yönlendirdi, dedi."Zorluk, insanların gerçekten yapıcı bir şekilde birbirleriyle etkileşim kurabilecekleri alanların nasıl yaratılacağıdır."

Fox, şirketlerin izleme sırasında kamuya açık bilgileri kullanması durumunda AI konuşma izlemenin gizlilik sorunlarına yol açmaması gerektiğini söyledi. Ancak şirket, sorunlu kullanıcıları önceden belirlemek için kullanıcıların diğer platformlarda nasıl etkileşime girdiğine ilişkin ayrıntıları satın alırsa, bu gizlilik endişelerini artırabilir.

"Uygulamaya bağlı olarak kesinlikle biraz gri bir alan olabilir" diye ekledi.

Image
Image

Spectrum Labs CEO'su Justin Davis, Lifewire'a bir e-postada, şirketin teknolojisinin bir saniyenin kesirleri içinde 2 ila 5 bin satır veriyi gözden geçirebileceğini söyledi. "En önemlisi, teknoloji, insan moderatörlerin maruz kaldığı toksik içerik miktarını az altabilir," dedi.

Çevrimiçi insan konuşmasını ve metni izleyen yapay zekada bir devrimin eşiğinde olabiliriz. Moody, gelecekteki ilerlemelerin, daha önce bilinmeyen nefret söylemi biçimlerini veya gelişecek diğer sansürlenebilir kalıpları belirlemek için daha iyi bağımsız ve özerk izleme yeteneklerini içerdiğini söyledi.

AI ayrıca yakında belirli konuşma kalıplarındaki kalıpları tanıyabilecek ve haber analizi, herkese açık dosyalamalar, trafik kalıbı analizi, fiziksel izleme ve diğer birçok seçenek aracılığıyla kaynakları ve diğer etkinlikleri ilişkilendirebilecek.

Ancak bazı uzmanlar, insanların nefret söylemini izlemek için her zaman bilgisayarlarla çalışması gerektiğini söylüyor.

"Yapay zeka tek başına çalışmaz," dedi Raicu. "Diğer yanıtlarla birlikte kullanılması gereken kusurlu bir araç olarak kabul edilmelidir."

Düzeltme 1/25/2022: Yayın sonrası bir e-postayı yansıtmak için sondan 5. paragrafa Justin Davis'ten alıntı eklendi.

Önerilen: