Duygu Okuma Yazılımı Neden Gizliliğinizi İhlal Edebilir?

İçindekiler:

Duygu Okuma Yazılımı Neden Gizliliğinizi İhlal Edebilir?
Duygu Okuma Yazılımı Neden Gizliliğinizi İhlal Edebilir?
Anonim

Önemli Bilgiler

  • Zoom'un bir kullanıcının duyarlılığını veya etkileşim düzeyini değerlendirmek için yapay zeka kullanacağını söylediği bildirildi.
  • İnsan hakları grupları, gizlilik ve veri güvenliği endişeleri nedeniyle Zoom'dan planını yeniden düşünmesini istiyor.
  • Bazı şirketler, görüşmeler sırasında kullanıcının dikkat edip etmediğini değerlendirmek için duygu tespit eden yazılımlar da kullanır.
Image
Image

İnsan duygularını izlemek için yapay zekanın (AI) artan kullanımı, gizlilik endişelerini beraberinde getiriyor.

İnsan hakları kuruluşları, Zoom'dan video konferans yazılımına duygu analiz eden yapay zekayı dahil etme planını yavaşlatmasını istiyor. Şirketin, bir kullanıcının duyarlılığını veya katılım düzeyini değerlendirmek için yapay zeka kullanacağını söylediği bildirildi.

ACLU da dahil olmak üzere insan hakları gruplarından oluşan konsorsiyum, Zoom'a yazdığı bir mektupta, "Uzmanlar duygu analizinin işe yaramadığını kabul ediyor" dedi. "Yüz ifadeleri genellikle altta yatan duygulardan kopuktur ve araştırmalar, insanların bile bazen başkalarının duygularını doğru bir şekilde okuyamadığını veya ölçemediğini ortaya çıkardı. Bu aracı geliştirmek, sözde bilime güvenilirlik katıyor ve itibarınızı tehlikeye atıyor."

Zoom, Lifewire'ın yorum isteğine hemen yanıt vermedi.

Duygularınızı Kontrol Etmek

Protokol makalesine göre, Q for Sales adlı Zoom izleme sistemi, kişinin ne kadar meşgul olduğunu izlemek için kullanıcıların konuşma süresi oranını, yanıt süresi gecikmesini ve sık konuşmacı değişikliklerini kontrol eder. Zoom, bu verileri sıfır ile 100 arasında puanlar atamak için kullanır ve daha yüksek puanlar daha yüksek katılım veya duyarlılığı gösterir.

İnsan hakları grupları, herkesin iletişim kurmak için aynı yüz ifadelerini, ses modellerini ve beden dilini kullandığını varsayarak, yazılımın engelli kişilere veya belirli etnik kökenlere karşı ayrımcılık yapabileceğini iddia ediyor. Gruplar ayrıca yazılımın bir veri güvenliği riski olabileceğini öne sürüyor.

Image
Image

"Derinlemesine kişisel verilerin toplanması, bu teknolojiyi kullanan herhangi bir varlığı, mektuba göre, hükümet yetkililerini ve kötü niyetli bilgisayar korsanlarını gözetlemek için bir hedef haline getirebilir".

New York Üniversitesi'nde bilgisayar bilimi ve mühendisliği profesörü olan Julia Stoyanovich, Lifewire'a verdiği bir e-posta röportajında, duygu algılamanın ardındaki iddialar konusunda şüpheci olduğunu söyledi.

"Böyle bir teknolojinin nasıl işe yaradığını anlamıyorum-insanların duygusal ifadesi çok bireysel, kültürel olarak bağımlı ve bağlama çok özel," dedi Stoyanovich."Ama belki daha da önemlisi, bu araçların çalışmasını neden istediğimizi anlamıyorum. Diğer bir deyişle, iyi çalışırlarsa başımız daha da belaya girecek. Ama belki de riskleri düşünmeden önce, yapmalıyız. böyle bir teknolojinin potansiyel faydaları nelerdir?"

Zoom, duygu algılama yazılımı kullanan tek şirket değil. Bir gizlilik ve güvenlik danışmanlığı şirketi olan Kuma LLC'de gizlilik üst düzey yöneticisi Theo Wills, e-posta yoluyla Lifewire'a, görüşmeler sırasında kullanıcının dikkat edip etmediğini değerlendirmek için duyguları algılamaya yönelik yazılımın kullanıldığını söyledi. Ayrıca, sürücülerin uykulu görünüp görünmediğini izlemek için ulaşım endüstrisinde, ilgiyi ölçmek ve önerileri uyarlamak için video platformlarında ve belirli bir öğretim yönteminin ilgi çekici olup olmadığını belirlemek için eğitici öğreticilerde pilot uygulama yapılıyor.

Wills, duygu izleme yazılımı etrafındaki tartışmanın gizlilikten çok bir veri etiği meselesi olduğunu iddia etti. Bunun, önsezilere dayalı gerçek dünya kararları veren sistemle ilgili olduğunu söyledi.

"Bu teknolojiyle, şimdi yüzümde belirli bir ifadeye sahip olduğumu varsayıyorsunuz, ancak bir ifadenin arkasındaki itici güç, sosyal veya kültürel yetiştirme, aile davranışları, geçmiş deneyimler veya sinirlilik gibi şeylerden dolayı büyük ölçüde değişiyor anda," diye ekledi Wills. "Algoritmayı bir varsayıma dayandırmak, doğası gereği kusurlu ve potansiyel olarak ayrımcıdır. Birçok popülasyon, algoritmaların dayandığı popülasyonda temsil edilmez ve bu kullanılmadan önce uygun temsile öncelik verilmesi gerekir."

Pratik Düşünceler

Duygu izleme yazılımının ortaya çıkardığı sorunlar teorik olduğu kadar pratik de olabilir. İlişki zekası sağlayan AI odaklı bir uygulama olan Ferret.ai'nin kurucu ortağı Matt Heisie, Lifewire'a bir e-postada, kullanıcıların yüz analizinin nerede yapıldığını ve hangi verilerin depolandığını sormaları gerektiğini söyledi. Çalışma arama kayıtları üzerinde mi, bulutta mı işleniyor yoksa yerel cihazda mı yapılıyor?

Ayrıca Heisie, algoritma öğrenirken, bir kişinin yüzü veya hareketleri hakkında topladığı hangi verileri potansiyel olarak algoritmadan ayırıp birinin biyometrisini yeniden oluşturmak için kullanabileceğini sordu. Şirket, algoritmanın öğrendiklerini doğrulamak veya doğrulamak için anlık görüntüleri depoluyor mu ve kullanıcı, çağrılarından potansiyel olarak toplanan bu yeni türev veriler veya depolanan görüntüler hakkında bilgilendiriliyor mu?

"Bunların hepsi birçok şirketin çözdüğü problemler, ancak bunu doğru yapmadıkları ortaya çıktığında skandallarla sarsılan şirketler de var" dedi Heisie. "Facebook, yüz tanıma platformunu kullanıcı gizliliğiyle ilgili endişeler üzerine geri alan bir şirketin en önemli örneğidir. Ana şirket Meta, biyometrik verileri çevreleyen gizlilik yasaları nedeniyle Illinois ve Teksas gibi bazı yargı bölgelerinde şimdi Instagram'dan AR özelliklerini alıyor."

Önerilen: