Alexa'nın Ölü Akrabaları Taklit Etme Yeteneği Şimdiye Kadarki En Ürpertici Şey Olabilir

İçindekiler:

Alexa'nın Ölü Akrabaları Taklit Etme Yeteneği Şimdiye Kadarki En Ürpertici Şey Olabilir
Alexa'nın Ölü Akrabaları Taklit Etme Yeteneği Şimdiye Kadarki En Ürpertici Şey Olabilir
Anonim

Önemli Bilgiler

  • Amazon'un Alexa sesli asistanı, bir dakikalık sesle bir sesi kopyalayabilir.
  • Alexa'dan ölü bir ebeveynin sesinden bir hikaye okumasını isteyebilirsiniz.
  • Yalnızca iyiliğin gücü için kullanılan derin sahtelerle aynı fikir.
Image
Image

Amazon Alexa'nın en son hilesi, ölü bir sevilenin sesini taklit etmeyi öğrenmektir, böylece onlar sizinle mezarın ötesinden konuşabilirler.

Alexa'nın bir sesi inandırıcı bir şekilde taklit etmesi için sadece bir dakikalık sözlü sese ihtiyacı var. Amazon, sizi sevdiklerinizle temasa geçirebilecek rahatlatıcı bir özellik olarak faturalandırıyor, ancak aynı zamanda oldukça ürkütücü bir deneyim de olabilir. Ve ses çok iyi bildiğimiz bir ses olsa bile bizi kandırmaya yetecek kadar derin sahte ses yapmanın ne kadar kolay olduğunu gösteriyor.

Restore Privacy'nin gizlilik uzmanı Bill Mann, "Amazon, Alexa'nın yakında öğrenebileceğini ve yakında ölü akrabaların sesini kullanabileceğini duyurmasıyla kesinlikle oldukça benzersiz ve tuhaf bir bölgeye girdi, " dedi. E-posta yoluyla can teli. "Bazı insanlar için hiç de ürkütücü değil. Aslında oldukça dokunaklı olabilir."

Makinedeki Hayalet

Yıllık re:MARS konferansının bir parçası olarak Amazon, bu özelliği kısa bir videoda gösteriyor. İçinde, bir çocuk Alexa'ya, büyükannesinin ona her çocuğun favori açılış konuşması dostu kamu malı çalışması olan "Oz Büyücüsü"nü okumaya devam edip edemeyeceğini soruyor. Ve oldukça dokunaklı bir an. Büyükanne okumaya başladığında insan duygularını hissetmemek zor.

"İnsanlar özellikle Batı kültüründe ölümlülükle mücadele ediyor. Yüzyıllar boyunca ölüm maskelerinden saç buklelerine, eski fotoğraflara, eski filmleri izlemeye kadar ölüleri anmanın yollarını bulmaya çalıştık" Andrew Selepak, Florida Üniversitesi'nde bir sosyal medya profesörü Lifewire'a e-posta yoluyla söyledi. "Deepfakes, ölen sevilen birinin yeni bir ölüm maskesini oluşturmak için en son teknolojiyi kullanır. Ancak, kişinin bakış açısına bağlı olarak, ürkütücü mü yoksa sevdiğiniz birini öldükten sonra anmak ve ona tutunmak için bir yol mu?"

Ama bir memento mori hem rahatlatıcı hem de ürkütücü olabilir. Bir aile üyesinin arkadaşı öldü, ancak yine de konuşmalarını duyabilirsiniz. Alexa'nın tuhaf ve bazen ürkütücü bir davranış geçmişine sahip olması yardımcı olmuyor. 2018'de, NYT köşe yazarı Farhad Manjoo yatağa girerken, Amazon Echo'su "korku filmi rüyasında çığlık atan bir çocuk gibi ağlamaya başladı."

Kısa bir süre sonra Amazon, Alexa'nın bazen yüksek sesle güldüğünü kabul etti, bu da gençler ve mahzenlerle birlikte 101 numaralı korku filmi.

Alexa aynı numarayı büyükannenin sesinde yapsaydı nasıl hissedeceğinizi merak edebilirsiniz.

Derin Sahte

Alexa'nın bir sesi taklit etmeyi öğrenmesindeki bariz kolaylık, bizi ses klonlamanın daha kötü kullanımlarına götürüyor: derin taklitler.

Image
Image

"Deepfake ses, çok az anlaşılmış ve çok az biliniyor olsa bile yeni değil. Teknoloji, kişiden nispeten az gerçek ses kullanarak yapay zeka ve derin öğrenme ile bir bireyin sesini yeniden oluşturmak için yıllardır mevcuttu, " diyor Selepak. "Böyle bir teknoloji aynı zamanda tehlikeli ve yıkıcı olabilir. Rahatsız olan bir kişi, ölmüş eski erkek arkadaşının veya kız arkadaşının sesini yeniden oluşturabilir ve yeni sesi nefret dolu ve incitici şeyler söylemek için kullanabilir."

Bu sadece Alexa bağlamında. Derin sahte ses bunun çok ötesine geçerek, insanları önde gelen politikacıların inanmadıkları şeylere inandıklarına ikna edebilir. Ama öte yandan, bu derin sahtekarlıklara -belki de bu Alexa sesleri biçimindeki- alıştıkça, daha alçakça sahtekarlıklara karşı daha fazla şüpheci olacağız. Sonra tekrar, Facebook'ta yalanları yaymanın ne kadar kolay olduğu düşünülürse, belki de değil.

Amazon, bu özelliğin Alexa'ya mı geleceğini yoksa sadece bir teknoloji demosu mu olduğunu söylemedi. Umarım öyle olur. Teknoloji, böyle hümanist bir şekilde kullanıldığında en iyi durumda ve Selepak'ın dediği gibi, kolay tepki onu ürpertici olarak adlandırmak olsa da, eski videoları izlemekten veya kaydedilmiş sesli mesajları dinlemekten çok da farklı değil. tembelce yazılmış bir TV şovundaki bir karakter gibi.

Ve eğer derin sahtekarlık teknolojisi hazırsa neden kendimizi rahatlatmak için kullanmıyorsunuz?

Önerilen: