AI Sahte Haberlerin Yayılmasını Önlemenin Anahtarı Olabilir

İçindekiler:

AI Sahte Haberlerin Yayılmasını Önlemenin Anahtarı Olabilir
AI Sahte Haberlerin Yayılmasını Önlemenin Anahtarı Olabilir
Anonim

Önemli Bilgiler

  • Araştırmacılar, sahte haberleri tespit edip işaretlemek için bir yapay zeka sistemi geliştirdi.
  • Model, herkese açık bir sahte haber veri kümesini tarar, kullanıcıları uyarır ve onları doğrulanmış bilgi kaynaklarına yönlendirir.
  • Çevrimiçi yanlış haberlere karşı koymak için giderek artan sayıda yapay zeka yöntemi var.

Image
Image

Uzmanlar, Yapay zekanın (AI) çevrimiçi dezenformasyonun hızla yayılmasını engellemeye yardımcı olduğunu söylüyor.

Araştırmacılar, sahte haberleri tespit etmek ve işaretlemek için bir yapay zeka sistemi geliştirdi. Model, halka açık bir sahte haber veri kümesini tarar, kullanıcıları uyarır ve onları doğrulanmış bilgi kaynaklarına yönlendirir. Yanlış haberlere karşı koymak için giderek artan sayıda yapay zeka yönteminin bir parçası.

Güney Kaliforniya Üniversitesi'nde bilgisayar mühendisliği profesörü olan Wael AbdAlmageed, "İnternete, özellikle sosyal ağlara akan bilgi miktarı çok büyük ve manuel olarak, özellikle yüksek doğrulukla ele alınamıyor." Lifewire'a bir e-posta röportajında görsel yanlış bilgileri algılamak için AI algoritmaları söyledi.

"Yanlış bilgiler yayılmaya başladığında, özellikle yanlış bilgiler önyargılarımızı doğruladığında, insanları bilgilerin yanlış olduğuna ikna etmek zor olduğundan, yanlış bilgileri gerçek zamanlı olarak izlemek ve işaretlemek önemlidir" diye ekledi.

Gerçek Tutmak

Avustralya'daki Macquarie Üniversitesi'ndeki bir ekip tarafından geliştirilen yapay zeka tekniği, sahte haberlerin yayılmasını az altmaya yardımcı olabilir. Model, bir uygulamaya veya web yazılımına dahil edilebilir ve her kullanıcının ilgi alanlarına uygun "doğru" bilgilere bağlantılar sunar.

Macquarie Üniversitesi'nde araştırma üzerinde çalışan veri bilimcisi Shoujin Wang, "Çevrimiçi haber okurken veya izlerken, genellikle benzer olaylar veya konularla ilgili haber hikayeleri bir öneri modeli kullanılarak sizin için önerilir, " dedi. haber bülteni.

Wang, aynı olay için doğru haberlerin ve sahte haberlerin genellikle farklı içerik stilleri kullandığını ve bilgisayar modellerinin bunları farklı olaylar için haber olarak ele almasının kafasını karıştırdığını söylüyor.

Macquarie Üniversitesi'nin modeli, her bir haberin bilgisini iki kısma 'çözer': haber öğesinin sahte olup olmadığını gösteren işaretler ve haberin ilgili olduğu konuyu veya olayı gösteren olaya özel bilgiler. Model daha sonra, kullanıcının bir sonraki okumak isteyebileceği haber olayını tahmin etmek için kullanıcıların farklı haberler arasında nasıl geçiş yaptığına dair kalıplar arar.

Araştırma ekibi modeli, GitHub'da yayınlanan ve PolitiFact ve GossipCop'tan gelen sahte haberleri haber içeriği, sosyal bağlam ve kullanıcı okuma geçmişleri gibi verilerle birlikte depolayan FakeNewsNet adlı halka açık bir sahte haber veri kümesi üzerinde eğitti.

Yalan Haberlerin Büyümesi

Sahte haber büyüyen bir sorun, araştırmalar gösteriyor. NewsGuard, sosyal medyadaki büyümenin önemli bir bölümünün güvenilmez web sitelerinden geldiğini tespit etti.2019'daki yaklaşık yüzde 8'e kıyasla, 2020'de en iyi 100 haber kaynağı arasındaki etkileşimin yüzde 17'si Red dereceli (genellikle güvenilmez) sitelerden geldi.

Santa Clara Üniversitesi Markkula Uygulamalı Etik Merkezi'nde Gazetecilik ve Medya Etiği direktörü Subramaniam Vincent, Lifewire'a verdiği bir e-posta röportajında AI'nın dezenformasyona karşı yardımcı olabileceğini söyledi.

Teknoloji, "nefret söylemi veya halihazırda çürütülmüş iddialarla ilişkilendirilen planlı paylaşım için hesap davranışını izlemek veya teyitçiler veya hızlı üyelik artışı olan bilinen propagandacı devlet kurumları veya yeni ortaya çıkan gruplar tarafından çürütülmek" için kullanılabilir, diye açıkladı Vincent. "Ayrıca, belirli türlerin içeriğini işaretlemek için tasarımla birlikte, paylaşılmadan önce sürtüşme eklemek için de kullanılabilir."

Image
Image

AbdAlmageed, sosyal ağların öneri algoritmalarının bir parçası olarak sahte haber algılama algoritmalarını entegre etmesi gerektiğini söyledi. Hedefin, "sahte haber paylaşımını tamamen engellemek istemiyorlarsa, sahte haberleri sahte veya doğru değil olarak işaretlemek" olduğunu söyledi.

Bu, yapay zekanın sahte haberlere karşı koymak için yararlı olsa da, yaklaşımın dezavantajları olduğunu söyledi, dedi Vincent. Sorun şu ki, AI sistemleri insan konuşmasının ve yazısının anlamını anlayamıyor, bu yüzden her zaman eğrinin gerisinde kalacaklar.

"Yapay zeka, bazı açık nefret söylemi ve dezenformasyon biçimleriyle ne kadar doğru sonuçlar elde ederse, insan kültürü daha yeni kodlara ve organize etmek için gizli anlam aktarımına o kadar geçecektir" dedi.

Dezenformasyon izleme şirketi Blackbird. AI'nin CEO'su Wasim Khaled, Lifewire'a gönderdiği bir e-postada, çevrimiçi dezenformasyonun gelişen bir tehdit olduğunu söyledi. Yeni AI sistemlerinin, bir sonraki sahte haberin nerede ortaya çıkacağını tahmin edebilmesi gerekiyor.

"Çoğu durumda, bir yapay zeka ürünü oluşturup buna bitti diyemezsiniz," dedi Khaled. "Davranış kalıpları zamanla değişir ve yapay zeka modellerinizin bu değişikliklere ayak uydurması önemlidir."

Önerilen: