Erişilebilirlik

Cami Saldırıları Sonrası Sosyal Medya Şirketleri Hedefte


Yeni Zelanda’da iki caminin hedef alındığı ve 49 kişinin hayatını kaybettiği terör saldırısının zanlısı, sosyal medya platformu Facebook’tan katliamı canlı yayınlamış, saldırı öncesinde de Müslümanlara karşı şiddeti öven mesaj ve görsel paylaşmıştı. Ancak bunu fark eden Facebook değil Yeni Zelanda polisi oldu. Yeni Zelanda’daki terör saldırısı sosyal medya şirketlerinin terör saldırılarına ilişkin içeriklerin tespit edilmesi ve engellenmesi çabalarının yetersiz kaldığını da ortaya koydu.

Twitter’da @brentontarrant adlı hesapta Çarşamba günü Christchurch kentindeki camilere yönelik saldırıda kullanılan silahlardan birinin fotoğrafı paylaşıldı. Silahın üzerinde beyaz harflerle tarihte ırk, etnisite ya da din gerekçesiyle katliam yapan kişilerin isimleri yazılıydı.

Aynı kullanıcının hesabından o gün paylaşılan diğer Twitter mesajlarında beyaz nüfusta düşen doğum oranları, aşırı sağcılarla ilgili makaleler ve yasa dışı göçmenlerin işlediği iddia edilen suçlarla ilgili haberler yer alıyordu. Söz konusu Twitter hesabından 63 mesaj paylaşılmıştı. Şubat ayında açılan hesabın da 218 takipçisi vardı.

Saldırıyla bağlantılı kişilerden biri nefret söylemi dahil her türlü içeriğin yayınlandığı “Politically incorrect” adlı internet sitesinde paylaşımlarda bulunuyordu.

Cuma günü saat 13.30’da isimsiz kullanıcı gruba “İşgalcilere saldırıp, saldırıyı da Facebook’tan canlı yayınlayacağım” diye yazmıştı. Paylaşımda bir de beyaz ırkın üstünlüğünü savunan ırkçı grupların göç ve azınlık nüfuslarını tanımlamak için kullandığı “beyaz soykırım” olgusundan etkilenildiğini belirten 74 sayfalık bir manifesto vardı. Paylaşımda, saldırının canlı olarak yayınlandığı Brenton-tarrant.9 adlı kullanıcının Facebook sayfasının linki de yer alıyordu.

Yeni Zelanda polisi uyardı

@brentontarrant Twitter hesabı ve Brenton-tarrant.9’a ait Facebook sayfası Cuma günkü saldırıdan kısa bir süre sonra askıya alınmıştı. Facebook Twitter’dan yaptığı açıklamada “Polis bizi canlı yayının başlamasından kısa bir süre sonra Facebook’taki video konusunda uyardı. Biz de hızlı bir şekilde saldırganın Facebook ve Instagram sayfalarını kaldırdık” dedi. Şirket bu suçu öven ya da suça veya saldırgana destek veren mesajların da tespit edilir edilmez kaldırıldığını açıkladı. Youtube ve Twitter olaydan duydukları üzüntüyü dile getirdi. Twitter’ın bir temsilcisi e-mail ile gazetecilere gönderdiği açıklamada “Twitter’ın bu tür olağanüstü durumları yönetilmesi için oluşturulan sağlam bir ekibi var. Soruşturmalara talep edildiği gibi yardımcı olmak için de polisle işbirliği yapıyoruz” dedi.

Paylaşılan bu içeriklerin sosyal medya şirketleri tarafından değil de Yeni Zelanda polisi tarafından tespit edilmiş olması bu şirketlerin benzer içerikleri tespit etme ve engelleme konusunda yetersiz kaldığı eleştirilerini beraberinde getirdi.

Risk Advisory Group adlı düşünce kuruluşunun önde gelen terör analistlerinden Nolwenn Bervas internette Yeni Zelanda saldırganı gibi kişilerin toplanabileceği çeşitli platformlar olduğunu söylüyor. Bervas, “Aşırı sağcı, aşırı solcu ya da cihatçılığa ilişkin bilgi ve propaganda miktarı çok fazla ve bu içerikler erişilebilir” diyor.

The Economist dergisinin İstihbarat Birimi’nden Anwita Basu da sosyal medyanın küresel güvenlik risklerini değiştirdiğini, sosyal medyanın aşırıcı fikirlerin paylaşılması için bir platform sağladığını vurguluyor.

Yeni Zelanda’daki terör saldırısı Facebook üzerinden kafaya yerleştirilen bir kamera ile kaydedilerek yayınlanmıştı. 13.40’ta başlayan canlı yayında saldırgan camiye doğru ilerlerken “Remove Kebab” adlı Müslüman karşıtı marşı çalıyordu. Saldırgan Christchurch’ün Hagley Park bölgesine gelince aracın bagajını açıp silahları gösteriyor. Üzerinde isimler ve sloganların yazılı olduğu iki silahı alıp caminin girişine gelerek ateş açmaya başlıyor.

Bu anları gösteren canlı yayın 20 dakika olmadan sonlandı. Saldırgan da saat 15’te yakalandı.

“Teknoloji şirketleri sorumluluk almalı”

Saldırganları ve paylaştıkları içerikleri daha önce tespit edemeyen sosyal medya şirketlerine dünya liderlerinden tepki yağdı.

Saldırıdan saatler sonra bile o anların görüntülerine Facebook, Twitter, Youtube ve Instagram’dan ulaşmak mümkündü. Amerika’da Demokrat Senatörler Cory Booker ve Mark Warner sosyal medya şirketlerini görüntüleri kaldırmakta geç kaldıkları gerekçesiyle eleştirdi.

2020 Başkanlık seçimlerinde aday olan Booker, “Teknoloji şirketlerinin etik olarak doğru şeyi yapma yükümlülüğü var. Karları umrumda değil. Burada nefretin yayılması için bir platform sunuyorsunuz. Bu kabul edilemez. Böyle bir şey asla olmamalı, bu içerik daha hızlı kaldırılmalıydı” dedi.

Warner de görüntülerin nasıl hızlı yayıldığına dikkat çekti, “Bu nefret dolu içeriğin geniş çaplı şekilde yayılması ve Facebook üzerinden canlı yayınlanması, Youtube’a yüklenmesi en büyük platformların nasıl kötüye kullanılabileceğini gösterdi. Youtube’un radikalleşmeye imkan vermekte oynadığı rolü henüz anlayamadığı çok daha net” dedi.

İngiltere’nin Müslüman İçişleri Bakanı Sacid Cavid de Twitter’dan Youtube, Google, Facebook ve Twitter’ı etiketleyerek “Daha fazla çaba göstermelisiniz. Biraz sorumluluk alın. Artık yeter” diye yazdı.

Facebook yapay zeka sistemiyle övünmüştü

Yeni Zelanda’da yaşananlar “Dünyadaki en zengin şirketlerden biri tarafından kurulan yapa zeka sistemlerinin saldırı anını ve silahları gösteren görüntüleri tespit edemeyecekse neyi tespit edecek?” sorusunu gündeme getirdi.

Facebook’un teknoloji müdürü Mike Schroepfer Fortune dergisine son dönemde verdiği bir röportajda Facebook’un yapay zeka sistemlerinin brokoli ve marijuana resimlerini nasıl ayırt edebildiği konusunda övünmüştü. Facebook yetkilisi sistemlerin hangi görselin brokoli hangi görselin marihuana içerdiğini yüzde 90 doğruluk payıyla tespit ettiğini anlatmıştı.

CNN’e konuşan dijital adli tıp ve görsel analiz uzmanı Hanry Farid, milyarlarca paylaşımın yapıldığı Facebook’ta yüzde 90 oranında doğru tespit ve yüzde 10 yanılma payının yeterli bir oran olmadığını söyledi. Farid, “Şu anda insanların çok iyi yapabildiği karmaşık ve nüanslı şeyleri yapay zeka ile yapabilmekten çok uzağız. Makineler bir görüntünün film mi bilgisayar oyunu mu yoksa savaş suçu mu diye ayrım yapabilmek şöyle dursun, brokoli ve marihuana arasındaki farkı bile bilemiyor” diyor.

Kasım ayında Facebook açıkladığı bir raporda geçen yıl Temmuz ve Eylül ayları arasında kullanıcılar bildirmeden önce terörist propaganda içeriklerinin yüzde 99,5’ini tespit ettiğini belirtmişti.

STÜDYO VOA

Trump’a ‘sus payı davası’ öncesinde konuşma yasağı – 27 Mart
lütfen bekleyin

No media source currently available

0:00 0:29:59 0:00
XS
SM
MD
LG