TikTok ve Meta'dan bir düzineden fazla ihbarcı, sosyal medya devlerinin, benzeri görülmemiş bir algoritma yarışında kullanıcıların dikkatini çekmek için mücadele ederken, zararlı içeriklerin akışlarında kasıtlı olarak yayılmasına nasıl izin verdiklerini ortaya çıkardı.
BBC araştırmacılarıyla paylaşılan bu açıklamalar, şirketlerin TikTok'un patlayıcı büyümesiyle rekabet etmek için güvenlikten ziyade etkileşimi önceliklendirmek üzere nasıl hesaplı kararlar aldığını ve bu durumun daha fazla şiddet, cinsel şantaj, terörizm, kadın düşmanlığı ve komplo teorisinin kullanıcılara ulaşmasına yol açtığını ortaya koyuyor.
Facebook ve Instagram'ın sahibi olan Meta şirketinde çalışan bir mühendis, üst yönetim tarafından özellikle TikTok ile rekabet edebilmek için kullanıcı akışlarında daha fazla "zararlı" içeriğe izin vermeleri yönünde doğrudan talimat aldığını anlattı. Verilen gerekçe ise oldukça açık ve netti: "Bize bunun nedeninin hisse senedi fiyatının düşmüş olması olduğunu söylediler."
TikTok'un Başarısı Nasıl Bir Güvenlik Krizine Yol Açtı?
İhbarcıların anlatımları, TikTok'un kısa videoları önermek için kullandığı son derece ilgi çekici algoritmasının tüm sosyal medya sektörünü nasıl alt üst ettiğine ve rakiplerin ne pahasına olursa olsun yetişmeye çalıştığına dair rahatsız edici bir tablo çiziyor.
Bir TikTok çalışanı, şirketin kullanıcı şikayetlerine ilişkin dahili panolarına nadir bir erişim sağlayarak, personelin çocukları içeren zararlı gönderilerden ziyade politikacılarla ilgili vakalara öncelik vermesi yönünde talimat aldığını ortaya koydu. Bu kararların, kullanıcılara yönelik risklerden dolayı değil, düzenleme veya yasaklama tehditlerinden kaçınmak için siyasi figürlerle "güçlü bir ilişki sürdürmek" amacıyla alındığı belirtildi.
Meta'nın kıdemli araştırmacılarından Matt Motyl, Instagram'ın TikTok'a doğrudan rakibi olan Instagram Reels'in 2020 yılında yeterli güvenlik önlemleri alınmadan piyasaya sürüldüğünü açıkladı. Paylaştığı şirket içi araştırmalar, Reels'teki yorumlarda Instagram'ın diğer bölümlerine kıyasla önemli ölçüde daha yüksek oranda zorbalık, taciz, nefret söylemi ve şiddet bulunduğunu gösterdi.
Meta, Reels'i büyütmek için 700 personele yatırım yaparken, eski bir üst düzey Meta çalışanına göre, çocukları korumaya yardımcı olacak güvenlik ekiplerine sadece iki uzman personel ve seçim bütünlüğünü sağlamak için 10 uzman personel daha verilmesi reddedildi.
Kurum İçi Araştırmalar İnsan Maliyetini Ortaya Çıkardı
Motyl, "bu platformlardaki kullanıcılara her türlü zararı gösteren üst düzey araştırma belgeleri" olarak tanımladığı düzinelerce belge sundu. İç araştırmalar, Facebook'un algoritmasının yol açtığı sorunların tamamen farkında olduğunu ortaya koydu.
Özellikle çarpıcı bir iç araştırmada, algoritmanın içerik oluşturuculara "izleyicilerinin refahı pahasına kârı maksimize eden bir yol" sunduğu tespit edildi. Araştırma, "algoritmalarımızın yarattığı mevcut finansal teşvikler setinin, dünyayı birbirine daha yakınlaştırma misyonumuzla uyumlu görünmediği" sonucuna vardı.
Çalışma, Facebook'un "pasif kalmayı ve kullanıcılara hızlı tüketim içerikleri sunmaya devam etmeyi seçebileceğini, ancak bunun yalnızca bir süre işe yarayabileceğini" belirterek, şirketin etkileşimi sürdürmek için zararlı içerikler sunduğunun farkında olduğunu açıkça kabul etti.
2020'den 2024'e kadar TikTok'un öneri motorunu geliştiren makine öğrenimi mühendisi olarak çalışan Ruofan Ding, algoritmaları iç işleyişini incelemenin zor olduğu bir "kara kutu" olarak tanımladı. Tamamen güvenli sistemler kurmanın zor olduğunu, çünkü "derin öğrenme algoritmasının kendisi üzerinde hiçbir kontrolümüz olmadığını" açıkladı.
Algoritma Silahlanma Yarışında Yapılan Önemli Güvenlik Tavizleri
İhbarcılar, şirketler rekabet ederken güvenliğin nasıl tehlikeye atıldığına dair somut yöntemleri ortaya çıkardı:
- İçerik denetimi kısayolları: Etkileşim metriklerini artırmak için zararlı içeriklerin daha uzun süre aktif kalmasına izin verildi.
- Kaynak tahsisi: Mühendislik kaynakları güvenlik ekiplerinden büyüme girişimlerine aktarıldı.
- Siyasi müdahale: İçerik kararlarında kullanıcı korumasından ziyade siyasi ilişkilere öncelik verildi.
- Algoritma şeffaflığı: Rekabet avantajını korumak için zarara yol açan hiçbir eylemin gerçekleştirilmediğini gösteren dahili araştırma.
- Çocuk güvenliği: Küçükleri korumakla görevli uzman ekiplere, bilinen risklere rağmen ek personel sağlanması reddedildi.
Öneri sistemleri üzerinde çalışan mühendisler, içeriği gerçek zarara yol açabilecek bir materyalden ziyade soyut veri noktaları olarak ele alıyorlardı. Ding, algoritma geliştiricileri için "tüm içerik sadece bir kimlik, farklı bir sayı" olduğunu açıkladı; bu kopukluk, güvenlik ihmallerine katkıda bulunmuş olabilir.