Egy óráig volt elérhető a Facebookon a christchurchi mészárlásról készült videó. Kétszázan látták élőben a terrortámadást, négyezren pedig felvételről nézték meg törlés előtt. A Facebook 1,5 millió újra feltöltött videót törölt le a támadás utáni egy napban – ebből 1,2 milliót a feltöltés pillanatában -, a YouTube pedig nem mond pontos számokat, de ők is több tízezer feltöltésről beszélnek. A terrortámadást követő napokban azt is elmondta Neal Mohan, a videomegoszóért felelős vezető, hogy az újra feltöltött videókat meg is piszkálták a felhasználók, hogy az algoritmus nehezebben szűrje ki azokat.
Hasonló számadatokat még elő lehet ásni. A mészárlás körüli diskurzusnak lényegi kérdése lett, hogy a közösségimédia-szolgáltatók mindent megtettek-e a videó letiltásáért. A Facebook szerint az első bejelentést 29 perccel a streaming elindulása után kapták, ekkorra már 12 perce vége volt a támadásnak. Mire a moderátorok egyáltalán ránézhettek volna a bejelentett anyagra, az 8chan üzenőfal egyik felhasználója már készített másolatot a videóról.
Nem csak arról van vita, hogy a Facebook és a YouTube mennyiben felelős a terrorista üzenetének kihangosításáért. Kevesebb szó esett róla, de legalább ennyire fontos kérdés, hogy a különböző sajtótermékek hogyan kezelték az anyagot. Több újság használt gifeket, videorészleteket vagy a videóból kimentett képeket – például a támadó feliratokkal díszített fegyvereiről -, amelyekkel maguk is a terrorista üzenetének közvetítőivé váltak.
Az önmagunkkal szembeni őszinteségnek azzal is tartozunk, hogy az EU-s új copyrigh szabályozás*a tizenhármas cikkely elleni gyakori ellenérvet – amely szerint a törvény által erősen sugallt szűrők nem lehetnek elég hatékonyak – a terrortámadások videofelvételeinek esetében is megvizsgáljuk. Tényleg elvárjuk, hogy a szerzői jogsértéseknél – amelyeket szintén rosszul és sok téves találattal azonosít a rendszer – lényegesen nehezebben detektálható eseményeket tudják automatikusan kezelni a közösségi médiacégek?
Felesleges lenne letagadni, hogy az internet komoly szerephez jutott a terrortámadásban. A terrorista előre feltöltött kiáltvánnyal, kidekorált fegyverekkel, bekészített élő videós bejelentkezéssel indult el. Médiaképessé, vírusszerűen terjedővé akarta tenni az üzenetét, amiben a média és a szélsőséges netezők egyaránt segítettek neki.
Arról pedig már a tavalyi évben is rengeteg szó esett – különösen James Bridle brit művész a YouTube gyermekeket célzó ajánló algoritmusát bemutató cikke után -, hogy az ajánlórendszerek az extremitások felé tolják jelenleg a felhasználókat. Nem feltétlenül ezzel a céllal készültek ezek a kódok, a kattintásokat, az oldalon belüli aktivitást kell maximalizálniuk. Erre a jelek szerint a néző extremitások felé tolása a legműködőbb módszer. Ami különösen akkor veszélyes és visszatetsző, amikor a YouTube-villanypásztor elé lerakott gyerekek két-három videó után már a szabadkőműves összeesküvésekről hallanak előadásokat.
A lehetőséget, hogy a problémát alapvetően nem a netes szolgáltatások jelentik, többen felvetették. Köztük az a Mike Masnick is, aki a remek Techdirt szerkesztőjeként nem a platformszolgáltatók nagy barátja. Masnick szerint be kell látni, hogy a tartalom moderálása a YouTube vagy a Facebook üzemméretében nem oldható meg tökéletesen. Mindig lesz valaki, respektálható érvekkel, aki elégedetlen lesz a rendszerrel. Illetve mindig lesz egy tévéhíradó, ami elmondja az embereknek, hogy van egy tiltott videó valahol az interneten. Amíg ezeknek az ellentéteknek a feloldásán dolgozunk,
elfelejtődik az, hogy alapvetően egy szélsőjobboldali extrémizmus problémánk van.
A videó törlésétől nem tűnnek el azok az emberek, akik jó ötletnek tartották megpróbálni 1,5 milliószor újra feltölteni a Facebookra az anyagot, vagy akik pár nappal később, a támadáson felbuzdulva Birminghamben törték be több mecset ablakait.
A Facebookot korábban már joggal támadták azért, mert a platformján könnyen terjeszthették a tanaikat különböző szélsőségesek. A mianmari etnikai tisztogatásokban az ENSZ szerint is komoly szerepet játszott, hogy szabadon uszíthattak az ország muszlim kisebbsége ellen. Több Srí Lanka-i lincselést a WhatsApp beszélgetős csoportjaiban szerveztek meg, amelyekben az álhírek gyorsan és egyszerűen tudnak terjedni.
Sem a moderátorok, sem a hatóságok dolgát nem fogja megkönnyíteni, ha Mark Zuckerberg legutóbbi, privacy témájú kiáltványának szellemében a Facebook az üzenetküldő szolgáltatásait közös platformra hozza és bevezeti a végponti titkosítást. Ez újabb megoldandó problémákat eredményezhet a cégnek, amely az elmúlt egy-másfél évet folyamatos bocsánatkéréssel töltötte. A terrortámadás mögötti komolyabb társadalmi problémákat nem több mesterségesintelligencia-alkalmazás, jobban fizetett moderátorok vagy a közösségi oldal gyorsabb reagálása – olyan problémák, amelyekről a Businessweek hosszan írt a közelmúltban – fogja megoldani.
A jövőbe vetett hit teljes elvesztése helyett érdemes megnézni, mit tettek Új-Zélandon a támadás óta. Egyrészt tévécsatornát is leállítottak, hogy a terrortámadás reklámjaként működő videó ne kerüljön be a hírekbe. A Sky News Australia sugárzását felfüggesztette az új-zélandi Sky TV, mert a hasonló nevű, de más tulajdonosi körhöz tartozó ausztrál tévé a támadó kiáltványát szemlézte, részleteket mutatott a videóból és általában véve a gyilkosra fókuszált a híradásában. Az ausztrál csatorna előre jelezte, milyen közvetítést fog nyújtani, így cégek közötti konfliktushoz nem vezetett az eset. Az persze megfejtendő kérdés marad, hogy az ausztrál csatorna miért döntött a videó felhasználása mellett.
Jelentősebb lépés, hogy az új-zélandi törvényhozás rekordidő alatt megalkotott egy az automata és félautomata fegyverek betiltását lehetővé tévő törvényt. Illetve egy ehhez kapcsolódó fegyver-visszavásárlási programot, amely az előzetes becslések szerint 100-200 millió dollárjába fog kerülni a költségvetésnek.
Tech
Fontos