Guillaume Chaslot 2010 és 2011 között dolgozott a YouTube ajánlórendszerét futtató algoritmuson, vagyis azon a mesterséges intelligenciát alkalmazó megoldáson, amely az egyes felhasználók számára a szokásaik, és mások szokásai alapján személyre szabott további tartalmakat kínál fel. “Akkoriban ártalmatlan dolognak tűnt az egész, de csaknem egy évtized elteltével már látom, hogy a munkánknak olyan következményei lettek, amelyeket nem akartunk, pedig láthattuk volna előre” – írta most a Wiredben megjelent cikkében.
Az ajánlórendszer célja az, hogy a felhasználó minél több időt töltsön a videómegosztó oldalon, hiszen így növelhető a szolgáltató bevétele. A problémát az okozza, hogy az algoritmus fejlesztésénél szinte kontroll nélkül mindent ennek a célnak vetnek alá.
Februárban elég nagy botrányba keveredett a YouTube, amikor egy felhasználó jelezte, rájött arra, hogy az algoritmus kiválóan összehozza a pedofil hajlamú nézőket azokkal a videókkal, amelyek kommentjei között pedofil tartalmakhoz vezető linkeket osztanak meg egymással a használók. Hasonló érintettség merült fel a YouTube-nál a terrorista tartalmak, a külföldi állami finanszírozású propaganda, vagy a kiskorúak számára tiltott videók terjesztésében is.
Chaslot szerint az a borzasztó, hogy minél több adattal és minél jobban dolgozik a rendszer, annál hatékonyabb lesz ezekben a problémás esetekben is. Az igazi veszélyt pedig abban látja, hogy ha annyira okossá válik a rendszer, hogy tényleg csak azoknak ajánlja az adott tartalmat, akiket érdekel, akkor például egy fent említett pedofil csoport soha nem fog lebukni, mert csak azok találnak rá a tartalomra, akik nem érdekeltek a visszaélések jelentésében.
A februári esetben is egy felhasználó jelezte a problémát, talán azért, mert az ajánló nem mérte fel tökéletesen a böngészési előzményeit, és olyan embereknek is feldobta a pedofil kommentelés lehetőségét, akiket nem érdekelt ez a fajta tartalom.
Mindez azonban általánosságban is súlyos problémákat okozhat. Ha a YouTube-on belül olyan teljesen zárt közösségek alakulnak ki, ahol idővel mindenki csak a világ egyfajta narratíváját látja, akkor a tagok könnyen csapdába kerülhetnek. A témában végzett kutatások szerint ugyanis ilyenkor fennáll a veszélye annak, hogy a felhasználó világlátása beszűkül, és irányíthatóvá válik.
A rendszer (feedback loop) egyébként így működik:
A tapasztalatok szerint a felhasználók általában csak akkor jelzik, hogy problémás tartalmakat látnak, amikor már sok időt töltöttek el vele, és ekkor már késő. Az algoritmusnak ugyanis ekkor már megadták a pozitív visszajelzést a hosszas elköteleződésükkel, és nincs visszaút, beindul a körforgás. A rendszer másoknak is ajánlani fogja a tartalmat, és a készítők is azt fogják látni, hogy nagy igény van a hasonló videókra. Ezért fordulhat elő, hogy még a legjobb mesterséges intelligencia rendszerek is könnyű szerrel tolják előtérbe a hamis vagy tilos tartalmakat.
Élet
Fontos