A Rajk László Szakkollégium már 25. éve adja át a Neumann Jánosról elnevezett elismerést, a díjazottak között nem kevés későbbi Nobel-díjassal találkozhatunk. Idén Susan Athey stanfordi közgazdászt választották a diákok.
Athey fő területe a digitalizáció, a mesterséges intelligencia és a gazdaság kapcsolata. A díj átvételekor tartott tegnapi előadásában is az ebben rejlő lehetőségekről, problémákról és további fejlődési irányokról beszélt. A Stanford Egyetem mesterséges intelligencia csoportjának vezetője hét folyó kutatása közül mutatott be néhányat.
Ez az első előadás, amit láttam, ahol az előadó egy zongorázó macska képével nyitott. Elmagyarázta, hogy hogyan működik a gépi tanulás, és hogy igazából mennyire nem tudhatjuk, mi alapján tanulja meg a dolgát. Ha ezernyi képet adunk neki, ahol macskák és kutyák vannak, akkor jó eséllyel ügyesen megtanulja felismerni olyan képeken is a macskákat és a kutyákat, amelyek nincsenek felcímkézve. Könnyen lehet azonban, hogy a zongorát is a macskák attribútumának tulajdonítja, mert éppen sok zongorázós macska képét „látta”.
Ezzel el is jutunk az első problémához. A gépi tanulással foglalkozók közül sokan azt gondolják, hogy mindent meg lehet vele oldani, hiszen valóban egy egyszerű módszertan, ami könnyen alkalmazható bonyolult problémákra. De nagyon nehéz munka az algoritmus mögé nézni, és kideríteni, hogy mi alapján válogat, és mondja ki a végleges verdiktet arról, hogy a képen macska van-e, vagy hogy ki kaphat hitelt, ezért nem tudjuk, hogy mekkora eséllyel téved. Viszonylag könnyű eldönteni, hogy valóban egy macskát látunk-e, de azt már sokkal nehezebb visszafejteni, hogy valóban olyan embereket utasít-e el az algoritmus, akik nem hitelképesek.
Hamar kiderült, hogy nagyon alap dolgokat rosszul tanult meg a rendszer. Míg a fehér embereket 97 százalékos valószínűséggel felismerte, addig a feketék 25 százalékát nem azonosította emberként, Serena Williamsről vagy Michelle Obamáról is azt „gondolta”, hogy nem nő és nem is ember. Ha ezek a bakik szalagcímeken köszönnek vissza, akkor a mérnökök természetesen elhárítják őket, mert szerencsére könnyű kijavítani a szisztematikus tanulási hibákat.
De a legtöbbjét nem vesszük észre – hogy fogják kijavítani azokat?
Athey hangsúlyozta, hogy a gépi tanulás nagyon hasznos lehet előrejelzésekben, de óvatosnak kell lenni, amikor interpretálni akarjuk az eredményeket. Mivel nem tudjuk, hogy miket vesz figyelembe, nem tudjuk azt sem, hogy mi hat mire. Nem vonhatunk le tudományos következtetést, vagy nem adhatunk tanácsot egy cégnek. Egyszerűen csak megjósolhatjuk, hogy mi fog történni, ha jó a modellünk, és ha folyamatosan frissítjük, hogy a változó világnak megfeleljen.
De még amikor előrejelzésre is használjuk, vannak szituációk, amikor nehéz megmagyarázni, hogy miért döntünk a mesterséges intelligencia alapján. Ha egy gép dönti el, hogy ki kap hitelt, akkor nehéz megmagyarázni, hogy miért utasítanak el valakit, vagy mit kéne tennie, hogy jobb esélyei legyenek.
Ugyanakkor a személyiségi jogokkal is nehezen összeegyeztethető, hogy óriási információhalmazt tárolnak emberekről, amit felhasználnak a döntéshozatalnál, de nem tudják megmondani, hogy miként. Óriási hatása lehet emberek életére, ha a gépi tanulás miatt nem veszik fel egy munkahelyre, mert azt jósolja, hogy úgyis felmond. Vagy kirúgják, mert egy mesterséges intelligencia szerint ő rizikósabban végzi a munkáját. Egyiknél sem tudják megmondani, hogy mekkora eséllyel van igaza a gépnek, ahogy azt se, hogy mi alapján döntött.
Athey példáként hozta fel, hogy egy hitelelbíráló MI rosszabb kategóriába sorolta azokat, akik Hotmailt használtak, mint azokat, akik Gmailt. Előfordulhat, hogy a Gmail használat összefüggött olyan tulajdonságokkal, amelyek befolyásolják a hiteltörlesztési hajlandóságot, de önmagában az e-mail-szolgáltató semmit sem jelent. Viszont nagyon könnyen manipulálható. Ha ismerjük az említett összefüggést, akkor nyitunk egy Gmail-fiókot, pedig a háttérben meghúzódó tulajdonságaink – amelyek miatt a hotmaileseket rosszabb kategóriába sorolta az algoritmus – változatlanok. Mégis ennyivel elérhető, hogy növelje az esélyét valaki az elbírálásnál.
Egy másik példa: amikor megtudták az afrikai falvak, hogy műholdas képek alapján állapítják meg, melyik falu kapjon segélyt, akkor sokan faágakkal letakarták a tetőket, hogy ne látszódjon, hogy jó alapanyagból készültek.
Meg kell tehát értenünk az eredményeket kiadó fekete dobozt ahhoz, hogy valóban tudjuk használni, és elkerüljük a manipulációt.
Viszont van azért bőven pozitívuma is annak, hogy tudunk mesterséges intelligenciát használni. Nagyon megkönnyítette például új vállalkozások beindítását. Erre az egyik legjobb példát Athey szerint azok az emberek jelentik, akik az Airbnb vagy az Uber segítségével alkalmazáson keresztül teremtették meg az egzisztenciájukat. Ezzel ráadásul egészségesebb versenyt hoztak létre a szállodai és utazási piacon, ahol így már sokkal inkább a minőség és az értékelés számít, nem a márka.
Athey abban is biztos, hogy az emberek szeretnének jó irányba változni, ezért ha megmutatjuk nekik, hogy mit csinálnak rosszul, akkor fejlődni fognak. Uber-sofőrökkel végzett egy kísérletet, ahol az alkalmazás jelezte nekik, ha az átlagnál rosszabbul vezetnek. Az átlagosan vezetők nem változtattak a szokásaikon, míg a rossz sofőrök sokat fejlődtek ennek hatására.
A médiapiacon is hasznos lehet a mesterséges intelligencia, ösztönözheti az embereket, hogy több hírt olvassanak. Athey és kutatótársai azt vizsgálták meg, hogy mi történt a Google News-ról tájékozódókkal a szolgáltatás megszüntetése után. Kiderült, hogy sokkal kevesebb hírt olvastak, tehát a Google a hírek egy helyre gyűjtésével segített az olvasás népszerűsítésében. Tágabban véve ez azt is jelenti, hogy a mesterséges intelligencia növeli a fogyasztást, annak köszönhetően, hogy könnyebbé teszi a folyamatot.
Az előadást követő kérdésekre adott válaszokból kiderült az is, hogy
Tech
Fontos