Sokszor még hús-vér embereket képzelünk oda, ahol valójában már a mesterséges intelligenciával (MI) találkozunk, az átlagpolgár egyáltalán nem látja át, mennyire hatja át életét máris az MI. Az ebben rejlő lehetőségeket senki nem tagadja, de veszélyei sötét társadalmi disztópiákat idéznek, most azonban még vadnyugati állapotok uralkodnak – mondja Tilesch György, a Szilícium-völgyben élő mesterséges intelligencia szakértő. A G7-nek adott interjúban a Phi Institute Fehér Háznak is tanácsokat adó elnöke a kínai megfigyelő állam és a nyugati modellek versengéséről, az adatbirtoklásról is szóló új hidegháborúról, a big tech-nek való kiszolgáltatottságról és a tech-óriások önszabályozási hajlandóságáról beszél: Európának a “bigger brain” helyett a “better brain” fejlesztésében lehet keresni valója, a cél, hogy ne egy orwelli és egy huxleyánus világ között kelljen választani.
Dr. Tilesch György Kaliforniában élő MI-szakértő, az általa alapított PHI Institute for Augmented Intelligence elnöke. Dolgozott a Microsoftnak, az Ipsosnak, több globális nagyvállalatnak és kormánynak, valamint az Európai Bizottságnak. Mesterség és intelligencia című könyve 2021-ben magyarul is megjelent. Legutóbb a World Economic Forum nagyvállalati vezetőknek szóló kézikönyvén dolgozott, a felelősségteljes MI-ről írt fejezetét készítette el. A héten a Pécsi Tudományegyetemen tartott előadást az EU jövőjéről szóló konferenciasorozat keretében, ahol az egyetemisták egy, a DemNet Alapítvány által szervezett workshop keretében tettek javaslatokat a mesterséges intelligencia körüli etikai dilemmákkal kapcsolatban az Európai Unió számára.
Az orosz-ukrán háborúban a halott katonák azonosításában is használják a mesterséges intelligenciát, közben Kína és az Egyesült Államok hidegháborújának ez az egyik fő technológiai vetülete, Európa pedig a big techet regulázza. Van esélye labdába rúgni a globális versenypályán?
A Von der Leyen-féle Bizottság számára top 3 prioritás a mesterséges intelligencia témája, és idén novemberre a tervek szerint kész lesz az AI Act, a világ első átfogó mesterséges intelligencia szabályozása. Sok tagállam attól tartott, hogy egy túl szigorú szabályozás megfojtja az innovációt. De a cél, hogy Európa ne csak szabályozóként kontrollálja a szereplőket, hanem fel tudjon építeni egy olyan technológiai ipart, amivel bizonyos MI-területeken a világ élvonalába tud kerülni. Ez most még nincs itt, de a Bizottság és különösen a francia biztos, az üzleti környezetből érkező Thierry Breton erősen nyomja ezt a vonalat. Teljes joggal, mert ha ez nincs megoldva, akkor termékfejlesztés és technológiai potenciál tekintetében Európa harmadhegedűs pozícióba fog kényszerülni az USA és Kína mögött. Emellett zajlik a nagy technológiai platformok és a Bizottság közötti meccs.
Ez hogy áll jelenleg?
A most készülő tervezetben még több pont nagyon labilis, például, hogy hogyan kezelik majd az MI által gerjesztett manipulációt, a manipulatív reklámokat. Most az összes nagy technológiai cég lobbistái gőzerővel azon dolgoznak, hogy ez számukra megfelelő végkifejlettel záruljon. A big tech szerepe és elismertsége nagyon erősen alakult. Pár évvel ezelőtt még Brüsszelben mindenkit viszonylag egységesen erős fenntartásokkal kezeltek, de most már erősen disztingválnak aszerint, hogy kinek tekintik a tevékenységét nettó károsnak, és ki az, akiről úgy gondolják, hogy felhozható arra a szintre, hogy az európai értékeket megtestesítő önszabályozással éljenek.
Mik lennének ezek az európai értékek?
Ez nem csak sallang, elég konkrét szabályokról van szó, ami sok tekintetben követi a GDPR logikáját. Az már biztos, hogy nagyon komoly előzetes monitorozási kötelezettségeket fognak előírni a gyártókra és az MI alapú termékeket használó cégekre is.
Európának végre be kell látnia, hogy értékalapon kell alternatív technológiákat indítani.
Ha úgy teszik, hosszabb távon minden regnáló nagy platformnak meg kell csinálni az európai értékeket kifejező alternatíváit, így vagy úgy. Persze nem kizárólag állami eszközökkel, mint ahogy pár éve a Bizottság állítólag gondolta, hogy majd ő hozza létre az európai Facebookot.
A mesterséges intelligencia a többségnek inkább homályos buzzword, mint konkrét, megfogható tartalom. Hol vannak azok az életszférák, ahol, ha az átlagember kevéssé is érzékeli, már nagyon kiterjedt az MI jelenléte a mindennapokban?
Ha megkérdezed az átlagpolgárt, hogy mit ért mesterséges intelligencia alatt, akkor valószínűleg azt fogja mondani maximum, hogy a Facebookot. Nem ismert még széles körben, hogy mennyi szolgáltatás mögött van ez, és rejtve mennyire meghatározza az életünket. Szeretünk antropomorfizálni, és például az online interakciókban nagyon sok esetben azt hisszük, hogy emberekkel van dolgunk, miközben valójában már gépekkel. Kevesen tudják, hogy a bankszférában mennyire mélyen van jelen az MI, még mindig a humán ügyintézőt látjuk minden egyes döntés mögött. A HR vonatkozásait sem sokan látják át: annak az esélye, hogy az önéletrajzod a megfelelő ember elé kerüljön, borzasztóan csökken, az első köröket már gép csinálja a nagy cégeknél. Meg hát minden zamatos hírszerzési, megfigyelési történet, amiről csak kába ábrándjaink lehetnek. Sírnak az emberek a Facebookon, hogy mennyi oroszbarát komment jön, de arra kevesen gondolnak, hogy azokból a profilokból hány nem valós ember.
Tavaly magyarul is megjelent könyve szerint a mesterséges intelligencia szempontjából ez még a vadnyugat kora. Mit ért ezalatt?
Egyelőre ezt látjuk az alig létező szabályozás szintjén is, de tudjuk, hogy ez záros határidőn belül változni fog, és a Biden-adminisztráció is a korábbiaknál erősebb szövetségi politikát képvisel. A másik része viszont a mentális vadnyugat, a Szilícium-völgynek az a mentalitása, hogy mi vagyunk a világ. A technológus késztetése, hogy ha valamit meg tudunk építeni, akkor azt meg is kell építeni. És minden, ami utána keletkezik, az egy bug, amit utána kecsesen elvarázsolunk, csak tessék nekünk időt adni. Ez szerintem mostanra tudatosan változott a nagy technológiai cégeknél, és ezt elkezdték kikövetelni a beszállítóiktól is. Versenyképességi kérdés lett a felelős MI-ből, es ez szerintem nagyon pozitív változás.
Mennyire lehet bízni a big tech önszabályozásában?
Ma már számos technológiai vállalat versenyképességi előnyt lát abban, hogy a MI-nak egy belülről erősen megrendszabályozott verzióját engedi csak érvényesülni. A nagy cégek rájöttek, hogy az etikai alapon felépített rendszerek biztonságosabbak, mert nem lesz belőlük botrány és jobb termékeket eredményeznek. Korábban nagyjából az volt a mondás, hogy félkész technológiával is piacra kell menni, aztán majd megoldjuk. Mára a többség belátta, hogy a MI olyan hatalmas erőt képvisel, hogy egy rossz döntés vagy rossz adatbázis két perc alatt tud 8 millió rossz döntést hozni. Nagyon sok olyan technológia van a világban, ilyen például az arcfelismerés vagy az érzelemfelismerés technológia – utóbbi igencsak gyerekcipőben jár még, nagyon nagy hibaszázalékkal dolgozik. Ez a startupokat nem nagyon érdekli, mert ők el akarnak adni valamit, de a nagy cégeknél ez súlyos fogyasztói vagy szabályozói ellenreakciókhoz tud vezetni.
Az automatizált hiteldöntésekben például?
Például. Audioanalízis, mimikaanalízis, ezek még azért nagyon nagy hibaszázalékkal működnek. Az egyik legnagyobb botrány a ClearView AI volt. Még mindig négy-ötszáz rendőrőrs használja Amerikában, mert egyelőre nincs jobb és olcsóbb technológia, de ez súlyos probléma több szempontból. Nagyon sokszor azonban nem fekete-fehérek ezek a történetek.
A ClearView AI az, amit most az ukrajnai háborúban halottozonosításra és orosz katonák azonosítására használnak.
Ez a kettősség a MI-nál rendszeresen előfordul: ugyanazt a terméket többféle célra lehet használni, jóra és rosszra is. Ugyanezt láttam Dubai-ban, ami 150 ezer, computer visionnel felruházott kamerával London után a második legjobban bekamerázott város a világon. Eredetileg terrorizmus- és bűnözés elhárítás céljával csinálták, ami ellen érthető módon mindenki lázongott eleinte külföldön privacy okokból. Amikor viszont bejött a Covid, egy kéthetes fejlesztéssel meg tudták csinálni, hogy a maszkviselés figyelésével sokkal nagyobb hatékonysággal lépjenek fel.
Ha a társadalmi hasznosság hangsúlyozásával adják el az adatvédelmi vagy más szempontból problémás fejlesztéseket, az a jogos félelmeket is elaltathatja.
Egyre több ember tud az MI jelentette problémákról, egyre több embernek vannak kérdőjelei, és felnő egy generáció, amelynek az adattudatossága már jóval nagyobb. Azokat a cégeket, amelyek látványosan, etikusan használják a MI-t, az átlagfogyasztó is magasabbra értékeli, jobb a net promoter score-juk, mert őket magasabb rátával ajánlják tovább. Talán most még túlzás társadalmi mozgalomról beszélni, de ez egyre többeknek fontos és a prémium fogyasztók különösen büntetnek.
A kívánatosnak gondolt nyugati modell, amit maga előtt lát, részben az állami szabályozáson, részben a szektor önszabályozásán és a dialóguson alapul.
Kiegészítve a fogyasztói és reputációs backlashek alapvető szerepével. Az, hogy van beleszólásod, van visszajelzési lehetőséged, hogy a lábaddal és klikkeddel tudsz szavazni, ha valami nem tetszik. Ez azért egy nagy önkorrigáló erő. A szabályozás elkerülhetetlen, de a jelenlegi szabályozási struktúráink nem képesek gyorsan felnőni a feladathoz. Ezeket a lyukakat ki kell tölteni, a soft law, az önszabályozás és társadalmi-fogyasztói presszió kombinációjával.
Az MI társadalmi kontrolljának az igénye mennyire találkozik a vállalati szempontokkal?
Az elmúlt egy-két évben nagyvállalati téren már nem feltétlenül azt keresik, hogy hogyan tudnak kibújni a készülő szabályozás alól, inkább a felelősségteljes MI lett a vezérirány. A felelősség többek szemében már nem felesleges teher, hanem stratégiai előny és versenyképességi tényező. Sok esetben nyilvánosan nemet mondanak olyan projektekre, amiket etikai, fogyasztóvédelmi vagy reputációs szempontból kockázatosnak tartanak. Két évvel ezelőtt az amerikai nagy cégek sorban jelentették be, hogy kukázzák az arcfelismerő technológiájukat, de legalábbis testkamerás rendvédelmi célra nem adják el őket. Ez persze a kínai cégeket kevésbé érdekli, és azért az első tíz vállalatnak ezen a területen a fele kínai.
A felelősség hangsúlyozásában mennyire meghatározó a hidegháborús versengés, hogy mi vagyunk a jófiúk, és morális alapokon igyekszünk fejleszteni, szemben “a gonosz Kínával”?
Amerika nagyon erősen ráállt arra, hogy Kínával szemben határozza meg magát, ez az új identifikációs tényezője. Az EU-ban szerintem ez mélyebbről, értékalapon jön. Én úgy gondolom, hogy makroszinten szabályozási modellek és társadalmi víziók versengenek egymással. Leegyszerűsítve, a totális megfigyelés alapú kínai modell néz szembe egy formálódó értékalapú, felelős MI-szemlélettel.
Nem egyoldalú, nem igazságtalan, nem politikai egy kicsit a kínai mesterséges intelligencia forradalmat a megfigyelő állam problematikára redukálni?
Persze, az, a mi nyugati értékrendünk is szeret egyszerűsíteni sok mindent. De ha gondolatban kiiktatjuk a kínai kommunista pártot, akkor is oda jutunk, hogy a történelmileg kollektivista Kínában egyszerűen más értékek fontosak. A privacy-nak abban az értelemben, mint nálunk, nincs akkora szentsége.
Van olyan vélemény, hogy a kínai kreditrendszer is értelmezhető inkább úgy, mint a konfuciánus hétköznapi etikát technológiai szinten algoritmizáló, kifinomult edukatív rendszert: ha nem vagy jó ember, nincs elég score-od, nem vehetsz vonatjegyet.
Aki akarja, így látja. Amerikai MI-alapú credit score is létezik, ha nem elég, lakást sem bérelhetsz, de minden társadalomban különbözik a társadalmi hasznosság megítélése. Európa és Amerika nem fogadja el a gondoskodó államnak azt a kínai koncepcióját, amelyik megmondja neked, hogy a cserkész tízparancsolat alapján mit jutalmazunk és mit büntetünk. Kína az elmúlt egy-két évben elég komoly mosolydiplomáciát kezdett folytatni MI-téren. Ha csak a belső rendelkezéseik szövegét olvasod, akkor azt mondod, szinte kompatibilis azzal, amit mi is akarunk. De ha a mögöttes kontextust nézed, akkor felfedezed azt, hogy ez a további adatkoncentráció és az állami megfigyelés erősödéséről szól.
Létrejön adatszempontból is a bipoláris világrend, melyben egy új vasfüggöny választja el a Szilícium-völgy dominálta nyugati világot és Kínát?
Amerika azért is van bajban a MI-versengésben Kínával szemben, mert tágra nyitotta a saját felsőoktatási és PhD-rendszerét, jelen pillanatban is körülbelül 500 ezer kínai diák tanul a MI-releváns amerikai szakokon. A másik irányba nincs meg ez a csere, és közben a kínaiak ezerrel pörgetik ki az új egyetemi szakokat, özönlenek a publikációk. A tavalyi évig még az volt a helyzet, hogy a nevesebb fórumok alapvetően amerikaiak voltak, most viszont már Kína nagyon sok MI versenyképességi tényezőben szorosan, de első. Nincs lejátszva a történet, de brutálisat fejlődtek két-három év alatt.
A kínai piac nagysága miatt a big tech kénytelen komoly kompromisszumokat tenni Kína felé, például az adatbiztonság tekintetében.
Minden nagy big tech cég évek óta küzd ezekkel a problémákkal. Van, amikor radikálisat húznak és kivonulnak, vagy kivonultatják őket, és van, hogy megpróbálnak továbbra is érvényesülni. A Szilícium-völgyi big tech izgalmas jelenségei a munkavállalói lázadások. A Google-nek volt egy kínai állami keresős projektje, ahol nagyon erős engedményeket tettek privacy szinten, végül az alkalmazottak tudták kikényszeríteni ennek a projektnek a lelövését. Ebben az is benne van, hogy exponenciálisan növekszik a tehetségkoncentráció a nagyvállalatoknál. Ez már egy nagyon más világ, ami nem arról szól, hogy hány alkalmazottad van, mekkora cég vagy. Lehet, hogy a vállalatodnak a top 5 százaléka állítja elő az érték 75 százalékát, és ezeket az embereket egy perc alatt elszipkázzák tőled, ha nem jól viselkedsz, vagy morálisan olyat húzol, ami őket zavarba hozza.
Miért jobb a big tech uralma alatt élni, mint egy állami túlhatalom alatt?
Én egyikben sem szeretnék, mindkét valóságot disztópikusnak érzem. Annak ellenére, hogy tizenkét éve a Szilícium-völgyben élek, nem vagyok nagy fanja annak, ami ott van, rendszerszintű hibái vannak, viszont időről időre korrigálni képes magát. De a másik rendszerben egy percig nem tudnám magam elképzelni. Épp arra tettem fel a szakmai karrierem és személyes küldetésem, hogy ne egy orwelli és egy Huxley-i világ között kelljen választani. Több esélyét látom annak, hogy a Huxley-i világ big tech szereplői megrendszabályozhatók, vagy rájönnek arra, hogy érdekük fűződik ahhoz, hogy megrendszabályozzák magukat, mint az, hogy egy orwelli világ képes legyen nagyot fordulni.
Harari szerint a mai technológiai fejlődés spontán módon a zsarnokság felé visz, és ebben a mesterséges intelligenciának kiemelt szerepet tulajdonít.
Ellentartás nélkül mindenképpen disztópikus vége lesz ennek a sztorinak. Van egy olyan gravitatív erő beépítve a technológiába és különösen a mesterséges intelligenciába, ami alapvetően a hatalomkoncentráció felé gravitál. Ennek nagyon sok oka van. Ezeknek csak egy része technológiai, de azt mindenképpen érdemes leszögezni, hogy ez már nem a startupok világa, nem a sok kis innovatív góc dominál, hanem ezek kőkemény, top-down erőkoncentrált, magas belépési korlátokkal rendelkező világok. Úgy gondolom, hogy ennek emberi oldalon, morálisan kell tudni ellentartani. De valamilyen típusú megfigyelés szinte elkerülhetetlen a technológia és a versenyképesség okán.
Olyan, hogy zéró megfigyelés, nem lesz.
Az, hogy ez milyen fékekkel és ellensúlyokkal fog rendelkezni, már érdekesebb. Azért ekézzük Kínát, mert ott kimondott cél, hogy adataggregáció van, és nincsenek fékek a rendszerben, hogy mihez jut hozzá az állam vagy a hozzá kötődő nagyvállalat.
A technológiai-társadalmi disztópiák alapfélelme, hogy egy kézben érnek össze az adatok, de ehhez nem feltétlenül kell államnak lenni. Hogyan lehet gátat vetni a kereskedelmi alapú adataggregációnak?
Erre sok kezdeményezés van, a probléma, hogy ezek még izoláltak, mindegyik egy részproblémát támad csak. Ha akarsz, már most is választhatod a Messenger és a WhatsApp helyett a Signalt, vagy a Google helyett a DuckDuckGo-t. Ott van felhasználói élményben, mint a Google? Dehogy. De valami alakul, és az adataggregáció tekintetében is egy csomó izgalmas pilot projekt van. Szerintem egy évre lehetnek attól, hogy ezek közül valamelyik kiugorjon, és mainstreammé váljon.
Hogy kell ezeket elképzelni?
Már van vagy 25 ilyen adatszövetkezet, csak elég picik, amelyek poololják az adatokat, és ezeknek az adatoknak az értékesítésével foglalkoznak, miközben technológiailag és jogilag is őrzik őket. A data dividend is egy nagyon érdekes dolog, ebben az adatod kvázi járulékként jelenne meg, kicsit az alapjövedelem koncepciójához hasonlóan. Ezek az ötletek egyelőre az utópia és a pragmatikum határán egyensúlyoznak. De ott van Tim Berners-Lee adatprojektje is, ami gyakorlatilag visszaviszi az adatokat a saját asztalodra. Ez hardver és szoftver oldalon is sokkal nagyobb kontrollt tesz lehetővé, hogy ki és mikor használhatja fel az adataidat. Várjuk, hogy ezek összeálljanak.
Ehhez komoly felhasználói kompetenciák is szükségesek, amitől társadalmi szinten még elég távol vagyunk.
Nem hiszem, hogy nagyon távol vagyunk. Én hiszek ebben az adattudatos generációban, abban, hogy a fiatalok egyre nagyobb része utasítja el az adatkizsákmányolást. Persze közben a Tiktok robbanásszerűen nő, és senkit nem érdekel, hogy melyik kínai kormányzati szerveren kötnek ki az adatai.
Azt hangsúlyozza, hogy a legfontosabb skill egyre inkább a manipuláció felismerése és az ellene való védekezés képessége. Hogy kellene a mesterséges intelligenciát e képességek fejlesztésének szolgálatába állítani?
Ritkán szoktam jót mondani a Facebookról, de például az, hogy a már két éve nagyon fejlett deep fake technológiák azért nem okoztak egyelőre sokkal nagyobb kárt, mert a Facebook AI lelövi ezeket a keletkezésük pillanatában, és így nem tudnak terjedni. De nem elég, ha kizárólag technológiát vetünk be a technológiával szemben. Meg kell erősödnünk mentálisan, kritikai gondolkodásban, ezt nem fogja helyettünk megoldani egy gép. A kettő kombinációjára van szükség ahhoz, hogy túléljük a dezinformáció korát.
A társadalmi és filozófiai aggodalmak részben arról szólnak, hogy a problémamegoldó típusú intelligenciával az emberi tudat egyre kevésbé versenyképes.
Kérdés, hogy az, amit most MI-nak hívunk, és aközött, amit hajszolunk, tehát a mesterséges általános intelligencia, van-e egyenes vonalú út. Aki most ebbe pénzt öl, aki ebben kutatóként dolgozik, az mind azt a problémát üldözi, hogy lehet-e a jelenlegi mainstream modelleket, neurális hálózatokat és deep learning technológiákat egyenes vonalú mozgással emberrel ekvivalenssé tenni. Erre Harari például azt mondja, hogy lehetetlen, mert két külön úton járunk. Ebből kijöhetnek rettenetes, hatalmas és mindentudónak latszó adatrendszerek, amelyek nem képesek kontextust kezelni, és az emberi intelligenciának csak bizonyos részeit képesek replikálni.
Vannak azonban olyan MI-ágak, mint a neuroszimbolikus MI, amit 10-15 éve háttérbe szorítottak, mert nem bizonyítottak kereskedelmileg. Akkor mindenki azt mondta, hogy a deep learning neurális hálózatok irányába kell elmenni, mert abban van a megtérülés. A neuroszimbolikus MI viszont kifejezetten az emberi, szimbólumok alapján való, kontextuális gondolkodást hajszolja, és Európában ismét próbálnak erre forrásokat biztosítani. Minden arról szól, hogy határozzuk meg a végcélt. Ha azt mondjuk, hogy az emberi agyat minden tekintetben, pszichét és tudatot is reprodukálni képes intelligenciát szeretnénk létrehozni, akkor jelen pillanatban a zsákutca közepén üldögélünk. Ma még sok esetben, ha beülsz a létező MI-rendszerek mögé, és elkezded tesztelni őket, akkor az még törékeny, sok tekintetben csak egy imitációs játék, remixszel, de nem gondolkodik, és nem gondolkodik kontextusban. Rémisztő, hatalmas, hasznos és veszélyes nagyon sok tekintetben – de közben lehet, hogy a “bigger brain” helyett a “better brain” felé kellene fejleszteni. És ebben Európa kifejezetten jó lehet, ha ezt koncentráltan kezeli.
Mennyire reálisak a francia és általában az európai remények, hogy a kontinens egy új tech-hub lehet? Hogy néz ki iparági szempontból az európai jövő?
Az jó, hogy Európa fel akar nőni, de nagyon sok rossz beidegződést kell eltávolítani. Amerika fél éven belül ledobott húsz nagyon specializált új MI fejlesztő központot, kérdés, hogy Európa képes-e rá, hogy ne azzal töltse az idejét két évig, hogy azon gondolkozzon, melyik fővárosba kerüljön egy darab kutatóközpont. A kutatás termékekre konvertálásában is még mindig nagyon rossz Európa. Az egyetemi kutatói potenciáljában viszont még mindig erős. Kiváló szenior, másképp gondolkodó, az ipari ösztökéknek nem engedelmeskedő kutatói vannak, tehát kísérletezésre nagyon jó lenne, ha a megfelelő forrásokat megkapná hozzá. A szigorúan szabályozási logikából át kellene menni az alternatív technológiacsinálási logikába, és felkarolni mindazokat a területeket, például a neuroszimbolikus MI-t, amiket az ipar a minél gyorsabb megtérülés szempontja miatt figyelmen kívül hagy. A nagy amerikai egyetemeken maximum tíz százalékban létezik ipartól független kutatás, az MI-professzorok is minimum 50 százalékban alkalmazottként fizetést kapnak valamelyik nagy big tech cégtől. Ez egy nagyon szűk sávon tartja a kutatást, és ebben Európa, ha komolyan diverzifikálni tudna, sikereket érhet el.
A magyar kutatási szférának hol lehet ebben valamilyen helye?
Tudom, hogy van például nemzeti MI-labor, de nagyon mélyen nem látok bele, hogy mi folyik Magyarországon. A megérzésem, hogy az MI jelentése még nagyon szűken van értelmezve, az, hogy ez egy mindent átható, nagyon erős multidiszciplináris váltás, szerintem még kevéssé van meg. Hogy mást ne mondjak, a gazdasági egyetemeknél szerintem fontos lenne, hogy a diákok tudjanak click and drop alapon tervezni olyan MI-rendszereket, amikkel valamilyen üzleti szolgáltatás megvalósítható. Erre a vonatra például nagyon érdemes lenne felülnie a gazdasági szereplőknek és a felsőoktatásnak is. De nem is nagyon tudok mondani olyan egyetemi diszciplínát, ahol ne lehetne értelmes MI-fókuszú képzést csinálni. Érdekes módon a diákság ezt sokkal jobban érzékeli, mint a professzorai, mert jobban látják ennek a témának a saját életükre vonatkozó relevanciáját.
Közélet
Fontos