Szeretnéd tudni?

Ha bonyolult feladatokról, adatokról, algoritmusokról, mesterséges intelligenciáról van szó, az egészségügy rengeteg példával szolgálhat. Vannak például olyan betegségek, amelyeket nem könnyű diagnosztizálni, különösen korai fázisban. Úgy tudom, ilyen például a skizofrénia, ami gyakran fokozatosan, fázisokban fejlődik ki. Nyilván nagy jelentősége van az időben történő felismerésének, vagy ami még hasznosabb lehet, az előrejelzésének.

Tételezzük fel, hogy egy klinika hatásos skizofrénia-előrejelző rendszert szeretne készíteni! Ha nagy és gazdag adatbázissal rendelkezik múltbeli esetekről, megpróbálkozhat gépi tanulás használatával. Statisztikai tanulásról van szó: a tanuló rendszert sok példával „etetik”, azokat tanulmányozva a gép maga dolgozza ki saját döntési algoritmusát, amit a múltbeli esetek erre a célra fenntartott részén lehet tesztelni: ha a gép kellően nagy pontossággal „jelzi előre” a múltbeli eseteket, jogosan feltételezhetjük, hogy a friss eseteknél is használható lesz. A tanulás eredményeként mesterséges intelligencia születik, ami képes összetett helyzetek felfogására, értelmezésére, valamint fontos következtetések levonására.

Nemrég olvastam egy amerikai kórházról, ahol pont ilyen diagnosztikai rendszert fejlesztettek ki, és a tapasztalatok szerint ítéleteiben képes versenyre kelni a hús-vér orvosokkal. Ez így rendben is lenne, felmerül azonban egy érdekes kérdés: honnan tudjuk, hogy miként dönt a gép, mivel magyarázza például, hogy a betáplált adatokból kezdődő skizofréniára következtet. Nos, ezt nagyon nehéz tőle „megkérdezni”, a „fekete dobozából” valahogy kicsalogatni, láthatóvá és érthetővé tenni, és ha mégis sikerül, az eredmény néha kifejezetten meglepő lesz. Szakirodalmi példa az utóbbira: gépi tanulára épülő mesterséges intelligenciával pásztázzuk a valamelyik közösségi hálóra kitett fényképeket, hogy kiszűrjük a pornót. A gép egész jó eredményeket produkál, de vajon mi alapján dönti el, hogy mi a pornó, és mi nem az? Kiderült, hogy a gép nem az alaján kategorizál, hogy felismer bizonyos tetrészeket, hanem a színek alapján ítél, a belé táplált számtalan példából ugyanis azt szűrte le, hogy a pornót jellegzetes színminták jellemzik, az új képeken tehát ezeket keresi. Ki gondolta volna!

Fontos tudni, hogy mi alaján ítél a gép, tanulmányai során milyen döntési modellt fejlesztett ki magában? Igen, sok esetben kifejezetten fontos. Nyilván jobban bízunk egy olyan rendszerben, aminek ismerjük a működését. Ha ismerjük a gondolkodásmódját, könnyebben ki tudjuk javítani a hibáit (a mesterséges intelligenciának is lehetnek káros rögeszméi, „előítéletei”, becsípődései), szükség esetén felül tudjuk bírálni. Ismert rendszert könnyebb fejleszteni, mással összekapcsolni. És még egy fontos szempont: ha a gép ítélete rólam szól, jogom van tudni, hogy mi alapján döntött. Azt gondolod, hogy hasadóban van a tudatom? Hogy nem érdemlek hitelt a banktól? Hogy nem leszek jó ezen vagy azon a poszton? Hogy csaló vagyok? Hogy nem veszem be a gyógyszeremet? Jogom van tudni, hogy miből gondolod ezt, mit és hogyan vettél számításba.

„Explainable AI”, vagyis magyarázható, önmagát megmagyarázó mesterséges intelligencia: minél több helyen jelenik meg a gépi intelligencia – márpedig ez a trend –, annál nagyobb szükség lesz ilyen célú fejlesztésekre.