Ha bonyolult feladatokról, adatokról, algoritmusokról, mesterséges intelligenciáról van szó, az egészségügy rengeteg példával szolgálhat. Vannak például olyan betegségek, amelyeket nem könnyű diagnosztizálni, különösen korai fázisban. Úgy tudom, ilyen például a skizofrénia, ami gyakran fokozatosan, fázisokban fejlődik ki. Nyilván nagy jelentősége van az időben történő felismerésének, vagy ami még hasznosabb lehet, az előrejelzésének.
Tételezzük fel, hogy egy klinika hatásos skizofrénia-előrejelző rendszert szeretne készíteni! Ha nagy és gazdag adatbázissal rendelkezik múltbeli esetekről, megpróbálkozhat gépi tanulás használatával. Statisztikai tanulásról van szó: a tanuló rendszert sok példával „etetik”, azokat tanulmányozva a gép maga dolgozza ki saját döntési algoritmusát, amit a múltbeli esetek erre a célra fenntartott részén lehet tesztelni: ha a gép kellően nagy pontossággal „jelzi előre” a múltbeli eseteket, jogosan feltételezhetjük, hogy a friss eseteknél is használható lesz. A tanulás eredményeként mesterséges intelligencia születik, ami képes összetett helyzetek felfogására, értelmezésére, valamint fontos következtetések levonására.
Nemrég olvastam egy amerikai kórházról, ahol pont ilyen diagnosztikai rendszert fejlesztettek ki, és a tapasztalatok szerint ítéleteiben képes versenyre kelni a hús-vér orvosokkal. Ez így rendben is lenne, felmerül azonban egy érdekes kérdés: honnan tudjuk, hogy miként dönt a gép, mivel magyarázza például, hogy a betáplált adatokból kezdődő skizofréniára következtet. Nos, ezt nagyon nehéz tőle „megkérdezni”, a „fekete dobozából” valahogy kicsalogatni, láthatóvá és érthetővé tenni, és ha mégis sikerül, az eredmény néha kifejezetten meglepő lesz. Szakirodalmi példa az utóbbira: gépi tanulára épülő mesterséges intelligenciával pásztázzuk a valamelyik közösségi hálóra kitett fényképeket, hogy kiszűrjük a pornót. A gép egész jó eredményeket produkál, de vajon mi alapján dönti el, hogy mi a pornó, és mi nem az? Kiderült, hogy a gép nem az alaján kategorizál, hogy felismer bizonyos tetrészeket, hanem a színek alapján ítél, a belé táplált számtalan példából ugyanis azt szűrte le, hogy a pornót jellegzetes színminták jellemzik, az új képeken tehát ezeket keresi. Ki gondolta volna!
Fontos tudni, hogy mi alaján ítél a gép, tanulmányai során milyen döntési modellt fejlesztett ki magában? Igen, sok esetben kifejezetten fontos. Nyilván jobban bízunk egy olyan rendszerben, aminek ismerjük a működését. Ha ismerjük a gondolkodásmódját, könnyebben ki tudjuk javítani a hibáit (a mesterséges intelligenciának is lehetnek káros rögeszméi, „előítéletei”, becsípődései), szükség esetén felül tudjuk bírálni. Ismert rendszert könnyebb fejleszteni, mással összekapcsolni. És még egy fontos szempont: ha a gép ítélete rólam szól, jogom van tudni, hogy mi alapján döntött. Azt gondolod, hogy hasadóban van a tudatom? Hogy nem érdemlek hitelt a banktól? Hogy nem leszek jó ezen vagy azon a poszton? Hogy csaló vagyok? Hogy nem veszem be a gyógyszeremet? Jogom van tudni, hogy miből gondolod ezt, mit és hogyan vettél számításba.
„Explainable AI”, vagyis magyarázható, önmagát megmagyarázó mesterséges intelligencia: minél több helyen jelenik meg a gépi intelligencia – márpedig ez a trend –, annál nagyobb szükség lesz ilyen célú fejlesztésekre.