A XAI és az etikus AI a „porondon”

  • április 21, 2021
1024 683 eNet

Az eNET adatbányászai a Reinforce AI konferencián bővítették ismereteiket

Az eNET Adatbányászati és inkubációs üzletága a Reinforce AI konferencián vett részt a közelmúltban, amit a jelenlegi helyzetre való tekintettel végül online keretek közt tartottak meg. A konferencia három napon keresztül biztosított platformot a világ vezető AI szakembereinek.

Ez a konferencia egy rendkívüli lehetőség volt arra, hogy a mesterséges intelligencia területén történő legújabb innovációkat közelebbről is megismerjék az eNET adatbányász szakértői. Nem csak arra volt lehetőségük, hogy megismerkedhessenek és konzultálhassanak a legfontosabb módszerek piacon történő alkalmazásáról, hanem sok esetben azokkal a kutatókkal is beszélgethettek, akiknek az úttörő eljárások köszönhetők.

A Reinforce konferencia fő témái között ebben az évben az XAI („megmagyarázható” mesterséges intelligencia), a mesterséges intelligenciai megoldások etikai megfontolásai és a terület jövőbeli fejlesztései álltak.

A konferencián az előadások két virtuális színpadon folytak, minden résztvevőnek lehetősége volt naponta legalább öt félórás előadást meghallgatni, amelyeket rendszerint egy 15 perces kérdésblokk követett. Íme egy rövid betekintés két kiemelkedő előadásba, Salla Franzén és Jigyasa Grover AI szakértőktől: Salla Franzén etikus mesterséges intelligencia vállalati környezetben

A konferencia Salla Franzén előadásával kezdődött, aminek témája annak vizsgálata volt, hogy hogyan lehet alkalmazni etikus mesterséges intelligenciát vállalati környezetben, vagyis milyen szempontokat érdemes figyelembe venni ahhoz, hogy az embereknek bizalma legyen a robotok felé, és elfogadják ezek használatát.

Ehhez a legfontosabb, hogy egy bármilyen mesterséges intelligencia alapú megoldás transzparens legyen, és könnyen érthetővé lehessen tenni a döntési folyamatát, ha nem is mindenki számára, de legalább a fejlesztők legyenek tudatában a modell működésének.

A svéd előadónő hangsúlyozta, hogy bizonyos esetekben az értelmezhetőség jóval fontosabb, mint az, hogy mennyire működik pontosan az adott modell. Például egy hitelintézet esetén jobb, ha az ügyfeleknek könnyen magyarázható a kölcsön elutasítása, viszont egy olyan rendszernél, ami például a rákos megbetegedést képes jelezni, kevésbé jelentős a kezelőorvos számára, hogy ez pontosan mi alapján feltételezhető, a fontos az, hogy egy ilyen jelzés után további vizsgálatok alapján megállapítható a betegség. Ehhez kapcsolódva szintén fontos, hogy az adott döntési folyamatba be legyen vonva egy ember, aki érti és értékeli a rendszer működését, és felelősséget vállal az eredményekért.

Egy etikus rendszer megalkotásakor lényeges elem a bemeneti adathalmaz kiválasztása. Ha olyan adathalmazon tanítjuk a modellt, ami már alapvetően tartalmaz diszkriminációt, akkor a rendszer erre tanul rá, és ehhez hasonló eredményt fog produkálni és diszkriminációt eredményez. Szintén nem elhanyagolható kérdés annak meghatározása, hogy mi alapján definiáljuk a modell etikus viselkedését, hiszen ez többféle cél alapján történhet: a modell a legrosszabb helyzetben lévőket helyezi előtérbe, egy döntés a lehető legtöbb ember számára kedvező, vagy lehet az is cél, hogy olyan eredmény jöjjön ki, amire senki sem irigy.

De nem csak Salla előadásában jelent meg a magyarázhatóság fontossága, Amit Sharma is kiemelte ezt az elvárást. Ő az érthetőségen túl felhívta a figyelmet arra is, hogy sok esetben hasznos, ha egy modell eredménye nem csak bináris eredményt ad, hanem kvázi „magyarázatot” is tud adni mellé.

Ez, a korábbi hitelfolyósítási példánál maradva, úgy nézne ki, hogy elutasítás esetén a modell megmondja, hogy mi az, ami miatt a döntés született, min kell változtatnia az ügyfélnek ahhoz, hogy a legközelebbi kérelemnek pozitív kimenetele legyen (például magasabb jövedelem, számlavezetés stb.), vagy egy másik példa egy orvosi adatokon tanított modellnél annak a vizsgálata, hogy min szükséges változtatni ahhoz, hogy egy betegség kialakulásának valószínűségét csökkentsük.

Jigyasa Grover Feature Engineering / változók használata

Jigyasa Grover előadásában azt emelte ki, hogy mennyire fontos az, hogy egy modell tanításához milyen változókat használunk. Sokak által ismert mondás: Az adat az új olaj, viszont annak ellenére, hogy a modern megoldásokhoz nagy mennyiségű adatra van szükség, önmagában a nagy volumen nem elég ahhoz, hogy a modell jól működjön.

Pontos eredményekhez és jól működő modellekhez a nyers olajat „fel kell dolgozni”, és az így létrehozott „üzemanyaggal” lehet a rendszert működtetni. A Feature Engineering (azaz a változók transzformálása, kiválasztása, skálázása stb.) által növelhető a modell pontossága, csökkenthető a felhasznált változók száma (amivel növelhető az értelmezhetőség), és csökkenthető a tanítóadatokra történő túlillesztés valószínűsége.

Noha ez egy kulcsfontosságú lépés a megfelelő eredmény elérése érdekében, nem a legizgalmasabb része a munkának. Szerencsére vannak ehhez keretrendszerek, és tool-ok, amik támogatják, automatizálják a folyamatot, például a Python csomagok között található featuretools csomag.

A Reinforce AI konferencia nagyon fontos témái közé tartoztak az AI megoldások, a gépi tanulási modellek magyarázhatósága, illetve az eljárások etikai megfontolásai. Valószínűsíthető, hogy a közeljövőben a legnagyobb figyelem általánosságban is ezekre a fogalmakra irányul, fontos fejlesztések várhatók ezeken a területeken.

A konferencián számos előadás foglalkozott a várható trendekkel és azokkal a témákkal, amelyekben a szakértők szerint a közeljövőben jelentős fejlesztések érkezhetnek, illetve amelyek felhasználásában áttörésre számítanak. Ilyen az NLP témaköre, amivel több előadás is foglalkozott, például reinforcement learning megoldások felhasználásával, szó volt még önvezető autókról, gépi tanulásról a telekommunikációs szektorban, ML modellek elleni kontradiktórius (adversarial) támadásokról, a mesterséges intelligencia biológiában és orvostudományban felfedezett lehetőségeiről és kihívásairól.

Továbbá nemcsak a különböző területekről és az ezeken a területeken létrehozott megoldásokról esett szó a konferencián, hanem konkrét szoftverekről, csomagokról is, amelyek nagyban megkönnyíthetik egy Data Scientist mindennapi tevékenységét, és így az eNET adatbányász munkatársainak dolgát is.

Szó esett például a Seldon Core-ról, az MLflow-ról, a DoWhy, illetve a DiCE könyvtárakról, különböző CI (continuous integration) megoldásokról. Az egyik előadáson még a Unity ML-Agents eszköztárról is informálódhattak az eNET adatbányászok, amelynek segítségével a Unity „game engine”-t környezetként használva lehet reinforcement learning, imitation learning, illetve egyéb módszerek segítségével betanítani a kezdetben zéró tudással rendelkező algoritmusokat.

#eNET #eNETdatascientists #eNETBudapest #eNETHungary #eNETadatbányászat #reinforceAIkonferencia

Képek forrása: https://reinforceconf.com/

A webhely tartalmának megjelenítésekor cookie-kat használunk. Adatainak kezeléséről az alábbi Adatkezelési tájékoztatóban további információkat olvashat.