Magyarázható AI, biztonsági kérdések és adversarial támadások | Thamó Emese | MLCast #14
Thamó Emese Dunakesziről indult, az egyetemet már Cambridge-ben végezte, épp a PhD-jén dolgozik a Liverpooli Egyetemen és Amszterdamban is dolgozott már - de hogy sikerült mindezt elérnie, mi hajtotta, és hogy kötött ki végül a Machine Learning mellett? Kutatásának fő fókusza az AI-biztonság és a megmagyarázható modellek, emellett viszont beszélgetünk startupokról, adversarial támadásokról (amire egyikünk sem tudott elfogadható magyar fordítást kitalálni) és orvosi AI-ról is! 0:00 - Bemutatkozás 1:24 - Dunakeszi-Cambridge-Liverpool-Amszterdam és matematika szeretete 3:24 - Innováció és AI külfödön - mit csinálhatnánk jobban Magyarországon? 5:36 - Medical AI - mire jók és mire nem a jelenleg elérhető eszközök, módszerek? Pulzus, testhő, légzési gyakoriság meghatározása - videóról? Jogi megkötések, akadályok. 10:35 - Várhatóak jogi változások a modellek széleskörűbb alkalmazásához? Hogyan lehet megoldani a jogi problémákat? 13:33 - Emese kutatási témája - AI-biztonság. Mitől lesz megbízható egy modell? Hogyan magyarázzuk meg egy neurális háló működését? 17:31 - Meg fogjuk valaha teljesen érteni egy-egy neurális háló működését? 19:19 - Hogyan vizsgálahtó egy magyarázat "jó"sága? 21:48 - Mit csinál egy "adversarial attack"? Hogy működnek ezek a támadások? Hogyan függ össze a magyarázhatóság és a modell hibái? 24:16 - Emese kutatása, hipotézisei - támadás-detektorok és ezek magyarázata. 25:59 - Modellek robosztussága - problémák 27:43 - Startup-tapasztalatok és a Game of Dragons 35:15 - Tervek a jövőre - milyen startupot indítana Emese Magyarországon? 36:04 - Tippek és trükkök ha vállalkozni/freelancerkedni szeretnél! 40:04 - Mit vár Emese az AI fejlődésétől a jövőben? 41:58 - Emese elérhetőségei, kapcsolat Emesét megtaláljátok a LinkedInen: https://www.linkedin.com/in/emesethamo Kutatói profilja a Liverpooli Egyetem oldalán: https://intranet.csc.liv.ac.uk/~themike/ ©2020, minden jog fenntartva