CA | ES | EN

Explainable AI

Explainable AI

A mesura que l’ús de l’aprenentatge automàtic s’ha anat consolidant en l’esfera empresarial, s’ha fet palès que en la majoria de casos, no n’hi ha prou en predir un determinat valor sinó que conèixer-ne el motiu pot ser crucial.

Ara bé, és ben sabut que per a la majoria de fenòmens reals, els models més complexos (aquells que s’obtenen mitjançant la fusió d’altres models més simples: ensemble models) i, en la seva màxima expressió, les xarxes neuronals profundes, obtenen els millors percentatges d’èxit en la predicció. Només cal donar un cop d’ull al conegut web Kaggle per verificar que la major part de guanyadors proposen solucions d’aquest estil. Malauradament, aquestes tècniques, conegudes com a black box, comporten una complexitat d’interpretació molt elevada. Significa doncs que hi hem de renunciar? O que ens hem de resignar a no poder explicar aquells models que són realment efectius?

Aquestes i altres preguntes seran contestades durant aquesta sessió que, plantejada en forma de presentacions, donarà a conèixer els principals estudis que s’estan duent a terme avui en dia en el camp de la interpretabilitat i les principals línies de recerca més prometedores.

Presenta:
Marc Torrent
Director
Big Data Center of Excellence
www.eurecat.org | @CoEBigData

Ponents convidats:

Ricardo Baeza-Yates
CTO, NTENT, i Director de Programes de Postgrau en Computació
Northeastern University (Silicon Valley, EE.UU)
http://www.northeastern.edu/siliconvalley | @polarbearby