Explainable AI with Python

Di Leonida Gianfagna e Antonio Di Cecco

Ebook Leonida

Explainable AI with Python fornisce una presentazione completa dei concetti e delle tecniche oggi disponibili per rendere i sistemi di Machine Learning più comprensibili. Gli approcci presentati possono essere applicati a quasi tutti i modelli attuali di Machine Learning, come il modello di regressione lineare e logistica, le reti neurali di deep learning, l’elaborazione del linguaggio naturale e il riconoscimento delle immagini.

I progressi ottenuti nell’ambito del Machine Learning stanno contribuendo ad aumentare l’uso di agenti artificiali in grado di svolgere compiti critici precedentemente gestiti dagli esseri umani (come nella sanità o nelle attività legali e finanziarie). Sebbene i principi che guidano la progettazione di questi agenti siano chiari, la maggior parte dei modelli di deep-learning utilizzati restano “opachi” alla comprensione umana. Il libro colma l’attuale vuoto presente nella letteratura che si occupa di questo argomento, adottando sia una prospettiva teorica che pratica, e rendendo il lettore rapidamente in grado di lavorare con gli strumenti ed il codice utilizzato per i sistemi di Explainable AI.

Iniziando con esempi di cosa sia l’Explainable AI (XAI) e perché sia così necessario, il libro dettaglia diversi approcci dell’XAI a seconda del contesto e delle esigenze specifiche. Vengono quindi presentati esempi pratici di modelli interpretabili con l’utilizzo di Python, mostrando come i modelli intrinsecamente interpretabili possano essere interpretati e come si possano produrre spiegazioni “comprensibili dall’uomo”. Viene mostrato che i metodi di agnostic-model per XAI producono spiegazioni che non fanno affidamento alle parti interne dei modelli di ML che sono “opachi”. Utilizzando esempi di Computer Vision, gli autori esaminano quindi i modelli esplicabili per il Deep Learning e i potenziali metodi per il futuro. Con una prospettiva pratica, gli autori dimostrano inoltre come utilizzare efficacemente ML e XAI nella scienza. Il capitolo finale spiega l’Adversarial Machine Learning e come fare XAI utilizzando esempi conflittuali.

Img-gesso-quiz-01

Se sei interessato al libro Explainable AI with Python clicca qui.

Gli Autori

 

diploma

Leonida Gianfagna

Leonida Gianfagna (PhD, MBA) è un fisico teorico che attualmente lavora nella Cyber Security come direttore R&D per Cyber Guru. Prima di unirsi a Cyber Guru ha lavorato in IBM per 15 anni ricoprendo ruoli di primo piano nello sviluppo software in ITSM (IT Service Management). È autore di diverse pubblicazioni in fisica teorica e informatica e accreditato come IBM Master Inventor.

dialog

Antonio Di Cecco

Antonio Di Cecco è un fisico teorico con una solida formazione matematica che si impegna attivamente nella formazione sull’AIML. Il punto di forza del suo approccio è l’approfondimento delle fondamenta matematiche dei modelli AIML in grado di fornire delle nuove modalità per presentare la conoscenza AIML e lo spazio di miglioramento rispetto lo stato dell’arte esistente.

Di più

Vuoi saperne di più?

Vuoi saperne