Limonata è una delle IPO più calde di quest’anno e una ragione chiave per questo è pesanti investimenti della società in AI (Intelligenza artificiale). La società ha utilizzato questa tecnologia per sviluppare bot per gestire l’acquisto di polizze e la gestione dei sinistri.
Allora come fa un’azienda come questa a creare modelli AI? Qual è il processo? Bene, come dovrebbe essere una sorpresa, è complesso e suscettibile di fallimento.
Ma poi di nuovo, ci sono alcuni principi chiave da tenere a mente. Quindi diamo un’occhiata:
Selezione: ci sono centinaia di algoritmi tra cui scegliere. In alcuni casi, l’approccio migliore è quello di utilizzare diversi (questo è noto come modellazione di ensemble).
“La selezione del modello giusto inizia con una comprensione approfondita di ciò che l’organizzazione desidera ottenere”, ha affermato Shadi Sifain, senior manager di data science e predictive analytics presso Paychex. “La selezione del modello giusto spesso comporta anche il bilanciamento di una serie di requisiti, tra cui prestazioni del modello, accuratezza, interpretabilità e potenza di calcolo, tra gli altri fattori,”
È importante rendersi conto che è necessario il giusto tipo di dati per determinati modelli. Se non altro, questa è una delle più grandi sfide nel processo di sviluppo dell’IA. ” In media, il processo di preparazione dei dati richiede 2 volte o in alcuni casi 3 volte più a lungo che solo la progettazione dell’algoritmo di apprendimento automatico”, ha dichiarato Valeria Sadovykh, che è la tecnologia emergente Global Delivery Lead presso PwC Labs.
Quindi, nelle prime fasi di un progetto, è necessario ottenere un buon senso dei dati. “Conduci un’analisi esplorativa”, ha dichiarato Dan Simion, che è il VP di AI & Analytics presso Capgemini North America. “Visualizza i dati in 2 dimensioni e 3 dimensioni, quindi esegui statistiche semplici e descrittive per comprendere i dati in modo più efficace. Quindi, verificare la presenza di anomalie e dati mancanti. Quindi pulire i dati per ottenere un’immagine migliore della dimensione del campione.”
Ma non esiste un modello perfetto, poiché ci saranno sempre dei compromessi.
“C’è un vecchio teorema nella comunità di machine learning e pattern recognition chiamato No Free Lunch Theorem, che afferma che non esiste un singolo modello che sia il migliore in tutte le attività”, ha detto il dottor Jason Corso, che è professore di Ingegneria elettrica e Informatica presso l’Università del Michigan e co-fondatore e CEO di Voxel51. “Quindi, comprendere le relazioni tra le ipotesi formulate da un modello e le ipotesi formulate da un compito è fondamentale.”
Formazione: Una volta che si dispone di un algoritmo – o un insieme di essi – si desidera eseguire test contro il set di dati. La migliore pratica consiste nel dividere il set di dati in almeno due parti. Circa 70% a 80% è per il test e la messa a punto del modello. Il restante verrà quindi utilizzato per la convalida. Attraverso questo processo, ci sarà uno sguardo ai tassi di precisione.
La buona notizia è che ci sono molte piattaforme AI che possono aiutare a semplificare il processo. Ci sono offerte open source, come TensorFlow, PyTorch, KNIME, Anaconda e Keras, così come applicazioni proprietarie come Alteryx, Databricks, DataRobot, MathWorks e SAS. E, naturalmente, ci sono ricchi sistemi di intelligenza artificiale di Amazon, Microsoft e Google.
“La chiave è cercare strumenti open source che consentano una sperimentazione facile e veloce”, ha detto Monica Livingston, che è il direttore delle vendite AI di Intel. “Se si preferisce acquistare soluzioni 3rd party, ci sono molti ISV che offrono soluzioni basate su AI per attività come il riconoscimento delle immagini, i bot di chat, il rilevamento dei difetti e così via.”
Feature Engineering: questo è il processo di ricerca delle variabili che sono i migliori predittori per un modello. Questo è dove l’esperienza di un data scientist è essenziale. Ma c’è anche spesso la necessità di avere esperti di dominio dare una mano.
“Per eseguire l’ingegneria delle funzionalità, il professionista che costruisce il modello deve avere una buona comprensione del problema a portata di mano—come avere una nozione preconcetta di possibili predittori efficaci anche prima di scoprirli attraverso i dati”, ha detto Jason Cottrell, che è il CEO di Myplanet. “Ad esempio, nel caso di predire i default per i richiedenti prestito, un predittore efficace potrebbe essere il flusso di reddito mensile dal richiedente.”
Ma trovare le caratteristiche giuste può essere quasi impossibile in alcune situazioni. Questo potrebbe essere il caso con la visione artificiale, come quando viene utilizzato con veicoli autonomi. Tuttavia, l’utilizzo di un sofisticato apprendimento profondo può essere una soluzione.
” In questi giorni, le reti neurali vengono utilizzate per apprendere le funzionalità, in quanto sono più bravi a comprendere le statistiche rispetto agli esseri umani”, ha affermato Eric Yeh, che è un informatico presso il Centro di intelligenza artificiale di SRI International. “Tuttavia, non sono necessariamente una panacea e potrebbero sviluppare caratteristiche che non erano destinate. Il famoso esempio è il classificatore di immagini che è stato sviluppato per rilevare carri armati e jeep. Invece, ha imparato a rilevare notte e giorno poiché tutte le foto di jeep sono state scattate durante il giorno e tutte le foto del serbatoio sono state scattate nel museo di notte.”
Tom (@ttaulli) è consulente di startup e autore di Artificial Intelligence Basics: A Non-Technical Introduction and The Robotic Process Automation Handbook: A Guide to Implementing RPA Systems. Ha anche sviluppato vari corsi online, come ad esempio per il linguaggio di programmazione Python.
Seguimi su Twitter o LinkedIn. Controlla il mio sito web o alcuni dei miei altri lavori qui.