Hur man skapar en AI (artificiell intelligens) Modell

Data

Digital genererad bild av data.

Getty

Lemonade är en av årets hetaste börsintroduktioner och en viktig orsak till detta är företagets tunga investeringar i AI (artificiell intelligens). Företaget har använt denna teknik för att utveckla bots för att hantera inköp av policyer och hantering av fordringar.

hur skapar ett företag som detta AI-modeller? Vad är processen? Tja, som inte borde vara någon överraskning, det är komplext och mottagligt för misslyckande.

men sedan igen, det finns några viktiga principer att tänka på. Så låt oss ta en titt:

Val: det finns hundratals algoritmer att välja mellan. I vissa fall är det bästa sättet att använda flera (detta kallas ensemblemodellering).

”att välja rätt modell börjar med att få en grundlig förståelse för vad organisationen vill uppnå”, säger Shadi Sifain, som är chef för datavetenskap och prediktiv analys på Paychex. ”Att välja rätt modell innebär ofta också att balansera ett antal krav inklusive modellprestanda, noggrannhet, tolkbarhet och beräkningskraft bland andra faktorer”

det är viktigt att inse att du behöver rätt typ av data för vissa modeller. Om något är detta en av de största utmaningarna i AI-utvecklingsprocessen. ”I genomsnitt tar databeredningsprocessen 2X eller i vissa fall 3X längre än bara utformningen av maskininlärningsalgoritmen”, säger Valeria Sadovykh, som är den framväxande tekniken Global Delivery Lead på PwC Labs.

så i de tidiga faserna av ett projekt måste du få en bra känsla av data. ”Utför en undersökande analys”, säger Dan Simion, som är VP för AI & Analytics på Capgemini Nordamerika. ”Visualisera data i 2-dimensioner och 3-dimensioner, kör sedan enkel, beskrivande statistik för att förstå data mer effektivt. Kontrollera sedan om avvikelser och saknade data. Rengör sedan data för att få en bättre bild av provstorleken.”

men det finns ingen perfekt modell, eftersom det alltid kommer att finnas avvägningar.

” det finns en gammal Sats i maskininlärning och mönsterigenkänningsgemenskap som heter No Free Lunch Theorem, som säger att det inte finns någon enda modell som är bäst på alla uppgifter”, säger Dr.Jason Corso, som är Professor i elektroteknik och datavetenskap vid University of Michigan och medgrundare och VD för Voxel51. ”Så att förstå relationerna mellan antagandena som en modell gör och antagandena som en uppgift gör är nyckeln.”

träning: när du har en algoritm – eller en uppsättning av dem – Vill du utföra tester mot datasetet. Den bästa praxis är att dela datasetet i minst två delar. Cirka 70% till 80% är för testning och inställning av modellen. De återstående kommer sedan att användas för validering. Genom denna process kommer det att finnas en titt på noggrannheten.

den goda nyheten är att det finns många AI-plattformar som kan hjälpa till att effektivisera processen. Det finns öppen källkod erbjudanden, såsom TensorFlow, PyTorch, KNIME, Anaconda och Keras, samt egna applikationer som Alteryx, Databricks, DataRobot, MathWorks och SAS. Och naturligtvis finns det rika AI-system från Amazon, Microsoft och Google.

”nyckeln är att leta efter open source-verktyg som möjliggör enkelt och snabbt experiment”, säger Monica Livingston, som är chef för AI-försäljning på Intel. ”Om du föredrar att köpa 3: e parts lösningar finns det många ISV: er som erbjuder AI-baserade lösningar för uppgifter som bildigenkänning, chattbots, defektdetektering och så vidare.”

Funktionsteknik: detta är processen att hitta de variabler som är de bästa prediktorerna för en modell. Det är här kompetensen hos en datavetare är väsentlig. Men det finns också ofta ett behov av att få domänexperter att hjälpa till.

”för att utföra funktionsteknik måste utövaren bygga modellen ha en god förståelse för problemet till hands—som att ha en förutfattad uppfattning om möjliga effektiva prediktorer redan innan de upptäcker dem genom data”, säger Jason Cottrell, som är VD för Myplanet. ”Till exempel, när det gäller att förutsäga standardvärden för lånesökande, kan en effektiv prediktor vara månatligt inkomstflöde från sökanden.”

men att hitta rätt funktioner kan vara nästan omöjligt i vissa situationer. Detta kan vara fallet med datorsyn, till exempel när det används med autonoma fordon. Men att använda sofistikerat djupt lärande kan vara en lösning.

”dessa dagar används neurala nätverk för att lära sig funktioner, eftersom de är bättre på att förstå statistik än människor”, säger Eric Yeh, som är datavetenskapare vid Artificial Intelligence Center vid SRI International. ”Men de är inte nödvändigtvis ett universalmedel och kan utveckla funktioner som inte var avsedda också. Det berömda exemplet är bildklassificeraren som utvecklades för att upptäcka tankar och jeeps. Istället lärde det sig att upptäcka natt och dag eftersom alla jeepfoton togs på dagen och alla tankfoton togs i museet på natten.”

Tom (@ttaulli) är rådgivare till startups och författare till Artificial Intelligence Basics: A Non-Technical Introduction and the Robotic Process Automation Handbook: A Guide to Implementing RPA Systems. Han har också utvecklat olika onlinekurser, till exempel för programmeringsspråket Python.

få det bästa av Forbes till din inkorg med de senaste insikterna från experter över hela världen.

Följ mig på Twitter eller LinkedIn. Kolla in min hemsida eller några av mina andra verk här.

laddar …

Related Posts

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *