Lemonade er en av årets hotteste Børsnoteringer og en viktig årsak til dette er selskapets tunge investeringer I AI (Kunstig Intelligens). Selskapet har brukt denne teknologien til å utvikle roboter for å håndtere kjøp av retningslinjer og håndtering av krav.
Så hvordan lager et selskap SOM DETTE AI-modeller? Hva er prosessen? Vel, som bør være noen overraskelse, det er kompleks og utsatt for svikt.
Men igjen er det noen viktige prinsipper å huske på. Så la oss ta en titt:
Utvalg: det er hundrevis av algoritmer å velge mellom. I noen tilfeller er den beste tilnærmingen å bruke flere (dette kalles ensemble modellering). «Å Velge riktig modell starter med å få en grundig forståelse av hva organisasjonen ønsker å oppnå,» Sa Shadi Sifain, som er seniorleder for datavitenskap og prediktiv analyse hos Paychex. «Å velge riktig modell innebærer ofte også å balansere en rekke krav, inkludert modellytelse, nøyaktighet, tolkbarhet og beregningskraft blant andre faktorer,»
Det er viktig å innse at du trenger riktig type data for visse modeller. Om noe er dette en av DE største utfordringene I AI-utviklingsprosessen. «I gjennomsnitt tar dataforberedelsesprosessen 2X ELLER I NOEN tilfeller 3x lenger enn bare utformingen av maskinlæringsalgoritmen,» Sa Valeria Sadovykh, Som Er Den Nye Teknologien Global Delivery Lead Ved PwC Labs.
Så i de tidlige fasene av et prosjekt må du få en god følelse av dataene. «Utfør en utforskende analyse,» Sa Dan Simion ,SOM ER VP FOR AI & Analytics På Capgemini North America. «Visualiser dataene i 2-dimensjoner og 3-dimensjoner, og kjør deretter enkel, beskrivende statistikk for å forstå dataene mer effektivt. Se etter avvik og manglende data. Rengjør deretter dataene for å få et bedre bilde av prøvestørrelsen.»
Men det er ingen perfekt modell, da det alltid vil være avveininger. «Det er en gammel teorem i maskinlærings-og mønstergjenkjenningssamfunnet Kalt No Free Lunch Theorem, som sier At Det ikke finnes en enkelt modell som er best på alle oppgaver,» sa Dr. Jason Corso, Som Er Professor i Elektroteknikk og Datavitenskap Ved University Of Michigan og medstifter Og ADMINISTRERENDE DIREKTØR I Voxel51. «Så, forstå forholdet mellom forutsetningene en modell gjør og forutsetningene en oppgave gjør er nøkkelen.»
Trening: Når du har en algoritme-eller et sett av dem – vil du utføre tester mot datasettet. Den beste praksis er å dele datasettet i minst to deler. Omtrent 70% til 80% er for testing og tuning av modellen. De resterende vil da bli brukt til validering. Gjennom denne prosessen, vil det være en titt på nøyaktighet priser.Den gode nyheten er at DET er MANGE AI-plattformer som kan bidra til å strømlinjeforme prosessen. Det er åpen kildekode-tilbud, Som TensorFlow, PyTorch, KNIME, Anaconda og Keras, samt proprietære applikasjoner som Alteryx, Databricks, DataRobot, MathWorks og SAS. OG selvfølgelig er det rike AI-systemer Fra Amazon, Microsoft Og Google. «nøkkelen er å se etter åpen kildekode-verktøy som gir mulighet for enkel og rask eksperimentering,» Sa Monica Livingston, Som Er Direktør FOR AI-Salg Hos Intel. «Hvis du foretrekker å kjøpe 3. parts løsninger, er det mange Isver som tilbyr AI-baserte løsninger for oppgaver som bildegjenkjenning, chat-bots, feildeteksjon og så videre.»
Feature Engineering: Dette er prosessen med å finne variablene som er de beste prediktorene for en modell. Det er her ekspertisen til en datavitenskapsmann er avgjørende. Men det er også ofte behov for å få domeneeksperter til å hjelpe. «for å utføre funksjonsteknikk må utøveren som bygger modellen ha en god forståelse av problemet ved hånden—for eksempel å ha en forutbestemt oppfatning av mulige effektive prediktorer selv før de oppdager dem gjennom dataene,» Sa Jason Cottrell, SOM er ADMINISTRERENDE DIREKTØR I Myplanet. «For eksempel, når det gjelder å forutsi mislighold for lånesøkere, kan en effektiv prediktor være månedlig inntektsstrøm fra søkeren.»
men å finne de riktige funksjonene kan være nesten umulig i noen situasjoner. Dette kan være tilfelle med datasyn, for eksempel når det brukes med autonome kjøretøy. Likevel kan bruk av sofistikert dyp læring være en løsning. «i Disse dager brukes nevrale nettverk til å lære funksjoner, da de er bedre til å forstå statistikk enn mennesker,» Sa Eric Yeh, som er datavitenskapsmann ved Artificial Intelligence Center PÅ SRI International. «Men de er ikke nødvendigvis en panacea og kan utvikle funksjoner som ikke var ment også. Det berømte eksempelet er bildeklassifiseringen som ble utviklet for å oppdage tanker og jeeper. I stedet, det lærte å oppdage natt og dag siden alle jeep bildene ble tatt i dag og alle tank bilder ble tatt i museet om natten.»Tom (@ttaulli) Er rådgiver for oppstart og forfatter Av Artificial Intelligence Basics: A Non-Technical Introduction og Robotic Process Automation Handbook: En Guide til Implementering AV RPA-Systemer. Han har også utviklet ulike online kurs, for Eksempel For Programmeringsspråket Python.
Følg meg på Twitter eller LinkedIn. Sjekk ut min hjemmeside eller noen av mine andre arbeid her.