Lemonade on yksi tämän vuoden kuumimmista Listautumisanneista ja keskeinen syy tähän on yhtiön raskaat investoinnit tekoälyyn (tekoäly). Yhtiö on käyttänyt tätä teknologiaa kehittääkseen botteja hoitamaan vakuutusten ostoa ja saatavien hallintaa.
miten tällainen yritys sitten Luo TEKOÄLYMALLEJA? Mikä on prosessi? No, kuten ei pitäisi olla yllätys, se on monimutkainen ja altis epäonnistumaan.
mutta toisaalta on joitakin keskeisiä periaatteita, jotka on pidettävä mielessä. Katsotaanpa siis:
valinta: valittavana on satoja algoritmeja. Joissakin tapauksissa, paras lähestymistapa on käyttää useita (Tämä tunnetaan ensemble mallinnus).
”oikean mallin valinta alkaa siitä, että saamme perusteellisen käsityksen siitä, mitä organisaatio haluaa saavuttaa”, sanoi Shadi Sifain, joka on paychexin datatieteen ja ennakoivan analytiikan vanhempi johtaja. ”Oikean mallin valintaan liittyy usein myös useiden vaatimusten tasapainottaminen, mukaan lukien mallin suorituskyky, tarkkuus, tulkittavuus ja laskentateho muiden tekijöiden ohella”,
on tärkeää ymmärtää, että tiettyihin malleihin tarvitaan oikeanlaista dataa. Jos jotain, tämä on yksi suurimmista haasteista tekoälyn kehitysprosessissa. ”Keskimäärin tiedonvalmisteluprosessi kestää 2X tai joissakin tapauksissa 3X pidempään, että vain koneoppimisen algoritmin suunnittelu”, sanoi Valeria Sadovykh, joka on kehittyvän teknologian globaali toimitusjohtaja PwC Labsissa.
projektin alkuvaiheissa aineistosta pitää saada hyvä käsitys. ”Tehkää eksploratiivinen analyysi”, sanoi Dan Simion, joka on tekoälyn VP & analytiikka Capgemini Pohjois-Amerikassa. ”Visualisoi TIEDOT 2-ulottuvuuksina ja 3-ulottuvuuksina ja suorita sitten yksinkertaisia, kuvailevia tilastoja ymmärtääksesi tietoja tehokkaammin. Seuraavaksi, tarkista poikkeavuuksia ja puuttuvia tietoja. Puhdista tiedot saadaksesi paremman kuvan otoskoosta.”
mutta täydellistä mallia ei ole, sillä aina tulee olemaan kompromisseja.
”koneoppimisen ja hahmontunnistuksen yhteisössä on vanha lause nimeltä No Free Lunch lause, jonka mukaan ei ole olemassa yhtä mallia, joka olisi paras kaikissa tehtävissä”, sanoi tohtori Jason Corso, joka on Michiganin yliopiston sähkötekniikan ja tietojenkäsittelytieteen professori ja Voxel51: n perustaja ja toimitusjohtaja. ”Niinpä mallin tekemien oletusten ja tehtävän tekemien oletusten välisten suhteiden ymmärtäminen on avainasemassa.”
Koulutus: kun sinulla on algoritmi – tai joukko niitä – haluat tehdä testejä datajoukkoa vastaan. Paras käytäntö on jakaa aineisto vähintään kahteen osaan. Noin 70-80 prosenttia on mallin testaamiseen ja virittämiseen. Loput käytetään sitten validointiin. Tämän prosessin kautta, siellä on tarkastella tarkkuus hinnat.
hyvä uutinen on, että on olemassa monia TEKOÄLYALUSTOJA, jotka voivat auttaa virtaviivaistamaan prosessia. Tarjolla on avoimen lähdekoodin tuotteita, kuten TensorFlow, PyTorch, KNIME, Anaconda ja Keras, sekä omia sovelluksia, kuten Alteryx, Databricks, DataRobot, MathWorks ja SAS. Ja toki on rikkaita TEKOÄLYJÄRJESTELMIÄ Amazonilta, Microsoftilta ja Googlelta.
”tärkeintä on etsiä avoimen lähdekoodin työkaluja, jotka mahdollistavat helpon ja nopean kokeilun”, sanoi Monica Livingston, joka on Intelin tekoälyn myynnistä vastaava johtaja. ”Jos haluat ostaa 3rd party ratkaisuja, on olemassa monia ISV tarjoaa AI – pohjaisia ratkaisuja tehtäviin, kuten kuvantunnistus, chat botit, vika havaitseminen ja niin edelleen.”
Feature Engineering: tämä on prosessi, jossa etsitään muuttujia, jotka ovat parhaat ennustajat mallille. Tässä datatieteilijän asiantuntemus on olennaista. Mutta usein tarvitaan myös domain-asiantuntijoita auttamaan.
”piirteiden suunnittelu edellyttää, että mallin rakentajalla on hyvä ymmärrys käsillä olevasta ongelmasta—esimerkiksi ennakkotieto mahdollisista tehokkaista ennustajista jo ennen kuin he löytävät ne datan kautta”, sanoi Jason Cottrell, joka on MYPLANETIN toimitusjohtaja. ”Esimerkiksi lainanhakijoiden maksukyvyttömyyden ennustamisessa tehokas ennustaja voisi olla kuukausittainen tulovirta hakijalta.”
mutta oikeiden ominaisuuksien löytäminen voi olla joissain tilanteissa lähes mahdotonta. Näin voisi olla esimerkiksi tietokonenäkössä, kun sitä käytetään autonomisten ajoneuvojen kanssa. Pitkälle kehitetyn syväoppimisen käyttäminen voi kuitenkin olla ratkaisu.
”nykyään neuroverkkoja käytetään ominaisuuksien oppimiseen, sillä ne ymmärtävät tilastoja paremmin kuin ihmiset”, sanoi Eric Yeh, joka työskentelee tietojenkäsittelytieteilijänä SRI Internationalin Tekoälykeskuksessa. ”Ne eivät kuitenkaan ole välttämättä ihmelääke, ja niissä saattaa kehittyä piirteitä, joita ei ollut tarkoitettu yhtä hyvin. Kuuluisa esimerkki on image classifier, joka kehitettiin havaitsemaan tankit ja jeepit. Sen sijaan se oppi havaitsemaan yön ja päivän, koska kaikki jeep-kuvat otettiin päivällä ja kaikki panssarivaunukuvat otettiin museossa yöllä.”
Tom (@ttaulli) on startupien neuvonantaja ja kirjoittanut Artificial Intelligence Basics: A Non-Technical Introduction and the Robotic Process Automation Handbook: A Guide to Implementing RPA Systems. Hän on myös kehittänyt erilaisia verkkokursseja, esimerkiksi Python-ohjelmointikielelle.
Seuraa minua Twitterissä tai LinkedInissä. Tutustu sivustooni tai joihinkin muihin töihini täällä.