A cég ezt a technológiát arra használta, hogy botokat fejlesszen ki a házirendek vásárlására, valamint a követelések kezelésére.
akkor hogyan hoz létre egy ilyen vállalat AI modelleket? Mi a folyamat? Nos, nem meglepő, hogy összetett és hajlamos a kudarcra.
de aztán megint van néhány kulcsfontosságú elv, amelyet szem előtt kell tartani. Tehát vessünk egy pillantást:
kiválasztás: több száz algoritmus közül lehet választani. Egyes esetekben a legjobb megközelítés több (ez az úgynevezett ensemble modellezés) használata.
“a megfelelő modell kiválasztása azzal kezdődik, hogy alaposan megértjük, mit kíván elérni a szervezet” – mondta Shadi Sifain, aki a Paychex data science and predictive analytics vezetője. “A megfelelő modell kiválasztása gyakran számos követelmény kiegyensúlyozását is magában foglalja, beleértve a modell teljesítményét, pontosságát, értelmezhetőségét és számítási teljesítményét más tényezők között”
fontos felismerni, hogy bizonyos modellekhez megfelelő adatokra van szükség. Ha bármi, ez az egyik legnagyobb kihívás az AI fejlesztési folyamatban. “Átlagosan az adatelőkészítési folyamat 2X vagy egyes esetekben 3x hosszabb időt vesz igénybe, mint csak a gépi tanulási algoritmus kialakítása” – mondta Valeria Sadovykh, aki a PwC Labs feltörekvő technológiai globális Szállítási vezetője.
tehát a projekt korai szakaszában jó értelemben kell lennie az adatoknak. “Végezzen feltáró elemzést” – mondta Dan Simion ,aki az AI alelnöke & Analytics a Capgemini Észak-Amerikában. “Vizualizálja az adatokat 2 dimenzióban és 3 dimenzióban, majd futtasson egyszerű, leíró statisztikákat az adatok hatékonyabb megértése érdekében. Ezután ellenőrizzük az anomáliákat és a hiányzó adatokat. Ezután tisztítsa meg az adatokat, hogy jobb képet kapjon a minta méretéről.”
de nincs tökéletes modell, mivel mindig lesznek kompromisszumok.
“van egy régi tétel a gépi tanulási és mintafelismerési közösségben, a NO Free Lunch Theorem néven, amely kimondja, hogy nincs egyetlen olyan modell, amely minden feladatra a legjobb”-mondta Dr. Jason Corso, aki a Michigani Egyetem Villamosmérnöki és számítástechnikai professzora, valamint a Voxel51 társalapítója és vezérigazgatója. “Tehát kulcsfontosságú, hogy megértsük a modell által készített feltételezések és a feladat által tett feltételezések közötti kapcsolatokat.”
képzés: ha van egy algoritmus – vagy egy sor közülük – szeretné elvégezni tesztek ellen az adatbázisba. A legjobb gyakorlat az, hogy az adatkészletet legalább két részre osztják. Körülbelül 70-80% a modell tesztelésére és hangolására szolgál. A fennmaradó részt ezután érvényesítésre használják. Ezzel a folyamattal, lesz egy pillantást a pontosság árak.
a jó hír az, hogy sok AI platform van, amelyek segíthetnek a folyamat egyszerűsítésében. Vannak nyílt forráskódú ajánlatok, mint például a TensorFlow, PyTorch, KNIME, Anaconda és Keras, valamint szabadalmaztatott alkalmazások, mint Alteryx, Databricks, DataRobot, MathWorks és SAS. És persze vannak gazdag AI-rendszerek az Amazon, a Microsoft és a Google részéről is.
“a legfontosabb a nyílt forráskódú eszközök keresése, amelyek lehetővé teszik a könnyű és gyors kísérletezést” – mondta Monica Livingston, az Intel AI Sales igazgatója. “Ha inkább 3rd party megoldásokat vásárol, sok ISVs kínál AI-alapú megoldásokat olyan feladatokhoz, mint a képfelismerés, a csevegőrobotok, a hibák észlelése stb.”
Feature Engineering: ez a folyamat a változók megtalálására, amelyek a modell legjobb előrejelzői. Ez az, ahol a szakértelem egy adat tudós elengedhetetlen. De gyakran szükség van arra is, hogy a domain szakértők segítsenek.
“a funkciótervezés elvégzéséhez a modellt építő szakembernek meg kell értenie a problémát—például előre megfogalmazott elképzeléssel kell rendelkeznie a lehetséges hatékony előrejelzőkről, még mielőtt felfedezné őket az adatokon keresztül” – mondta Jason Cottrell, aki a Myplanet vezérigazgatója. “Például abban az esetben előre nemteljesítések hitel kérelmezők, hatékony előrejelzője lehet havi jövedelem áramlását a kérelmező.”
de a megfelelő funkciók megtalálása bizonyos helyzetekben szinte lehetetlen. Ez lehet a helyzet a számítógépes látással, például autonóm járművekkel történő használat esetén. Mégis a kifinomult mély tanulás lehet megoldás.
“manapság a neurális hálózatokat arra használják, hogy megtanulják a funkciókat, mivel jobban megértik a statisztikákat, mint az emberek” – mondta Eric Yeh, aki a SRI International mesterséges intelligencia Központjának számítógépes tudósa. “Ezek azonban nem feltétlenül csodaszer, és olyan funkciókat fejleszthetnek ki, amelyeket nem is szántak. A híres példa a tankok és dzsipek észlelésére kifejlesztett image classifier. Ehelyett megtanult éjjel-nappal észlelni, mivel az összes jeep-fotót napközben készítették, az összes tankfotót pedig éjszaka a múzeumban készítették.”
Tom (@ttaulli) a startupok tanácsadója és a mesterséges intelligencia alapjainak szerzője: a non-Technical Introduction and the Robotic Process Automation Handbook: A Guide to Implementing rpa Systems. Ő is kifejlesztett különböző online tanfolyamok, mint például a Python programozási nyelv.
Kövess a Twitteren vagy a LinkedIn-en. Nézze meg a honlapomat, vagy néhány más munkám itt.