Lemonade jest jednym z najgorętszych tegorocznych IPO i kluczowym powodem tego są duże inwestycje firmy w sztuczną inteligencję (AI). Firma wykorzystała tę technologię do opracowania botów do obsługi zakupu Polis i zarządzania szkodami.
to jak taka firma tworzy modele AI? Jaki jest proces? Cóż, jak nie powinno być zaskoczeniem, jest złożony i podatny na niepowodzenia.
ale z drugiej strony, jest kilka kluczowych zasad, o których należy pamiętać. Więc rzućmy okiem:
wybór: istnieją setki algorytmów do wyboru. W niektórych przypadkach najlepszym podejściem jest użycie kilku (Jest to znane jako modelowanie zespołowe).
„wybór odpowiedniego modelu zaczyna się od dogłębnego zrozumienia tego, co organizacja chce osiągnąć”, powiedział Shadi Sifain, który jest starszym menedżerem Data science i Predictive analytics w Paychex. „Wybór odpowiedniego modelu często wiąże się również z równoważeniem szeregu wymagań, w tym wydajności modelu, dokładności, interpretowalności i mocy obliczeniowej między innymi”,
ważne jest, aby zdać sobie sprawę, że potrzebujesz odpowiedniego rodzaju danych dla niektórych modeli. Jeśli już, jest to jedno z największych wyzwań w procesie tworzenia AI. „Średnio proces przygotowania danych trwa 2X, a w niektórych przypadkach 3X dłużej niż tylko projekt algorytmu uczenia maszynowego”, powiedziała Valeria Sadovykh, która jest liderem wschodzącej technologii w PwC Labs.
więc we wczesnych fazach projektu, musisz mieć dobre wyczucie danych. „Przeprowadź analizę eksploracyjną”, powiedział Dan Simion, który jest wiceprezesem ds. sztucznej inteligencji & analityki w Capgemini North America. „Wizualizuj dane w dwóch i trzech wymiarach, a następnie uruchamiaj proste, opisowe statystyki, aby lepiej zrozumieć dane. Następnie sprawdź anomalie i brakujące dane. Następnie wyczyść dane, aby uzyskać lepszy obraz wielkości próbki.”
ale nie ma idealnego modelu, bo zawsze będą kompromisy.
„istnieje stare twierdzenie w społeczności uczenia maszynowego i rozpoznawania wzorców zwane twierdzeniem No Free Lunch, które stwierdza, że nie ma jednego modelu, który byłby najlepszy we wszystkich zadaniach”, powiedział dr Jason Corso, który jest profesorem inżynierii elektrycznej i Informatyki na Uniwersytecie Michigan oraz współzałożycielem i dyrektorem generalnym Voxel51. „Kluczowe jest więc zrozumienie relacji między założeniami, które Model formułuje, a założeniami, które realizuje zadanie.”
Szkolenie: gdy już masz algorytm-lub ich zestaw-chcesz wykonać testy z zestawem danych. Najlepszą praktyką jest podzielenie zbioru danych na co najmniej dwie części. Około 70% do 80% przeznaczone jest na testowanie i tuning modelu. Pozostałe zostaną następnie wykorzystane do walidacji. Dzięki temu procesowi przyjrzymy się współczynnikom dokładności.
dobrą wiadomością jest to, że istnieje wiele platform sztucznej inteligencji, które mogą pomóc w usprawnieniu tego procesu. Istnieją oferty open source, takie jak TensorFlow, PyTorch, KNIME, Anaconda i Keras, a także zastrzeżone aplikacje, takie jak Alteryx, Databricks, DataRobot, MathWorks i SAS. I oczywiście istnieją bogate systemy AI od Amazon, Microsoft i Google.
„kluczem jest poszukiwanie narzędzi open source, które pozwalają na łatwe i szybkie eksperymentowanie”, powiedziała Monica Livingston, która jest dyrektorem sprzedaży AI W Intel. „Jeśli wolisz kupować rozwiązania innych firm, istnieje wiele dostawców usług ISV oferujących rozwiązania oparte na sztucznej inteligencji do zadań, takich jak rozpoznawanie obrazów, boty czatu, wykrywanie usterek i tak dalej.”
Inżynieria funkcji: jest to proces znajdowania zmiennych, które są najlepszymi predyktorami dla modelu. W tym przypadku niezbędna jest wiedza ekspercka analityka danych. Ale często istnieje również potrzeba pomocy ekspertów ds. domen.
„aby wykonać inżynierię funkcji, praktyk budujący model musi dobrze zrozumieć obecny problem—na przykład mieć z góry przyjęte pojęcie o możliwych skutecznych predyktorach, zanim jeszcze odkryje je za pomocą danych”, powiedział Jason Cottrell, który jest dyrektorem generalnym Myplanet. „Na przykład, w przypadku przewidywania niewypłacalności dla wnioskodawców kredytowych, skutecznym predyktorem może być miesięczny przepływ dochodów od wnioskodawcy.”
ale znalezienie odpowiednich funkcji może być prawie niemożliwe w niektórych sytuacjach. Może to mieć miejsce w przypadku widzenia komputerowego, na przykład w przypadku pojazdów autonomicznych. Jednak korzystanie z zaawansowanego uczenia głębokiego może być rozwiązaniem.
„w dzisiejszych czasach sieci neuronowe są wykorzystywane do uczenia się funkcji, ponieważ lepiej rozumieją statystyki niż ludzie”, powiedział Eric Yeh, który jest informatykiem w centrum Sztucznej Inteligencji w SRI International. „Nie są one jednak koniecznie panaceum i mogą rozwijać cechy, które również nie były zamierzone. Słynnym przykładem jest klasyfikator obrazu, który został opracowany do wykrywania czołgów i jeepów. Zamiast tego nauczył się wykrywać dzień i noc, ponieważ wszystkie zdjęcia jeepów zostały zrobione w dzień, a wszystkie zdjęcia czołgów zostały zrobione w Muzeum w nocy.”
Tom (@ttaulli) jest doradcą startupów i autorem Artificial Intelligence Basics: A non-Technical Introduction oraz Robotic Process Automation Handbook: A Guide to Implementing RPA Systems. Opracował również różne kursy online, takie jak język programowania Python.
Śledź mnie na Twitterze lub LinkedIn. Sprawdź moją stronę internetową lub niektóre z moich innych prac tutaj.