Cé Souza

I de senere år Har kjernemetoder fått stor oppmerksomhet, særlig på grunn av Den økte populariteten Til Støttevektormaskinene. Kjernefunksjoner kan brukes i mange applikasjoner, da de gir en enkel bro fra linearitet til ikke-linearitet for algoritmer som kan uttrykkes i form av dot-produkter. I denne artikkelen vil vi liste noen kjernefunksjoner og noen av deres egenskaper.

  • Sjekk kildekoden for alle kjernefunksjoner her.

Mange av disse funksjonene har blitt innlemmet i Accord.NET, et rammeverk for å lage maskinlæring, statistikk og datasynapplikasjoner.

Innhold

  1. Kernel Metoder
    1. Kjernen Triks
    2. Kernel Egenskaper
    3. Velge Riktig Kjerne
  2. Kjernefunksjoner
    1. Lineær Kjerne
    2. Polynom Kjerne
    3. Gaussisk Kjerne
    4. Eksponentiell Kjerne
    5. Laplacian Kernel
    6. Anova kernel
    7. Bølge Kjerne
    8. strøm kjerne
    9. logg kjerne
    10. spline Kernel
    11. Bessel Kernel
    12. Cauchy Kernel
    13. Histogram Skjæringspunkt Kernel
    14. Generalisert Histogram Skjæringspunkt Kernel
    15. Bayesiansk Kjerne
    16. Wavelet Kernel
  3. Kildekode
  4. Se Også

kernel metoder

Kernel metoder er en klasse av algoritmer For Mønsteranalyse eller Anerkjennelse, hvis mest kjente element Er Support Vector Machine (svm). Den generelle oppgaven med mønsteranalyse er å finne og studere generelle typer relasjoner (for eksempel klynger, rangeringer, hovedkomponenter, korrelasjoner, klassifikasjoner) i generelle typer data (for eksempel sekvenser, tekstdokumenter, sett med poeng, vektorer, bilder, grafer, etc) (Wikipedia, 2010a).hovedkarakteristikken for Kjernemetoder er imidlertid deres distinkte tilnærming til dette problemet. Kjernemetoder kartlegger dataene i høyere dimensjonale rom i håp om at dataene i dette høyere dimensjonale rommet kan bli lettere separert eller bedre strukturert. Det er heller ingen begrensninger på formen på denne kartleggingen, noe som kan føre til uendelig dimensjonale rom. Denne kartleggingsfunksjonen må imidlertid knapt beregnes på grunn av et verktøy kalt kjernetricket.

kernel trick

kernel trick er et veldig interessant og kraftig verktøy. Den er kraftig fordi den gir en bro fra linearitet til ikke-linearitet til enhver algoritme som kun kan uttrykkes på vilkår for punktprodukter mellom to vektorer. Det kommer fra det faktum at hvis vi først kartlegger våre inngangsdata til et høyere dimensjonalt rom, vil en lineær algoritme som opererer i dette rommet oppføre seg ikke-lineært i det opprinnelige inngangsrommet.

Nå Er kjernetricket veldig interessant fordi den kartleggingen ikke trenger å bli beregnet. Hvis vår algoritme kun kan uttrykkes i form av et indre produkt mellom to vektorer, er alt vi trenger å erstatte dette indre produktet med det indre produktet fra et annet egnet rom. Det er der ligger «trikset»: hvor et prikkprodukt brukes, erstattes det med En Kjernefunksjon. Kjernefunksjonen betegner et indre produkt i funksjonsområdet og betegnes vanligvis som:

K(x,y) = <φ(x),φ(y)>

ved Hjelp Av Kjernefunksjonen kan algoritmen deretter føres inn i et høyere dimensjonsrom uten eksplisitt å kartlegge inngangspunktene i dette rommet. Dette er svært ønskelig, da noen ganger kan vårt høyere dimensjonale funksjonsrom til og med være uendelig dimensjonalt og dermed umulig å beregne.

Kjerneegenskaper

kjernefunksjoner må være kontinuerlige, symmetriske, og bør helst ha en positiv (semi-) bestemt Grammatrise. Kjerner som sies å tilfredsstille Mercers teorem er positive semi-definitive, noe som betyr at deres kjernematriser bare har ikke-negative egenverdier. Bruken av en positiv bestemt kjerne sikrer at optimaliseringsproblemet vil være konveks og løsningen vil være unik.men mange kjernefunksjoner som ikke er strengt positive, har også vist seg å fungere veldig bra i praksis. Et eksempel Er Sigmoid-kjernen, som til tross for sin brede bruk ikke er positiv semi-definitive for visse verdier av parametrene. Boughorbel (2005) viste også eksperimentelt At Kjerner som bare er betinget positive, kan muligens overgå de fleste klassiske kjerner i enkelte applikasjoner.

Kjerner kan også klassifiseres som anisotropisk stasjonær, isotrop stasjonær, kompakt støttet, lokalt stasjonær, ikke-stasjonær eller separerbar ikke-stasjonær. Videre kan kjerner også merkes skala-invariant eller skala-avhengig, noe som er en interessant egenskap som skala-invariant kjerner driver treningsprosessen invariant til en skalering av dataene.

Å Velge Riktig Kjerne

Å Velge den mest passende kjernen avhenger av problemet ved hånden – og finjustering av parametrene kan lett bli en kjedelig og tungvint oppgave. Automatisk kjernevalg er mulig og diskuteres i verkene Av Tom Howley og Michael Madden.

valget av En Kjerne avhenger av problemet ved hånden fordi det avhenger av hva vi prøver å modellere. En polynomkjerne, for eksempel, tillater oss å modellere funksjonsforbindelser opp til rekkefølgen av polynomet. Radiale basisfunksjoner gjør det mulig å plukke ut sirkler – eller hypersfærer) – i constrast Med Den Lineære kjernen, som bare tillater å plukke ut linjer (eller hyperplanes).motivasjonen bak valget av en bestemt kjerne kan være veldig intuitiv og grei avhengig av hva slags informasjon vi forventer å trekke ut om dataene. Vennligst se de endelige notatene om dette emnet fra Introduksjon til Innhenting Av Informasjon, av Manning, Raghavan og Schü for en bedre forklaring om emnet.

Kjernefunksjoner

Nedenfor er en liste over noen kjernefunksjoner som er tilgjengelige fra den eksisterende litteraturen. Som det var tilfelle med tidligere artikler, er Hver LaTeX-notasjon for formlene nedenfor lett tilgjengelig fra deres alternative tekst html-tag. Jeg kan ikke garantere at alle av dem er helt riktige, og dermed bruke dem på egen risiko. De fleste av dem har lenker til artikler der de opprinnelig ble brukt eller foreslått.

1. Lineær Kjerne

  • Lineær kjerne dokumentasjon – lineær kjerne kildekode – hvordan lage SVMs I. NET med Accord.NET

Den Lineære kjernen er den enkleste kjernefunksjonen. Den er gitt av det indre produktet<x, y> pluss en valgfri konstant c. kjernealgoritmer som bruker en lineær kjerne, er ofte ekvivalente med deres ikke-kjernemodeller, dvs. KPCA med lineær kjerne er den samme som standard PCA.

k(x, y) = x^t y + c

2. Polynomkjernen

Polynomkjernen er en ikke-stasjonær kjerne. Polynomkjerner passer godt til problemer der alle treningsdataene er normalisert.

k(x, y) = (alfa x^t y + c)^d
Justerbare parametere er skråningen alfa, den konstante termen c og polynomgraden d.

3. Gaussian Kernel

Gaussian kernel er et eksempel på radial basis funksjon kjernen.

k(x, y) = expleft(-frac{ lVert x-y rvert ^2}{2sigma^2}høyre)

alternativt kan Den også implementeres ved hjelp av

k(x, y) = expleft(- gamma lVert x-y rVert ^2)

den justerbare parameteren sigma spiller en viktig rolle i kjernens ytelse, og bør nøye justeres til problemet ved hånden. Hvis overvurdert, eksponentiell vil oppføre seg nesten lineært og høyere dimensjonale projeksjon vil begynne å miste sin ikke-lineær effekt. På den annen side, hvis undervurdert, vil funksjonen mangle regularisering og beslutningsgrensen vil være svært følsom for støy i treningsdata.

4. Eksponentiell Kjerne

den eksponentielle kjernen er nært knyttet Til Den Gaussiske kjernen, med bare kvadratet av normen utelatt. Det er også en radial basisfunksjon kjerne.

k(x, y) = expleft(-frac{ lVert x-y rVert }{2sigma^2}høyre)

5. Laplacian Kernel

Laplace-Kjernen er helt lik den eksponentielle kjernen, bortsett fra å være mindre følsom for endringer i sigma-parameteren. Å være ekvivalent, er det også en radial basisfunksjonskjerne.

k(x, y) = expleft(- frac{lVert x-y rVert }{sigma}right)

det er viktig å merke seg at observasjonene om sigma-parameteren for den Gaussiske kjernen også gjelder Eksponentielle og Laplacian kjerner.

6. ANOVA kernel

ANOVA kernel er også en radial basis funksjon kjerne, akkurat som Gauss og Laplacian kjerner. Det sies å fungere godt i flerdimensjonale regresjonsproblemer(Hofmann, 2008).

k(x, y) = sum_{k=1}^n exp (-sigma (x^k - y^k)^2)^d

7. Hyperbolsk Tangent (Sigmoid) kernel

Den Hyperbolske Tangentkjernen er også kjent Som Sigmoid-Kjernen og SOM FLERLAGS Perceptron (MLP) kjernen. Sigmoid-Kjernen kommer fra Nevrale Nettverksfelt, hvor den bipolare sigmoid-funksjonen ofte brukes som en aktiveringsfunksjon for kunstige nevroner.

k(x, y) = tanh (alpha x^t y + c)

det er interessant å merke seg at EN SVM-modell som bruker en sigmoid – kjernefunksjon, tilsvarer et tolags perceptron-nevralt nettverk. Denne kjernen var ganske populær for støttevektormaskiner på grunn av sin opprinnelse fra nevrale nettverksteori. Også, til tross for å være bare betinget positiv bestemt, har det vist seg å fungere bra i praksis.det er to justerbare parametere i sigmoid-kjernen, skråningen alfa og skjæringskonstanten c. en felles verdi for alfa er 1 / N, Hvor N er datadimensjonen. En mer detaljert studie av sigmoid kjerner finnes i verkene Av Hsuan-Tien Og Chih-Jen.

8. Rational Quadratic Kernel

Rational Quadratic kernel er mindre beregningsmessig intensiv enn Gaussisk kjernen og kan brukes som et alternativ når bruk Av Gaussisk blir for dyrt.

k(x, y) = 1 - frac{lVert x-y rvert^2}{lVert x-y rvert^2 + c}

9. Multiquadric Kernel

Multiquadric kernel kan brukes i de samme situasjonene som Den Rasjonelle Kvadratiske kjernen. Som Tilfellet Er Med Sigmoid-kjernen, er Det også et eksempel på en ikke-positiv bestemt kjerne.

k(x, y) = sqrt{lVert x-y rvert^2 + c^2}

10. Inverse Multiquadric Kernel

Den Inverse Multi Quadric kjernen. Som Med den Gaussiske kjernen, resulterer det i en kjernematrise med full rang (Micchelli, 1986) og danner dermed et uendelig dimensjonsfunksjonsrom.

k(x, y) = frac{1}{sqrt{lVert x-y rVert^2 + theta^2}}

11. Sirkulær Kjerne

den sirkulære kjernen brukes i geostatiske applikasjoner. Det er et eksempel på en isotrop stasjonær kjerne og er positiv bestemt I R2.

k(x, y) = frac{2}{pi} arccos ( - frac{ lVert x-y rvert}{sigma}) - frac{2}{pi} frac{ lVert x-y rVert}{sigma} sqrt{1 - venstre(frac{ lVert x-y rVert}{sigma} høyre)^2}
mbox{if}~ lvert x-y rvert sigma mbox{, null ellers}

12. Sfærisk Kjerne

den sfæriske kjernen er lik den sirkulære kjernen, men er positiv bestemt I R3.

k(x, y) = 1 - frac{3}{2} frac{lVert x-y rVert}{sigma} + frac{1}{2} venstre( frac{ lVert x-y rVert}{sigma} høyre)^3

mbox{if}~ lVert x-y rvert sigma mbox{, null ellers}

13. Bølgekjernen

Bølgekjernen er også symmetrisk positiv semi-definitiv (Huang, 2008).

k(x, y) = frac{theta}{lVert x-y rvert høyre} sin frac{lVert x-y rvert }{theta}

14. Power Kernel

Power kernel er også kjent som den (ikke-bekreftede) trekantede kjernen. Det er et eksempel på skala-invariant kjerne (Sahbi og Fleuret, 2004) og er også bare betinget positiv bestemt.

k(x,y) = - lVert x-y rvert ^d

15. Log Kernel

Log kernel synes å være spesielt interessant for bilder, men er bare betinget positiv bestemt.

k(x,y) = - logg (lVert x-y rVert ^d + 1)

16. Spline kernel

Spline-kjernen er gitt som et stykkevis kubisk polynom, som avledet i verkene Av Gunn (1998).

k(x, y) = 1 + xy + xy~min(x,y) - frac{x+y}{2}~min(x,y)^2+frac{1}{3}min(x,y)^3

Men hva det egentlig betyr er:

k(x, y) = prod_{i=1}^d 1 + x_i y_i + x_i y_i min(x_i,y_i) - frac{x_i + y_i}{2} min(x_i, y_i)^3} {3}

medx,y i r^d

17. B-Spline (Radial Basis Funksjon) Kernel

b-Spline kjernen er definert på intervallet . Den er gitt ved rekursiv formel:

k (x, y) = b_{2p + 1}(x-y)

mbox{hvor~} p i N mbox{~med~} b_{i+1} := B_i otimes B_0.

I Arbeidet Av Bart Hamers er det gitt av:

k(x, y) = prod_{p=1}^d B_{2n+1}(x_p - y_p)

Alternativt kan Bn beregnes ved hjelp av det eksplisitte uttrykket (Fomel, 2000):

B_n(x) = frac{1}{n!} sum_{k=0}^{n + 1} binom{n + 1}{k} (-1)^k (x + frac{n+1}{2} - k)^n_+

hvor x+ er definert som avkortet strømfunksjon:

x^d_+ = begynn{tilfeller} x^d, mbox{hvis }x 0 0, mbox{ellers} slutt{tilfeller}

18. Bessel Kernel

bessel-kjernen er velkjent i teorien om funksjonsrom av fraksjonell glatthet. Den er gitt av:

k(x, y) = frac{J_{v+1}( sigma lVert x-y rVert)}{ lVert x-y rvert ^ {-n(v+1)}}

hvor J er bessel-funksjonen av første type. I Kernlab for r-dokumentasjonen sies Imidlertid bessel-kjernen å være:

k(x,x') = - Bessel_{(nu+1)}^n (sigma|x - x' / ^2)') = - Bessel_{(nu+1)}^n (sigma |x - x'|^2)

19. Cauchy-Kjernen

cauchy-kjernen kommer fra cauchy-distribusjonen (Basak, 2008). Det er en lang-tailed kjerne og kan brukes til å gi lang rekkevidde innflytelse og følsomhet over høy dimensjon plass.

k(x, y) = frac{1}{1 + frac{lVert x-y rVert^2}{sigma^2}}

20. Chi-Kvadratkjernen

Chi-Kvadratkjernen kommer fra Chi-Kvadratfordelingen:

k(x,y) = 1-sum_{i=1}^n frac {(x_i-y_i)^2}{frac{1}{2} (x_i + y_i)}

denne versjonen av kjernen er imidlertid bare betinget positiv-bestemt (CPD). En positiv-bestemt versjon av denne kjernen er gitt i (Vedaldi And Zisserman, 2011) som

og er egnet til å bli brukt av andre metoder enn støttevektormaskiner.

21. Histogram Intersection Kernel

Histogram Intersection Kernel er også kjent Som Min Kernel og har vist seg nyttig i bilde klassifisering.

k(x,y) = sum_{i=1}^n min(x_i,y_i)

22. Generalisert Histogram Intersection

Den Generaliserte Histogram Intersection kernel er bygget basert På Histogram Intersection Kernel for bilde klassifisering, men gjelder i et mye større utvalg av sammenhenger (Boughorbel, 2005). Den er gitt av:

k(x,y) = sum_{i=1}^m min (|x_i|^alpha,|y_i/^beta)

23. Generalisert T-Student Kjerne

Den Generaliserte T-Student Kjernen har vist seg å være En Mercel Kjerne, og har dermed en positiv semi-definitiv Kjernematrise (Boughorbel, 2004). Den er gitt av:

k(x,y) = frac{1}{1 + lVert x-y rVert ^d}

24. Bayesiansk Kjerne

den Bayesianske kjernen kan gis som:

k(x,y) = prod_{l=1}^n kappa_l (x_l,y_l)

hvor

kappa_l(a,b) = sum_{c i {0;1}} p(y=C Mid X_l=a) ~ p(y=c mid x_l=b)

men det avhenger egentlig av problemet som modelleres. For mer informasjon, vennligst se Arbeidet Fra Alashwal, Deris Og Othman, der de brukte EN SVM Med Bayesianske kjerner i prediksjonen av protein-proteininteraksjoner.

25. Wavelet-Kjernen

Wavelet-kjernen (Zhang et al, 2004) kommer fra Wavelet-teorien og er gitt som:

k(x,y) = prod_{i=1}^Nh(frac{x_i-c_i}{a}) : h(frac{y_i-c_i}{A})

hvor a Og c er henholdsvis wavelet dilation og translation coefficients (Skjemaet Som Presenteres ovenfor Er en forenkling, se originalpapiret for detaljer). En oversettelse-invariant versjon av denne kjernen kan gis som:

k(x,y) = prod_{i=1}^Nh(frac{x_i-y_i}{a})

hvor i begge h(x) betegner en mors wavelet-funksjon. I papiret av Li Zhang, Weida Zhou og Licheng Jiao foreslår forfatterne en mulig h(x) som:

h(x) = cos(1.75 x)exp(-frac{x^2}{2})

Som de også viser seg som en tillatt kjernefunksjon.

Kildekode

den nyeste versjonen av kildekoden for nesten alle kjernene nevnt ovenfor er tilgjengelig i Accord.NET Rammeverk. Noen er også tilgjengelige i oppfølgeren til denne artikkelen, Kjernestøttevektormaskiner For Klassifisering og Regresjon I C#. De leveres sammen med en omfattende og enkel implementering Av SVMs (Support Vector Machines) I C#. Men for de nyeste kildene, som kan inneholde feilrettinger og andre forbedringer, kan du laste ned den nyeste versjonen av Accord.NET.

Se også

  • Kjernestøttevektormaskiner (kSVMs)
  • Hovedkomponentanalyse (PCA)
  • Lineær Diskriminantanalyse (LDA)
  • Ikke-Lineær Diskriminantanalyse med Kjerner (KDA)
  • Logistisk Regresjonsanalyse I C#
  • Accord.NET Haar-funksjonen objekt deteksjon I C# (Viola-Jones Klassifikator)
  • Håndskriftgjenkjenning ved Hjelp Av Kjernen Diskriminant Analyse
  • Håndskriftgjenkjenning Revisited: Kernel Støtte Vektor Maskiner
  • Logistisk Regresjonsanalyse
  • On-Line Prediksjon Wiki Bidragsytere. «Kernel Metoder.»On-Line Prediksjon Wiki. http://onlineprediction.net/?n=Main.KernelMethods (tilgjengelig 3. Mars 2010).
  • Genton, Marc G. » Klasser Av Kjerner For Maskinlæring: Et Statistikkperspektiv .»Tidsskrift For Maskinlæringsforskning 2 (2001) 299-312 .
  • Hofmann, T., B. Schölkopf, Og A. J. Smola. «Kernel metoder i maskinlæring.” Anne. Statist. Volum 36, Nummer 3 (2008), 1171-1220.
  • Gunn, S. R. (1998, Mai). «Støtte vektormaskiner for klassifisering og regresjon.»Teknisk rapport, Fakultet For Ingeniørfag, Vitenskap Og Matematikk Skole For Elektronikk og Datavitenskap.Karatzoglou, A., Smola, A., Hornik, K. og Zeileis, A. » Kernlab-en R-pakke for kjernelæring.” (2004).Karatzoglou, A., Smola, A., Hornik, K. Og Zeileis, A. «Kernlab – en s4-pakke for kjernemetoder I R.» J. Statistisk Programvare, 11, 9 (2004).
  • Karatzoglou, A., Smola, A., Hornik, K. Og Zeileis, A. «R: Kjernefunksjoner.»Dokumentasjon for pakken ‘kernlab’ versjon 0.9-5. http://rss.acs.unt.edu/Rdoc/library/kernlab/html/dots.html(tilgjengelig 3. Mars 2010).Howley, T. Og Madden, Mg «den genetiske kjernestøttevektormaskinen: Beskrivelse og evaluering». Kunstig Intelligens Gjennomgang. Volum 24, Nummer 3 (2005), 379-395.Shawkat Ali og Kate A. Smith. «Kernel Bredde Utvalg FOR SVM Klassifisering: En Meta-Læring Tilnærming .»International Journal Of Data Warehousing & Gruvedrift, 1 (4), 78-97, oktober-desember 2005.
  • Hsuan-Tien Lin og Chih-Jen Lin. «En studie på sigmoid kjerner FOR SVM og trening av ikke-PSD kjerner VED SMO-type metoder.»Teknisk rapport, Institutt For Informatikk, National Taiwan University, 2003.Dette er en av de mest kjente av disse. «Prosjekt-Imedia: Objektgjenkjenning .»INRIA-Inria Aktivitetsrapporter-RalyX. http://ralyx.inria.fr/2004/Raweb/imedia/uid84.html(tilgjengelig 3. Mars 2010).
  • Huang, Lingkang. «Variabelt Utvalg I Multi-klasse Støtte Vektor Maskin Og Applikasjoner I Genomisk Dataanalyse.»Doktoravhandling, 2008.
  • Manning, Christopher D., Prabhakar Raghavan, Og Hinrich Schü. «Ikke-Lineære Svm-Er.»Stanford NLP (Naturlig Språkbehandling) Gruppe. http://nlp.stanford.edu/IR-book/html/htmledition/nonlinear-svms-1.html(tilgjengelig 3. Mars 2010).
  • Fomel, Sergey. «Invers b-spline interpolering.»Stanford Exploration Project, 2000. http://sepwww.stanford.edu/public/docs/sep105/sergey2/paper_html/node5.html (tilgjengelig 3. Mars 2010).
  • Basak, Jayanta. «En minst firkantet kjernemaskin med boksbegrensninger .»Internasjonal Konferanse Om Mønstergjenkjenning 2008 1 (2008): 1-4.Alashwal, H., Safaai Deris og Razib M. Othman. «En Bayesiansk Kjerne for Prediksjon Av Protein-Protein-Interaksjoner.»Internasjonalt Tidsskrift for Computational Intelligence 5, nr. 2 (2009): 119-124.
  • Hichem Sahbi og Franç Fleuret. «Kernel metoder og skala invariance ved hjelp av den trekantede kjernen». INRIA Research Report, N-5143, Mars 2004.Dette er En av de mest kjente og mest kjente av Disse er Sabri Boughorbel, Jean-Philippe Tarel og Nozha Boujemaa. «Generalisert histogram skjæringspunkt kjerne for bildegjenkjenning». Proceedings av 2005-Konferansen Om Bildebehandling, volum 3, sider 161-164, 2005.Micchelli, Charles. Interpolering av spredte data: Avstandsmatriser og betinget positive bestemte funksjoner. Konstruktiv Tiln Rming 2, nr. 1 (1986): 11-22.
  • wikipedia-bidragsytere,» kjernemetoder», Wikipedia, Den Frie Encyklopedi, http://en.wikipedia.org/w/index.php?title=Kernel_methods&oldid=340911970 (tilgjengelig 3.Mars 2010).
  • wikipedia-bidragsytere,» kernel trick», Wikipedia, Den Frie Encyklopedi, http://en.wikipedia.org/w/index.php?title=Kernel_trick&oldid=269422477 (tilgjengelig 3.Mars 2010).
  • Weisstein, Eric W. » Positiv Semidefinite Matrise.»Fra MathWorld – En Wolfram Web Ressurs . http://mathworld.wolfram.com/PositiveSemidefiniteMatrix.html
  • Hamers B. «Kjernemodeller For Storskala Applikasjoner», Ph. D., Katholieke Universiteit Leuven, Belgia, 2004.
  • Li Zhang, Weida Zhou, Licheng Jiao. Wavelet Støtte Vektor Maskin. Ieee-Transaksjoner På System, Mann og Kybernetikk, Del B, 2004, 34(1): 34-39.
  • Vedaldi, A. Og Zisserman, A. Effektive Additivkjerner via Eksplisitte Funksjonskart. Ieee Transaksjoner På Mønstergjenkjenning Og Maskin Intelligens, Vol. XX, Nei. XX, juni, 2011.

Siterer dette arbeidet

hvis du vil, vennligst oppgi dette arbeidet som: Souza, Cé R. » Kjernefunksjoner For Maskinlæringsprogrammer .»17.Mars. 2010. Web. <http://crsouza.blogspot.com/2010/03/kernel-functions-for-machine-learning.html>.

Related Posts

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *