César Souza

az utóbbi években a Kernel módszerek nagy figyelmet kaptak, különösen a támogató Vektorgépek növekvő népszerűsége miatt. A Kernel funkciók számos alkalmazásban használhatók, mivel egyszerű hidat biztosítanak a linearitástól a nem linearitásig olyan algoritmusok számára, amelyek ponttermékekben fejezhetők ki. Ebben a cikkben felsorolunk néhány kernel funkciót és azok tulajdonságait.

  • Itt ellenőrizheti az összes kernel funkció forráskódját.

sok ilyen funkciót beépítettek Accord.NET, egy keret létrehozása gépi tanulás, statisztika, számítógépes látás alkalmazások.

Tartalom

  1. Kernel Módszerek
    1. A Kernel Trükk
    2. Kernel Tulajdonságok
    3. Választott a Kernel
  2. Kernel Funkciók
    1. Lineáris Kernel
    2. Polinom Kernel
    3. Gauss Kernel
    4. Exponenciális Kernel
    5. Laplacian Kernel
    6. ANOVA Kernel
    7. Hiperbolikus Tangens (Szigmoid) Kernel
    8. Racionális Másodfokú Kernel
    9. Multiquadric Kernel
    10. Inverz Multiquadric Kernel
    11. Körkörös Kernel
    12. Gömb Kernel
    13. Hullám Kernel
    14. Power Kernel
    15. Napló Kernel
    16. Spline Kernel
    17. B-Spline Kernel
    18. Bessel-Kernel
    19. Cauchy Kernel
    20. Chi-Négyzet Kernel
    21. Hisztogram Kereszteződés Kernel
    22. Általános Hisztogram Kereszteződés Kernel
    23. Generalizált T-Diák Kernel
    24. Bayes Kernel
    25. Wavelet Kernel
  3. a forráskód
  4. Lásd

Kernel Módszerek

Kernel módszerek egy osztály algoritmusok minta elemzés, vagy az elismerés, akinek a legismertebb eleme a support vector machine (SVM). Az általános feladat elemzést találni tanulni általános típusú kapcsolatok (pl. klaszterek, rangsor, fő alkotórészek, összefüggések, osztályozás) az általános típusú adat (például sorozatok, szöveges dokumentumok, meghatározza a pontok, vektorok, képek, grafikonok, stb.) (Wikipedia, 2010a).

A Kernel módszereinek fő jellemzője azonban a probléma eltérő megközelítése. Kernel módszerek térkép az adatokat magasabb dimenziós terek abban a reményben, hogy ebben a magasabb dimenziós térben az adatok könnyebben elválasztható vagy jobban strukturált. Ennek a leképezésnek a formájára nincs korlátozás, amely akár végtelen dimenziós terekhez is vezethet. Ezt a leképezési funkciót azonban alig kell kiszámítani a kernel trükk nevű eszköz miatt.

A Kernel trükk

a Kernel trükk egy nagyon érdekes és hatékony eszköz. Erős, mert hidat biztosít a linearitástól a nem linearitásig minden olyan algoritmusig, amely kizárólag a két vektor közötti ponttermékek tekintetében fejezhető ki. Abból a tényből származik, hogy ha először a bemeneti adatainkat egy magasabb dimenziós térbe térképezzük, az ebben a térben működő lineáris algoritmus nem lineárisan viselkedik az eredeti bemeneti térben.

most a Kernel trükk nagyon érdekes, mert ezt a leképezést soha nem kell kiszámítani. Ha algoritmusunk csak két vektor közötti belső termék tekintetében fejezhető ki, akkor csak arra van szükségünk, hogy ezt a belső terméket a belső termékkel helyettesítsük más megfelelő helyről. Itt található a “trükk”: bárhol is használják a pontterméket, azt Kernel funkcióval helyettesítik. A kernel függvény egy belső terméket jelöl a funkciótérben, amelyet általában a következőképpen jelölnek:

K(x,y) = <φ(x),φ(y)>

a Kernel függvény segítségével az algoritmus ezután egy magasabb dimenziós térbe vihető anélkül, hogy a bemeneti pontokat kifejezetten leképezné ebbe a térbe. Ez nagyon kívánatos, mivel néha a magasabb dimenziós funkciós térünk akár végtelen dimenziós is lehet,így nem mérhető.

Kernel tulajdonságok

a Kernel függvényeknek folyamatosnak, szimmetrikusnak kell lenniük, és legelőnyösebben pozitív (félig) meghatározott Gram mátrixnak kell lenniük. Azok a kernelek, amelyekről azt mondják, hogy megfelelnek a Mercer tételének, pozitív félhatározottak, ami azt jelenti, hogy kernel mátrixaik csak nem negatív Eigen értékekkel rendelkeznek. Egy pozitív, határozott kernel használata biztosítja, hogy az optimalizálási probléma konvex legyen, a megoldás pedig egyedi.

azonban számos olyan kernel-funkcióról, amelyek nem feltétlenül pozitívak, szintén kimutatták, hogy nagyon jól teljesítenek a gyakorlatban. Példa erre a Sigmoid kernel, amely széles körű használata ellenére nem pozitív félig határozott a paraméterek bizonyos értékeire. Boughorbel (2005) kísérletileg is bizonyította, hogy a csak feltételesen pozitív határozott kernelek bizonyos alkalmazásokban felülmúlhatják a legtöbb klasszikus magot.

a kernelek anizotróp stacionárius, izotróp stacionárius, kompakt módon támogatott, helyileg álló, nem álló vagy elválasztható nonstacionárius rendszerként is besorolhatók. Ezenkívül a kernelek skálainvariánsnak vagy méretarányfüggőnek is nevezhetők, ami érdekes tulajdonság, mivel a skála-invariáns kernelek az edzési folyamatot invariánsként vezetik az adatok skálázásához.

a megfelelő Kernel kiválasztása

a legmegfelelőbb kernel kiválasztása nagymértékben függ az adott problémától – a paraméterek finomhangolása könnyen unalmas és nehézkes feladat lehet. Az automatikus kernel-kiválasztás lehetséges, és Tom Howley és Michael Madden munkáiban tárgyaljuk.

A Kernel kiválasztása a kérdéses problémától függ, mert attól függ, hogy mit próbálunk modellezni. A polinom kernel például lehetővé teszi számunkra, hogy a jellemző konjunkciókat a polinom sorrendjéig modellezzük. A radiális alapfunkciók lehetővé teszik a körök (vagy hiperspherek) kiválasztását – a lineáris kernel szűkítésében, amely csak a vonalak (vagy hiperplánok) kiválasztását teszi lehetővé.

az adott kernel kiválasztásának motivációja nagyon intuitív és egyszerű lehet attól függően, hogy milyen információkat várunk az adatokról. Kérjük, olvassa el a végső megjegyzések ebben a témában a Bevezetés Az információ visszakeresés, Manning, Raghavan és Schütze jobb magyarázatot a témában.

Kernel funkciók

Az alábbiakban felsoroljuk a meglévő szakirodalomban elérhető néhány kernel funkciót. Mint a korábbi cikkeknél, az alábbi képletek minden LaTeX jelölése könnyen elérhető az alternatív szöveg html címkéjéből. Nem tudom garantálni, hogy mindegyik tökéletesen helyes, így használja őket a saját felelősségére. Legtöbbjük linkeket tartalmaz olyan cikkekre, ahol eredetileg használták vagy javasolták őket.

1. Lineáris Kernel

  • lineáris kernel dokumentáció – lineáris kernel forráskód – Hogyan hozzunk létre SVMs-t a. Net-ben Accord.NET

a lineáris kernel a legegyszerűbb kernel funkció. Ez adja a belső termék <x,y> plusz egy opcionális állandó C. Kernel algoritmusok lineáris kernel gyakran egyenértékű a nem kernel társaik, azaz kpca lineáris kernel ugyanaz, mint a standard PCA.

k(x, y) = x^t y + c

2. Polinom Kernel

a polinom kernel nem álló kernel. A polinom magok jól alkalmazhatók olyan problémákra, ahol az összes képzési adat normalizálódik.

k (x, y) = (alpha x^t y + c)^d
állítható paraméterek a lejtő alfa, a C konstans kifejezés és a D polinom fok.

3. Gauss Kernel

A Gauss kernel egy példa a radiális alapfüggvény kernel.

k(x, y) = expleft(-frac{ lVert x-y rVert ^2}{2sigma^2}right)

Alternatív megoldásként a

k(x, y) = expleft(- gamma lVert x-y rvert ^2)

Az állítható Sigma paraméter fontos szerepet játszik a kernel teljesítményében, ezért gondosan be kell hangolni a szóban forgó problémára. Ha túlbecsülik, az exponenciális majdnem lineárisan fog viselkedni, és a magasabb dimenziós vetület elveszíti nemlineáris erejét. Másrészt, ha alábecsülik, akkor a funkció nem lesz szabályozható, a döntési határ pedig nagyon érzékeny lesz a zajra a képzési adatokban.

4. Exponenciális Kernel

Az exponenciális kernel szorosan kapcsolódik a Gauss kernelhez, csak a norma négyzete maradt ki. Ez is egy radiális alap funkció kernel.

k(x, y) = expleft(-frac{ lVert x-y rVert }{2sigma^2}right)

5. Laplacian Kernel

a Laplace Kernel teljesen egyenértékű az exponenciális kernel, kivéve, hogy kevésbé érzékeny változások a sigma paraméter. Mivel egyenértékű, ez is egy radiális alapú függvény kernel.

k(x, y) = expleft(- frac{lVert x-y rVert }{sigma}right)

fontos megjegyezni, hogy a Gaussian kernel sigma paraméterével kapcsolatos megfigyelések az exponenciális és Lapplacian kernelekre is vonatkoznak.

6. ANOVA Kernel

az ANOVA kernel szintén radiális alapfüggvény kernel, csakúgy, mint a Gaussian és a Laplacian kernel. Azt mondják, hogy jól teljesítenek a többdimenziós regressziós problémákban (Hofmann, 2008).

k (x, y)=sum_{k = 1}^n exp (-sigma (x^k - y^k)^2)^d

7. Hiperbolikus tangens (Sigmoid) Kernel

a hiperbolikus tangens Kernel Sigmoid Kernelként és többrétegű Perceptron (MLP) kernelként is ismert. A Sigmoid Kernel a neurális hálózatok mezőjéből származik, ahol a bipoláris sigmoid funkciót gyakran használják a mesterséges neuronok aktiválási funkciójaként.

k(x, y) = tanh (alpha x^t y + c)

érdekes megjegyezni, hogy a sigmoid kernel funkciót használó SVM modell egyenértékű egy kétrétegű, perceptron neurális hálózattal. Ez a kernel nagyon népszerű volt a támogató vektoros gépek számára, mivel a neurális hálózatelméletből származik. Is, annak ellenére, hogy csak feltételesen pozitív határozott, azt találtuk, hogy jól teljesítenek a gyakorlatban.

két beállítható paraméter van a sigmoid kernelben, a slope alpha és az intercept constant C. az alfa közös értéke 1 / N, ahol N az adat dimenzió. A sigmoid magokról részletesebb tanulmány található Hsuan-Tien és Chih-Jen műveiben.

8. Racionális kvadratikus Kernel

a racionális kvadratikus kernel kevésbé számításigényes, mint a Gaussian kernel, és alternatívaként használható, ha a Gaussian használata túl drága.

k(x, y) = 1 - frac{lVert x-y rVert^2}{lVert x-y rVert^2 + C}

9. Multiquadric Kernel

a Multiquadric kernel használható ugyanabban a helyzetben, mint a racionális kvadratikus kernel. Mint a Sigmoid kernel esetében, ez is egy példa egy nem pozitív határozott kernelre.

k(x, y) = sqrt{lVert x-y rVert^2 + c^2}

10. Inverz Multiquadric Kernel

az inverz Multi Quadric kernel. A Gauss-kernelhez hasonlóan egy teljes értékű kernel mátrixot eredményez (Michelli, 1986), így végtelen dimenzió jellemző teret képez.

k(x, y) = frac{1}{sqrt{lVert x-y rVert^2 + theta^2}}

11. Kör Kernel

a kör alakú kernelt geosztatikus alkalmazásokban használják. Ez egy példa egy izotróp álló kernel pozitív határozott R2.

k(x, y) = frac{2}{pi} arccos ( - frac{ lVert x-y rVert}{sigma}) - frac{2}{pi} frac{ lVert x-y rVert}{sigma} sqrt{1 - Bal(frac{ lVert x-y rVert}{sigma}} {sigma} jobb)^2}
MBOX {if}~ lvert x-y rvert Sigma MBOX {, zero otherwise}

12. Gömb Kernel

a gömbmag hasonló a kör kernel, de pozitív határozott R3.

k(x, y) = 1 - frac{3}{2} frac{lVert x-y rVert}{sigma} + frac{1}{2} bal( frac{ lVert x-y rVert}{sigma} jobb)^3

13. Wave Kernel

a Hullámmag szimmetrikus pozitív félig határozott (Huang, 2008).

k(x, y) = frac{theta}{lVert x-y rVert jobb} sin frac{lVert x-y rVert }{Theta}

14. Power Kernel

A Power kernel is ismert, mint a (nem igazított) háromszög kernel. Ez egy példa a skála-invariáns kernel (Sahbi and Fleuret, 2004), és szintén csak feltételesen pozitív határozott.

k(x,y) = - lVert x-y rVert ^d

15. Log Kernel

a Log kernel különösen érdekesnek tűnik a képek számára,de csak feltételesen pozitív.

k(x,y) = - log (lVert x-y rVert ^d + 1)

16. Spline Kernel

a Spline kernel adott, mint egy darab-bölcs köbös polinom, származtatott munkáiban Gunn (1998).

k(X, y) = 1 + xy + xy~min(x,y) - frac{x+y}{2}~min(x,y)^2+frac{1}{3}min(x,y)^3

valójában azt jelenti:

k(x, y) = prod_{i=1}^D 1 + x_i y_i + x_i y_i min(x_i,y_i) - FRAC{x_i + y_i}{2} min(x_i, y_i)^2 + frac{min(x_i,y_i)^3}{3}

a X,Y in R^D

17. B-Spline (radiális Alapfüggvény) Kernel

A B-Spline kernel az intervallumon van meghatározva . Ezt a rekurzív képlet adja meg:

k(x,y) = b_{2p+1}(x-y)

mbox{ahol~} p in n mbox{~with~} b_{i+1} := B_i otimes B_0.

A Bart Hamers munkájában a következő adja meg:

k(x, y) = prod_{p=1}^d b_{2n+1}(x_p - y_p)

alternatívaként a Bn az explicit kifejezés használatával számítható (Fomel, 2000):

b_n(x) = frac{1}{n!} sum_{k = 0}^{n + 1} binom{n+1}{k} (-1)^k (x + frac{n+1}{2} - k)^n_ +

ahol x + a csonka teljesítményfüggvény:

x^d_+ = begin{cases} x^d, mbox{if }x 0, mbox{otherwise} end{cases}

18. Bessel Kernel

a Bessel kernel jól ismert a frakcionált simaság függvénytereinek elméletében.

k (x, y) = frac{j_{v+1}( sigma lVert x-y rVert)} {lVert x-y rVert ^ {-n(v+1)}}

ahol J az első fajta Bessel függvény. Az R dokumentációhoz tartozó Kernlab-ban azonban a Bessel kernel neve a következő:

k(x,x') = - Bessel_{(nu+1)}^n (sigma|x - x'/^2)') = - Bessel_{(nu+1)}^n (sigma |x - x'|^2)

19. Cauchy Kernel

a Cauchy kernel a Cauchy disztribúcióból származik (Basak, 2008). Ez egy hosszú farkú kernel, amely nagy hatótávolságú befolyást és érzékenységet biztosít a nagy dimenziós tér felett.

k(x, y) = frac{1}{1 + frac{lVert x-y rVert^2}{sigma^2} }

20. Chi-négyzet Kernel

A Chi-négyzet kernel a Chi-négyzet eloszlásból származik:

k (x, y) = 1 - sum_{i=1}^n frac{(x_i-y_i)^2}{frac{1}{2}(x_i+y_i)}

azonban, amint azt Alexis Mignon kommentátor megjegyezte, a kernel ezen verziója csak feltételesen pozitív-határozott (CPD). Ennek a kernelnek a pozitív-határozott változatát (Vedaldi és Zisserman, 2011)

és a támogató vektorgépeken kívül más módszerekkel is alkalmazható.

21. Hisztogram metszéspont Kernel

A hisztogram metszéspont Kernel is ismert, mint a Min Kernel, és bebizonyosodott, hasznos kép osztályozás.

22. Generalizált hisztogram metszéspont

az általánosított hisztogram metszéspont kernel épül a hisztogram metszéspont Kernel kép osztályozás, de vonatkozik egy sokkal nagyobb különböző kontextusok (Boughorbel, 2005). Ezt a következők adják:

k (x, y)=sum_{i = 1}^m min(|x_i|^alpha,|y_i|^beta)

23. Általánosított t-Student Kernel

az általánosított t-Student Kernel Mercel kernelnek bizonyult, így pozitív félig határozott Kernel mátrixot kapott (Boughorbel, 2004). Ezt a következők adják:

k(x,y) = frac{1}{1 + lVert x-y rVert ^d}

24. Bayes Kernel

a Bayes kernel adható:

k(x,y) = prod_{l=1}^n kappa_l (x_l,y_l)

ahol

azonban ez valóban a modellezett problémától függ. További információért lásd Alashwal, Deris és Othman munkáját, amelyben Bayes-kernelekkel ellátott SVM-et használtak a fehérje-fehérje kölcsönhatások előrejelzésében.

25. Wavelet Kernel

a Wavelet kernel (Zhang et al, 2004) a Wavelet elméletből származik,és a következőképpen adható meg:

k(x, y) = prod_{i=1}^n h(frac{x_i-c_i}{a}) : h(frac{y_i-c_i}{a})

ahol a és C a wavelet dilatációs és fordítási együtthatók (a fent bemutatott forma egyszerűsítés, a részletekért lásd az eredeti papírt). Ennek a kernelnek a fordítási-invariáns változata a következőképpen adható meg:

k(x,y) = prod_{i=1}^n h(frac{x_i-y_i}{a})

ahol mindkét h(x) egy anya hullámfüggvényt jelöl. Li Zhang, Weida Zhou és Licheng Jiao tanulmányában a szerzők egy lehetséges h(x) – t javasolnak, mint:

h(x) = cos (1.75 x)exp (- frac{x^2}{2})

, amelyet szintén elfogadható kernel funkciónak bizonyítanak.

forráskód

a forráskód legújabb verziója szinte az összes fent felsorolt kernelhez elérhető a Accord.NET keret. Néhány is elérhető a folytatást ezt a cikket, Kernel Support vector Machines osztályozás és regresszió C#. Ezek az SVMs (Support Vector Machines) C# – ban történő átfogó és egyszerű implementációjával együtt kerülnek biztosításra. Azonban a legújabb források, amelyek tartalmazhatnak hibajavításokat, illetve egyéb fejlesztések, kérjük, töltse le a legújabb verzió elérhető Accord.NET.

Lásd

  • Kernel Support Vector Machines (kSVMs)
  • Fő Komponens Analízis (PCA)
  • Kernel Principal Component Analysis (KPCA)
  • Lineáris Diszkriminancia-Analízis (LDA)
  • a Nem-Lineáris Diszkriminancia-Elemzés Kernelek (KDA)
  • Logisztikus Regressziós Elemzés a C#
  • A Accord.NET Keret: Tudományos Számítási .NETTÓ
  • Haar-funkció objektum észlelése a C# (A Viola-Jones Osztályozó)
  • Kézírás-Felismerés használata Kernel Diszkriminancia-Elemzés
  • Kézírás-Felismerés Revisited: Kernel Support vector Machines
  • Logistic regressziós Analysis
  • On-Line predikciós Wiki Contributors. “Kernel Módszerek.”On-Line Jóslat Wiki. http://onlineprediction.net/?n=Main.KernelMethods (elérhető: 2010.március 3.).
  • Genton, Marc G. ” Classes of Kernels for Machine Learning: A Statistics Perspective.”Journal of Machine Learning Research 2 (2001) 299-312.
  • Hofmann, T., B. Schölkopf és A. J. Smola. “Kernel módszerek a gépi tanulásban.”Ann. Statista. 36. Kötet, 3. Szám (2008), 1171-1220.
  • Gunn, S. R. (1998, május). “Support vector machines for classification and regression.”Technical report, Faculty of Engineering, Science and Mathematics School of Electronics and Computer Science.
  • Karatzoglou, A., Smola, A., Hornik, K. and Zeileis, A. “Kernlab – an R package for kernel Learning.” (2004).
  • Karatzoglou, A., Smola, A., Hornik, K. and Zeileis, A. “Kernlab – an S4 package for kernel methods in R.” J. Statistical Software, 11, 9 (2004).
  • Karatzoglou, A., Smola, A., Hornik, K. és Zeileis, A. ” R: Kernel függvények.”Dokumentáció a” kernlab ” csomag 0.9-5 verziójához. http://rss.acs.unt.edu/Rdoc/library/kernlab/html/dots.html (elérhető: 2010.március 3.).
  • Howley, T. and Madden, M. G.”the genetic kernel support Vector machine: Description and evaluation”. Mesterséges Intelligencia Felülvizsgálata. 24. Kötet, 3. Szám( 2005), 379-395.
  • Shawkat Ali és Kate A. Smith. “Kernel Width Selection for SVM Classification: a Meta-Learning Approach.”International Journal of Data Warehousing & Mining, 1(4), 78-97, October-December 2005.
  • Hsuan-Tien Lin és Chih-Jen Lin. “A study on sigmoid kernels for SVM and the training of non-PSD kernels by SMO-type methods.”Technical report, Department of Computer Science, National Taiwan University, 2003.
  • Boughorbel, S., Jean-Philippe Tarel és Nozha Boujemaa. “Project-Imedia: Objektumfelismerés.”INRIA-INRIA Activity Reports-RalyX. http://ralyx.inria.fr/2004/Raweb/imedia/uid84.html (elérhető: 2010.március 3.).
  • Huang, Lingkang. “Variable Selection in Multi-class Support Vector Machine and Applications in Genomic Data Analysis.”PhD Disszertáció, 2008.
  • Manning, Christopher D., Prabhakar Raghavan és Hinrich Schütze. “Nemlineáris SVMs.”A Stanford NLP (Natural Language Processing) csoport. http://nlp.stanford.edu/IR-book/html/htmledition/nonlinear-svms-1.html (elérhető: 2010.március 3.).
  • Fomel, Sergey. “Inverz B-spline interpoláció.”Stanford Exploration Project, 2000. http://sepwww.stanford.edu/public/docs/sep105/sergey2/paper_html/node5.html (elérhető: 2010.március 3.).
  • Basak, Jayanta. “A legkisebb négyzet kernel gép doboz megszorítások.”International Conference on Pattern Recognition 2008 1 (2008): 1-4.
  • Alashwal, H., Safaai Deris és Razib M. Othman. “Bayesian Kernel a fehérje – fehérje kölcsönhatások előrejelzésére.”International Journal of Computational Intelligence 5, no. 2 (2009): 119-124.
  • Hichem Sahbi és François Fleuret. “Kernel methods and scale invariance using the triangular kernel”. INRIA Research Report, N-5143, március 2004.
  • Sabri Boughorbel, Jean-Philippe Tarel és Nozha Boujemaa. “Generalized histogram intersection kernel for image recognition”. Proceedings of the 2005 Conference on Image Processing, volume 3, pages 161-164, 2005.
  • Micchelli, Charles. Szórt adatok interpolációja: távolság mátrixok és feltételesen pozitív határozott függvények. Konstruktív közelítés 2, no.1 (1986): 11-22.
  • Wikipedia contributors, ” Kernel methods,”Wikipedia, the Free Encyclopedia, http://en.wikipedia.org/w/index.php?title=Kernel_methods&oldid=340911970 (elérhető 2010.március 3-án).
  • Wikipedia contributors, “Kernel trick”, Wikipedia, the Free Encyclopedia, http://en.wikipedia.org/w/index.php?title=Kernel_trick&oldid=269422477 (elérhető 2010.március 3-án).
  • Weisstein, Eric W. ” pozitív Félidefinit mátrix.”From MathWorld – A Wolfram Web Resource. http://mathworld.wolfram.com/PositiveSemidefiniteMatrix.html
  • Hamers B.” Kernel Models for Large Scale Applications”, Ph.D., Katholieke Universiteit Leuven, Belgium, 2004.
  • Li Zhang, Weida Zhou, Licheng Jiao. Wavelet Támogató Vektor Gép. IEEE tranzakciók rendszer, ember és kibernetika, B. rész, 2004, 34(1): 34-39.
  • Vedaldi, A. and Zisserman, A. Efficient Additive Kernels via Explicit Feature Maps. IEEE Transactions on Pattern Recognition and Machine Intelligence, Vol. XX, nem. XX, június, 2011.

idézi ezt a munkát

Ha szeretné, kérjük, idézze ezt a munkát: Souza, César R. “kernel funkciók gépi tanulási alkalmazásokhoz. Március 17. 2010. Web. <http://crsouza.blogspot.com/2010/03/kernel-functions-for-machine-learning.html>.

Related Posts

Vélemény, hozzászólás?

Az e-mail-címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük