César Souza

En los últimos años, los métodos del núcleo han recibido una gran atención, particularmente debido a la creciente popularidad de las Máquinas Vectoriales de Soporte. Las funciones del núcleo se pueden usar en muchas aplicaciones, ya que proporcionan un puente simple de linealidad a no linealidad para algoritmos que se pueden expresar en términos de productos punteados. En este artículo, enumeraremos algunas funciones del núcleo y algunas de sus propiedades.

  • Compruebe el código fuente de todas las funciones del núcleo aquí.

Muchas de estas funciones se han incorporado en Accord.NET, un marco para crear aplicaciones de aprendizaje automático, estadísticas y visión computarizada.

Contenido

  1. Kernel Métodos de
    1. El Kernel Truco
    2. Kernel Propiedades
    3. la Elección de la Derecha Kernel
  2. Funciones del Kernel
    1. Lineal Kernel
    2. Polinomio Kernel
    3. Núcleo Gaussiano
    4. Exponencial Kernel
    5. Laplaciano Kernel
    6. ANOVA Kernel
    7. Tangente Hiperbólica (Sigmoide) Kernel
    8. Racional Cuadrática Kernel
    9. Multiquadric Kernel
    10. Inversa Multiquadric Kernel
    11. Circular Kernel
    12. Esférica Kernel
    13. Ola Kernel
    14. Potencia Kernel
    15. Registro de Kernel
    16. Spline Núcleo
    17. Núcleo B-Spline
    18. Núcleo Bessel
    19. Núcleo Cauchy
    20. Núcleo Chi-Cuadrado
    21. Núcleo de intersección de Histogramas
    22. Núcleo de Intersección de Histogramas generalizado
    23. Núcleo T-Estudiante generalizado
    24. Núcleo Bayesiano
    25. Núcleo Wavelet
  3. Código fuente
  4. Véase también

Métodos de núcleo

Los métodos de núcleo son una clase de algoritmos para el análisis o reconocimiento de patrones, cuyo elemento más conocido es la máquina vectorial de soporte (SVM). La tarea general del análisis de patrones es encontrar y estudiar tipos generales de relaciones (como grupos, clasificaciones, componentes principales, correlaciones, clasificaciones) en tipos generales de datos (como secuencias, documentos de texto, conjuntos de puntos, vectores, imágenes, gráficos, etc.) (Wikipedia, 2010a).

La principal característica de los métodos del Núcleo, sin embargo, es su enfoque distinto a este problema. Los métodos del núcleo mapean los datos en espacios de dimensiones más altas con la esperanza de que en este espacio de dimensiones más altas los datos puedan separarse más fácilmente o estructurarse mejor. Tampoco hay restricciones en la forma de este mapeo, que incluso podría conducir a espacios de dimensiones infinitas. Esta función de asignación, sin embargo, apenas necesita ser calculada debido a una herramienta llamada truco del núcleo.

El truco del núcleo

El truco del núcleo es una herramienta muy interesante y potente. Es potente porque proporciona un puente de linealidad a no linealidad a cualquier algoritmo que pueda expresarse únicamente en términos de productos punteados entre dos vectores. Proviene del hecho de que, si primero mapeamos nuestros datos de entrada en un espacio de dimensiones superiores, un algoritmo lineal que opera en este espacio se comportará de forma no lineal en el espacio de entrada original.

Ahora, el truco del Núcleo es realmente interesante porque esa asignación no necesita ser calculada. Si nuestro algoritmo se puede expresar solo en términos de un producto interno entre dos vectores, todo lo que necesitamos es reemplazar este producto interno con el producto interno de algún otro espacio adecuado. Ahí es donde reside el «truco»: dondequiera que se use un producto escalar, se reemplaza con una función de núcleo. La función del núcleo denota un producto interno en el espacio de entidades y generalmente se denota como:

K(x,y) = <φ(x),φ(y)>

Usando la función del núcleo, el algoritmo se puede llevar a un espacio de dimensión superior sin mapear explícitamente los puntos de entrada en este espacio. Esto es muy deseable, ya que a veces nuestro espacio de características de dimensión superior podría incluso ser de dimensión infinita y, por lo tanto, inviable de calcular.

Propiedades del núcleo

Las funciones del núcleo deben ser continuas, simétricas, y preferiblemente deben tener una matriz Gram positiva (semi) definida. Los núcleos que se dice que satisfacen el teorema de Mercer son semi-definidos positivos, lo que significa que sus matrices de núcleo solo tienen valores propios no negativos. El uso de un núcleo definido positivo asegura que el problema de optimización será convexo y la solución será única.

Sin embargo, muchas funciones del núcleo que no son estrictamente definidas positivas también se han demostrado que funcionan muy bien en la práctica. Un ejemplo es el núcleo Sigmoide, que, a pesar de su amplio uso, no es positivo semi-definido para ciertos valores de sus parámetros. Boughorbel (2005) también demostró experimentalmente que los núcleos que solo son definidos condicionalmente positivos pueden superar a la mayoría de los núcleos clásicos en algunas aplicaciones.

Los núcleos también se pueden clasificar como estacionarios anisotrópicos, estacionarios isotrópicos, con soporte compacto, estacionarios localmente, no estacionarios o no estacionarios separables. Además, los núcleos también se pueden etiquetar invariantes de escala o dependientes de escala, que es una propiedad interesante ya que los núcleos invariantes de escala impulsan el proceso de entrenamiento invariante a una escala de los datos.

Elegir el núcleo correcto

Elegir el núcleo más apropiado depende en gran medida del problema en cuestión, y ajustar sus parámetros puede convertirse fácilmente en una tarea tediosa y engorrosa. La selección automática del núcleo es posible y se discute en las obras de Tom Howley y Michael Madden.

La elección de un Núcleo depende del problema en cuestión, porque depende de lo que estamos tratando de modelo. Un núcleo polinómico, por ejemplo, nos permite modelar conjunciones de entidades hasta el orden del polinomio. Las funciones de base radial permiten seleccionar círculos (o hiperesferas) – en construcción con el núcleo lineal, que solo permite seleccionar líneas (o hiperplanos).

La motivación detrás de la elección de un núcleo en particular puede ser muy intuitiva y directa dependiendo del tipo de información que esperamos extraer sobre los datos. Por favor, consulte las notas finales sobre este tema de Introducción a la Recuperación de información, de Manning, Raghavan y Schütze para obtener una mejor explicación sobre el tema.

Funciones del núcleo

A continuación se muestra una lista de algunas funciones del núcleo disponibles en la literatura existente. Al igual que en los artículos anteriores, todas las notaciones LaTeX para las fórmulas a continuación están disponibles en su etiqueta html de texto alternativo. No puedo garantizar que todos ellos sean perfectamente correctos, por lo tanto, úselos bajo su propio riesgo. La mayoría de ellos tienen enlaces a artículos donde se han utilizado o propuesto originalmente.

1. Kernel lineal

  • Documentación del kernel lineal-código fuente del kernel lineal – cómo crear SVM en. NET con Accord.NET

El núcleo lineal es la función de núcleo más simple. Está dado por el producto interno < x, y> más una constante opcional c. Los algoritmos del núcleo que utilizan un núcleo lineal a menudo son equivalentes a sus contrapartes no kernel, es decir, KPCA con núcleo lineal es lo mismo que el PCA estándar.

k (x, y) = x^T y + c

2. Núcleo polinómico

El núcleo polinómico es un núcleo no estacionario. Los núcleos polinómicos son adecuados para problemas en los que todos los datos de entrenamiento están normalizados.

k(x, y) = (alpha x^T y + c)^d
Los parámetros ajustables son la pendiente alfa, el término constante c y el grado polinómico d.

3. Núcleo gaussiano

El núcleo gaussiano es un ejemplo de núcleo de función de base radial.

k(x, y) = expleft(-frac{ lVert x-y rVert ^2}{2sigma^2}derecha)

como alternativa, también puede ser implementado utilizando

k(x, y) = expleft(- gamma lVert x-y rVert ^2 )

El ajuste del parámetro sigma juega un papel importante en el rendimiento del kernel, y debe ser cuidadosamente adaptada para el problema en cuestión. Si se sobrestima, la exponencial se comportará casi linealmente y la proyección de mayor dimensión comenzará a perder su potencia no lineal. Por otro lado, si se subestima, la función carecerá de regularización y el límite de decisión será altamente sensible al ruido en los datos de entrenamiento.

4. Núcleo exponencial

El núcleo exponencial está estrechamente relacionado con el núcleo gaussiano, con solo el cuadrado de la norma omitido. También es un núcleo de función de base radial.

k (x, y) = expleft(-frac{ lVert x-y rVert }{2sigma^2}derecha)

5. Núcleo Laplaciano

El núcleo Laplace es completamente equivalente al núcleo exponencial, excepto por ser menos sensible a los cambios en el parámetro sigma. Al ser equivalente, también es un núcleo de función de base radial.

k (x, y) = expleft(- frac{lVert x-y rVert }{sigma}derecha)

Es importante tener en cuenta que las observaciones hechas sobre el parámetro sigma para el núcleo gaussiano también se aplican a los núcleos exponencial y Laplaciano.

6. Núcleo ANOVA

El núcleo ANOVA es también un núcleo de función de base radial, al igual que los núcleos gaussianos y laplacianos. Se dice que funciona bien en problemas de regresión multidimensional (Hofmann, 2008).

k (x, y)=sum_{k = 1}^n exp (-sigma (x^k - y^k)^2)^d

7. Núcleo de Tangente Hiperbólica (Sigmoide)

El Núcleo de Tangente Hiperbólica también se conoce como Núcleo Sigmoide y núcleo Perceptrón Multicapa (MLP). El Núcleo Sigmoide proviene del campo de Redes Neuronales, donde la función sigmoide bipolar se usa a menudo como función de activación para neuronas artificiales.

k (x, y) = tanh (alpha x^T y + c)

Es interesante observar que un modelo SVM que utiliza una función de núcleo sigmoide es equivalente a una red neuronal perceptron de dos capas. Este núcleo era bastante popular para máquinas de vectores de soporte debido a su origen en la teoría de redes neuronales. Además, a pesar de ser solo definitivo condicionalmente positivo, se ha encontrado que funciona bien en la práctica.

Hay dos parámetros ajustables en el núcleo sigmoide, la pendiente alfa y la constante de intersección c. Un valor común para alfa es 1 / N, donde N es la dimensión de datos. Un estudio más detallado sobre los núcleos sigmoides se puede encontrar en los trabajos de Hsuan-Tien y Chih-Jen.

8. Núcleo Cuadrático Racional

El núcleo Cuadrático Racional es menos intensivo computacionalmente que el núcleo gaussiano y se puede usar como alternativa cuando el uso del núcleo gaussiano se vuelve demasiado caro.

k (x, y) = 1-frac{lVert x-y rVert^2}{lVert x-y rVert^2 + c}

9. Núcleo Multicuadric

El núcleo Multicuadric se puede usar en las mismas situaciones que el núcleo Cuadrático Racional. Como es el caso del núcleo Sigmoide, también es un ejemplo de núcleo definido no positivo.

k(x, y) = sqrt{lVert x-y rVert^2 + c^2}

10. Núcleo Multicuadric Inverso

El núcleo Multi Cuádric Inverso. Al igual que con el núcleo gaussiano, resulta en una matriz de núcleo con rango completo (Micchelli, 1986) y, por lo tanto, forma un espacio de características de dimensión infinita.

k (x, y) = frac{1}{sqrt{lVert x-y rVert^2 + theta^2}}

11. Núcleo circular

El núcleo circular se utiliza en aplicaciones geostáticas. Es un ejemplo de núcleo estacionario isotrópico y es positivo definido en R2.

k(x, y) = frac{2}{pi} arccos ( - frac{ lVert x-y rVert}{sigma}) - frac{2}{pi} frac{ lVert x-y rVert}{sigma} sqrt{1 - izquierda(frac{ lVert x-y rVert}{sigma} derecho)^2}
mbox{si}~ lVert x-y rVert sigma mbox{, cero en caso contrario}

12. Núcleo esférico

El núcleo esférico es similar al núcleo circular, pero es positivo definido en R3.

k(x, y) = 1 - frac{3}{2} frac{lVert x-y rVert}{sigma} + frac{1}{2} a la izquierda( frac{ lVert x-y rVert}{sigma} derecho)^3

mbox{si}~ lVert x-y rVert sigma mbox{, cero en caso contrario}

13. Núcleo de onda

El núcleo de onda también es semidefinido positivo simétrico (Huang, 2008).

k (x, y) = frac{theta}{lVert x-y rVert right} sin frac{lVert x-y rVert }{theta}

14. Núcleo de energía

El núcleo de energía también se conoce como núcleo triangular (no corregido). Es un ejemplo de núcleo invariante a escala (Sahbi y Fleuret, 2004)y también es definido condicionalmente positivo.

k (x,y) = - lVert x-y rVert ^d

15. Núcleo de registro

El núcleo de registro parece ser particularmente interesante para imágenes, pero solo es definido condicionalmente positivo.

k (x,y) = -log (lVert x-y rVert ^d + 1)

16. Núcleo estriado

El núcleo Estriado se da como un polinomio cúbico por pieza, como se deriva en las obras de Gunn (1998).

k(x, y) = 1 + xy + xy~min(x,y) - frac{x+y}{2}~min(x,y)^2+frac{1}{3}min(x,y)^3

sin Embargo, lo que realmente quieren decir es:

k(x,y) = prod_{i=1}^d 1 + x_i y_i + x_i y_i min(x_i, y_i) - frac{x_i + y_i}{2} min(x_i,y_i)^2 + frac{min(x_i,y_i)^3}{3}

Con la etiquetax,y en R^d

17. Núcleo B-Spline (Función de Base Radial)

El núcleo B-Spline se define en el intervalo . Está dada por la fórmula recursiva:

k(x,y) = B_{2p+1}(x-y)

mbox{donde~} p en N mbox{~con~} B_{i+1} := B_i otimes B_0.

En el trabajo de Bart Hamers está dada por:

k(x, y) = prod_{p=1}^d B_{2n+1}(x_p - y_p)

como alternativa, Bn puede calcularse mediante la expresión explícita (Fomel, 2000):

B_n(x) = frac{1}{n!} sum_{k = 0}^{n + 1} binom{n+1} {k} (-1)^k (x + frac{n+1} {2} - k)^n_+

Donde x+ se define como la función de potencia truncada:

x^d_ + = begin{cases} x^d, mbox{if }x 0 0, mbox{otherwise} end{cases}

18. Núcleo de Bessel

El núcleo de Bessel es bien conocido en la teoría de espacios funcionales de suavidad fraccionada. Está dada por:

k(x, y) = frac{J_{v+1}( sigma lVert x-y rVert)}{ lVert x-y rVert ^ {-n(v+1)} }

donde J es la función de Bessel de primera especie. Sin embargo, en la documentación de Kernlab para R,se dice que el núcleo de Bessel es:

k(x, x') = - Bessel_{(nu+1)}^n (sigma |x - x'|^2)') = - Bessel_{(nu+1)}^n (sigma |x - x'|^2)

19. Núcleo Cauchy

El núcleo Cauchy proviene de la distribución Cauchy (Basak, 2008). Es un núcleo de cola larga y se puede usar para dar influencia y sensibilidad de largo alcance sobre el espacio de alta dimensión.

k (x, y) = frac{1}{1 + frac{lVert x-y rVert^2}{sigma^2} }

20. Núcleo Chi-Cuadrado

El núcleo Chi-Cuadrado proviene de la distribución Chi-Cuadrado:

k(x,y) = 1 - sum_{i=1}^n frac{(x_i-y_i)^2}{frac{1}{2}(x_i+y_i)}

sin Embargo, como señaló el comentarista Alexis Mignon, esta versión del kernel es sólo condicionalmente positivo-definida (CPD). Una versión positiva definida de este núcleo se da en (Vedaldi y Zisserman, 2011) como

y es adecuada para ser utilizada por métodos que no sean máquinas vectoriales de soporte.

21. Núcleo de intersección de Histogramas

El Núcleo de Intersección de Histogramas también se conoce como Núcleo Min y ha demostrado ser útil en la clasificación de imágenes.

k (x,y)=sum_{i = 1}^n min(x_i,y_i)

22. Intersección de Histograma generalizada

El núcleo de Intersección de Histograma Generalizado se construye en base al Núcleo de Intersección de Histograma para la clasificación de imágenes, pero se aplica en una variedad mucho mayor de contextos (Boughorbel, 2005). Está dado por:

k (x,y)=sum_{i = 1}^m min(|x_i|^alpha,|y_i|^beta)

23. Núcleo T-Student generalizado

Se ha demostrado que el Núcleo T-Student Generalizado es un Núcleo Mercel, por lo que tiene una matriz de Núcleo semi-definida positiva (Boughorbel, 2004). Está dada por:

k(x,y) = frac{1}{1 + lVert x-y rVert ^d}

24. Núcleo bayesiano

El núcleo bayesiano se puede dar como:

k(x,y) = prod_{l=1}^N kappa_l (x_l,y_l)

donde

kappa_l(a,b) = sum_{c en {0;1}} P(Y=c mid X_l=a) ~ P(Y=c mid X_l=b)

Sin embargo, realmente depende del problema que se está modelando. Para obtener más información, consulte el trabajo de Alashwal, Deris y Othman, en el que utilizaron un SVM con granos bayesianos en la predicción de interacciones proteína-proteína.

25. Núcleo de Wavelet

El núcleo de Wavelet (Zhang et al, 2004) proviene de la teoría de Wavelet y se da como:

k(x,y) = prod_{i=1}^N h(frac{x_i-c_i}{a}) : h(frac{y_i-c_i}{a})

Donde a y c son los coeficientes de dilatación de la ondícula y de traducción, respectivamente (el formulario presentado anteriormente es una simplificación, consulte el documento original para obtener más detalles). Una versión invariante de traducción de este núcleo se puede dar como:

k (x, y)=prod_{i = 1}^N h(frac{x_i-y_i}{a})

Donde en ambos h(x) denota una función de wavelet madre. En el artículo de Li Zhang, Weida Zhou y Licheng Jiao, los autores sugieren un posible h(x) como:

h(x) = cos (1.75 x)exp (- frac{x^2}{2})

Que también prueban como una función de núcleo admisible.

Código fuente

La última versión del código fuente para casi todos los núcleos enumerados anteriormente está disponible en el Accord.NET Marco. Algunos también están disponibles en la secuela de este artículo, Máquinas Vectoriales de soporte de Kernel para Clasificación y Regresión en C#. Se proporcionan junto con una implementación completa y sencilla de SVM (Máquinas de vectores de soporte) en C#. Sin embargo, para las fuentes más recientes, que pueden contener correcciones de errores y otras mejoras, descargue la versión más reciente disponible de Accord.NET.

Véase también

  • Máquinas Vectoriales de Soporte del núcleo (KSVM)
  • Análisis de Componentes Principales (PCA)
  • Análisis de Componentes Principales del Núcleo (KPCA)
  • Análisis Discriminante Lineal (LDA)
  • Análisis Discriminante no Lineal con Núcleos (KDA)
  • Análisis de Regresión Logística en C#
  • El Accord.NET Framework: Computación Científica en. NET
  • Detección de objetos con características Haar en C# (El Clasificador Viola-Jones)
  • Reconocimiento de escritura a Mano mediante Análisis Discriminante del Núcleo
  • Reconocimiento de escritura a mano Revisado: El Núcleo admite Máquinas Vectoriales
  • Análisis de Regresión Logística
  • Colaboradores de Wiki de Predicción en Línea. «Métodos del núcleo.»On-Line Prediction Wiki. http://onlineprediction.net/?n=Main.KernelMethods(consultado el 3 de marzo de 2010).
  • Genton, Marc G. » Classes of Kernels for Machine Learning: A Statistics Perspective.»Journal of Machine Learning Research 2 (2001) 299-312.
  • Hofmann, T., B. Schölkopf, and A. J. Smola. «Kernel methods in machine learning.” Ana. Estatista. Volume 36, Number 3 (2008), 1171-1220.Gunn, S. R. (1998, mayo). «Máquinas de vectores de soporte para clasificación y regresión.»Technical report, Faculty of Engineering, Science and Mathematics School of Electronics and Computer Science.
  • Karatzoglou, A., Smola, A., Hornik, K. y Zeileis, A. «Kernlab – un paquete de R para el aprendizaje del núcleo.” (2004).
  • Karatzoglou, A., Smola, A., Hornik, K. and Zeileis, A. «Kernlab – an S4 package for kernel methods in R.» J. Statistical Software, 11, 9 (2004).
  • Karatzoglou, A., Smola, A., Hornik, K. y Zeileis, A. «R: Funciones del núcleo.»Documentación para el paquete ‘kernlab’ versión 0.9-5. http://rss.acs.unt.edu/Rdoc/library/kernlab/html/dots.html(consultado el 3 de marzo de 2010).
  • Howley, T. y Madden, M. G. «The genetic kernel support vector machine: Description and evaluation». Revisión de Inteligencia Artificial. Volume 24, Number 3 (2005), 379-395.
  • Shawkat Ali y Kate A. Smith. «Kernel Width Selection for SVM Classification: A Meta-Learning Approach.»International Journal of Data Warehousing & Mining, 1(4), 78-97, octubre-diciembre de 2005.
  • Hsuan-Tien Lin y Chih-Jen Lin. «A study on sigmoid kernels for SVM and the training of non-PSD kernels by SMO-type methods.»Technical report, Department of Computer Science, National Taiwan University, 2003.
  • Boughorbel, S., Jean-Philippe Tarel y Nozha Boujemaa. «Proyecto-Imedia: Reconocimiento de objetos.»INRIA-Informes de Actividad de INRIA-RalyX. http://ralyx.inria.fr/2004/Raweb/imedia/uid84.html(consultado el 3 de marzo de 2010).
  • Huang, Lingkang. «Selección de Variables en Máquinas Vectoriales de Soporte de Múltiples clases y Aplicaciones en Análisis de Datos Genómicos.»Tesis doctoral, 2008.
  • Manning, Christopher D., Prabhakar Raghavan, and Hinrich Schütze. «SVMs no lineales.»The Stanford NLP (Natural Language Processing) Group. http://nlp.stanford.edu/IR-book/html/htmledition/nonlinear-svms-1.html(consultado el 3 de marzo de 2010).
  • Fomel, Sergey. «Interpolación B-spline inversa.»Stanford Exploration Project, 2000. http://sepwww.stanford.edu/public/docs/sep105/sergey2/paper_html/node5.html(consultado el 3 de marzo de 2010).
  • Basak, Jayanta. «Una máquina de núcleo cuadrado mínimo con restricciones de caja.»International Conference on Pattern Recognition 2008 1( 2008): 1-4.
  • Alashwal, H., Safaai Deris, and Razib M. Othman. «A Bayesian Kernel for the Prediction of Protein – Protein Interactions.»International Journal of Computational Intelligence 5, no. 2( 2009): 119-124.
  • Hichem Sahbi y François Fleuret. «Kernel methods and scale invariance using the triangular kernel»(en inglés). INRIA Research Report, N-5143, marzo de 2004.
  • Sabri Boughorbel, Jean-Philippe Tarel y Nozha Boujemaa. «Kernel de intersección de histograma generalizado para reconocimiento de imágenes». Proceedings of the 2005 Conference on Image Processing, volume 3, pages 161-164, 2005.
  • Micchelli, Charles. Interpolación de datos dispersos: Matrices de distancia y funciones definidas condicionalmente positivas. Aproximación constructiva 2, no. 1 (1986): 11-22.
  • Colaboradores de Wikipedia, «Métodos del núcleo», Wikipedia, La Enciclopedia Libre, http://en.wikipedia.org/w/index.php?title=Kernel_methods&oldid=340911970(consultado el 3 de marzo de 2010).
  • Colaboradores de Wikipedia, «Truco del núcleo», Wikipedia, La Enciclopedia Libre, http://en.wikipedia.org/w/index.php?title=Kernel_trick&oldid=269422477(consultado el 3 de marzo de 2010).
  • Weisstein, Eric W. » Positive Semidefinite Matrix.»From MathWorld – A Wolfram Web Resource. http://mathworld.wolfram.com/PositiveSemidefiniteMatrix.html
  • Hamers B. «Kernel Models for Large Scale Applications», Ph. D., Katholieke Universiteit Leuven, Bélgica, 2004.
  • Li Zhang, Weida Zhou, Licheng Jiao. Máquina Vectorial de Soporte de Ondas. Transacciones IEEE sobre Sistema, Hombre y Cibernética, Parte B, 2004, 34(1): 34-39.
  • Vedaldi, A. y Zisserman, A. Núcleos Aditivos Eficientes a través de Mapas de Características Explícitos. IEEE Transactions on Pattern Recognition and Machine Intelligence, Vol. XX, No. XX, junio de 2011.

Citando este trabajo

Si lo desea, cite este trabajo como: Souza, César R. » Funciones del núcleo para aplicaciones de aprendizaje automático.»17 de marzo. 2010. Web. <http://crsouza.blogspot.com/2010/03/kernel-functions-for-machine-learning.html>.

Related Posts

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *