¿Qué es el aprendizaje automático?
Las máquinas aprenden mediante el análisis de grandes cantidades de datos. Por ejemplo, no se requiere programación para reconocer gatos o caras, sino que se pueden entrenar mediante imágenes para resumir e identificar objetivos específicos.
La relación entre aprendizaje automático e inteligencia artificial
El aprendizaje automático es una disciplina de investigación y algoritmos que se centra en buscar patrones en los datos y usar esos patrones para hacer predicciones. El aprendizaje automático es parte del campo de la inteligencia artificial y se intersecta con el descubrimiento de conocimiento y la extracción de datos.
Cómo funciona el aprendizaje automático
1 Seleccione datos: divide sus datos en tres grupos: datos de entrenamiento, datos de verificación y datos de prueba. 2 Datos del modelo: Se utilizan datos de entrenamiento para construir modelos que utilizan características relevantes 3 Modelo de verificación: usa tus datos de verificación para acceder a tu modelo 4 Modelo de prueba: usa tus datos de prueba para comprobar el rendimiento de un modelo verificado 5 Usar modelos: hacer predicciones con modelos completamente entrenados sobre nuevos datos 6 Modelo de optimización: utiliza más datos, características diferentes o parámetros modificados para mejorar el rendimiento del algoritmo
¿Dónde está el aprendizaje automático?
1 Programación tradicional: un ingeniero de software escribe un programa para resolver un problema. Primero hay algunos datos → Para resolver un problema, el ingeniero de software escribe un proceso para decirle a la máquina qué debe hacer→ La computadora sigue este proceso y obtiene resultados. 2 Estadística: los analistas comparan las relaciones entre variables 3 Aprendizaje automático: un científico de datos usa un conjunto de datos entrenados para enseñarle a un ordenador qué debe hacer, y luego el sistema ejecuta la tarea. Primero, existe el Big Data→ una máquina aprende a usar un conjunto de datos entrenados para clasificar y ajustar algoritmos específicos para lograr la clasificación de objetivos→ la computadora aprende a identificar relaciones, tendencias y patrones en los datos 4 Aplicaciones inteligentes: los resultados obtenidos por aplicaciones inteligentes que utilizan inteligencia artificial, como se muestra en el gráfico, son una muestra de un caso de aplicación en agricultura de precisión, que se basa en datos recopilados por drones.
Aplicaciones prácticas del aprendizaje automático
Hay muchos escenarios de aplicación para el aprendizaje automático, y aquí hay algunos ejemplos de cómo lo usarías.
Mapeo y modelado rápido en 3D: para construir un puente ferroviario, los científicos de datos y expertos en el campo de PwC aplican el aprendizaje automático a los datos recopilados por los drones. Esta combinación permite una monitorización precisa y una retroalimentación rápida del éxito del trabajo.
Análisis mejorado para reducir el riesgo: Para detectar transacciones internas, PwC combina el aprendizaje automático con otras técnicas de análisis para desarrollar un perfil de usuario más completo y obtener una mayor comprensión de los comportamientos complejos sospechosos.
Objetivos de predicción de mejor desempeño: PwC utiliza aprendizaje automático y otros métodos de análisis para evaluar el potencial de los diferentes caballos en el circuito de la Melbourne Cup.
Durante décadas, las "tribus" de investigadores de IA han estado compitiendo entre sí por el dominio. ¿Es hora de que estas tribus se unan? Tal vez tengan que hacerlo, porque la cooperación y la fusión de algoritmos es la única manera de lograr una inteligencia artificial verdaderamente universal (AGI)? Aquí se muestra el camino a seguir para la evolución de los métodos de aprendizaje automático y los posibles modelos para el futuro.
Las cinco grandes clases
1 Simbolismo: el uso de símbolos, reglas y lógica para describir el conocimiento y realizar el razonamiento lógico, los algoritmos preferidos son: reglas y árboles de decisión 2 Bayesianismo: obtención de probabilidades de ocurrencia para el razonamiento de probabilidades, los algoritmos preferidos son: Bayesian o Markov 3 Conectivismo: utiliza matrices de probabilidad y neuronas ponderadas para identificar y resumir patrones dinámicamente, el algoritmo favorito es: 4 Evolución: generar cambios y luego obtener el mejor de ellos para un objetivo específico. El algoritmo preferido es: algoritmo genético 5 Analogizer: Optimiza las funciones según las condiciones de restricción (alcanza lo más alto posible, pero no te alejes de la carretera al mismo tiempo), el algoritmo favorito es:
Las etapas de la evolución
La década de 1980
El género dominante: el simbolismo Arquitectura: servidor o máquina grande Teoría dominante: ingeniería del conocimiento La lógica básica de la toma de decisiones: sistemas de apoyo a la toma de decisiones con una utilidad limitada
Los años 90 hasta el año 2000
El género dominante: Bayes Arquitectura: Agrupación de servidores pequeños Teoría dominante: la teoría de las probabilidades Categoría: comparación o contraste escalable, suficiente para muchas tareas
A principios y mediados de los años 2010
El género dominante: el unidadismo Arquitectura: granjas de servidores Teoría dominante: Neurociencia y probabilidad Reconocimiento: reconocimiento de imágenes y voces más precisos, traducción, análisis de emociones, etc.
Se espera que estos géneros trabajen juntos y fusionen sus diferentes métodos.
A finales de los años 2010
El género dominante es el unitarismo y el simbolismo. Arquitectura: muchas nubes Teorías dominantes: redes neuronales de memoria, integración a gran escala, razonamiento basado en el conocimiento Respuesta simple: compartiendo conocimientos específicos de un ámbito limitado.
Los años 2020+
El género predominante es el unionismo + el simbolismo + el baez +... Arquitectura: computación en la nube y computación en niebla Teoría dominante: hay redes cuando se percibe, hay reglas cuando se razona y se trabaja Sencilla percepción, razonamiento y acción: limitación de la automatización o la interacción entre humanos y máquinas
Los años 2040 y más
El género dominante: Fusión de algoritmos Arquitectura: servidores en todas partes Teoría dominante: la mejor combinación de metaaprendizaje Percepción y respuesta: actuar o responder basándose en el conocimiento o la experiencia adquirida a través de múltiples formas de aprendizaje
¿Qué algoritmos de aprendizaje automático deberías usar? Esto depende en gran medida de la naturaleza y cantidad de datos disponibles y de tus objetivos de entrenamiento en cada caso de uso específico. No utilices los algoritmos más complejos a menos que sus resultados valgan la pena pagar costosos gastos y recursos.
Árbol de decisión: en el proceso de respuesta progresiva, el análisis típico del árbol de decisión utiliza variables de clasificación o nodos de decisión, por ejemplo, para clasificar a un usuario dado como confiable o no confiable.
Ventajas: Es capaz de evaluar una variedad de características, cualidades y características de personas, lugares y cosas. Ejemplos de escenarios: evaluación de crédito basada en reglas, predicción de resultados de carreras
Support Vector Machine: basado en el hiperplano, con el que se puede clasificar el conjunto de datos.
Ventajas: Soporte para vectores que son buenos para realizar operaciones de clasificación binaria entre variables X y otras variables, independientemente de si su relación es lineal o no Ejemplos de escenarios: clasificación de noticias, reconocimiento de manos.
Regresión: la regresión puede dibujar la relación de estado entre una variable causada y una o más variables causadas. En este caso, se distingue entre spam y no spam.
Ventajas: La regresión puede ser utilizada para identificar relaciones continuas entre variables, incluso si la relación no es muy obvia Ejemplos de escenarios: análisis de tráfico, filtrado de correo
Clasificación Bayesiana Naive: El clasificador Bayesiano Naive se utiliza para calcular la probabilidad de ramificación de las condiciones posibles. Cada característica independiente es "naive" o independiente de las condiciones, por lo que no afecta a otros objetos. Por ejemplo, ¿cuál es la probabilidad de obtener dos bolas amarillas consecutivas en una caja con un total de 5 bolas amarillas y rojas?
Ventajas: Para objetos relevantes con características significativas en un conjunto de datos pequeño, el método Bayesian simple permite su clasificación rápida Ejemplos de escenarios: análisis de emociones, clasificación de consumidores
Modelo de Markov oculto: el proceso de Markov visible es de absoluta certeza. Un estado dado es frecuentemente acompañado por otro; un semáforo es un ejemplo. Por el contrario, el modelo de Markov oculto calcula la ocurrencia de un estado oculto mediante el análisis de datos visibles. Luego, con el análisis de estado oculto, el modelo de Markov oculto puede estimar posibles patrones de observación futuros.
Ventajas: Permite la variabilidad de los datos, para operaciones de reconocimiento y predicción Ejemplos de escenarios: análisis de expresiones faciales, pronóstico del tiempo
Bosques aleatorios: Los algoritmos de bosque aleatorio mejoran la precisión de los árboles de decisión mediante el uso de varios árboles con subconjuntos de datos seleccionados al azar. Este caso examina una gran cantidad de genes relacionados con el reaparición del cáncer de mama a nivel de expresión genética y calcula el riesgo de reaparición.
Ventajas: El método del bosque aleatorio ha demostrado ser útil para conjuntos de datos de gran tamaño y elementos con una gran cantidad de características y, a veces, no relacionadas Ejemplos de escenarios: análisis de pérdidas de usuarios, evaluación de riesgos
Red neural recurrente: en una red neural arbitraria, cada neurona convierte muchas de sus entradas en una sola salida a través de una o varias capas ocultas. La red neural recurrente transmite valores a nivel adicional, lo que permite el aprendizaje a nivel. En otras palabras, la RNN tiene algún tipo de memoria que permite que las entradas posteriores sean influenciadas por las salidas anteriores.
Ventajas: Las redes neurales circulares son predictivas cuando hay una gran cantidad de información ordenada Ejemplos de escenarios: clasificación de imágenes y subtítulos, análisis de sentimientos políticos
Memoria a corto plazo (LSTM) y red neuronal de unidades recurrentes de control de la puerta (RNN): Aunque estas redes de RNN tempranas sólo permiten retener una pequeña cantidad de información temprana, las redes de LSTM y GRU tienen una memoria a corto y largo plazo. En otras palabras, estas redes de RNN recientes tienen una mejor capacidad de control de la memoria, lo que permite retener el procesamiento previo o volver a colocar los valores cuando se necesitan muchos pasos en la serie, lo que evita la degradación final de valores que pueden "decaer en la gradiente" o transferirse por capas.
Ventajas: La memoria a corto y largo plazo y las redes linfáticas de células de control de la puerta tienen las mismas ventajas que otras redes linfáticas, pero se utilizan más a menudo porque tienen una mejor capacidad de memoria. Ejemplos de escenarios: procesamiento de lenguaje natural, traducción
Red neuronal convolutional: la convolución es la fusión de pesos de las capas posteriores, y puede usarse para marcar las capas de salida.
Ventajas: Las redes neurales convulsivas son muy útiles cuando hay conjuntos de datos muy grandes, muchas características y complejas tareas de clasificación. Ejemplos de escenarios: reconocimiento de imágenes, traducción de texto, detección de drogas
http://usblogs.pwc.com/emerging-technology/a-look-at-machine-learning-infographic/
http://usblogs.pwc.com/emerging-technology/machine-learning-methods-infographic/
http://usblogs.pwc.com/emerging-technology/machine-learning-evolution-infographic/
Transcrito desde la plataforma de Big Data