Machine Learning y Deep Learning, las claves del futuro de AI

En los 50's, los pioneros de la inteligencia artificial soñaban con construir complejas máquinas que tuvieran las mismas características que la inteligencia humana; y aunque programar algo tan complejo como la mente humana es un escenario lejano, estamos viviendo un tremendo avance en el uso de Machine Learning y Deep Learning, ambos englobados en la Inteligencia Artificial. Pese a que los términos son usados de forma indistinta por algunos medios, en este blog vamos a aclarar algunos conceptos con mayor profundidad y, sobre todo, el impacto de los avances tecnológicos presentes y futuros; y sobre todo, cómo podemos aplicar esos conocimientos en la gestión de servicios de TI.

Qué es Machine Learning y Deep Learning

Machine Learning es la práctica de usar algoritmos para recolectar datos, aprender de ellos y luego ser capaces de hacer una predicción o sugerencia sobre algo. Los programadores deben perfeccionar algoritmos que especifiquen un conjunto de variables para ser lo más precisos posibles en una tarea en concreto. La máquina es entrenada utilizando una gran cantidad de datos dando la oportunidad a los algoritmos a ser perfeccionados.

Desde los primeros albores de la temprana inteligencia artificial, los algoritmos han evolucionado con el objetivo de analizar y obtener mejores resultados: árboles de decisión, programación lógica inductiva (ILP), clustering para almacenar y leer grandes volúmenes de datos, redes Bayesianas y un numeroso abanico de técnicas que los programadores de data science que pueden aprovechar.

Deep Learning

Siguiendo la evolución del Machine Learning en la última década se ha propagado con más fuerza una técnica concreta de Machine Learning conocida como Deep Learning.

Deep Learning es un subconjunto dentro del campo del Machine Learning, el cual predica con la idea del aprendizaje desde el ejemplo. En lugar de enseñarle a ordenador una lista enorme de reglas para solventar un problema, le damos un modelo que pueda evaluar ejemplos y una pequeña colección de instrucciones para modificar el modelo cuando se produzcan errores. Con el tiempo esperamos que esos modelos sean capaces de solucionar el problema de forma extremadamente precisa, gracias a que el sistema es capaz de extraer patrones.

La industria del futuro y del presente apuesta por el Deep Learning

El Deep Learning nos está empujando a otra realidad en la que seamos capaces de interpretar de otra forma nuestro mundo a través del reconocimiento de imágenes, el análisis del lenguaje natural y anticiparnos a muchos problemas gracias a la extracción de patrones de comportamiento. Cosa que hasta entonces el Machine Learning que conociamos hace unos años no nos permitía.

Tenemos ejemplos actuales de cada uno de ellos y los grandes de la industria del software están haciendo su apuesta de lo que será el futuro.

La evolución sobre este tema llega a nuestros días con ejemplos como Facebook etiquetando cualquier imagen que subamos a la red social a través de su Computer Vision. De hecho, podemos probarlo con nuestras propias imágenes gracias a ciertas extensiones del navegador que simplemente exponen el texto alternativo que Facebook añade al html de la página.

La conducción autónoma de Tesla o la anunciada por Uber adaptando sus vehículos está basada en el reconocimiento de ciertos patrones de conducción, incluso la capacidad de predecir accidentes segundos antes de que se produzcan. La clave es analizar toda la información procedente del exterior y sintetizarla compartiendola con la red de sistemas interconectados. Ir aprendiendo de forma colaborativa de todos los aspecto necesario para sustituir a un humano, siendo más preciso que ellos.

Los retos de Machine Learning

La necesidad para entrenar esas complejas redes de neuronas requiere aumentar la capacidad de procesamiento. En este punto una de las mejoras llevadas a cabo estos años ha sido el uso de GPUs para realizar estos trabajos de forma más eficiente. Lo cual ha ahorrado la necesidad de disponer de gran cantidad de ordenadores para realizar los cálculos.

Otro de los retos más importantes es optimizar el uso de grandes volúmenes de datos para extraer patrones de ellos. Es necesario adecuar el almacenamiento de esos datos, indexarlos, y que el acceso sea lo suficientemente rápido para que pueda escalar. Para ello seguimos contando con los framework disponible en Big Data como Hadoop y Spark, acompañados de una amplia variedad de bases de datos NoSQL.

El problema no es ofrecer una precisión del 90% ni tan siquiera del 99%, cuando hablamos de que las máquinas piensen por nosotros o, incluso, conduciendo un vehículo de forma autónoma, es preciso disponer de un 99,999% de precisión. Ahí es dónde está el verdadero reto del deep learning.

Rediseñando ITSM con AI

Solicita una demostración de Cherwell Software

 

Texto original