Lección 1, Tema 6
En Progreso

Más ejemplos de lo que puede hacer el aprendizaje automático, y lo que no.

Progreso Lección
0% Completado

Continuamos dando ejemplos de usos viables de la IA, y de otros que no lo han sido.

Supongamos que quieres hacer la competencia a Tesla y fundas una empresa de vehículos autónomos. Una de las funcionalidades que tienes que darle a tus coches es que puedan detectar los vehículos cercanos, y esto es algo para lo que la IA débil actual ya ayuda bastante: la idea es tomar una fotografía de lo que está frente a tu vehículo, quizá sólo con una cámara, quizá con sensores como el radar o lidar y a partir de ese dato (A) averiguar la posición dónde están los otros vehículos (B).

En este sistema de IA la entrada A es una fotografía de lo que está enfrente del vehículo, o tal vez. además de la fotografía, lecturas de radar y otros sensores. La salida B debería ser “¿Dónde están los otros vehículos?”. El estado actual de la tecnología de vehículos autónomos ya sabe cómo recoger suficientes datos y tiene algoritmos hacer esto razonablemente bien. Es decir, esto es algo que la IA SÍ puede hacer hoy.

Ahora un ejemplo de algo que la IA actual no puede hacer o al menos sería muy difícil de hacer: tomar como entrada una fotografía y mostrar como salida la intención de la persona o lo que intenta comunicar a tu automóvil. En la foto vemos un trabajador de la construcción indicándote con una mano que detengas tu coche, a un autoestopista pidiéndote que te detengas para recogerlo, y a un ciclista levantando la mano izquierda para indicar que quiere girar en esa dirección. Intentar construir un sistema que aprenda a relacionar de A a B, en la que la entrada A es un vídeo corto de una persona gesticulando ante tu vehículo, y la salida B es la intención o lo que quiere la persona, es algo muy difícil de hacer hoy. Parte del problema es que la cantidad de maneras en que la gente gesticula es enorme. Imagina todos los gestos que alguien podría hacer con la mano para pedir que bajes la velocidad o te detengas. El número de formas en las que la gente puede dirigirse a ti gesticulando es muy muy grande.

Es difícil recoger suficientes datos de miles o decenas de miles, o quizá millones, de personas diferentes comunicando algo a tu coche por medio de gestos. Así que deducir a partir de un video qué es lo que quiere comunicar una persona es un concepto demasiado complicado. De hecho, incluso un conductor humano puede dudar a la hora de interpretar lo que quiera decirle alguien desde fuera con un gesto. Aparte de la dificultad técnica, ésta es una aplicación que afecta a la seguridad de las personas, por tanto no se debe implementar si la posibilidad de error, como es el caso, es demasiado grande.

Recapitulando, si reúnes 10.000 fotografías de vehículos sería viable construir un sistema de IA que al menos tenga la capacidad básica de detectarlos. Por el contrario, si recolectas fotos o videos de 10.000 personas realizando gestos hacia tu coche, sería muy difícil construir un sistema IA que reconozca la intención de esas personas. Por lo tanto, es por eso que a día de hoy ya hay bastantes vehículos autónomos que pueden detectar vehículos cercanos y confían en esa tecnología para conducir con seguridad.

Revisemos un ejemplo más. Imagina que quieres construir un sistema de IA para, a partir de imágenes de rayos x, diagnosticar la neumonía. En el gráfico ves rayos X del torax. Por lo tanto, la entrada A podría ser la imagen de rayos X y la salida B puede ser el diagnóstico. ¿Estos pacientes tienen neumonía o no? Eso es algo que la IA puede hacer.

Imágenes de Rayos-X de la zona del tórax etiquetadas con “neumonía” o “no neumonía”

Algo que la IA no puede hacer, sería diagnosticar neumonía a partir de 10 imágenes de un capítulo de un libro de texto médico que explica la neumonía. Un ser humano puede ver una pequeña cantidad de imágenes, tal vez sólo unas cuantas docenas de imágenes, y leer unos cuantos párrafos de un libro de texto médico y ya poder hacer un diagnóstico. Un sistema de IA actual no puede hacer esto.

En estos ejemplos se observan las fortalezas y debilidades del aprendizaje automático. El aprendizaje automático tiende a funcionar bien cuando se intenta aprender un concepto simple, como algo que se pueda hacer con menos de un segundo de pensamiento mental y cuando hay una gran cantidad de datos disponibles.

El aprendizaje automático funciona de modo deficiente cuando se intenta incorporar un concepto complejo a partir de pequeños fragmentos de datos. Una segunda debilidad, con frecuencia subestimada, de la IA es que presenta también un desempeño deficiente cuando se le pide que actúe sobre nuevos tipos de datos, diferentes de los que haya observado en su conjunto de datos “de entrenamiento”.

Demos un ejemplo de esto último. Supongamos que tenemos un sistema de aprendizaje supervisado que utiliza A y B para diagnosticar neumonía a partir de imágenes como las de abajos. Son imágenes de radiografía de tórax de muy buena calidad. Ahora bien, supongamos que nos llevamos este sistema de IA y lo aplicamos en otro hospital o en otro centro médico, en el que el médico radiólogo sitúa a los pacientes en otra postura.

Un buen diseño de sistema de IA debería tener la capacidad de atenuar o reducir parte de estos problemas. Sin embargo, no es sencillo lograrlo. Es por esto que la IA actual es, en realidad, mucho más “débil” que el ser humano (por eso la llamamos inteligencia artificial “débil” o “estrecha”). Si un ser humano aprendió con las imágenes de la izquierda, es mucho más probable que pueda adaptarse a las imágenes como las de la derecha porque se da cuenta inmediatamente que el paciente está en otra posición. El sistema de IA es mucho menos efectivo que los médicos humanos en cuanto a generalizar o descubrir qué hacer con nuevos tipos de datos como estos.

Curso Discussion