Si cree en los CEO, un automóvil completamente autónomo podría estar a solo unos meses de distancia. En 2015 , Elon Musk predijo un Tesla completamente autónomo para 2018; también lo hizo Google . El sistema Level 4 de Delphi y MobileEye se encuentra actualmente programado para 2019 , el mismo año que Nutonomy planea desplegar miles de taxis sin conductor en las calles de Singapur . GM pondrá en producción un automóvil completamente autónomo en 2019, con sin volante o la capacidad de los conductores para intervenir. Hay dinero real detrás de estas predicciones, las apuestas se basan en la suposición de que el software será capaz de ponerse al día con el bombo.

En su cara, la plena autonomía parece más cercana que nunca. Waymo es ya probando autos en caminos limitados pero públicos en Arizona. Tesla y una serie de otros imitadores ya venden una forma limitada de piloto automático, contando con los conductores para que intervengan si ocurre algo inesperado. Hubo algunos bloqueos, algunos mortales, pero mientras los sistemas sigan mejorando, según la lógica, no podemos estar tan lejos de no tener que intervenir en absoluto.

Pero el sueño de un automóvil completamente autónomo puede ser más profundo de lo que creemos. Existe una creciente preocupación entre los expertos en AI de que pueden pasar años, sino décadas, antes de que los sistemas de conducción automática puedan evitar accidentes de manera confiable. A medida que los sistemas autodidácticos lidian con el caos del mundo real, expertos como Gary Marcus de NYU se preparan para una recalibración dolorosa de las expectativas, una corrección que a veces se llama “AI invierno”. Esa demora podría tener consecuencias desastrosas para las empresas tecnología, poniendo la autonomía total fuera del alcance de toda una generación.

Es fácil ver por qué las compañías automotrices son optimistas con respecto a la autonomía. En los últimos diez años, el aprendizaje profundo, un método que utiliza algoritmos de aprendizaje automático en capas para extraer información estructurada de conjuntos de datos masivos, ha impulsado un progreso casi impensable en IA e industria tecnológica. Potencia la búsqueda de Google, el feed de noticias de Facebook, los algoritmos conversacionales de voz a texto y los sistemas Go-playing del campeón. Fuera de internet, usamos aprendizaje profundo para detectar terremotos , predecir enfermedades del corazón y marcar el comportamiento sospechoso en un alimentador de cámara , junto con innumerables innovaciones que de otro modo hubieran sido imposibles.

Pero el aprendizaje profundo requiere cantidades masivas de datos de entrenamiento para funcionar correctamente, incorporando casi todos los escenarios que el algoritmo encontrará. Sistemas como Google Images, por ejemplo, son excelentes para reconocer animales siempre y cuando tengan datos de entrenamiento para mostrarles cómo es cada animal. Marcus describe este tipo de tarea como “interpolación”, tomando una encuesta de todas las imágenes etiquetadas como “ocelote” y decidiendo si la nueva imagen pertenece al grupo.

Los ingenieros pueden ser creativos en cuanto a dónde provienen los datos y cómo están estructurados, pero imponen un límite estricto a la medida en que puede alcanzar un determinado algoritmo. El mismo algoritmo no puede reconocer a un ocelote a menos que haya visto miles de imágenes de un ocelote, incluso si se han visto imágenes de gatos domésticos y jaguares, y sabe que los ocelotes están en algún punto intermedio. Ese proceso, llamado “generalización”, requiere un conjunto diferente de habilidades.

Durante mucho tiempo, los investigadores pensaron que podrían mejorar las habilidades de generalización con los algoritmos correctos, pero investigaciones recientes han demostrado que el aprendizaje profundo convencional es aún peor al generalizar de lo que pensamos. Un estudio descubrieron que los sistemas convencionales de aprendizaje profundo tienen dificultades incluso para generalizar a través de diferentes cuadros de un video, etiquetando al mismo oso polar como un mandril, mangosta o comadreja, dependiendo de los pequeños cambios en el fondo. Con cada clasificación basada en cientos de factores en conjunto, incluso pequeños cambios en las imágenes pueden cambiar por completo el juicio del sistema, algo que otros investigadores han aprovechado en conjuntos de datos contradictorios .

Marcus apunta a la locura del chat chat como el ejemplo más reciente de exageración contra el problema de la generalización. “Nos prometieron bots de chat en 2015”, dice, “pero no sirven para nada porque no se trata solo de recopilar datos”. Cuando hablas con una persona en línea, no solo quieres que Repite las conversaciones anteriores. Desea que respondan a lo que usted dice, aprovechando las habilidades de conversación más amplias para producir una respuesta que sea única para usted. El aprendizaje profundo no podía hacer ese tipo de bot de chat. Una vez que el entusiasmo inicial se desvaneció, las empresas perdieron la fe en sus proyectos de chat bot, y todavía hay muy pocos en desarrollo activo.

Eso deja a Tesla y otras compañías de la autonomía con una pregunta aterradora: ¿Continuarán mejorando los autos que conducen automóviles, como la búsqueda de imágenes, el reconocimiento de voz y otras historias de éxito de la inteligencia artificial? ¿O se encontrarán con el problema de generalización como chat bots? ¿Es la autonomía un problema de interpolación o un problema de generalización? ¿Qué tan imprevisible es conducir, realmente?

Puede ser muy temprano para saberlo. “Los autos sin conductor son como un experimento científico en el que no conocemos la respuesta”, dice Marcus. Nunca antes hemos sido capaces de automatizar la conducción en este nivel, por lo que no sabemos qué tipo de tarea es. En la medida en que se trata de identificar objetos familiares y seguir reglas, las tecnologías existentes deberían estar a la altura de la tarea. Pero a Marcus le preocupa que conducir bien en escenarios propensos a los accidentes sea más complicado de lo que la industria quiere admitir. “En la medida en que suceden cosas nuevas sorprendentes, no es algo bueno para el aprendizaje profundo”.

Los datos experimentales que tenemos provienen de informes públicos de accidentes, cada uno de los cuales ofrece algunas arrugas inusuales. Un accidente fatal en 2016 vi un Modelo S conducir a toda velocidad en la parte trasera de un remolque blanco, confundido por la alta altura de marcha del remolque y el reflejo brillante del sol. En marzo , un accidente automovilístico en Uber en marzo mató a una mujer empujando una bicicleta, luego de que ella saliera de un cruce peatonal no autorizado. De acuerdo a el informe NTSB El software de Uber identificó erróneamente a la mujer como un objeto desconocido, luego un vehículo, y finalmente como una bicicleta, actualizando sus proyecciones cada vez. En un accidente de California , un Modelo X se dirigió hacia una barrera y se aceleró en los momentos previos al impacto, por razones que aún no están claras.

Cada accidente parece un caso extremo, el tipo de cosa que los ingenieros no pueden predecir con anticipación. Pero casi todos los accidentes automovilísticos implican algún tipo de circunstancia imprevista, y sin la capacidad de generalizar, los automóviles que conducen automóviles tendrán que enfrentar cada uno de estos escenarios como si fuera la primera vez. El resultado sería una serie de accidentes de fluke-y que no se vuelven menos comunes o menos peligrosos a medida que pasa el tiempo. Para los escépticos, un cambio los informes de desvinculación manual muestra ese escenario que ya está en marcha, y que el progreso ya está alcanzando un estancamiento.

El fundador de Drive.AI, Andrew Ng, ex ejecutivo de Baidu y uno de los impulsores más prominentes de la industria, argumenta que el problema no es construir un sistema de conducción perfecto sino entrenar a los transeúntes para que anticipen el comportamiento de conducción autónoma. En otras palabras, podemos hacer que las carreteras sean seguras para los autos, en lugar de al revés. Como ejemplo de un caso impredecible, le pregunté si creía que los sistemas modernos podían manejar a un peatón en una pogo stick, incluso si nunca habían visto uno. “Creo que muchos equipos AV podrían manejar a un usuario de pogo stick en el cruce de peatones”, me dijo Ng. “Habiendo dicho eso, rebotar en un palo de pogo en el medio de una carretera sería realmente peligroso”.

“En lugar de construir AI para resolver el problema del pogo stick, deberíamos asociarnos con el gobierno para pedirles a las personas que sean legales y considerados”, dijo. “La seguridad no se trata solo de la calidad de la tecnología de inteligencia artificial”.

El aprendizaje profundo no es la única técnica de IA, y las compañías ya están explorando alternativas. Aunque las técnicas están estrechamente protegidas dentro de la industria (basta con mirar La reciente demanda de Waymo contra Uber ), muchas empresas se han pasado a la IA basada en reglas, una técnica anterior que permite a los ingenieros codificar comportamientos específicos o lógica en un sistema que de otro modo sería autodirigido. No tiene la misma capacidad para escribir sus propios comportamientos simplemente estudiando los datos, que es lo que hace que el aprendizaje profundo sea tan emocionante, pero le permite a las compañías evitar algunas de las limitaciones del aprendizaje profundo. Pero con las tareas básicas de la percepción aún profundamente moldeadas por las técnicas de aprendizaje profundo, es difícil decir con qué éxito los ingenieros pueden poner en cuarentena los posibles errores.

Ann Miura-Ko, una capitalista de riesgo que forma parte del directorio de Lyft, dice que cree que parte del problema son las altas expectativas para los autos autónomos, clasificando cualquier cosa menos que la autonomía total como un fracaso. “Esperar que pasen de cero al nivel cinco es un desajuste en las expectativas más que un fracaso de la tecnología”, dice Miura-Ko. “Veo todas estas micro-mejoras como características extraordinarias en el camino hacia la plena autonomía”.

Aún así, no está claro por cuánto tiempo los autos sin conductor pueden permanecer en su limbo actual. Los productos semiautónomos como el piloto automático de Tesla son lo suficientemente inteligentes como para manejar la mayoría de las situaciones, pero requieren la intervención humana si ocurre algo demasiado impredecible. Cuando algo sale mal, es difícil saber si el culpable es el auto o el conductor. por algunos críticos , ese híbrido es posiblemente menos seguro que un controlador humano, incluso si los errores son difíciles de culpar completamente en la máquina. Un estudio de la corporación Rand Estimó que los automóviles que conducen automóviles deberían conducir 275 millones de millas sin una fatalidad para demostrar que eran tan seguros como los conductores humanos. La primera muerte relacionada con el piloto automático de Tesla llegó aproximadamente a 130 millones de millas en el proyecto, muy por debajo de la marca.

Pero con el aprendizaje profundo sentado en el corazón de cómo los automóviles perciben los objetos y deciden responder, mejorar la tasa de accidentes puede ser más difícil de lo que parece. “Este no es un problema fácilmente aislado”, dice la profesora de Duke Mary Cummings, señalando un accidente de Uber que mató a un peatón a principios de este año. “El ciclo percepción-decisión a menudo está vinculado, como en el caso de la muerte de peatones. Se tomó la decisión de no hacer nada en base a la ambigüedad en la percepción, y el frenado de emergencia se apagó porque recibió demasiadas falsas alarmas del sensor “.

Ese accidente terminó con Uber pausando sus esfuerzos de conducción autónoma durante el verano, un signo ominoso para otras compañías que planean el lanzamiento. En toda la industria, las compañías están compitiendo por más datos para resolver el problema, suponiendo que la empresa con la mayor cantidad de millas construirá el sistema más sólido. Pero cuando las empresas ven un problema de datos, Marcus ve algo mucho más difícil de resolver. “Simplemente están usando las técnicas que tienen con la esperanza de que funcionen”, dice Marcus. “Se apoyan en los grandes datos porque esa es la muleta que tienen, pero no hay pruebas de que lleguen al nivel de precisión que necesitamos”.