¡Cuidado, que vienen robots humanoides!
Esta es la primera vez que todo cambia, ya que los robots inteligentes comenzaron a conectarse con el mundo real, especialmente a través del tacto. (Imagen: Esto es ingeniería para Unsplash)
¡Maldito trabajo! La sección donde Olivier Schmucker responde a tus preguntas más interesantes [et les plus pertinentes] Sobre el mundo empresarial moderno… y por supuesto sus deficiencias. cita para leer Martes Y el Jueves. ¿Te gustaría participar? Envíenos su pregunta a [email protected]
P.- «Mi trabajo es manual, y requiere mucha habilidad y años de práctica para poder dominarlo bien. Por lo tanto, la IA no me sustituirá mañana por la mañana. ¡Así que deja de asustarnos con esto!» – Hassan
R: Querido Hassan, tengo malas noticias que contarte. Muy malas noticias. Siéntate antes de leer esto, creo que estarás mejor.
La semana pasada, Toyota reveló en qué ha estado trabajando en secreto durante meses su unidad de investigación de robótica e inteligencia artificial (IA), el Instituto de Investigación Toyota (TRI). Se trata nada más y nada menos que de un nuevo método de aprendizaje para robots inteligentes -robots combinados con inteligencia artificial-, un método relacionado con… el aprendizaje manual.
Para comprender el significado de lo que los propios investigadores de Toyota presentan como una “revolución”, hace falta un poco de contexto.
Los sistemas de inteligencia artificial actuales están, hasta cierto punto, desconectados de la realidad: no tienen ojos ni dedos que les permitan comunicarse con el mundo real. Están completamente inmersos en su mundo virtual. Lo que aprenden sobre el mundo real es a través de datos, toneladas de datos de la realidad: su poder computacional es tan grande que las conclusiones que extraen al analizar estos datos son asombrosas.
Por ejemplo, ChatGPT es capaz de escribir textos sorprendentes sobre casi cualquier tema, porque combina brillantemente todo lo que encuentra en la web relacionado con el tema; Pero ChatGPT, de hecho, no entiende nada de lo que escribes. Simplemente calcula la probabilidad de que una determinada palabra siga a otra palabra en la oración que estás escribiendo, sin entender nada del significado de la oración en sí. Por supuesto, el resultado final suele ser sorprendente, pero es sólo un truco.
Hoy en día, los investigadores en robótica e inteligencia artificial tropiezan a la hora de afrontar la realidad. Porque el engaño intelectual no basta. El más mínimo error podría provocar un accidente que podría involucrar a humanos, y esto está fuera de discusión: un trabajador robótico cortando la mano de su colega humano que es responsable de amplificar sus capacidades, no pasaría, sería así. Lo que conduce a un rechazo social masivo y permanente.
Por supuesto, vemos algunas iniciativas aquí y allá. Los robots son capaces de levantar cargas que los humanos no pueden levantar. Son capaces de cargar un camión mejor que un humano. O recorren los gigantescos almacenes de Amazon para recoger los pedidos de los clientes. Pero eso es todo, no es mucho y nada revolucionario. Al menos hasta el anuncio de Toyota…
Esto se debe a que el TRI acaba de equipar sus robots inteligentes con ojos y dedos. Y su IA realmente se comunica con el mundo real: aprende cada uno de los gestos específicos de las ocupaciones manuales a una velocidad asombrosa, lo que va más allá de la comprensión de los investigadores: «Le mostramos un gesto por la tarde y le dejamos practicar todo». «. “Por la noche y a la mañana siguiente, cuando llegamos al laboratorio, descubrimos que lo había dominado a la perfección”, afirma Ben Burchviel, uno de los investigadores.
¿Cómo mostrarle un gesto a un robot inteligente? Es muy simple. El operador, que es un ser humano, dispone de dos joysticks, uno en cada mano. Así, controla los brazos y manos del robot inteligente, dejándose guiar completamente. Después de algunas demostraciones, algunas de las cuales equivalían a recuperarse de un error como dejar caer una herramienta, el robot inteligente tenía suficientes datos para entrenarse por sí solo. Lo que hace toda la noche, a través de innumerables pruebas y errores. Al día siguiente se obtuvo el gesto en cuestión.
Hasta ahora, TRI ha enseñado a los robots más de 60 operaciones difíciles y precisas, principalmente relacionadas con los gestos que hacemos en la cocina. Ahora son capaces de verter líquido, agarrar y manipular objetos blandos y deformes, o incluso utilizar herramientas como un pelador de verduras para pelar cualquier verdura. El objetivo es enseñarles unas 100 nuevas habilidades para finales de año y 1.000 para finales de 2024.
«Si alguien me hubiera dicho el año pasado que los robots que tenemos hoy serían tan ingeniosos, nunca lo habría creído», dice Ross Tedrick, vicepresidente de investigación en robótica del TRI. Lo que veo que logran es nada menos que increíble. Ciertamente esto no es nada comparado con lo que está por venir.
Toyota se asoció con el MIT y la Universidad de Columbia para lograr esta hazaña. Juntos descubrieron una forma completamente nueva de aprender, llamada… Política de transmisión (Política de radiodifusión, en francés). Esto es lo que les ha permitido triunfar donde otros fracasaron.
La implementación implica equipar a un robot inteligente con ojos y dedos y decirle que aprenda a través de ellos. Sin ninguna línea de código. Sin ninguna base de datos. Sólo con la ayuda de un modelo humano, una especie de maestro, por así decirlo. Como lo hacemos nosotros solos para aprender un nuevo gesto: por ejemplo, cuando éramos niños, veíamos a nuestro padre viendo un cuadro y clavándolo con alfileres, y luego hacíamos los mismos gestos por nuestra cuenta para aprenderlo y dominarlo bien.
En otras palabras, la idea no podría ser más sencilla: enseñar destreza a los robots inteligentes, tal como enseñamos a los bebés. Excepto que los robots inteligentes tienen una capacidad de aprendizaje tan asombrosa como infinita.
En su excelente libro, Inteligencia artificial, el cambio más grande de la historia, Kai-Fu Lee, uno de los principales expertos mundiales en inteligencia artificial que ha trabajado en Apple, Microsoft y Google, explica que la aparición de la inteligencia artificial se producirá en cuatro ondas. Los dos primeros son la IA online y la IA profesional. El primero llegó al gran público a principios de 2010, y consistía básicamente en estos algoritmos que eran capaces de hacer recomendaciones a todo el mundo, en función de sus gustos y preferencias. La segunda, corresponde a la capacidad de los algoritmos de realizar determinadas tareas mejor que los humanos, debido a su enorme poder computacional: por ejemplo, gracias al análisis de millones y millones de rayos X, la inteligencia artificial ahora identifica, mejor que los mejores médicos. , los inicios del cáncer de piel. Es esta ola la que hace que algunas personas digan que la IA está ahí para ayudar a los humanos en su trabajo y permitirles desempeñarse mejor, sin correr el riesgo de perder sus empleos.
Hoy asistimos a las dos primeras oleadas, y el impacto de la segunda en el público en general está todavía en sus primeras etapas. Pero todavía quedan dos olas más por venir: la IA cognitiva y luego la IA autónoma. Este último, como su nombre indica, ya no necesita del ser humano para existir y crecer; Incluso podemos decir que el peligro es que empiece a considerarnos como algo trivial e inútil, tal como consideramos a las hormigas, por ejemplo. La ola que realmente nos interesa es la tercera ola. Porque la IA cognitiva será compatible con robots inteligentes con sentidos, como la vista y el tacto.
En su libro de 2018, Kai-Fu Lee habla de esto solo como ciencia ficción: muestra cómo podría verse con la imagen de un carrito de supermercado inteligente y perceptivo que se conectaría con la inteligencia del cliente del refrigerador para saber qué comprar (leche, mermelada, etc.) y ofrece sugerencias personalizadas basadas en los hábitos alimentarios del cliente en casa, hablando en voz alta: “Aquí estoy seguro de que a tu hijo adolescente le encantaría descubrir este nuevo cereal”, “Solo obtuvieron un 10% de descuento esta semana”. Dijo con voz suave. Según el autor, la IA cognitiva no sucederá mañana por la mañana. Se equivocó: Toyota está en el proceso de resaltar esto y se está desarrollando mucho más rápido de lo que esperaban sus investigadores.
Ahora bien, ¿qué implica la jugada de Toyota? Básicamente, los robots inteligentes del mañana serán parecidos a los humanos, es decir, tendrán nuestra apariencia física (cabeza, torso, brazos, piernas). Pero la diferencia es que ellos dominarán mejor los procedimientos comerciales manuales y los implementarán mucho más rápido que nosotros. Es que también serán imparables: podrán trabajar día y noche, sin tomar ninguna baja laboral. Es también que serán más o menos libres: nunca pedirán un sueldo y mucho menos un aumento por la inflación.
En resumen, Hassan, no quiero decepcionarte, sino darte la información correcta, por brutal que sea: Sí, mañana los robots humanoides podrán hacer tu trabajo. Exacto, al menos mejor y más rápido que tú. Sin que nunca te hayan pedido que pagues por ello.
Por supuesto, esto no sucederá mañana por la mañana. Pero el mañana es seguro.
Además, parece que la «revolución» ya ha comenzado. La empresa texana Optronic tiene intención de comercializar su robot con apariencia humana a partir de 2024. En cuanto a Agility Robotics, acaba de abrir su fábrica en Oregón, que pronto producirá unos 10.000 robots al año.
La pregunta es clara y nuestras comunidades vulnerables deben abordarla rápidamente: ¿Es probable que pronto veamos una alternativa importante?
«Especialista en música. Friki del alcohol. Fanático del café. Gurú de los viajes malvados. Nerd de la televisión. Amante de la cultura pop».