El jefe de IA de Meta publica un artículo sobre la creación de inteligencia artificial ‘autónoma’
Yann LeCun, vicepresidente y jefe de IA de Meta, ha publicado un nuevo artículo que presenta su visión de las IA “autónomas” que pueden aprender y experimentar el mundo de una manera más humana que los modelos de aprendizaje automático actuales.
En los casi 70 años desde que la IA se presentó por primera vez al público, el aprendizaje automático se ha disparado en popularidad y desde entonces ha crecido hasta alcanzar alturas vertiginosas. Sin embargo, a pesar de lo rápido que hemos llegado a confiar en el poder de la computación, una pregunta ha perseguido el campo durante casi tanto tiempo como su inicio: ¿Podrían estos sistemas superinteligentes algún día ganar suficiente sensibilidad para igualar o incluso superar a la humanidad?
A pesar de algunas afirmaciones dudosas recientes, por ejemplo, el ex ingeniero de Google que afirmó que un chatbot había adquirido sensibilidad antes de ser despedido, estamos bastante lejos de esa realidad. En cambio, una de las mayores barreras para una situación de señor supremo de los robots es el simple hecho de que, en comparación con los animales y los humanos, los sistemas actuales de inteligencia artificial y aprendizaje automático carecen de razón, un concepto esencial para el desarrollo de sistemas de inteligencia artificial “autónomos”, es decir. IA que puede aprender sobre la marcha, directamente de las observaciones del mundo real, en lugar de largas sesiones de entrenamiento para realizar una tarea específica.
Ahora, una nueva investigación publicada a principios de este mes en Open Review.net por LeCun propone una forma de solucionar este problema entrenando algoritmos de aprendizaje para aprender de manera más eficiente, ya que la IA ha demostrado que no es muy buena para predecir y planificar cambios en el mundo real. Por otro lado, los humanos y nuestras contrapartes animales pueden obtener una enorme cantidad de conocimiento sobre cómo funciona el mundo a través de la observación y con una interacción física notablemente pequeña.
LeCun, además de liderar los esfuerzos de IA en Meta, también es profesor en la Universidad de Nueva York y ha pasado su carrera histórica desarrollando sistemas de aprendizaje en los que se basan muchas aplicaciones modernas de IA en la actualidad. Al tratar de dar a estas máquinas una mejor comprensión de cómo funciona el mundo, podría decirse que podría ser aclamado como el padre de la próxima generación de IA. En 2013, fundó el grupo Facebook AI Research (FAIR), la primera incursión de Meta en experimentar con la investigación de IA, antes de renunciar para convertirse en el científico jefe de IA de la compañía unos años más tarde.
Desde entonces, Meta ha tenido diferentes niveles de éxito al tratar de dominar el campo en constante crecimiento. En 2018, sus investigadores entrenaron una IA para replicar globos oculares con la esperanza de facilitar a los usuarios la edición de sus fotos digitales. A principios de este año, el Meta chatbot BlenderBot3 (que resultó ser sorprendentemente malicioso con su creador), provocó un debate sobre la ética de la IA y los datos sesgados. Más recientemente, la herramienta Make-a-Video de Meta es capaz de animar texto e imágenes individuales y emparejadas en videos, lo que significa aún más malas noticias para el auge alguna vez prometedor del arte generado por IA .
Por ejemplo, los adolescentes pueden aprender a conducir con solo unas pocas horas de repetición y sin probar un choque por sí mismos. Los sistemas de aprendizaje automático, por otro lado, deben entrenarse con cantidades increíblemente grandes de datos antes de que puedan realizar la misma tarea.
“Un automóvil tendría que tirarse por precipicios varias veces antes de darse cuenta de que es una mala idea”, dijo LeCun cuando presentó su trabajo en UC Berkeley el martes. “Y luego otras miles de veces antes de que se dé cuenta de cómo no correr por el precipicio”. Esa distinción, continuó LeCun, reside en que los humanos y los animales son capaces de tener sentido común.
Si bien el concepto de sentido común puede reducirse a tener un juicio práctico, LeCun lo describe en el documento como una colección de modelos que pueden ayudar a un ser vivo a inferir la diferencia entre lo que es probable, lo que es posible y lo que es imposible. Tal habilidad le permite a una persona explorar su entorno, completar la información faltante e imaginar nuevas soluciones a problemas desconocidos.
Aún así, parece que damos por sentado el don del sentido común, ya que los científicos aún no han podido imbuir a los algoritmos de inteligencia artificial y aprendizaje automático con ninguna de estas capacidades. Durante la misma charla, LeCun también señaló que muchos procesos de entrenamiento modernos, como las técnicas de aprendizaje por refuerzo, un método de entrenamiento basado en recompensar los comportamientos favorables y castigar los no deseados, no están a la altura cuando se trata de igualar la confiabilidad humana en la realidad. tareas del mundo.
“Es un problema práctico porque realmente queremos máquinas con sentido común. Queremos autos que se conducen solos, queremos robots domésticos, queremos asistentes virtuales inteligentes”, dijo LeCun.
Entonces, con el objetivo de avanzar en la investigación de IA durante la próxima década, el artículo de LeCun propone una arquitectura que funcionaría para minimizar la cantidad de acciones que un sistema debe realizar para aprender y llevar a cabo con éxito una tarea asignada.
Al igual que las diferentes secciones del cerebro son responsables de las diferentes funciones del cuerpo, LeCun sugiere un modelo para generar inteligencia autónoma que estaría compuesto por cinco módulos separados pero configurables. Una de las partes más complejas de la arquitectura propuesta, el “ módulo de modelo mundial “ funcionaría para estimar el estado del mundo, así como para predecir acciones imaginadas y otras secuencias del mundo, como un simulador. Pero al usar este motor de modelo de mundo único, el conocimiento sobre cómo funciona el mundo se puede compartir fácilmente entre diferentes tareas. De alguna manera, podría parecerse a la memoria.
Dicho esto, todavía queda mucho trabajo por hacer antes de que los sistemas autónomos puedan aprender a lidiar con situaciones inciertas, pero en un mundo tan caótico e impredecible como el nuestro, es un problema que sin duda tendremos que abordar más temprano que tarde. . Pero por ahora, lidiar con ese caos es parte de lo que nos hace humanos.
Cuatro expertos en inteligencia artificial, Premio Princesa de Asturias de Investigación Científica y Técnica
Geoffrey Hinton, Yann LeCun y Yoshua Bengio son considerados los padres de una técnica esencial de la inteligencia artificial, el aprendizaje profundo, mientras que Demis Hassabis es CEO y cofundador de DeepMind, una de las mayores compañías de investigación en inteligencia artificial del mundo.
https://www.vice.com/en/article/qjkwqb/meta-ai-chief-publishes-paper-on-creating-autonomous-artificial-intelligence