Yann LeCun,precursor del Deep Learning, afirma que ChatGPT no superará la inteligencia humana
Uno de los temas más apremiantes del momento es la inteligencia artificial, y Yann LeCun, líder de IA en Meta, ha declarado recientemente que los sistemas como ChatGPT no podrán superar la inteligencia humana. Conocido por su entrenamiento en una gran cantidad de texto, LeCun cree que esto no ayudará a desarrollar una lógica y comprensión avanzada del mundo.
LeCun ofrece una estrategia diferente a los modelos de lenguaje grandes (LLM). El objetivo principal de este investigador es el “modelado del mundo”. Sin embargo, ¿cuál es el propósito de este nuevo paradigma de la inteligencia artificial?
Ante todo, es recomendable considerar la identidad de Yann LeCun, ya que no se trata de un simple investigador de IA. Debido a su contribución a la inteligencia artificial, LeCun, un científico computacional, recibió en 2018 el Premio Turing, el mayor premio de las ciencias de la computación.
Además, LeCun fue responsable de haber modelado las redes neuronales convolucionales (CNN) y es uno de los “padres” del Deep Learning que conocemos actualmente. En la actualidad, las CNN se utilizan en una variedad de aplicaciones, incluida la detección de objetos extragalácticos o vehículos autónomos. En realidad, habló con Elon Musk recientemente sobre las CNN, ya que el multimillonario controvertido cree que ya no son útiles (lo cual es un grave error).
Tanto el equipo de desarrollo de Meta como Mark Zuckerberg son conscientes de que LeCun es un líder en el campo de la IA. Por lo tanto, es el líder actual de los esfuerzos de la empresa para desarrollar una inteligencia artificial general (AGI). Las AGI son sistemas que van más allá de lo que los LLM han demostrado hasta ahora, como ChatGPT. Esto se debe a su intención de crear un agente capaz de comprender, aprender y aplicar información de manera similar a la del ser humano.
Los LLM como GPT, Gemini o Alphabet tienen un problema porque están condicionados a la información con la que están entrenados, generalmente solo texto. De esta manera, sus respuestas están basadas en lo que han leído previamente, ya sea que sea correcto, ya que hemos observado que los LLM se equivocan en una variedad de situaciones. Podemos mencionar el caso del pegamento de pizza que sugirió el uso de la IA de Google.
El “modelado del mundo” es la propuesta de LeCun para superar ese condicionamiento. La capacidad de desarrollar una comprensión profunda y dinámica del entorno físico y social en el que se encuentra el agente inteligente es fundamental para el modelado del mundo. Este método tiene como objetivo imitar la inteligencia de animales y humanos.
Los LLM no solo desarrollarían el razonamiento de manera autónoma y efectiva, sino que también responderían preguntas basadas en datos ya existentes (texto en internet o libros). Eso es lo que se espera de las AGI.
El caso es que, como los niños, quieren crear máquinas que aprendan de la experiencia. Además, tendrían una memoria persistente que les permitiría recordar información relevante, planificar jerárquicamente y comprender la física del mundo. Sin embargo, hay más competidores para el modelado de AGIs que LeCun y Meta.
Como es de esperar, los primeros contendientes son los LLM. OpenAI y Google continúan mejorando sus sistemas de generación de texto, que incluso demuestran cierta capacidad de razonamiento. Por otro lado, DeepMind utiliza técnicas como entornos simulados e incluso videojuegos para enseñar a los agentes cómo interactuar con su entorno.
Una alternativa es el modelo del mundo que busca Meta. La tecnología cambia constantemente, por lo que LeCun cree que crear algo similar a una AGI podría tardar al menos diez años. Tal vez en un par de años podamos encontrar la solución para acelerar el proceso, o tal vez no. En cualquier caso, diez años no parecen muy lejos en el “verano de la IA”.