Vea todas las sesiones bajo demanda de la Cumbre de Seguridad Inteligente aquĆ.
Es un momento tan bueno como cualquier otro para discutir las implicaciones de los avances en inteligencia artificial (IA). 2022 vio un progreso interesante en el aprendizaje profundo, especialmente en modelos generativos. Sin embargo, a medida que aumentan las capacidades de los modelos de aprendizaje profundo, también aumenta la confusión que los rodea.
Por un lado, modelos avanzados como ChatGPT y DALL-E muestran resultados fascinantes y la impresión de pensar y razonar. Por otro lado, a menudo cometen errores que prueban que carecen de algunos de los elementos bÔsicos de inteligencia que tenemos los humanos.
La comunidad cientĆfica estĆ” dividida sobre quĆ© hacer con estos avances. En un extremo del espectro, algunos cientĆficos han ido tan lejos como para decir que los modelos sofisticados son sensibles y se les debe atribuir personalidad. Otros han sugerido que los enfoques actuales de aprendizaje profundo conducirĆ”n a la inteligencia general artificial (AGI). Mientras tanto, algunos cientĆficos han estudiado las fallas de los modelos actuales y seƱalan que, aunque son Ćŗtiles, incluso los sistemas de aprendizaje profundo mĆ”s avanzados sufren el mismo tipo de fallas que tenĆan los modelos anteriores.
Fue en este contexto que el Debate AGI #3 en lĆnea se llevó a cabo el viernes, organizado por el presidente de Montreal AI Vincent Boucher y el investigador de AI Gary Marcus. La conferencia, que contó con charlas de cientĆficos de diferentes orĆgenes, discutió lecciones de la ciencia cognitiva y la neurociencia, el camino hacia el razonamiento de sentido comĆŗn en IA y sugerencias para arquitecturas que pueden ayudar a dar el siguiente paso en IA.
¿Qué falta en los sistemas de IA actuales?
āLos enfoques de aprendizaje profundo pueden proporcionar herramientas Ćŗtiles en muchos dominiosā, dijo el lingüista y cientĆfico cognitivo Noam Chomsky. Algunas de estas aplicaciones, como la transcripción automĆ”tica y el autocompletado de texto, se han convertido en herramientas en las que confiamos todos los dĆas.
āPero mĆ”s allĆ” de la utilidad, ĀæquĆ© aprendemos de estos enfoques sobre la cognición, el pensamiento, en particular el lenguaje?ā dijo Chomsky. ā[Deep learning] Los sistemas no distinguen entre lenguajes posibles e imposibles. Cuanto mĆ”s se mejoran los sistemas, mĆ”s profunda se vuelve la falla. Lo harĆ”n aĆŗn mejor con lenguajes imposibles y otros sistemasā.
Esta falla es evidente en sistemas como ChatGPT, que puede producir texto que es gramaticalmente correcto y consistente, pero con fallas en la lógica y los hechos. Los presentadores de la conferencia brindaron numerosos ejemplos de tales fallas, como modelos de lenguaje grandes que no pueden clasificar oraciones en función de la longitud, cometen errores graves en problemas lógicos simples y hacen declaraciones falsas e inconsistentes.
SegĆŗn Chomsky, los enfoques actuales para avanzar en los sistemas de aprendizaje profundo, que se basan en agregar datos de entrenamiento, crear modelos mĆ”s grandes y usar una “programación inteligente”, solo exacerbarĆ”n los errores que cometen estos sistemas.
āEn resumen, no nos dicen nada sobre el lenguaje y el pensamiento, sobre la cognición en general, o sobre lo que es ser humano o cualquier otro vuelo de fantasĆa en la discusión contemporĆ”neaā, dijo Chomsky.
Marcus dijo que una dĆ©cada despuĆ©s de la revolución del aprendizaje profundo de 2012, se ha logrado un progreso considerable, “pero quedan algunos problemas”.
Presentó cuatro aspectos clave de la cognición que faltan en los sistemas de aprendizaje profundo:
- Abstracción: los sistemas de aprendizaje profundo como ChatGPT luchan con conceptos bÔsicos como contar y clasificar elementos.
- Razonamiento: los modelos de lenguaje extenso no logran razonar sobre cosas bĆ”sicas, como colocar objetos en contenedores. “La genialidad de ChatGPT es que puede responder a la pregunta, pero desafortunadamente no puedes contar con las respuestas”, dijo Marcus.
- Composicionalidad: Los seres humanos entienden el lenguaje en términos de totalidades compuestas de partes. La IA actual continúa luchando con esto, lo que se puede observar cuando se les pide a modelos como DALL-E que dibujen imÔgenes que tengan estructuras jerÔrquicas.
- Realidad: āLos humanos mantienen activamente modelos mundiales imperfectos pero confiables. Los modelos de lenguaje grande no lo hacen y eso tiene consecuenciasā, dijo Marcus. āNo se pueden actualizar gradualmente dĆ”ndoles nuevos datos. Por lo general, deben volver a capacitarse para incorporar nuevos conocimientos. Alucinan.
IA y razonamiento de sentido comĆŗn
Las redes neuronales profundas seguirÔn cometiendo errores en casos adversos y extremos, dijo Yejin Choi, profesor de ciencias de la computación en la Universidad de Washington.
āEl verdadero problema al que nos enfrentamos hoy es que simplemente no conocemos la profundidad o amplitud de estos casos contradictorios o extremosā, dijo Choi. āMi idea es que esto va a ser un verdadero desafĆo que mucha gente podrĆa estar subestimando. La verdadera diferencia entre la inteligencia humana y la IA actual sigue siendo muy ampliaā.
Choi dijo que la brecha entre la inteligencia humana y la artificial se debe a la falta de sentido comĆŗn, que describió como “la materia oscura del lenguaje y la inteligencia” y “las reglas tĆ”citas de cómo funciona el mundo” que influyen en la forma en que las personas usan e interpretan idioma.
SegĆŗn Choi, el sentido comĆŗn es trivial para los humanos y difĆcil para las mĆ”quinas porque las cosas obvias nunca se dicen, hay un sinfĆn de excepciones a cada regla y no existe una verdad universal en los asuntos de sentido comĆŗn. āEs algo ambiguo y desordenadoā, dijo.
El investigador y neurocientĆfico de IA, Dileep George, enfatizó la importancia de la simulación mental para el razonamiento del sentido comĆŗn a travĆ©s del lenguaje. El conocimiento para el razonamiento de sentido comĆŗn se adquiere a travĆ©s de la experiencia sensorial, dijo George, y este conocimiento se almacena en el sistema perceptivo y motor. Usamos el lenguaje para sondear este modelo y desencadenar simulaciones en la mente.
āPuede pensar en nuestro sistema perceptivo y conceptual como el simulador, que se adquiere a travĆ©s de nuestra experiencia sensoriomotora. El lenguaje es algo que controla la simulaciónā, dijo.
George tambiĆ©n cuestionó algunas de las ideas actuales para crear modelos mundiales para sistemas de IA. En la mayorĆa de estos planos de modelos del mundo, la percepción es un preprocesador que crea una representación sobre la cual se construye el modelo del mundo.
āEs poco probable que funcione porque se necesita acceder a muchos detalles de la percepción sobre la marcha para poder ejecutar la simulaciónā, dijo. āLa percepción tiene que ser bidireccional y tiene que usar conexiones de retroalimentación para acceder a las simulacionesā.
La arquitectura para la próxima generación de sistemas de IA
Si bien muchos cientĆficos estĆ”n de acuerdo en las deficiencias de los sistemas de IA actuales, difieren en el camino a seguir.
David Ferrucci, fundador de Elemental Cognition y ex miembro de IBM Watson, dijo que no podemos cumplir nuestra visión de IA si no podemos hacer que las mĆ”quinas “expliquen por quĆ© estĆ”n produciendo el resultado que estĆ”n produciendo”.
La empresa de Ferrucci estĆ” trabajando en un sistema de IA que integra diferentes módulos. Los modelos de aprendizaje automĆ”tico generan hipótesis basadas en sus observaciones y las proyectan en un módulo de conocimiento explĆcito que las clasifica. Las mejores hipótesis son luego procesadas por un módulo de razonamiento automatizado. Esta arquitectura puede explicar sus inferencias y su modelo causal, dos caracterĆsticas que faltan en los sistemas de IA actuales. El sistema desarrolla su conocimiento y modelos causales a partir de enfoques clĆ”sicos de aprendizaje profundo e interacciones con humanos.
El cientĆfico de IA Ben Goertzel enfatizó que ālos sistemas de redes neuronales profundas que actualmente dominan el panorama comercial actual de IA no progresarĆ”n mucho hacia la construcción de sistemas AGI realesā.
Goertzel, quien es mejor conocido por acuƱar el tƩrmino AGI, dijo que mejorar los modelos actuales como GPT-3 con verificadores de hechos no solucionarƔ los problemas que enfrenta el aprendizaje profundo y no los harƔ capaces de generalizarse como la mente humana.
āLa ingenierĆa de inteligencia verdadera y abierta con inteligencia general es totalmente posible, y hay varias rutas para llegar allĆā, dijo Goertzel.
Propuso tres soluciones, incluida la realización de una simulación cerebral real; hacer un complejo sistema de autoorganización que es bastante diferente del cerebro; o crear una arquitectura cognitiva hĆbrida que auto-organice el conocimiento en un grĆ”fico de conocimiento auto-reprogramado y auto-reescrito que controle un agente encarnado. Su iniciativa actual, el proyecto OpenCog Hyperon, explora este Ćŗltimo enfoque.
Francesca Rossi, becaria de IBM y lĆder global de Ć©tica de IA en el Centro de Investigación Thomas J. Watson, propuso una arquitectura de IA que se inspira en la ciencia cognitiva y el “Marco de pensamiento rĆ”pido y lento” de Daniel Kahneman.
La arquitectura, denominada SlOw and Fast AI (SOFAI), utiliza un enfoque multiagente compuesto por solucionadores rÔpidos y lentos. Los solucionadores rÔpidos se basan en el aprendizaje automÔtico para resolver problemas. Los solucionadores lentos son mÔs simbólicos, atentos y computacionalmente complejos. También hay un módulo metacognitivo que actúa como Ôrbitro y decide qué agente resolverÔ el problema. Al igual que el cerebro humano, si el solucionador rÔpido no puede abordar una situación nueva, el módulo metacognitivo se la pasa al solucionador lento. Este ciclo luego vuelve a entrenar al solucionador rÔpido para aprender gradualmente a abordar estas situaciones.
āEsta es una arquitectura que se supone que funciona tanto para los sistemas autónomos como para respaldar las decisiones humanasā, dijo Rossi.
Jürgen Schmidhuber, director cientĆfico de The Swiss AI Lab IDSIA y uno de los pioneros de las tĆ©cnicas modernas de aprendizaje profundo, dijo que muchos de los problemas planteados sobre los sistemas de IA actuales se han abordado en sistemas y arquitecturas introducidos en las Ćŗltimas dĆ©cadas. Schmidhuber sugirió que resolver estos problemas es una cuestión de costo computacional y que, en el futuro, podremos crear sistemas de aprendizaje profundo que puedan hacer metaaprendizaje y encontrar nuevos y mejores algoritmos de aprendizaje.
De pie sobre los hombros de conjuntos de datos gigantes
Jeff Clune, profesor asociado de informĆ”tica en la Universidad de Columbia BritĆ”nica, presentó la idea de “algoritmos generadores de IA”.
āLa idea es aprender tanto como sea posible, arrancar desde comienzos muy simples hasta AGIā, dijo Clune.
Dicho sistema tiene un bucle externo que busca en el espacio de posibles agentes de IA y, en Ćŗltima instancia, produce algo que es muy general y muy eficiente en la muestra. La evidencia de que esto es posible es el “algoritmo muy costoso e ineficiente de la evolución darwiniana que finalmente produjo la mente humana”, dijo Clune.
Clune ha estado discutiendo algoritmos de generación de IA desde 2019, que cree que se basan en tres pilares clave: arquitecturas de metaaprendizaje, algoritmos de metaaprendizaje y medios efectivos para generar entornos y datos. BÔsicamente, este es un sistema que puede crear, evaluar y actualizar constantemente nuevos entornos y algoritmos de aprendizaje.
En el debate de AGI, Clune agregó un cuarto pilar, que describió como “aprovechar los datos humanos”.
āSi ve aƱos y aƱos de videos sobre agentes que realizan esa tarea y se entrena previamente en eso, entonces puede aprender tareas muy, muy difĆcilesā, dijo Clune. āEse es un gran acelerador para estos esfuerzos para tratar de aprender tanto como sea posibleā.
Aprender de los datos generados por humanos es lo que ha permitido a GPT, CLIP y DALL-E encontrar formas eficientes de generar resultados impresionantes. āLa IA ve mĆ”s lejos al pararse sobre los hombros de conjuntos de datos gigantesā, dijo Clune.
Clune terminó prediciendo un 30 % de posibilidades de tener AGI para 2030. También dijo que los paradigmas de aprendizaje profundo actuales, con algunas mejoras clave, serÔn suficientes para lograr AGI.
Clune advirtió: āNo creo que estemos listos como comunidad cientĆfica y como sociedad para que AGI llegue tan pronto, y debemos comenzar a planificar esto lo antes posible. Tenemos que empezar a planificar ahoraā.
La misión de VentureBeat es ser una plaza pĆŗblica digital para que los responsables de la toma de decisiones tĆ©cnicas adquieran conocimientos sobre tecnologĆa empresarial transformadora y realicen transacciones. Descubre nuestras sesiones informativas.