En concreto, los científicos aseguran que los LLM, como ChatGPT, son incapaces de dominar nuevas habilidades sin antes haber recibido instrucciones explícitas para eso, por lo tanto, siguen siendo controlables, seguros o predecibles.
"La narrativa predominante de que este tipo de IA es una amenaza para la humanidad impide la adopción y el desarrollo generalizados de estas tecnologías, y además desvía la atención de los problemas genuinos que requieren nuestra atención", afirma el coautor del estudio Harish Tayyar Madabushi, en un comunicado de la Universidad de Bath.
Miedos infundados
El experto agrega que "el temor ha sido que, a medida que los modelos se hacen más y más grandes, estos serán capaces de resolver nuevos problemas que actualmente no podemos predecir, lo que plantea la amenaza de que estos modelos más grandes adquieran capacidades peligrosas, como el razonamiento y la planificación".
Tayyar Madabushi considera estos miedos infundados: "Nuestro estudio demuestra que el temor a que un modelo se vaya y haga algo completamente inesperado, innovador y potencialmente peligroso, no es válido".
Capacidades emergentes en los modelos
Algunos investigadores han estudiado la posibilidad de los LLM desarrollen de forma independiente lo que se conoce como capacidades emergentes. Por ejemplo, que uno de estos modelos de IA sea capaz de responder a preguntas sobre temas para los que no había sido programado o entrenado previamente.
Los científicos del reciente estudio pusieron a prueba las capacidades emergentes de cuatro LLM diferentes, entregándoles más información sobre diferentes temas y para realizar más tareas específicas.
En su investigación, no encontraron ninguna prueba de que estas capacidades emergentes implicaran pensamiento diferenciado o propio, o que se saliera del objetivo para el que los modelos habían sido programados.
Por lo tanto, sostiene Tayyar Madabushi, se demostró claramente la ausencia de capacidades de razonamiento complejo emergente en los LLM.
El problema es el mal uso de los usuarios
"Nuestros resultados no significan que la IA no sea una amenaza en absoluto", plantea en el informe la coautora Iryna Gurevych.
"Más bien, demostramos que la supuesta aparición de habilidades de pensamiento complejas asociadas a amenazas específicas no está respaldada por pruebas y que, después de todo, podemos controlar muy bien el proceso de aprendizaje de los LLM", agrega.
Sin embargo, la mayor amenaza relacionada con la IA sería más bien el mal uso que los humanos están explotando con los modelos de IA. Por ejemplo, la creación de noticias falsas o el riesgo de fraude.
Por tanto, concluye Gurevych, las investigaciones futuras "deberían centrarse en otros riesgos que plantean los modelos, como su potencial para ser utilizados para generar noticias falsas".
No hay comentarios:
Publicar un comentario