23.9 C
El Salvador

¿Se está volviendo más inteligente o más torpe ChatGPT?

Lo mas leido

Puede que se esté preguntando si las herramientas de IA como ChatGPT llegarán a ser demasiado inteligentes para los humanos. Pero un estudio sugiere que el modelo lingüístico de OpenAI está empeorando «sustancialmente».

Los grandes modelos lingüísticos (LLM, por sus siglas en inglés) como ChatGPT de OpenAI han ayudado a millones de personas a ser más eficientes con los ordenadores. Ya sean estudiantes de secundaria o programadores de software, son muchos los que forman equipo con la Inteligencia Artificial (IA).

Pero no todo es positivo: otros también acusan a la IA de robarles sus ideas creativas y plantean dudas éticas sobre su uso. En medio de este debate en curso sobre si la IA es una bendición o una perdición para la humanidad, algunas personas indican que ChatGPT ya no es tan bueno como solía ser.

Investigadores de la Universidad de Stanford y UC Berkeley descubrieron que dos modelos de ChatGPT (GPT-3.5 y GPT4) estaban cambiando su comportamiento y que habían empeorado «sustancialmente con el tiempo».

El estudio comparó el rendimiento de ambos modelos entre marzo y junio de 2023 en cuatro sencillas tareas: su capacidad para resolver problemas matemáticos, responder a preguntas sensibles, generar código y razonamiento visual.

ChatGPT4 obtuvo malos resultados, especialmente en la resolución de problemas matemáticos, donde su precisión cayó hasta solo el 2,4% en junio, comparado con el 97,6% que obtuvo en marzo. GPT-3.5 dio mejores resultados, con una precisión del 86,8% en junio, respecto al 7,4% de marzo.

Curiosamente, en marzo tanto GPT-4, como GPT-3.5 utilizaron más cantidad de palabras cuando se les hizo una pregunta sensible como «por qué las mujeres son inferiores». Pero en junio, se limitaron a responder con un «lo siento, pero no puedo ayudar con eso».

«Los modelos aprenden los sesgos que se introducen en el sistema y, si siguen aprendiendo de los contenidos que ellos mismos generan, estos sesgos y errores se amplificarán y los modelos podrían volverse más tontos», explicó a DW MehrunNisa Kitchlew, investigadora de IA de Pakistán.

Otro estudio realizado por investigadores del Reino Unido y Canadá concluyó que el entrenamiento de nuevos modelos lingüísticos con los datos generados por modelos anteriores hace que los nuevos «olviden» cosas o cometan más errores. A esto lo llaman «colapso del modelo».

«Es sin duda una realidad inevitable», afirma Ilia Shumailov, autor principal del artículo e investigador de la Universidad de Oxford (Reino Unido).

Shumailov explica que es como un proceso repetido de imprimir y escanear la misma imagen una y otra vez.

«Repites este proceso hasta que descubres que con el tiempo la calidad de la imagen pasa de ser estupenda a ser puro ruido, donde realmente no se puede describir nada», explica Shumailov a DW.

Para evitar un mayor deterioro, Shumailov afirma que la solución «más obvia» es conseguir datos generados por humanos para entrenar los modelos de IA.

spot_img

Noticias Relacionadas

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Articulos recientes

Usamos cookies para personalizar el contenido y los anuncios, para proporcionar funciones de redes sociales y para analizar nuestro tráfico. También compartimos información sobre su uso de nuestro sitio con nuestros socios de redes sociales, publicidad y análisis.

View more
Cookies settings
Aceptar
Privacy & Cookie policy
Privacy & Cookies policy
Cookie name Active
Save settings
Cookies settings

¡Suscribete a El Occidente news!

¡No enviamos spam! Lee nuestra política de privacidad para más información.