El contenido generado por IA supone un riesgo para la propia IA: “corre el riesgo de colapsar”.

Hay dos paradojas que describen la inteligencia artificial a estas alturas. Primero ahí«Se necesitan recursos con urgencia». Lo que erosiona abundantes suministros de energía y agua (por no hablar de las emisiones de CO2), pero, al mismo tiempo, podría ser la clave para solucionar (o al menos intentar solucionar) la crisis climática. La segunda es la posibilidad de que Lo mismo La IA puede colapsar bajo el peso de los mismos datos con los que fue entrenada, basado en modelos anteriores. Esto proviene de un estudio publicado recientemente sobre: naturaleza.

Descubrimiento de los investigadores: «colapso del paradigma»

Según los investigadores, la eficacia de la IA generativa y los grandes modelos lingüísticos ha ido mejorando gradualmente en el campo de la generación de imágenes y texto. La velocidad a la que han evolucionado ha permitido a los creadores de contenidos depender cada vez más de las plataformas de IA. con las consecuencias Gran parte del contenido generado por la inteligencia artificial será cada vez más visible en línea.

Pero este uso, que los científicos definen como “aleatorio”, podría llevar a “Defectos irreversibles» En los mismos modelos. Este efecto, que los científicos llaman “colapso de paradigma”, se debe a… La IA se entrena con grandes cantidades de datos, que a menudo provienen de modelos anteriores.. Esto hará que las generaciones posteriores de IA se alimenten cada vez más de material que sus predecesores ya han “digerido” y de material preenvasado encontrado en Internet, cada vez más generado por los mismos modelos generativos. Aquí es donde ocurre el proceso que los científicos definen como “proceso degenerativo”.

Resultados

Esto significa que los errores aprendidos de modelos anteriores son absorbidos rápidamente por modelos posteriores, generando respuestas rápidas que sufren de más errores. La razón es muy sencilla. Mientras los modelos estén entrenados con contenido que no sea perfecto, Pero ciertamente escrito por el ingenio humano.La calidad de los materiales sobre los que se aprendió la IA también hizo que la producción de los propios modelos generativos fuera eficiente. Pero ahora se les está alimentando con contenidos de mala calidad o carentes de profundidad, generados por los mismos tipos de inteligencia artificial. Como resultado, los resultados obtenidos ya no son tan buenos como al principio.

Esto no es fácil: puede llevar a la generación de imágenes y textos completamente desconectados de la realidad, y a errores que hagan que la inteligencia artificial sea menos efectiva y útil. Puede haber una manera de evitar que esto suceda. Por ejemplo, podrías etiquetar todo el contenido generado por IA como tal.. De esta manera pueden ser Excluido de los datos de entrenamiento Para evitar que sean heredados por modelos posteriores. Pero el esfuerzo requerido no es insignificante: Debería convertirse en un estándar común adoptado por todas las empresas de IA.. Si el filósofo alemán Ludwig Feuerbach afirmó que somos lo que comemos, entonces podemos decir que la inteligencia artificial es lo que aprende. Por eso es importante estar capacitado para mantener el contenido generado por humanos en el centro, a pesar de quienes temen que la IA lo reemplace.

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll to Top