Cápsula de IA

Alconversation en Instagram nos dice: esto les sonará extraño pero la IA está comenzando a comerse a sí misma, y ya está sucediendo más rápido de lo que se esperaba, se llama, el colapso del modelo. Algunos investigadores también lo llaman canibalismo de la IA. La IA está quedándose sin data humana para poder aprender. Así que ahora estamos entrenando nuevos modelos para que obtengan contenidos de otras inteligencias artificiales. Esto puede sonar bien en un principio, pero el problema es el siguiente: imagínense que tienen 20 sombreros, 19 son azules y uno es rojo. Cuando una IA aprende de esto, busca el patrón común y silenciosamente ignora al distinto. Entonces el sombrero rojo se olvida. Ahora, si entrenas un segundo modelo de IA a partir del resultado del primero, aquí el sombrero rojo ya no existe. La parte preocupante de esto es que no se trata de un problema para el futuro, está sucediendo ahora mismo. Los estudios indican que el 18% de los resultados de las investigaciones de Google ya son contenidos generados por inteligencia artificial, y ese número se incrementa mes a mes. La vieja internet era desorganizada, pero era real; gente real, opiniones reales, experiencias reales. Los riesgos de la nueva internet es que se está volviendo un loop reciclado de inteligencia artificial hablando con inteligencia artificial, perdiendo las voces singulares, perdiendo data de “menor” importancia y alejándose de la verdad con cada ciclo. Si no arreglamos esto, la información que obtendremos de la IA será una copia borrosa de lo que una vez fue real. De manera que, mientras esto no esté solucionado, siempre revisa tus fuentes de información, podrías estar aprendiendo de una copia de una copia de la verdad.
