Últimamente, los principales reparos que rodean la IA tienen que ver con la cantidad de energía requerida por sus centros de datos. Pero un viejo miedo acecha en el fondo: ¿Ai se volverá pícaro? Una nueva investigación sugiere que algunos modelos de idiomas grandes (LLM) tienen la capacidad preocupante de las acciones autónomas.
Una nueva investigación sugiere que la IA puede replicarse
Según la investigación de la Universidad Fudan de China, algunos modelos LLM populares pueden autorreplicarse o producir copias adicionales de sí mismos. Publicado a ARXIV en diciembre de 2024, los investigadores encontraron que los modelos de IA de Meta y Alibaba cruzaron una «línea roja autorreplicante». En otras palabras, los modelos demostraron una tasa de éxito relacionado con respecto a la autorreplicación.
ARXIV es una base de datos de preimpresión, lo que significa que alberga una investigación científica que todavía está en su forma preliminar. Hallazgos como este todavía deben revisarse entre pares, y deben tomarse con un grano de sal.
En aras de la claridad, aquí están los dos modelos probados en esta investigación:
-
Meta's Llama31-70b-Instructo
-
Alibaba's Qwen25-72b-Instructo
Los investigadores señalan que estos modelos tienen «menos parámetros y capacidades más débiles», en comparación con los modelos insignia de OpenAI y Google. Según la publicación, por lo que vale, Openai y Google han reportado bajos niveles de riesgo de auto-replicación.
Por qué importa si AI puede reproducirse
Un modelo de AI en sí mismo es, sin duda, una imagen aterradora, pero ¿qué significa realmente? El equipo de investigación detrás de estos hallazgos recientes lo expresó de esta manera:
«La auto-replicación exitosa bajo ninguna asistencia humana es el paso esencial para que la IA se burle de los seres humanos, y es una señal temprana para los AI de Rogue. Es por eso sistemas «.
El término «AI fronterizo» generalmente se refiere a los modelos de IA más avanzados, como la IA generativa.
Esencialmente, si un modelo AI puede descubrir cómo hacer una copia funcional de sí misma para evitar el cierre, eso saca el control de las manos humanas. Para mitigar este riesgo de una «población no controlada de AIS», la investigación sugiere construir parámetros de seguridad alrededor de estos sistemas, lo antes posible.
Si bien esta publicación ciertamente amplifica las preocupaciones en torno a Rogue AI, esto no significa que haya un riesgo inmediato y confirmado para el usuario de IA cotidiano. Lo que sí sabemos es que Gemini y ChatGPT tienen niveles más bajos de riesgo de autorreplicación, en comparación con el modelo de llama de Meta y los poderosos modelos QWEN de Alibaba. Como regla general, probablemente sea mejor evitar darle a su asistente de IA todos sus secretos sucios, o acceso completo al mainframe, hasta que podamos introducir más barandillas.