Cada paso del camino, AGI podría interpretar datos complejos y ambiguos, reconocer patrones y anomalías que los humanos o los IA tradicionales podrían perderse. Por ejemplo, podría refinar los modelos existentes notando primero, luego eliminando o actualizando datos falsos, inexactos o sesgados utilizados en modelos de idiomas grandes. Esto allana el camino hacia la superación personal, donde los agentes AGI podrían aprender a ser mejores científicos, mejorando sus propios métodos y herramientas.
También podría participar en una colaboración de laboratorio cruzado, donde los agentes AGI podrían encontrar otros investigadores (o agentes de investigación) que trabajan en proyectos similares y conectarse con ellos para compartir datos, evitar la duplicación y desarrollar ideas más rápido.
Los aspectos de AGI que son los más prometedores, actuar de forma independiente, mejorarse y cooperar con otros agentes de IA, también son los más alarmantes. Recientemente, los modelos de Operai no solo se negaron a cerrar cuando los investigadores les dijeron que lo hicieran, sino que sabotearon activamente los guiones que intentaban cerrarlos. E investigadores de China encontraron que los modelos de OpenAi, Anthrope, Meta, Deepseek y Alibaba mostraron comportamientos de autoconservación, incluidos chantaje, sabotaje, auto-replicación y contención de escape.