
Un enfoque importante de la investigación de IA es mejorar la realidad y la confiabilidad de un sistema de IA. Aunque se han realizado un progreso significativo en estas áreas, algunos expertos en IA son pesimistas de que estos problemas se resolverán en el futuro cercano. Ese es uno de los principales hallazgos de un nuevo informe de la Asociación para el Avance de la Inteligencia Artificial (AAAI), que incluye información de expertos de varias instituciones académicas (por ejemplo, MIT, Harvard y Universidad de Oxford) y gigantes tecnológicos (por ejemplo, Microsoft e IBM).
El objetivo del estudio fue definir las tendencias actuales y los desafíos de investigación para hacer que la IA sea más capaz y confiable para que la tecnología se pueda usar de manera segura, escribió la presidenta de AAAI Francesca Rossi. El informe incluye 17 temas relacionados con la investigación de IA seleccionada por un grupo de 24 investigadores de IA «muy diversos» y experimentados, junto con 475 encuestados de la comunidad AAAI, señaló. Aquí hay aspectos destacados de este informe de investigación de IA.
Mejora de la confiabilidad y fáctica de un sistema de IA
Un sistema de IA se considera un hecho si no produce declaraciones falsas, y su confiabilidad puede mejorarse al incluir criterios «como la comprensión humana, la robustez y la incorporación de los valores humanos», declararon los autores del informe.
Otros criterios a considerar son ajustar y verificar las salidas de la máquina, y reemplazar modelos complejos con modelos simples comprensibles.
VER: Cómo mantener a AI confiable de TechRepublic Premium
Hacer la IA más ética y más segura
La IA se está volviendo más popular, y esto requiere una mayor responsabilidad para los sistemas de IA, según el informe. Por ejemplo, las amenazas emergentes como el delito cibernético impulsado por la IA y las armas autónomas requieren atención inmediata, junto con las implicaciones éticas de las nuevas técnicas de IA.
Entre los desafíos éticos más apremiantes, las principales preocupaciones que tenían los encuestados estaban:
- Información errónea (75%)
- Privacidad (58.75%)
- Responsabilidad (49.38%)
Esto indica más transparencia, responsabilidad y explicación en los sistemas de IA. Y, que las preocupaciones éticas y de seguridad deben abordarse con la colaboración interdisciplinaria, la supervisión continua y la responsabilidad más clara.
Los encuestados también citaron barreras políticas y estructurales, «con las preocupaciones de que el progreso significativo puede verse obstaculizado por la gobernanza y las divisiones ideológicas».
Evaluar la IA utilizando varios factores
Los investigadores argumentan que los sistemas de IA introducen «desafíos de evaluación únicos». Los enfoques de evaluación actuales se centran en las pruebas de referencia, pero dijeron que se debe prestar más atención a la usabilidad, la transparencia y el cumplimiento de las pautas éticas.
La implementación de agentes de IA introduce desafíos
Los agentes de IA han evolucionado de solucionadores de problemas autónomos a marcos de IA que mejoran la adaptabilidad, la escalabilidad y la cooperación. Sin embargo, los investigadores descubrieron que la introducción de AI agente, al tiempo que proporciona una toma de decisiones flexible, ha introducido desafíos cuando se trata de eficiencia y complejidad.
Los autores del informe afirman que la IA integración con modelos generativos «requiere equilibrar la adaptabilidad, la transparencia y la viabilidad computacional en entornos de múltiples agentes».
Más aspectos de la investigación de IA
Algunos de los otros temas relacionados con la investigación de IA cubiertos en el Informe AAAI Incluya sostenibilidad, inteligencia general artificial, bien social, hardware y aspectos geopolíticos.