
El profesor asistente de ingeniería de software Dusan Ramljak, a la izquierda, colaboró con los estudiantes de doctorado de la Universidad de Viena, Alexander Neulinger y Lukas Sparer, y otros investigadores en un artículo sobre el uso de blockchain, la tecnología detrás de las criptomonedas, para alinear la IA con la ética humana. Crédito: Lisa Litzinger-Drayton / Penn State
A medida que las personas utilizan cada vez más la inteligencia artificial (IA) en diversas áreas de la vida para ahorrar tiempo o mejorar el rendimiento, la influencia de los sistemas de IA crece, al igual que el riesgo de resultados poco confiables en la toma de decisiones de alto riesgo, como aquellas que involucran decisiones médicas o financieras.
Los agentes de IA, como los robots comerciales autónomos o diversas herramientas de diagnóstico, están diseñados para aprender, evolucionar y operar con poca o ninguna participación humana directa. Entonces, ¿qué pueden hacer los tecnólogos para ayudar a garantizar que la IA cumpla con los valores éticos para el bien público?
Un equipo, que incluye investigadores de Penn State, publicó un artículo en el Revista de ciberseguridad y privacidad para explorar formas en que blockchain, la tecnología detrás de las criptomonedas, podría ayudar a imponer límites éticos para los sistemas de inteligencia artificial.
El coautor del estudio y profesor asistente de ingeniería de software de Penn State Great Valley, Dusan Ramljak, analiza el marco que él y su equipo desarrollaron para investigar cómo utilizar blockchain para alinear la IA con la ética humana.
¿Por qué el comportamiento de la IA es una cuestión tan apremiante?
Los sistemas de IA están entrenados para actuar de determinadas maneras dentro de parámetros específicos. Si los parámetros cambian, como cuando se implementan en sistemas más amplios, pueden actuar de maneras impredecibles que contradicen los valores humanos; por ejemplo, tergiversaciones al manejar mal datos de salud sensibles o desinformación al recomendar el tratamiento médico equivocado. Las consecuencias pueden ser peligrosas.
A medida que delegamos cada vez más tareas a la IA, necesitamos encontrar formas de garantizar que mantenemos el control sobre estos sistemas y facilitamos una conducta ética. La IA puede ayudarnos a aumentar la eficiencia de la vida cotidiana, pero debemos utilizarla de manera responsable proporcionando un entorno de prueba adecuado, prediciendo su comportamiento de antemano y garantizando la alineación de la IA con los valores humanos.
La gente suele pensar en blockchain en relación con las criptomonedas. ¿Cómo puede blockchain ayudar a que la IA funcione de manera ética?
Blockchain crea registros digitales seguros y descentralizados que, a través de la criptografía, requieren un linaje de datos transparente desde las entradas hasta las salidas, con registros resistentes a manipulaciones. Muchos sistemas de inteligencia artificial carecen del tipo de transparencia, seguridad y control descentralizado que ofrece blockchain.
Al combinar la IA con la cadena de bloques, podemos construir sistemas donde las decisiones sean consistentes y rastreables, y las reglas operativas y los datos sean más difíciles de manipular.
Los mecanismos de consenso basados en blockchain permiten que un amplio conjunto de participantes voten sobre reglas éticas, que luego se almacenan como «contratos inteligentes». Los contratos inteligentes son éticas ejecutables por máquinas o reglas que se ejecutan automáticamente.
Estos mecanismos promueven la colaboración descentralizada y la democratización en el desarrollo de sistemas de inteligencia artificial y garantizan que las máquinas respeten ciertos límites. Las características de seguridad de Blockchain también dificultan que actores malintencionados manipulen datos de entrenamiento que podrían hacer que los sistemas de inteligencia artificial den resultados dañinos o no confiables.
¿Cuál es el marco que desarrolló su equipo para investigar los usos de blockchain para imponer barreras éticas al comportamiento de los sistemas de IA?
Nuestra investigación incluyó a la profesora adjunta de tecnología de la información y análisis y operaciones de ciberseguridad de Penn State Abington, Maryam Roshanaei, al estudiante de maestría en análisis de datos Jainil Kakka, a los estudiantes de doctorado de la Universidad de Viena Alexander Neulinger y Lukas Sparer, así como al estudiante de doctorado de la Facultad de Ciencias y del Departamento de Matemáticas e Informática de la Universidad de Kragujevac, Dragutin Ostojić.
El equipo revisó más de 7000 estudios y desarrolló un marco para guiar investigaciones futuras sobre cómo blockchain puede facilitar el cumplimiento ético en los sistemas de IA al respaldar operaciones seguras y transparentes y brindar responsabilidad.
Un estudio sugirió que blockchain podría usarse para verificar los datos de entrada de la IA y registrar las salidas de la IA, lo que ayudaría a garantizar una toma de decisiones rastreable. Otro estudio propuso que blockchain podría respaldar los sistemas de reputación de los agentes de IA, ofreciendo incentivos para un comportamiento ético y denegando recursos por acciones engañosas o que no cumplan con las normas.
También notamos algunas lagunas en la literatura, por lo que propusimos un marco analítico de tres niveles para una mayor exploración de los usos de blockchain para la alineación de la IA:
- Análisis a nivel micro: protocolos técnicos y de codificación para proteger los datos del usuario
- Análisis de nivel meso: casos de uso de IA basada en blockchain en diversos sectores, como servicios financieros y atención médica, con requisitos específicos para las necesidades únicas de esos sectores.
- Análisis a nivel macro: Principios morales y estándares legales y culturales internacionales que rigen los usos éticos y sostenibles de las tecnologías emergentes en interés público. La Ley de Inteligencia Artificial de la Unión Europea es un ejemplo de una regulación global destinada a apoyar el desarrollo confiable y el uso responsable de sistemas de IA a través de fuertes requisitos de gobernanza y transparencia.
¿Cuáles son las desventajas de utilizar IA basada en blockchain?
Los sistemas blockchain y de inteligencia artificial a gran escala pueden consumir mucha energía. Además, es necesario salvaguardar la privacidad para que hacer que la IA sea más transparente no signifique exponer datos confidenciales. Y diferentes países y regiones culturales pueden priorizar valores de manera diferente, desde la privacidad hasta la equidad. Por lo tanto, los marcos de alineación deben ser lo suficientemente flexibles para funcionar en todas las culturas y sistemas legales.
¿Qué investigaciones futuras se necesitan para explorar la alineación de la IA basada en blockchain con la ética?
Para futuras direcciones de investigación, necesitamos desarrollar marcos de múltiples capas que incorporen mecanismos de seguridad y privacidad a nivel micro, gobernanza sectorial a nivel meso y restricciones legales a nivel macro en una estructura única y adaptable.
La convergencia de blockchain y la IA podría brindarnos no solo una mayor confiabilidad de los sistemas técnicos, sino también nuevas formas de gobernanza centrada en las personas, garantizando la rendición de cuentas a escala. Blockchain nos ofrece herramientas para desarrollar y utilizar la IA de manera que prioricen los valores humanos y el bienestar social.
Más información:
Alexander Neulinger et al, ¿Es Blockchain el futuro de la alineación de la IA? Desarrollar un marco y una agenda de investigación basados en una revisión sistemática de la literatura. Revista de ciberseguridad y privacidad (2025). DOI: 10.3390/jcp5030050
Citación: Preguntas y respuestas: ¿Puede la tecnología detrás de las criptomonedas ayudar a alinear la IA con los valores humanos? (2025, 24 de octubre) obtenido el 24 de octubre de 2025 en https://techxplore.com/news/2025-10-qa-tech-crypto-align-ai.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.


