in

¿Necesita un especialista en ética de la IA?

¿Necesita un especialista en ética de la IA?

En respuesta a las numerosas preocupaciones éticas que rodean el auge de la inteligencia artificial generativa (genAI), incluida la privacidad, los prejuicios y la desinformación, muchas empresas de tecnología han comenzado a trabajar con especialistas en ética de la IA, ya sea como personal o como consultores. Estos profesionales son contratados para administrar cómo la organización adopta la IA en sus productos, servicios y flujos de trabajo.

Bart Willemsen, vicepresidente y analista de Gartner, dice que a las organizaciones les vendría mejor contar con un especialista en ética o un equipo dedicado en lugar de agregar la función a un rol existente.

“Tener una función tan dedicada con un enfoque consistente que continúa madurando con el tiempo en lo que respecta a la variedad de temas discutidos, en lo que respecta a las lecciones aprendidas de conversaciones y proyectos anteriores, significa que la tasa de éxito del uso justificable y responsable de la tecnología de IA aumenta”, dijo.

Si bien las empresas que agregan este rol pueden tener buenas intenciones, existe el peligro de que los especialistas en ética de la IA sean contrataciones simbólicas, es decir, personas que no tienen un impacto significativo en la dirección y las decisiones de la organización. Entonces, ¿cómo deberían las organizaciones integrar a los especialistas en ética para que puedan cumplir con su mandato de mejorar la toma de decisiones éticas y la IA responsable?

Hablamos con especialistas en ética de tecnología e inteligencia artificial de todo el mundo para conocer sus opiniones sobre cómo las organizaciones pueden lograr este objetivo. Con estas mejores prácticas, las organizaciones pueden transformar la ética de una cuestión de cumplimiento a una fuente duradera de ventaja competitiva.

El especialista en ética de la IA como educador tecnológico

Para algunos, “eticista” puede connotar la imagen de una persona perdida en sus propios pensamientos, muy alejada de la realidad cotidiana de una organización. En la práctica, un especialista en ética de la IA es un puesto altamente colaborativo, que debería tener influencia horizontal en toda la organización.

Joe Fennel, especialista en ética de la IA de la Universidad de Cambridge en el Reino Unido, consulta con frecuencia a organizaciones y las capacita en ética, desempeño y productividad.

La ética es como el jiu-jitsu, dice: “A medida que llegas a los cinturones más avanzados, realmente se trata menos de los movimientos y mucho más de los principios que informan los movimientos. Y son principios como el equilibrio, el apalancamiento y el dinamismo”.

Se acerca a la IA de la misma manera. Por ejemplo, cuando enseña ingeniería rápida con el objetivo de reducir las tasas de alucinaciones genAI, no requiere que los estudiantes memoricen frases específicas. En cambio, los entrena sobre principios más amplios, como cuándo usar instrucciones versus ejemplos para enseñar el modelo.

Fennel ha fusionado estas técnicas en una metodología general con consideraciones éticas y de seguridad que hace que la gente se interese en la ética, dice.

Darren Menachemson, jefe de ética de la consultora de diseño australiana ThinkPlace, también cree que una de las responsabilidades clave de los especialistas en ética es la comunicación, particularmente en torno a la gobernanza.

“[Governance] significa que las organizaciones necesitan tener suficiente conocimiento de la tecnología para que realmente puedan controlar los riesgos, mitigar, [and] tratar con [them]… Significa que la inteligencia artificial como concepto debe comunicarse bien a través de la organización para que la gente entienda cuáles son sus límites y pueda usarse de manera responsable”, dijo.

Por supuesto, esta instrucción plantea desafíos culturales, a saber, el espíritu de “moverse rápido y romper cosas” que ha definido el ecosistema tecnológico, especialmente ante el auge de la IA.

«Lo que estamos viendo es un imperativo real entre muchas organizaciones para actuar rápidamente, mantenerse al día con lo que está sucediendo en términos más generales y también aprovechar oportunidades realmente sorprendentes que son demasiado significativas y conllevan demasiados beneficios como para ignorarlas», dijo Menachemson.

Menachemson sostiene que los especialistas en ética, en particular los de alto nivel, pueden tener éxito a pesar de estos desafíos si poseen tres cualidades. El primero es una comprensión profunda de los matices de la tecnología de inteligencia artificial y del nivel de riesgo que esto plantea frente al propio apetito de riesgo de la organización.

El segundo es la voluntad de involucrar a las partes interesadas para «comprender el contexto empresarial en el que se está introduciendo la inteligencia artificial e ir más allá de lo general a lo específico en términos de la orientación que se ofrece».

El tercer atributo es fundamental para ejecutar el segundo. “Desconcertar a los grupos de alto nivel con un lenguaje técnico o un lenguaje altamente académico los hace perder y pierde la oportunidad de tener una influencia real. Los expertos en ética de alto nivel deben ser comunicadores expertos y comprender cómo pueden conectar el riesgo ético con las prioridades estratégicas de la alta dirección”, dijo.

Proporcionar orientación práctica en dos niveles

Aunque la ética puede ser subjetiva, el trabajo de un especialista en inteligencia artificial o tecnología está lejos de ser inexacto. Al abordar una cuestión particular, como el consentimiento del usuario, el especialista en ética generalmente parte de un amplio conjunto de mejores prácticas y luego ofrece recomendaciones adaptadas a la organización.

«Diremos: ‘Esto es lo que actualmente es el estándar de la industria (o la vanguardia) en términos de IA responsable, y realmente depende de usted decidir en el panorama de posibilidades qué desea priorizar'», dijo Matthew. Sample, que era especialista en ética de la IA en el Instituto de IA Experiencial y la Universidad Northeastern cuando Computerworld lo entrevistó. “Por ejemplo, si [organizations are] no auditar sus modelos de IA por seguridad, por sesgos, si no los monitorean a lo largo del tiempo, tal vez quieran centrarse en eso”.

Sample brinda consejos más allá de estas mejores prácticas, que pueden ser tan granulares como cómo hacer operativa la ética en la empresa. «Si literalmente no tienen ni una sola persona en la empresa que piense en la ética de la IA, tal vez deban centrarse en la contratación», dijo como ejemplo.

Pero Sample evita las recomendaciones de línea dura. “En el espíritu de la ética, ciertamente no decimos: ‘Esto es lo único correcto en este momento’”, dijo.

Menachemson tiene un enfoque doble similar para sus flujos de trabajo. En el nivel superior, Menachemson dice que los especialistas en ética brindan orientación general sobre cuáles son los riesgos de un tema en particular y cuáles son las posibles mitigaciones y controles.

«Pero también es imperativo profundizar más», afirmó. Este paso debe centrarse en el contexto único de la organización y sólo puede realizarse después de que se comprendan los consejos básicos.

“Una vez realizada esa diligencia, es cuando se pueden presentar recomendaciones significativas al director ejecutivo o a la junta directiva. Hasta que no se realice esa diligencia, no se tendrá ninguna seguridad de que realmente se esté controlando el riesgo de manera significativa”, afirmó.

En términos de qué discutir, cubrir y comunicar, Fennel de Cambridge cree que los especialistas en ética de la IA deben tener un alcance amplio y no limitado.

“Cuanto más integral sea su agenda y evaluación de la ética de la IA, más diversa será su implementación de seguridad de la IA y, de manera equivalente, más sólida también debería ser su estrategia de prevención y mitigación de riesgos”, dijo.

Todo el mundo debería ser un ético.

En lo que respecta a la implementación, Jesslyn Diamond, directora de ética de datos de Telus Digital, con sede en Canadá, dice que su grupo trabaja para anticipar consecuencias no deseadas de genAI, como cualquier posible uso indebido, mediante el uso de un equipo rojo, que identifica brechas y Incluso intenta romper sistemas intencionalmente.

“También utilizamos el concepto de equipo azul, que intenta crear soluciones innovadoras para proteger y mejorar los resultados que son posibles juntos a través de un equipo púrpura”, dijo Diamond.

El equipo morado es de naturaleza multidisciplinaria y abarca profesionales de control de calidad, servicio al cliente, finanzas, políticas y más. «Hay algo en la naturaleza no determinista de la IA generativa que realmente hace que estas diversas perspectivas, aportes y conocimientos sean tan necesarios», afirmó.

Diamond dice que el equipo púrpura crea la oportunidad para que diferentes tipos de profesionales utilicen la tecnología, lo que es útil no sólo para explorar los riesgos y las consecuencias no deseadas que son consideraciones importantes para la ética, sino también para revelar beneficios adicionales.

Telus también brinda capacitación especializada a los empleados sobre conceptos como gobernanza de datos, privacidad, seguridad, ética de los datos e IA responsable. Luego, estos empleados se convierten en administradores de datos en sus esferas de influencia. Hasta la fecha, Telus cuenta con una red de más de 500 administradores de datos de este tipo.

“Familiarizarse más con cómo [AI] Works realmente equipa tanto a aquellos que son muy técnicos como a aquellos que son menos técnicos para poder participar plenamente en este importante ejercicio de tener esa diversidad de experiencia y experiencia. [represented]”, dijo Diamante.

Puede parecer obvio que la ética debe ser multidisciplinaria, pero demasiadas empresas encasillan la función en un rincón remoto de la organización. «Es muy importante que la gente comprenda la tecnología para poder gobernarla de manera significativa, y esa tensión entre alfabetización y participación tiene que ocurrir al mismo tiempo», dijo Diamond.

Creando una cultura de innovación ética

El objetivo de asesorar sobre ética no es crear un modelo de mesa de servicio, donde los colegas o clientes siempre tengan que acudir al especialista en ética para obtener orientación adicional. Los especialistas en ética generalmente aspiran a que sus partes interesadas alcancen cierto nivel de independencia.

“Realmente queremos que nuestros socios sean autosuficientes. Queremos enseñarles a hacer este trabajo por sí solos”, dijo Sample.

Los especialistas en ética pueden promover la ética como un valor central de la empresa, no diferente del trabajo en equipo, la agilidad o la innovación. La clave para esta transformación es comprender el objetivo de la organización al implementar la IA.

“Si creemos que la inteligencia artificial va a transformar los modelos de negocio… entonces corresponde a una organización asegurarse de que los altos ejecutivos y la junta directiva nunca se desconecten de lo que la IA está haciendo para o para su organización, su fuerza laboral o sus clientes. ” Menachemson dijo.

Esta alineación puede ser especialmente necesaria en un entorno en el que las empresas se lanzan de cabeza a la IA sin una dirección estratégica clara, simplemente porque la tecnología está de moda.

Un especialista en ética o un equipo dedicado podría abordar una de las cuestiones más fundamentales que rodean a la IA, señala Willemsen de Gartner. Una de las preguntas más frecuentes a nivel de junta directiva, independientemente del proyecto en cuestión, es si la empresa puede utilizar la IA para ello, dijo. “Y aunque es ligeramente comprensible, la segunda pregunta casi siempre se omite: ‘Debería ¿Usamos IA?’”, añadió.

En lugar de operar con esta evidente brecha, Willemsen dice que las organizaciones deberían invertir el orden de las preguntas. “Número uno: ¿Qué estoy tratando de lograr? Olvídate de la IA por un segundo. Que ese sea el primer enfoque”, dijo, señalando que la mayoría de las organizaciones que adoptan este enfoque tienen un éxito más demostrable.

Esta simple pregunta debería ser parte de un programa más amplio de reflexión y autoevaluación organizacional. Willemsen cree que las empresas pueden mejorar su ética en IA ampliando el alcance de su investigación, haciendo preguntas difíciles, permaneciendo interesadas en las respuestas y, en última instancia, haciendo algo con esas respuestas.

Aunque la IA puede ser transformadora, Willemsen enfatizó la necesidad de examinar de cerca cómo beneficiaría (o no) a las personas.

«Esto debería tener en cuenta no sólo la función de la tecnología de IA, el grado en que se deben prevenir resultados no deseados y que la tecnología debe estar bajo control, sino que también puede abarcar cosas como condiciones inhumanas en entornos mineros para que funcione el hardware». «, la conexión con la esclavitud moderna con las ‘granjas de taggers’, así como el daño incalculable del consumo de electricidad y el uso de agua sin precedentes para la refrigeración de los centros de datos», dijo.

Según Willemsen, las organizaciones que sean plenamente conscientes de estos problemas y estén alineadas con sus iniciativas de IA verán beneficios. «El valor de la ética de la IA puede no ser tangible de inmediato», afirmó. «Pero saber qué está bien y qué está mal significa que el valor y el mayor beneficio de la ética de la IA tiene una visión a más largo plazo: una aplicación consistente de la tecnología sólo donde sea realmente útil y tenga sentido».

Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Resident Evil 2 llegará a iPhone, iPad y Mac el 10 de diciembre

Una fuente confiable dice que la serie Galaxy S25 se lanzará el 22 de enero