Slack tomó nota de las preocupaciones de los usuarios y reconoció que la redacción anterior de sus principios de privacidad contribuyó a la situación. «Valoramos los comentarios y, al analizar el lenguaje de nuestro sitio web, nos dimos cuenta de que tenían razón», dijo Slack en una publicación de blog el viernes. «Podríamos haber hecho un mejor trabajo al explicar nuestro enfoque, especialmente en lo que respecta a las diferencias en cómo se utilizan los datos para los modelos tradicionales de aprendizaje automático (ML) y en la IA generativa».
«Los principios de privacidad de Slack deberían ayudarlo a abordar las preocupaciones que podrían potencialmente detener la adopción de iniciativas genAI», dijo Raúl Castañón, analista de investigación senior de 451 Research, parte de S&P Global Market Intelligence.
Sin embargo, Slack continúa habilitando a los clientes de forma predeterminada cuando se trata de compartir datos de usuario con los algoritmos AI/ML. Para optar por no participar, el administrador de Slack de una organización de cliente debe enviar un correo electrónico a la empresa para solicitar que ya no se acceda a sus datos.
Castañón dijo que es poco probable que la postura de Slack disipe las preocupaciones sobre la privacidad de los datos a medida que las empresas comiencen a implementar herramientas genAI. «De manera similar a lo que ocurre con las cuestiones de privacidad del consumidor, si bien es mucho menos probable que un enfoque de aceptación obtenga una respuesta, normalmente transmite más confiabilidad», dijo.
Un reciente encuesta de la firma analista Metrigy demostró que el uso de datos de clientes para entrenar modelos de IA es la norma: el 73% de las organizaciones encuestadas están entrenando o planean entrenar modelos de IA con datos de clientes.
«Idealmente, la capacitación sería de participación voluntaria, no de exclusión voluntaria, y empresas como Slack/Salesforce informarían proactivamente a los clientes sobre los detalles específicos de qué datos se utilizan y cómo se utilizan», dijo Irwin Lazar, presidente y analista principal. en Metrigia. «Creo que las preocupaciones sobre la privacidad relacionadas con la formación en IA no harán más que crecer y las empresas se enfrentarán cada vez más a reacciones negativas si no comunican claramente el uso de datos y los métodos de formación».
GIPHY App Key not set. Please check settings