in

No es necesario que tengamos robots asesinos sin supervisión.

Campo Hayden

Es el día del inminente ultimátum del Pentágono para Anthropic: permitir que el ejército estadounidense tenga acceso sin control a su tecnología, incluso para vigilancia masiva y armas letales totalmente autónomas, o potencialmente ser designado como un «riesgo de cadena de suministro» y potencialmente perder cientos de miles de millones de dólares en contratos. En medio de las crecientes declaraciones públicas y amenazas, los trabajadores tecnológicos de toda la industria analizan los contratos gubernamentales y militares de sus propias empresas y se preguntan qué tipo de futuro están ayudando a construir.

Si bien el Departamento de Defensa ha pasado semanas negociando con Anthropic sobre la eliminación de sus barreras de seguridad, incluida la posibilidad de permitir que el ejército estadounidense utilice la IA de Anthropic para matar objetivos sin supervisión humana, OpenAI y xAI habían según se informa Ya hemos acordado dichos términos, aunque OpenAI es según se informa intentando adoptar las mismas líneas rojas en los acuerdos que Anthropic. La situación general ha hecho que los empleados de algunas empresas con contratos de defensa se sientan traicionados. «Cuando me uní a la industria de la tecnología, pensé que la tecnología consistía en hacer la vida de las personas más fácil», dijo un empleado de Amazon Web Services. El borde«pero ahora parece que se trata de hacer más fácil la vigilancia, la deportación y el asesinato de personas».

En conversaciones con El bordeempleados actuales y anteriores de OpenAI, xAI, Amazon, Microsoft y Google expresaron sentimientos similares sobre el cambiante panorama moral de sus empresas. Grupos organizados que representan a 700.000 trabajadores tecnológicos en Amazon, Google, Microsoft y más han firmó una carta exigiendo que las empresas rechacen las exigencias del Pentágono. Pero muchos vieron pocas posibilidades de que sus empleadores (estén o no directamente involucrados en este conflicto) cuestionaran al gobierno o respondieran.

«Desde su perspectiva, les encantaría seguir ganando dinero y no tener que hablar de ello», dijo un ingeniero de software de Microsoft.

Hasta ahora, Anthropic se ha mantenido firme. El director ejecutivo de Anthropic, Dario Amodei, publicó un declaración el jueves que las “amenazas del Pentágono no cambian nuestra posición: no podemos, en conciencia, acceder a su solicitud”. Pero ha declarado que no se opone en absoluto a que haya armas letales autónomas en el futuro, sólo que la tecnología no era lo suficientemente fiable “hoy”. Amodei incluso se ofreció a asociarse con el Departamento de Defensa en “I+D para mejorar la confiabilidad de estos sistemas, pero no aceptaron esta oferta”, escribió en el comunicado.

Sin embargo, en los últimos años, las principales empresas de tecnología han flexibilizado sus reglas o cambiado sus declaraciones de misión para expandirse a lucrativos contratos gubernamentales o militares. En 2024, OpenAI eliminó de sus términos de servicio la prohibición de casos de uso “militares y bélicos”; después de eso, firmó un acuerdo con el fabricante de armas autónomas Anduril y luego su contrato con el Departamento de Defensa, y justo esta semana, Anthropic cambió su tan promocionada política de escalamiento responsableabandonando su compromiso de seguridad de larga data para garantizar que siga siendo competitivo en la carrera de la IA. Los grandes actores tecnológicos como Amazon, Google y Microsoft también han permitido que las agencias de defensa y de inteligencia utilicen sus productos de inteligencia artificial, incluidos algunos que aceptaron trabajar con ICE a pesar de la creciente protesta del público y de los empleados por igual.

En los últimos años, la resistencia de los trabajadores tecnológicos a asociaciones y acuerdos que consideran perjudiciales para la sociedad en general condujo a veces a grandes cambios. En 2018, por ejemplo, miles de empleados de Google presionaron con éxito a la empresa para que pusiera fin a su “Proyecto Maven” asociación con el Pentágono y los trabajadores de Microsoft presentaron a los líderes una campaña anti-ICE petición firmado por alrededor de 500 Empleados de Microsoft, aunque Microsoft todavía funciona con la agencia. En 2020, tras el asesinato de George Floyd, las empresas de tecnología hicieron declaraciones públicas y compromisos financieros en apoyo al movimiento Black Lives Matter. Pero en los últimos meses, la industria ha visto una realidad muy diferente: una cultura de miedo y silencio, especialmente en medio de la cooperación con la administración Trump y ICE, dijeron recientemente trabajadores del sector tecnológico. El borde.

Las empresas han seguido los pasos de antiguas asociaciones de vigilancia y tecnología militar, que sólo se han vuelto más agresivas. Eso incluye Palantir, cofundada por Peter Thiel, cuyo director ejecutivo Alex Karp recientemente fijado a los accionistas que «Palantir está aquí para perturbar y hacer que las instituciones con las que nos asociamos sean las mejores del mundo y, cuando sea necesario, para asustar a los enemigos y, en ocasiones, matarlos. Y esperamos que estén a favor de eso». (Protect Democracy, una organización sin fines de lucro, publicó recientemente un carta abierta pidiendo que el Congreso supervise las demandas del Departamento de Defensa sobre el uso irrestricto de la IA. )

OpenAI, Google, Microsoft, xAI y Amazon no respondieron de inmediato a las solicitudes de comentarios.

Un ex empleado de xAI dijo El borde«En este momento, todo el mundo está trabajando en robots asesinos», y agregó que cree que todos seguirán los pasos de Palantir, Anduril y xAI, ya que el sentimiento del gobierno es que si una empresa no accede, va «en cierto sentido, en contra de los beneficios del país». Dijo que hay «un gran impulso para trabajar con los militares, y la tendencia es que está bien hacerlo… Eres un patriota si lo haces».

Un empleado de Google calificó la situación como una “muestra de dominio de Hegseth que es repugnante”. Y añadió: «Una y otra vez, la IA nos presenta opciones sobre quiénes queremos ser y qué tipo de sociedad y futuro queremos tener. Y vienen hacia nosotros rápidamente y, en realidad, con los líderes en el poder menos reflexivos y con menos principios que podamos imaginar. Sólo puedo agradecer a Anthropic por insistir en el camino decente y utilizar su influencia (que son indispensables) para trazar un rumbo hacia un mundo y un futuro humanos».

El empleado de AWS dijo El borde que “los límites definitivamente se han erosionado en términos de los clientes que las grandes tecnológicas están dispuestas a cortejar” y que hay “un encubrimiento deliberado de las implicaciones de nuevos acuerdos lucrativos”. Recordó haber recibido recientemente un correo electrónico de un ejecutivo de AWS promocionando un contrato de más de 580 millones de dólares con la Fuerza Aérea de EE. UU., entre otras asociaciones, como una señal de los éxitos de la IA de Amazon, sin reconocer el alcance más amplio ni los daños involucrados.

«Si el gobierno está empeñado en desarrollar tecnologías como ésta, debería tener que construirlas él mismo y ser responsable de esas decisiones», afirmó.

Es posible que la erosión se haya extendido también a la cultura interna, normalizando la idea de que las empresas siempre deberían estar observando. La empleada de AWS dijo que a ella y a sus colegas se les realiza un seguimiento de cuánto utilizan la IA para sus trabajos, con qué frecuencia trabajan desde la oficina y más. “Me veo a mí y a mis compañeros de trabajo cada vez más insensibles a la vigilancia sobre nosotros mismos en el trabajo, y me preocupa que eso signifique que estemos obedeciendo, cumpliendo y renunciando demasiado por adelantado”, dijo.

Un empleado de OpenAI dijo que el sentimiento general dentro de la industria de la IA durante las últimas semanas «ha reabierto la puerta a más discusiones… sobre los valores y el futuro de la tecnología». El empleado dijo que la situación antrópica del Pentágono, los recientes titulares de ICE y el rápido avance de la IA han sido algunos de los principales factores que abrieron esas discusiones internamente.

Aun así, las personas que son inmigrantes o se encuentran en posiciones más vulnerables tienen más miedo de hablar, dijo el empleado de OpenAI.

Anthropic, dijo el ex empleado de xAI, parece estar en una posición en la que puede decir que no y aún mantenerse a flote. Su enfoque en el negocio de IA empresarial en lugar del de consumo puede hacerlo más sostenible incluso sin contratos gubernamentales, ofreciéndole cierta influencia. Un ingeniero de software de Microsoft dijo de Anthropic, hablando en general: «Me sorprendió verlos basarse en algún tipo de principio. No sé cuánto durará».

“¿Durará?” Parece ser la pregunta en boca de todos. El Pentágono ya según se informa pidió a dos importantes contratistas de defensa, Boeing y Lockheed Martin, que proporcionaran información sobre su dependencia de Claude de Anthropic, mientras avanza para designar potencialmente a Anthropic como un «riesgo de cadena de suministro», una clasificación generalmente reservada para amenazas a la seguridad nacional y rara vez, o nunca, asignada a una empresa estadounidense. También según se informa puede estar considerando invocar la Ley de Producción de Defensa para intentar obligar a Anthropic a cumplir con su solicitud.

Al igual que con cualquier otra empresa de inteligencia artificial, si Anthropic se retira, dijo el empleado de Microsoft, hay pocas posibilidades de que ella u otros retiren los robots asesinos y la vigilancia. «Una vez que estás en la puerta con el Departamento de Defensa o como lo llamemos ahora… creo que probablemente sea difícil para ellos tener la supervisión que afirman. Simplemente será lucrativo darse básicamente permiso para hacer lo que genere más dinero».

En el caso de Microsoft, dijo que no espera que la empresa se adhiera a ningún tipo de principio ético. La empresa ha trabajado extensamente con las Fuerzas de Defensa de Israel, incluso para la vigilancia masiva de palestinos y disidentes, a pesar de las protestas de los empleados. (Lo dijo terminó algunas partes de la asociación el año pasado.)

Otro empleado de Microsoft dijo El borde que aunque «Microsoft tiene un ‘compromiso’ con la IA responsable… actualmente están intentando jugar en ambos lados en aras de obtener ganancias en lugar de un compromiso significativo con la IA responsable».

Pero esto no es nada nuevo, afirmó un empleado de una startup de IA. En su opinión, los límites a menudo han sido “borrosos, especialmente dentro de la IA”, sobre qué tipo de cosas las empresas están dispuestas a permitir que su tecnología impulse. «Mucho de esto ha estado sucediendo bajo la superficie desde que existe la IA».

El empleado de AWS enfatizó que “ahora más que nunca necesitamos solidaridad entre tecnologías y una visión coherente y liderada por los trabajadores para la IA”.

«Las salvaguardias que Anthropic está tratando de mantener son la ausencia de vigilancia masiva de los estadounidenses y la ausencia de armas totalmente autónomas, lo que simplemente significa que quieren que un humano esté al tanto si la máquina va a matar a alguien», añadió. «Incluso si esta tecnología fuera perfecta (que no lo es), creo que la mayoría de los estadounidenses no quieren máquinas que maten a personas sin supervisión humana en un Estados Unidos que se ha convertido en un estado de vigilancia masiva impulsado por inteligencia artificial».

Seguir temas y autores de esta historia para ver más como esto en el feed personalizado de su página de inicio y recibir actualizaciones por correo electrónico.


Fuente

Sorteo de MacRumors: gane un iPhone 17 y un protector de pantalla Fresh Coat antirreflectante de Astropad

La escasez de memoria golpea el mercado de PC; Se avecina una caída de ventas de dos dígitos, dicen los analistas

La escasez de memoria golpea el mercado de PC; Se avecina una caída de ventas de dos dígitos, dicen los analistas