in

Ai y el fin de la prueba

Ai y el fin de la prueba

Las bolsas de basura se están tirando una ventana de la Casa Blanca, o eso parece mostrar un video popular.

«Probablemente la IA generó», dijo el presidente Trump en una conferencia de prensa del martes.

Anteriormente, un funcionario de la Casa Blanca sugirió TIEMPO revista que el video era real y mostró a un contratista haciendo «mantenimiento regular».

Aquí estamos, como otros eventos capturados o no capturados por cámaras. ¿Las bolsas son reales o hechas por AI? Si son reales, ¿fue un misterio interesante o simplemente una mejora aburrida en el hogar? No podemos saber.

En Entertainment News, los canales oficiales del actor y rapero Will Smith publicaron un video que promociona su basada en una gira de historia real, mostrando a fanáticos que lloran y letreros escritos a mano, que los críticos se apresuraron por ser generado por IA o mejorado para mostrar una audiencia más grande y más emocional de lo que pudo haber existido. (Análisis de expertos Mostró el video probablemente mezclado con contenido real y hecho a IA).

Smith respondió a la acusación publicando un nuevo video de Instagram que muestra que su audiencia estaba hecha de gatos generados por IA.

Por supuesto, las afirmaciones opuestas sobre si una imagen o video es generado por AI está surgiendo sobre problemas más graves que la caída de las bolsas de basura o las multitudes de gatos.

Él dijo, ella dijo

Según los informes, el ejército de los Estados Unidos mató a 11 personas en una huelga en una lancha rápida de Venezuela que se dice que transporta drogas ilegales en el sur del Caribe del sur el martes. El gobierno publicó un video de la huelga. Pero el ministro de comunicaciones de Venezuela, Freddy ñáñez, dijo que el video parece ser generado por AI.

Los políticos taiwaneses y los militares se han enfrentado al uso repetido de imágenes falsas generadas por IA en campañas de desinformación. Cuando se atrapó en situaciones de compromiso en video o audio, las figuras públicas específicas afirmaron que las grabaciones eran «profundas» para crear dudas, incluso cuando los verificadores de hechos y los expertos en tecnología no encontraron pruebas de manipulación.

En India, México, Nigeria y Brasil, los políticos acusados ​​a menudo dicen que la AI realiza la prueba contra ellos. No son atípicos. Están justo por delante de la curva de retórica política.

Rise del ‘dividendo de mentiroso’

En 2019, cuando Deepfake Audio and Video se convirtió en un problema grave, los expertos legales Bobby Chesney y Danielle Citron llegaron al término «Dividendo de mentiroso» Para describir la ventaja que se obtiene una figura pública deshonesta al llamar a la evidencia real «falsa» en un momento en que el contenido generado por IA hace que las personas cuestionen lo que ven y escuchan.

Las afirmaciones falsas de defensores profundos pueden ser tan perjudiciales como los profundos reales durante las elecciones. Los argumentos sobre lo que son herramientas de detección reales, poco confiables, y la desconfianza general permiten a los políticos deshonestos llorar a Wolf sobre «noticias falsas» o defagos profundos para evitar la culpa.

Un Revisión de ciencias políticas estadounidenses artículo Por Kaylyn Jackson Schiff, Daniel S. Schiff y Natália S. Buene se basan en cinco experimentos planificados con más de 15,000 adultos estadounidenses de 2020 a 2022. Descubrieron que a través de escándalos involucrando a políticos de ambos partidos principales, falsos afirmaciones de desinformación de errores de desgracia mayor apoyo Más que quedarse callado o disculparse.

Por qué Nano Banana tiene apelación

Google Imagen flash de Géminis 2.5también llamado por su nombre de código interno, «Nano Banana», es un nuevo modelo de generación de imágenes y edición que puede crear imágenes fotorrealistas.

Puede modificar las fotos existentes usando indicaciones simples. Por ejemplo, puede subir una foto de una persona acariciando a un cachorro, y con una oración simple en idioma natural, transformarla en una imagen creíble de una persona que corta una llanta de automóvil.

La consistencia del personaje, manteniendo la misma cara, ropa o detalles de objetos estables en todas las escenas, hace que las fotos falsas parezcan una serie de fotos real. El modelo aprovecha el «conocimiento mundial» más amplio de Gemini para seguir instrucciones complejas y hacer ediciones que coincidan con los contextos del mundo real, como la iluminación creíble o la colocación de objetos.

Nano Banana está disponible para los desarrolladores en vista previa a través de la API de Géminis, Google AI Studio y Vertex AI, con un precio de $ 30 por 1 millón de tokens de salida y $ 0.039 por imagen basados ​​en 1,290 tokens de salida. Debido a que Nano Banana está en la API de Géminis, otras compañías probablemente lo integrarán. Los sitios y herramientas confirmados son OpenRouter, Fal.Ai, Adobe Firefly y Adobe Express, Poe (Quora), Freepik, Figma y Pollo Ai, con WPP Open y Leonardo.ai.

La capacidad de hacer falsificaciones estará en todas partes, junto con la creciente conciencia de que la información visual puede ser falsificada de manera fácil y convincente. Esa conciencia hace falsas afirmaciones de que algo se hace más creíble.

La buena noticia es que Gemini 2.5 Flash Image Stamps cada imagen que realiza o edita con una marca de agua Synthid oculta para la identificación de IA después de cambios comunes como cambio de tamaño, rotación, compresión o copias de captura de pantalla. Google dice que este sistema de identificación cubre todas las salidas y barcos con el nuevo modelo en la API de Gemini, Google AI Studio y Vertex AI.

Synthid para imágenes cambia píxeles sin ser vistos, pero un detector emparejado puede reconocerlo más tarde, usando una red neuronal para incrustar el patrón y otro para detectarlo.

El detector informa niveles como «presente», «sospecha» o «no detectado», que es más útil que un frágil sí/no que falla después de pequeños cambios.

OpenAI adopta un enfoque diferente para la creación de imágenes de Dall-E 3 y ChatGPT adjuntando metadatos de «Credenciales de contenido» C2PA que registra la herramienta utilizada y un manifiesto firmado criptográfico, verificable con el sitio de verificaciones de credenciales de contenido. OpenAi comenzó a agregar estas credenciales en febrero de 2024 y admite que pueden ser eliminadas por plataformas sociales o capturas de pantalla, por lo que faltar metadatos no prueba que una persona sea hecha por una persona.

El servicio Azure OpenAI de Microsoft agrega credenciales de contenido C2PA, firmado para rastrear a Azure OpenAI, con campos como «Imagen generada por AI», el agente de software y la marca de tiempo. Estas credenciales permanecen en descargas pero se pueden eliminar.

Meta etiqueta imágenes realistas realizadas con sus herramientas y utiliza metadatos IPTC y marcas de agua invisibles, y sus investigadores publicaron «firma estable», una marca de agua integrada en el modelo para generadores de código abierto.

La iniciativa de autenticidad de contenido de Adobe y el estándar C2PA desean hacer que las «credenciales de contenido» verificadas funcionen en diferentes aplicaciones y sitios web, para que las personas puedan ver de dónde provienen las fotos y videos y cómo se editan. Tiktok ha comenzado a agregar credenciales de contenido y puede etiquetar automáticamente los medios AI de los socios que ya envían metadatos C2PA, con verificación a través de las herramientas públicas del estándar.

Synthid tiene más sentido para mí. Pero todos estos métodos de verificación pueden ser derrotados por cualquiera que intente pasar fotos o videos falsos como reales. Esto significa que cuando alguien dice que la evidencia basada en imágenes es falsa, nadie puede demostrar que están equivocados.

La fotografía se usó por primera vez como evidencia de la corte en 1859, comenzó a influir en la opinión pública en 1862 con fotos de la Guerra Civil y se convirtió en una fuente confiable de prueba en los periódicos en 1880 cuando la impresión de medias de medias permitió a los editores imprimir fotos reales en las prensas de periódicos.

Eso significa que el contenido visual hecho por la cámara sirvió como prueba confiable y convincente durante 166 años.

Adiós, evidencia confiable de fotografía y video en la que todos podríamos estar de acuerdo. Apenas te conocemos.

Fuente

Apple Watch Ultra 3 la próxima semana: ocho razones para actualizar

Galaxy S26 Ultra se está haciendo más grande: reveladas nuevas dimensiones