in

Este gran error muestra por qué no se puede confiar en ChatGPT para las preguntas de seguridad del hogar

Lejos de preocuparme por la IA en la seguridad del hogar, soy un gran admirador de cómo nos ahorra tiempo y hace las cosas bien, especialmente con el reconocimiento de objetos. Pero eso no significa que debas ingresar a ChatGPT y comenzar a hacerle preguntas sobre tecnología doméstica, privacidad o qué tan seguro es un dispositivo.

La IA es excelente si desea que uno de los agentes de Google le diga cuándo se entregó o recogió un paquete o que el Vecino de confianza de ADT desbloquee su frente para un miembro de la familia reconocido. pero tu en realidad No debería pedir consejo sobre seguridad, especialmente en su estado actual.

Hay buenas razones para esto: incluso los mejores LLM (grandes modelos de lenguaje) todavía alucinan información de los patrones que han recopilado. Ese es un problema particular en el mundo de los hogares inteligentes, donde las especificaciones técnicas, los modelos, la compatibilidad, las vulnerabilidades y las actualizaciones cambian con mucha frecuencia. Es fácil que ChatGPT se confunda acerca de lo que es correcto, actual o incluso real, y esas son preguntas clave al tomar decisiones sobre la seguridad del hogar. Veamos algunos de los errores más importantes para que pueda entender a qué me refiero.

Las IA del chat alucinan que los Teslas están espiando la seguridad de su hogar

Tesla Model S y 3 en la estación de pulso pb renderizada

El ala de combustibles alternativos de BP está ampliando su presencia de carga de vehículos eléctricos en EE. UU. con la compra del hardware de carga rápida Tesla DC.

PA

Desde refrigeradores parlantes hasta iPhones, nuestros expertos están aquí para ayudar a que el mundo sea un poco menos complicado.

Preguntarle a un chatbot sobre una tecnología de seguridad específica siempre es un asunto arriesgado, y nada lo ilustra tan bien como esta popular historia de Reddit sobre una IA de chat que le decía al usuario que un Tesla podía acceder a sus «sistemas de seguridad del hogar». Eso no es cierto: probablemente sea una alucinación basada en el servicio HomeLink de Tesla, que permite abrir puertas de garaje compatibles. Servicios como Google Gemini también sufren alucinaciones que pueden hacer que sea difícil confiar en los detalles.

Si bien la IA puede escribir cualquier cosa, desde ensayos hasta correos electrónicos de phishing (no hagas eso), aun así obtiene información incorrecta, lo que puede generar preocupaciones de privacidad infundadas. Curiosamente, cuando le pregunté a ChatGPT a qué podían conectarse y monitorear los Teslas, no cometió el mismo error, pero hizo omita funciones como HomeLink, por lo que aún no obtendrá la imagen completa. Y eso es sólo el comienzo.

Desde refrigeradores parlantes hasta iPhones, nuestros expertos están aquí para ayudar a que el mundo sea un poco menos complicado.

Los chatbots no pueden responder preguntas sobre amenazas o desastres domésticos en curso

Una respuesta de ChatGPT sobre la ubicación de un huracán. Una respuesta de ChatGPT sobre la ubicación de un huracán.

La IA conversacional no le proporcionará detalles importantes sobre desastres emergentes.

Tyler Lacoma/ChatGPT

ChatGPT y otros LLM también luchan por asimilar información en tiempo real y utilizarla para brindar consejos. Esto es especialmente notable durante desastres naturales como incendios forestales, inundaciones o huracanes. Mientras el huracán Milton se acercaba este mes, le pregunté a ChatGPT si mi casa estaba en peligro y dónde iba a golpear Milton. Si bien afortunadamente el chatbot evitó respuestas incorrectas, no pudo darme ningún consejo excepto consultar los canales meteorológicos locales y los servicios de emergencia.

No pierda el tiempo en eso cuando su hogar pueda estar en problemas. En lugar de recurrir a la IA para obtener una respuesta rápida, consulte aplicaciones meteorológicas y software como Watch Dutyimágenes satelitales actualizadas y noticias locales.

Los LLM no tienen actualizaciones vitales sobre violaciones de datos y seguridad de marca

La versión web de ChatGPT responde preguntas sobre la seguridad de Ring. La versión web de ChatGPT responde preguntas sobre la seguridad de Ring.

Si bien ChatGPT puede recopilar información sobre el historial de una empresa de seguridad, omite detalles clave o se equivoca.

Tyler Lacoma/ChatGPT

Sería bueno si un chatbot AI pudiera proporcionar un resumen del historial de una marca con violaciones de seguridad y si hubiera alguna señal de alerta sobre la compra de sus productos. Desafortunadamente, todavía no parecen capaces de hacer eso, por lo que realmente no se puede confiar en lo que tienen que decir sobre las empresas de seguridad.

Por ejemplo, cuando le pregunté a ChatGPT si Ring tenía alguna violación de seguridad, mencionó que Ring había experimentado incidentes de seguridad pero no cuando (antes de 2018), que es un dato vital. También pasó por alto acontecimientos clave, incluida la finalización del pago de Ring a los clientes afectados este año y la reversión de la política de Ring en 2024, que dificultó el acceso de la policía a los datos en la nube.

ChatGPT respondiendo una pregunta sobre Wyze. ChatGPT respondiendo una pregunta sobre Wyze.

ChatGPT no es bueno para proporcionar un cronograma de eventos y no se debe confiar en él para hacer recomendaciones.

Tyler Lacoma/ChatGPT

Cuando pregunté sobre Wyze, que CNET no recomienda actualmente, ChatGPT dijo que era una «buena opción» para la seguridad del hogar, pero mencionó que tuvo una violación de datos en 2019 que expuso los datos de los usuarios. Pero no mencionó que Wyze había expuesto bases de datos y archivos de video en 2022, luego vulnerabilidades en 2023 y nuevamente en 2024 que permitían a los usuarios acceder a videos domésticos privados que no eran suyos. Entonces, si bien los resúmenes son buenos, ciertamente no obtienes una visión completa en lo que respecta al historial de seguridad o si es seguro confiar en las marcas.

Leer más: Le preguntamos a un destacado criminólogo cómo eligen las casas los ladrones

Las IA de chat no están seguras de si los dispositivos de seguridad necesitan suscripciones o no

ChatGPT respondiendo una pregunta sobre las suscripciones de Reolink. ChatGPT respondiendo una pregunta sobre las suscripciones de Reolink.

ChatGPT no puede explicar adecuadamente las suscripciones o niveles de seguridad.

Tyler Lacoma/ChatGPT

Otra pregunta común sobre seguridad en el hogar que veo es sobre la necesidad de suscripciones para usar sistemas de seguridad o cámaras domésticas. Algunas personas no quieren pagar suscripciones continuas o quieren asegurarse de que lo que obtienen valga la pena. Si bien los chatbots pueden brindar muchos detalles específicos sobre recetas, aquí no son de ninguna ayuda.

Cuando le pregunté a ChatGPT si Reolink requiere suscripciones, no pudo darme ningún detalle específico, diciendo que muchos productos no requieren suscripciones para funciones básicas pero que Reolink «puede ofrecer planes de suscripción» para funciones avanzadas. Intenté reducirlo con una pregunta sobre Reolink Argus 4 Pro, pero nuevamente ChatGPT se mantuvo vago acerca de que algunas funciones son gratuitas y otras posiblemente necesiten suscripciones. Según las respuestas, fue en gran medida inútil.

Mientras tanto, un viaje a la guía de CNET sobre suscripciones a cámaras de seguridad o La propia página de suscripciones de Reolink muestra que Reolink ofrece suscripciones de nivel Clásico y Actualizado específicamente para cámaras LTE, desde $ 6 a $ 7 por mes dependiendo de cuántas cámaras desee admitir y hasta $ 15 a $ 25 para almacenamiento adicional en la nube y notificaciones enriquecidas/alertas inteligentes. Encontrar esas respuestas lleva menos tiempo que preguntar a ChatGPT y obtienes números reales con los que trabajar.

ChatGPT tampoco es el lugar para la dirección de su casa o su información personal

Ilustración digital del chatbot seleccionado frente a la pantalla del mensaje. Ilustración digital del chatbot seleccionado frente a la pantalla del mensaje.

No permita que los chatbots sepan demasiado sobre su información personal.

Vertigo3d vía Getty

Como dijo el famoso detective: «Sólo una cosa más.» Si alguna vez consulta a un chatbot sobre la seguridad del hogar, nunca le proporcione ninguna información personal como la dirección de su casa, su nombre, su situación de vida o cualquier tipo de información de pago. Las IA como ChatGPT he tenido errores antes que permitía a otros usuarios espiar datos privados de esa manera.

Además, las políticas de privacidad de LLM siempre pueden actualizarse o dejarse lo suficientemente vagas como para permitir la elaboración de perfiles y la venta de los datos de usuario que recopilan. Extraer datos de las redes sociales ya es bastante malo, ¿verdad? en realidad No quiero entregar datos personales directamente a un servicio de inteligencia artificial popular.

Ten cuidado con los datos que proporcionas en una pregunta e incluso con cómo los expresas, porque siempre hay alguien dispuesto a utilizarlos. Si cree que ya ha proporcionado su dirección demasiadas veces en línea, tenemos una guía sobre cómo puede ayudar a solucionarlo.

Leer más: Sus datos privados están por todo Internet. Esto es lo que puedes hacer al respecto

Para obtener más información, consulte si debe pagar por funciones ChatGPT más avanzadas, consulte nuestra revisión en profundidad de Google Gemini y lo último en Apple Intelligence.



Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Por qué la ‘emocionante semana de anuncios’ de Apple es mejor que un evento

Xiaomi confirma cuáles serán los primeros móviles en recibir HyperOS 2