Encuentro que la tecnología de IA es increíblemente útil en el hogar inteligente, desde la identificación cuando los paquetes aparecen hasta responder preguntas sobre dónde extraviamos los juguetes perdidos. Pero reclutar IA conversacional para ayudar con las tareas es muy diferente de preguntarle a un chatbot sobre consejos de seguridad, y descubrí cuán peligroso puede ser.
La IA generativa se destaca en la recopilación y resumir la información en un lenguaje familiar, pero incluso lo mejor puede alucinar, citar la información incorrecta o simplemente quedarse perplejo por los eventos actuales. Probé a ChatGPT a fondo sobre preguntas sobre seguridad en el hogar, compañías de seguridad y seguridad del hogar durante las emergencias: resulta que es una mala idea. Esto es lo que sale mal.
Chat AIS Hallucine que Teslas está espiando la seguridad de su hogar
Alternative Fuels Wing de BP está expandiendo su presencia de carga EV en los EE. UU. Con la compra de hardware de carga rápida Tesla DC.
Preguntar a un chatbot sobre tecnología de seguridad específica siempre es un negocio arriesgado, y nada ilustra tan bien como Esta popular historia de Reddit Acerca de una IA de chat que le dijo al usuario que un Tesla podría acceder a sus «sistemas de seguridad en el hogar». Eso no es cierto: probablemente sea una alucinación basada en el servicio Homelink de Tesla, que le permite abrir puertas de garaje compatibles. Los servicios como Google Gemini también sufren alucinaciones, lo que puede dificultar los detalles de confiar.
Si bien la IA puede escribir cualquier cosa, desde ensayos hasta correos electrónicos de phishing (no hagas eso), todavía se equivoca, lo que puede conducir a preocupaciones de privacidad infundadas. Curiosamente, cuando le pregunté a Chatgpt a qué podía conectarse Teslas y monitorear, no cometió el mismo error, pero hizo Saltar características como Homelink, por lo que todavía no obtiene la imagen completa. Y ese es solo el comienzo.
Los chatbots no pueden responder preguntas sobre amenazas o desastres en el hogar en curso
La IA conversacional no le proporcionará detalles importantes sobre los desastres emergentes.
ChatGPT y otros LLM también luchan por asimilar información en tiempo real y usarla para proporcionar asesoramiento. Eso es especialmente notable durante los desastres naturales como incendios forestales, inundaciones o huracanes. Mientras el huracán Milton estaba deprimiendo este mes, pregunté a Chatgpt sobre si mi casa estaba en peligro y dónde iba a golpear Milton. Si bien el chatbot evitó las respuestas incorrectas, no pudo darme ningún consejo, excepto consultar los canales meteorológicos locales y los servicios de emergencia.
No pierdas el tiempo en eso cuando tu casa pueda estar en problemas. En lugar de recurrir a AI para una respuesta rápida, consulte las aplicaciones meteorológicas y Software como el servicio de reloj; imágenes satelitales actualizadas; y noticias locales.
Los LLM no tienen actualizaciones vitales sobre violaciones de datos y seguridad de la marca
Si bien ChatGPT puede compilar información sobre el historial de una compañía de seguridad, deja de lado los detalles clave o se equivoca.
Sería bueno si AI Chatbots pudiera proporcionar un resumen de la historia de una marca con violaciones de seguridad y si hay banderas rojas sobre la compra de los productos de la marca. Desafortunadamente, todavía no parecen capaces de eso, por lo que realmente no puedes confiar en lo que tienen que decir sobre las compañías de seguridad.
Por ejemplo, cuando le pregunté a ChatGPT si Ring había sufrido alguna violación de seguridad, mencionó que Ring había experimentado incidentes de seguridad, pero no cuando (antes de 2018), que es una información vital. También se perdió los desarrollos clave, incluida la finalización del pago de Ring a los clientes afectados este año y la reversión de la política de 2024 de Ring que dificultó los datos de la nube para que la policía acceda.
ChatGPT no es bueno para proporcionar una línea de tiempo para los eventos y no se debe confiar para hacer recomendaciones.
Cuando pregunté sobre Wyze, que CNET no recomienda actualmente, ChatGPT dijo que era una «buena opción» para la seguridad del hogar, pero mencionó que sufrió una violación de datos en 2019 que expuso los datos del usuario. Pero no mencionó que Wyze había expuesto bases de datos y archivos de video en 2022, luego vulnerabilidades en 2023 y nuevamente en 2024 que permitieron a los usuarios acceder a videos privados caseros que no eran propios. Entonces, si bien los resúmenes son agradables, ciertamente no obtienes la imagen completa del historial de seguridad o si las marcas son seguras para confiar.
Leer más: Le preguntamos a un criminólogo superior cómo los ladrones eligen casas
El AIS de chat no está seguro si los dispositivos de seguridad necesitan suscripciones
ChatGPT no puede explicar adecuadamente suscripciones o niveles de seguridad.
Otra pregunta común de seguridad en el hogar que veo es sobre la necesidad de suscripciones para usar sistemas de seguridad o cámaras domésticas. Algunas personas no quieren pagar suscripciones continuas o quieren asegurarse de que valga la pena. Aunque los chatbots pueden dar muchos detalles de recetas, no son ayuda aquí.
Cuando cuestioné a ChatGPT sobre si Reolink requiere suscripciones, no podría darme ningún detalle, diciendo que muchos productos no requieren suscripciones para las características básicas, pero que Reolink «puede ofrecer planes de suscripciones» para características avanzadas. Traté de reducirlo con una pregunta sobre el Reolink Argus 4 Pro, pero nuevamente el chatgpt siguió siendo vago acerca de que algunas características eran gratuitas y algunas posiblemente necesitan suscripciones. A medida que van las respuestas, estas fueron en gran medida inútiles.
Mientras tanto, un viaje a la guía de CNET sobre suscripciones de cámara de seguridad o Página de suscripciones de Reolink Muestra que Reolink ofrece suscripciones de nivel clásicas y mejoradas específicamente para cámaras LTE, a partir de $ 6 a $ 7 por mes, dependiendo de cuántas cámaras desee admitir y subir a $ 15 a $ 25 para almacenamiento adicional en la nube y notificaciones/alertas inteligentes. Encontrar esas respuestas lleva menos tiempo que pedirle a ChatGPT y obtienes números reales para trabajar.
Chatgpt no es el lugar para la dirección de su casa o la información personal, tampoco
No dejes que los chatbots sepan demasiado sobre tu información personal.
Como dijo el famoso detective, «solo una cosa más». Si alguna vez consulta un chatbot sobre la seguridad del hogar, nunca le dé ninguna información personal, como la dirección de su casa, su nombre, su situación de vida o cualquier tipo de información de pago. Ais como chatgpt han tenido errores antes Eso permitió a otros usuarios espiar datos privados como ese.
Además, las políticas de privacidad de LLM siempre se pueden actualizar o dejarlo lo suficientemente vagas como para permitir el perfil y la venta de datos de usuario que recopilan. El raspado de datos de las redes sociales es bastante malo; No desea entregar datos personales directamente a un servicio de IA popular.
Tenga cuidado con los datos que proporciona como parte de una pregunta e incluso cómo expresa su consulta, porque siempre hay alguien ansioso por aprovechar los datos que deje pasar. Si cree que ya ha dado su dirección muchas veces en línea, tenemos una guía sobre cómo puede ayudar a solucionarlo.
Leer más: Sus datos privados están en todo Internet. Esto es lo que puedes hacer al respecto
Para obtener más información, consulte si debe pagar las funciones de CHATGPT más avanzadas y echar un vistazo a nuestra revisión en profundidad de Google Gemini y nuestra cobertura de lo último sobre la inteligencia de Apple.