He sido un proponente de IA útil en la seguridad del hogar, donde nos está manteniendo conversaciones para nosotros, identificando paquetes, aprendiendo a reconocer objetos importantes y buscar en nuestras historias de videos para responder preguntas. Pero eso no significa que deba abrir el chatgpt y comenzar a hacer preguntas de seguridad.
Las herramientas de IA generativas y conversacionales tienen sus usos, pero es una mala idea preguntarle a cualquier chatbot sobre su seguridad, seguridad del hogar o amenazas a su casa. Lo intentamos, y es desconcertante cuánto se equivocan o no pueden evitar.
Hay buenas razones para esto: incluso los mejores LLM, o modelos de idiomas grandes, todavía alucinan la información de los patrones que han obtenido. Eso es especialmente un problema en Smart Home Tech, donde las especificaciones tecnológicas, los modelos, la compatibilidad, las vulnerabilidades y las actualizaciones cambian con tanta frecuencia. Eso significa que es fácil para ChatGPT confundirse sobre lo que es correcto, actual o incluso real.
Veamos algunos de los errores más grandes, para que puedas ver a qué me refiero.
Chat AIS Hallucine que Teslas está espiando la seguridad de su hogar
Alternative Fuels Wing de BP está expandiendo su presencia de carga EV en los EE. UU. Con la compra de hardware de carga rápida Tesla DC.
Preguntar a un chatbot sobre tecnología de seguridad específica siempre es un negocio arriesgado, y nada ilustra tan bien como Esta popular historia de Reddit Acerca de una IA de chat que le dijo al usuario que un Tesla podría acceder a sus «sistemas de seguridad en el hogar». Eso no es cierto: probablemente sea una alucinación basada en el servicio Homelink de Tesla, que le permite abrir puertas de garaje compatibles. Los servicios como Google Gemini también sufren alucinaciones, lo que puede dificultar los detalles de confiar.
Si bien la IA puede escribir cualquier cosa, desde ensayos hasta correos electrónicos de phishing (no hagas eso), todavía se equivoca, lo que puede conducir a preocupaciones de privacidad infundadas. Curiosamente, cuando le pregunté a Chatgpt a qué podía conectarse Teslas y monitorear, no cometió el mismo error, pero hizo Saltar características como Homelink, por lo que todavía no obtiene la imagen completa. Y ese es solo el comienzo.
Los chatbots no pueden responder preguntas sobre amenazas o desastres en el hogar en curso
La IA conversacional no le proporcionará detalles importantes sobre los desastres emergentes.
ChatGPT y otros LLM también luchan por asimilar información en tiempo real y usarla para proporcionar asesoramiento. Eso es especialmente notable durante los desastres naturales como incendios forestales, inundaciones o huracanes. Mientras el huracán Milton estaba deprimiendo este mes, pregunté a Chatgpt sobre si mi casa estaba en peligro y dónde iba a golpear Milton. Sin embargo, afortunadamente, el chatbot evitó las respuestas incorrectas, no pudo darme ningún consejo, excepto consultar los canales meteorológicos locales y los servicios de emergencia.
No pierdas el tiempo en eso cuando tu casa pueda estar en problemas. En lugar de recurrir a AI para una respuesta rápida, consulte las aplicaciones meteorológicas y Software como el servicio de reloj; imágenes satelitales actualizadas; y noticias locales.
Los LLM no tienen actualizaciones vitales sobre violaciones de datos y seguridad de la marca
Si bien ChatGPT puede compilar información sobre el historial de una compañía de seguridad, deja de lado los detalles clave o se equivoca.
Sería bueno si AI Chatbots pudiera proporcionar un resumen de la historia de una marca con violaciones de seguridad y si hay banderas rojas sobre la compra de los productos de la marca. Desafortunadamente, todavía no parecen capaces de eso, por lo que realmente no puedes confiar en lo que tienen que decir sobre las compañías de seguridad.
Por ejemplo, cuando le pregunté a ChatGPT si Ring había sufrido alguna violación de seguridad, mencionó que Ring había experimentado incidentes de seguridad, pero no cuando (antes de 2018), que es una información vital. También se perdió los desarrollos clave, incluida la finalización del pago de Ring a los clientes afectados este año y la reversión de la política de 2024 de Ring que dificultó los datos de la nube para que la policía acceda.
ChatGPT no es bueno para proporcionar una línea de tiempo para los eventos y no se debe confiar para hacer recomendaciones.
Cuando pregunté sobre Wyze, que CNET no recomienda actualmente, ChatGPT dijo que era una «buena opción» para la seguridad del hogar, pero mencionó que sufrió una violación de datos en 2019 que expuso los datos del usuario. Pero no mencionó que Wyze había expuesto bases de datos y archivos de video en 2022, luego vulnerabilidades en 2023 y nuevamente en 2024 que permitieron a los usuarios acceder a videos privados caseros que no eran propios. Entonces, si bien los resúmenes son agradables, ciertamente no obtienes la imagen completa cuando se trata del historial de seguridad o si las marcas son seguras para confiar.
Leer más: Le preguntamos a un criminólogo superior cómo los ladrones eligen casas
El AIS de chat no está seguro si los dispositivos de seguridad necesitan suscripciones o no
ChatGPT no puede explicar adecuadamente suscripciones o niveles de seguridad.
Otra pregunta común de seguridad en el hogar que veo es sobre la necesidad de suscripciones para usar sistemas de seguridad o cámaras domésticas. Algunas personas no quieren pagar suscripciones continuas, o quieren asegurarse de que valga la pena. Aunque los chatbots pueden dar muchos detalles de recetas, no son ayuda aquí.
Cuando cuestioné a ChatGPT sobre si Reolink requiere suscripciones, no podría darme ningún detalle, diciendo que muchos productos no requieren suscripciones para las características básicas, pero que Reolink «puede ofrecer planes de suscripciones» para características avanzadas. Traté de reducirlo con una pregunta sobre el Reolink Argus 4 Pro, pero ChatGPT nuevamente siguió siendo vaga acerca de que algunas características fueran gratuitas y algunas posiblemente necesitan suscripciones. A medida que van las respuestas, estas fueron en gran medida inútiles.
Mientras tanto, un viaje a la guía de CNET sobre suscripciones de cámara de seguridad o Página de suscripciones de Reolink muestra que Reolink ofrece suscripciones de nivel clásicas y actualizadas específicamente para las cámaras LTE, a partir de $ 6 a $ 7 por mes, dependiendo de cuántas cámaras desee admitir y subir a $ 15 a $ 25 para almacenamiento adicional en la nube y notificaciones ricas/alertas inteligentes . Encontrar esas respuestas lleva menos tiempo que pedirle a ChatGPT, y obtienes números reales para trabajar.
Chatgpt no es el lugar para la dirección de su casa o la información personal, tampoco
No dejes que los chatbots sepan demasiado sobre tu información personal.
Como dijo el famoso detective, «solo una cosa más». Si alguna vez consulta un chatbot sobre la seguridad del hogar, nunca le dé ninguna información personal, como la dirección de su casa, su nombre, su situación de vida o cualquier tipo de información de pago. Ais como chatgpt han tenido errores antes Eso permitió a otros usuarios espiar datos privados como ese.
Además, las políticas de privacidad de LLM siempre se pueden actualizar o dejarlo lo suficientemente vagas como para permitir el perfil y la venta de datos de usuario que recopilan. El raspado de los datos de las redes sociales es bastante malo, en realidad No quiero entregar datos personales directamente a un servicio de IA popular.
Tenga cuidado con los datos que proporciona como parte de una pregunta, e incluso cómo expresa su consulta, porque siempre hay alguien ansioso por aprovechar los datos que deje pasar. Si cree que ya ha dado su dirección muchas veces en línea, tenemos una guía sobre cómo puede ayudar a solucionarlo.
Leer más: Sus datos privados están en todo Internet. Esto es lo que puedes hacer al respecto
Para obtener más información, consulte si debe pagar las funciones de CHATGPT más avanzadas y echar un vistazo a nuestra revisión en profundidad de Google Gemini y nuestra cobertura de lo último sobre la inteligencia de Apple.