El New York Times informa sobre un problema viral con la característica de dictado de voz a texto de Apple, donde algunos usuarios han encontrado que decir la palabra «racista» hace que el dictado escriba «Trump», que luego se corrige a la palabra » Racista ”después de un momento.
Un video de Tiktok que muestra el fenómeno tiene una semana, pero otros han compartido historias similares. El New York Times afirma que pudo replicar el problema varias veces; Los editores de MacWorld no han podido.
Apple le dijo al NYT que el problema fue causado por la «superposición fonética entre las dos palabras», y dijo que Apple está trabajando en una solución. Eso se siente algo incrédulo, ya que las dos palabras no suenan muy fonéticamente similares y ciertamente hay otras palabras a las que podría cambiar que son más similares. Tampoco explica por qué cambia de nuevo.
Según John Burkey, un desarrollador de IA que solía estar en el equipo Siri en Apple y todavía está en contacto con los viejos colegas, el problema comenzó con una actualización de los servidores de IA de Apple. Él dice que el hecho de que la palabra corrección automática en sí misma hace que parezca que no son malos datos de entrenamiento, es un código deliberado. Él piensa que suena como una broma muy grave, algo deliberadamente deslizado en los datos o el código.
Esta es una vergüenza muy pública para una compañía que ha estado en la vista de Trump como presidente, y ha hecho todo Otros VIP como juraba.
GIPHY App Key not set. Please check settings