La FTC alega que la tecnología de reconocimiento facial violó la Sección 5

La FTC alega que la tecnología de reconocimiento facial violó la Sección 5

A fines del mes pasado, la Comisión Federal de Comercio (FTC) presentó una queja solicitando una orden judicial permanente y sanciones contra Rite Aid, alegando que el uso generalizado de la tecnología de reconocimiento facial por parte de la cadena de farmacias, implementada para reducir el riesgo de robo y otras actividades criminales en sus tiendas. . , violó la Sección 5 de la Ley de la FTC y se caracterizó por una falla generalizada en prevenir daños razonablemente previsibles a los consumidores. Tras la adopción por parte de la FTC el 21 de noviembre de 2023 de una resolución para agilizar la capacidad del personal de la FTC para emitir Solicitudes de Investigación Civil (CID) mediante la aprobación previa del uso de un procedimiento obligatorio en investigaciones relacionadas con la IA, la denuncia es una prueba de que la FTC ha solucionado el problema. sobre su promesa de utilizar su autoridad para proteger los derechos de las personas cuando se produzcan violaciones a través de “tecnologías avanzadas”. También afirma que la FTC continúa consolidándose rápida y firmemente como una voz líder en el cambiante panorama legal de la tecnología de IA. La queja de Rite Aid deja claro que la FTC considera que su autoridad para penalizar el presunto abuso o uso inapropiado de la IA por parte de las empresas es amplia y de gran alcance.

Uso de RiteAid de la tecnología de reconocimiento facial

Según la denuncia, el uso de tecnología de reconocimiento facial por parte de Rite Aid en sus tiendas duró casi ocho años, comenzando en octubre de 2012 y continuando hasta julio de 2020. La tecnología se basaba en una “base de datos de inscripciones” llena de imágenes de personas pertenecientes a agentes del orden. . o informes de los medios, así como de personas que Rite Aid ha identificado por haber participado o intentado participar en actividades delictivas en sus tiendas. Las cámaras instaladas en las tiendas Rite Aid capturaron imágenes en vivo de los clientes mientras se movían por las tiendas, y la tecnología de reconocimiento facial compararía las imágenes en vivo de los clientes con las imágenes de registro en la base de datos para identificar posibles coincidencias con los registrantes. Si la tecnología detectaba una coincidencia, se generaba una alerta y se enviaba a los empleados de la tienda con instrucciones que iban desde observar y monitorear al individuo mientras estaba en la tienda hasta llamar a la policía para sacar al individuo de las instalaciones.

La FTC alegó que durante el uso de Rite Aid, la tecnología de reconocimiento facial generó miles de coincidencias falsas positivas y dio lugar a numerosas quejas de clientes que se quejaron de ser seguidos por la tienda, confrontados y acosados ​​por empleados, negados injustamente el servicio e incluso arrestos injustificados. La FTC alegó específicamente que los daños causados ​​por el sistema de comparación, en gran medida inexacto, impactaron desproporcionadamente a las minorías raciales y a las mujeres. La FTC concluyó que la supuestamente mediocre administración del programa de reconocimiento facial por parte de Rite Aid era tan atroz que constituía prácticas comerciales desleales en violación de la Ley de la Comisión Federal de Comercio (FTCA).

Los principales fracasos de Rite Aid a los ojos de la FTC

La FTC identificó varias fallas importantes por parte de Rite Aid que resultaron en el incumplimiento de su deber hacia sus clientes de protegerlos de daños razonablemente previsibles. En primer lugar, Rite Aid supuestamente no ejerció la debida diligencia al seleccionar sus proveedores de tecnología de inteligencia artificial para el programa, incluida la pregunta sobre la precisión de la tecnología para identificar coincidencias. Según la queja, ni el proveedor externo ni Rite Aid realizaron prácticamente ninguna prueba de precisión previa a la implementación, y las imágenes de registro que Rite Aid subió a la base de datos en gran medida no cumplían con los estándares de calidad de imagen recomendados por los proveedores. mejorar la calidad de la imagen. la precisión de la tecnología. Rite Aid supuestamente tampoco estableció un monitoreo y revisión periódicos de la tecnología y, aunque fue alertado de la alta frecuencia de coincidencias falsas positivas durante los primeros años de su uso, no tomó ninguna acción correctiva para abordar los defectos en la base de datos o con la tecnología misma. Finalmente, la queja alega que Rite Aid no capacitó adecuadamente a sus empleados a nivel de tienda para usar y comprender adecuadamente la tecnología y responder adecuadamente a las alertas de coincidencias.

La FTC alega que las fallas de gobernanza de arriba a abajo de Rite Aid al implementar su tecnología de reconocimiento facial llevaron a un alto riesgo (conocido por Rite Aid) de que la tecnología generara falsos positivos y que los empleados reaccionaran a los falsos positivos de una manera que llevara a a consecuencias injustificadas. vergüenza, privación de la medicación necesaria, restricción injustificada o arresto injustificado de sus clientes. En el acuerdo de conciliación entre la FTC y Rite Aid, a Rite Aid se le prohíbe utilizar cualquier tipo de tecnología de reconocimiento facial durante un período de cinco años y no puede renovar el uso de la tecnología hasta que no haya desarrollado procedimientos razonables de prueba de integridad de datos. y gobernanza, así como la supervisión de proveedores y empleados.

La acción de la FTC contra Rite Aid envía un mensaje claro sobre los riesgos de exposición asociados con el uso cada vez mayor de la tecnología de inteligencia artificial. El hecho de que una empresa no integre marcos de infraestructura para la selección adecuada de proveedores, la gobernanza de datos y la capacitación corporativa al desarrollar e implementar tecnología de inteligencia artificial en sus prácticas comerciales podría hacerla vulnerable a litigios, y no solo por parte de los reguladores. La magnitud del daño al cliente identificada por la demanda de la FTC proporciona una hoja de ruta para los demandantes que buscan satisfacer demandas identificables contra empresas que utilizan tecnología orientada al cliente, lo que resulta en daños que van de leves a graves.

Conclusiones clave

La queja de Rite Aid deja claro que todo tipo de empresas deben implementar salvaguardias adecuadas para un uso exitoso y seguro de la tecnología de IA desde el principio y con frecuencia. El Instituto Nacional de Estándares y Tecnología respondió a la creciente demanda de orientación sobre el uso apropiado de la tecnología de IA con su Marco de Gestión de Riesgos de Inteligencia Artificial en enero de 2023, que aborda cada una de las principales deficiencias identificadas en la denuncia de Rite Aid. A medida que los reguladores de todas las industrias se unan a la lucha para gestionar y supervisar el panorama rápidamente cambiante del uso de la tecnología de IA, la escala de riesgos potenciales para las empresas que buscan integrar la IA en sus prácticas comerciales seguirá creciendo. La queja de Rite Aid sirve como advertencia para todas las empresas: el mundo de la IA ya no es el Salvaje Oeste y hay muchos nuevos sheriffs en la ciudad.

Leave a Comment

Your email address will not be published. Required fields are marked *