IBM

El retroceso del reconocimiento facial

El gigante tecnológico impedirá que las fuerzas del orden público utilicen su software de reconocimiento facial durante un año, un gran movimiento que, según algunos, está relacionado con las protestas nacionales por la injusticia racial. El uso del reconocimiento facial ha explotado en los círculos policiales, donde se implementa para identificar sospechosos y niños desaparecidos. Pero los críticos dicen que se puede usar para identificar en secreto a los manifestantes, y que los defectos de la tecnología a menudo identifican erróneamente a las personas con piel más oscura. Sigue un movimiento similar por parte de IBM, que dijo el lunes que dejaría de vender de forma permanente dichos productos a las fuerzas del orden. Pero Amazon es un proveedor de tecnología mucho más grande que IBM, y en el pasado se había resistido a las llamadas para limitar las ventas. («Es un ejemplo perfecto de algo que tiene usos realmente positivos, por lo que no quieres frenarlo», dijo Jeff Bezos el año pasado). Amazon no dijo por qué tomó la medida, pero señaló en una publicación de blog que espera que la moratoria «podría darle al Congreso suficiente tiempo para establecer reglas apropiadas» para el uso ético de la tecnología.

IBM abandona el negocio de reconocimiento facial

El gigante de la tecnología dijo que ya no vendería tecnología de reconocimiento facial debido a su uso potencial en el perfil racial y la vigilancia, y pidió al Congreso que luche contra el racismo sistémico. De una carta que el jefe de IBM, Arvind Krishna, envió al Congreso: “IBM se opone firmemente y no tolerará el uso de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, el perfil racial, las violaciones de los derechos humanos y las libertades básicas, o cualquier propósito que no sea coherente con nuestros valores y Principios de confianza y transparencia «. El Sr. Krishna agregó que mientras A.I. puede ser una herramienta policial útil, tanto los vendedores como los usuarios «tienen una responsabilidad compartida para garantizar que A.I. se realiza una prueba de sesgo, particularmente cuando se utiliza en la aplicación de la ley, y que dicha prueba de sesgo se audita y se informa «. La decisión fue estimulada por las protestas de justicia racial tras el asesinato de George Floyd, informa CNBC. Los estudios han demostrado que muchos sistemas comerciales de reconocimiento facial sufren sesgos en función de la edad, la raza y el origen étnico, y su papel en las prácticas invasivas de aplicación de la ley. Dicho esto, el reconocimiento facial no fue una gran fuente de ingresos para la compañía, agrega CNBC.