El ejército de EE. UU. está preocupado de que sea IA podría ser demasiada crédula
La inteligencia artificial ya está inexorablemente vinculada a algunos de nuestros sistemas más críticos. El comercio de acciones automatizado ejecuta Wall Street, las evaluaciones algorítmicas de riesgos se integran en la justicia penal y el sistema de cuidado de crianza, y la policía de todo el mundo recientemente se ha dedicado mucho al reconocimiento facial. Pero los sistemas automatizados cómo estos son falibles. El jueves, DARPA anunció que se estaba asociando con Intel para reforzar el A.I. de los sistemas militares. El proyecto está diseñando modelos que son menos susceptibles a los trucos, también conocidos como «ataques adversos». Existen algoritmos de aprendizaje profundo para encontrar patrones en conjuntos de datos increíblemente complejos. Los algoritmos reducen la complejidad de esos patrones una y otra vez, hasta que los resultados inmensamente simplificados puedan compararse con los ejemplos que los algoritmos ya han visto. Por ejemplo, un algoritmo creado para detectar imágenes de perros identifica elementos clave de un perro, como narices o colas, y luego reduce aún más esos elementos hasta que son solo algunas expresiones matemáticas que explican la curva de una nariz o la forma de un perro. cola. Lo que queda es solo una sombra de los datos originales. En 2016, los investigadores descubrieron que si conocía el último patrón más simple que utilizaba un algoritmo, podría engañar a todo el sistema. Podrías manipular una imagen de autobuses escolares de manera discreta, por ejemplo, para hacer que un algoritmo piense que estaba viendo la imagen de un panda. Estos cambios podrían ser tan pequeños que serían imperceptibles para el ojo humano. (Si desea leer más sobre este fenómeno, le conté la historia en 2016). Los ejemplos clásicos de este truco incluyen obligar a los automóviles autónomos a malinterpretar las señales de tráfico o enviar señales inaudibles a los asistentes […]