IA

El ejército de EE. UU. está preocupado de que sea IA podría ser demasiada crédula

La inteligencia artificial ya está inexorablemente vinculada a algunos de nuestros sistemas más críticos. El comercio de acciones automatizado ejecuta Wall Street, las evaluaciones algorítmicas de riesgos se integran en la justicia penal y el sistema de cuidado de crianza, y la policía de todo el mundo recientemente se ha dedicado mucho al reconocimiento facial. Pero los sistemas automatizados cómo estos son falibles. El jueves, DARPA anunció que se estaba asociando con Intel para reforzar el A.I. de los sistemas militares. El proyecto está diseñando modelos que son menos susceptibles a los trucos, también conocidos como «ataques adversos». Existen algoritmos de aprendizaje profundo para encontrar patrones en conjuntos de datos increíblemente complejos. Los algoritmos reducen la complejidad de esos patrones una y otra vez, hasta que los resultados inmensamente simplificados puedan compararse con los ejemplos que los algoritmos ya han visto. Por ejemplo, un algoritmo creado para detectar imágenes de perros identifica elementos clave de un perro, como narices o colas, y luego reduce aún más esos elementos hasta que son solo algunas expresiones matemáticas que explican la curva de una nariz o la forma de un perro. cola. Lo que queda es solo una sombra de los datos originales. En 2016, los investigadores descubrieron que si conocía el último patrón más simple que utilizaba un algoritmo, podría engañar a todo el sistema. Podrías manipular una imagen de autobuses escolares de manera discreta, por ejemplo, para hacer que un algoritmo piense que estaba viendo la imagen de un panda. Estos cambios podrían ser tan pequeños que serían imperceptibles para el ojo humano. (Si desea leer más sobre este fenómeno, le conté la historia en 2016). Los ejemplos clásicos de este truco incluyen obligar a los automóviles autónomos a malinterpretar las señales de tráfico o enviar señales inaudibles a los asistentes […]

Nuevas empresas de IA de China cierran más acuerdos de financiación, pero aún atraen menos dinero que los EE. UU.

Las empresas chinas de inteligencia artificial (IA) han estado asegurando una mayor proporción de los acuerdos de financiación en la industria en los últimos años, pero el valor total de estas inversiones ha estado cayendo en medio de un panorama de capital de riesgo y la incertidumbre política sobre la tecnología en curso y guerra comercial con los Estados Unidos. El año pasado, las nuevas empresas chinas de IA cerraron el 13 por ciento de los acuerdos de financiación global, en comparación con el 4 por ciento en 2014. En comparación, sus contrapartes estadounidenses aún tenían la mayor parte de los acuerdos en todo el mundo, pero su participación ha estado disminuyendo en los últimos cinco años. , del 71 por ciento en 2014 al 39 por ciento en 2019, según un informe de la firma de inteligencia de mercado tecnológico CB Insights publicado el miércoles. Sin embargo, la cantidad recaudada por las nuevas empresas chinas representó solo el 11 por ciento de los fondos totales recaudados por las nuevas empresas de IA en todo el mundo en 2019, frente al 21 por ciento del año anterior. Mientras tanto, las nuevas empresas de IA en los EE. UU. Representaron el 64 por ciento el año pasado, un ligero aumento del 60 por ciento del año anterior. El sector global de IA tuvo un año récord en 2019, con US $ 26.6 mil millones invertidos en el sector a través de 2.235 acuerdos, frente a los US $ 22.1 mil millones en 1.940 acuerdos del año anterior, según CB Insights. Esto significa que las nuevas empresas chinas de IA recaudaron un poco más de US $ 2.9 mil millones en 2019, en comparación con aproximadamente US $ 4.7 mil millones el año anterior, mientras que las nuevas empresas estadounidenses de IA […]

Jefe de Alphabet considera regulación de IA

Alphabet y el CEO de Google, Sundar Pichai respaldaron la necesidad de una nueva regulación de IA para frenar el posible abuso de la tecnología, pero argumentaron a favor de un enfoque equilibrado que evite sofocar su capacidad de brindar beneficios sociales. En un editorial del Financial Times, Pichai destacó el potencial de «cambio de vida» de AI y señaló que había ayudado a mejorar los diagnósticos médicos, los pronósticos del tiempo y la logística de viajes. Pero agregó que «debemos tener la vista clara sobre lo que podría salir mal», reconociendo las «preocupaciones reales» sobre las posibles consecuencias negativas del uso de AI para el reconocimiento facial y otras aplicaciones. Pichai señaló la seguridad, la equidad y la responsabilidad como consideraciones clave en cualquier futura regulación de IA, señalando que las nuevas reglas podrían basarse en leyes existentes como el Reglamento General de Protección de Datos de la Unión Europea. Destacó que la alineación internacional será «crítica». A pesar de reconocer los peligros potenciales derivados de la falta de regulación, Pichai también señaló que un enfoque dominante podría ser igualmente dañino si las reglas no lograran lograr un equilibrio entre proteger a las personas y mejorar sus vidas.