Microsoft ha reforzado su decisión de prohibir que los departamentos de policía de EE.UU. utilicen inteligencia artificial generativa para el reconocimiento facial a través del Azure OpenAI Service, la plataforma de la empresa diseñada específicamente para el entorno empresarial y que integra tecnologías de OpenAI. El miércoles se añadió un lenguaje a los términos de servicio de Azure OpenAI Service que prohíbe de manera más explícita el uso de integraciones con dicho servicio “por o para” los departamentos de policía para el reconocimiento facial en EE.UU., incluyendo integraciones con los modelos actuales —y posiblemente futuros— de análisis de imágenes de OpenAI.
Un nuevo punto adicional prohíbe explícitamente el uso de «tecnología de reconocimiento facial en tiempo real» en cámaras móviles, como cámaras corporales y dashcams, para intentar identificar a personas en entornos «no controlados y al aire libre» a nivel global.
Estos cambios en la política se producen una semana después de que Axon, una empresa que fabrica productos tecnológicos y armamentísticos para el ejército y las fuerzas del orden, anunciara un nuevo producto que utiliza el modelo generativo de texto GPT-4 de OpenAI para resumir el audio de las cámaras corporales. Los críticos señalaron rápidamente los posibles problemas, como las alucinaciones (incluso los mejores modelos de IA generativa de hoy inventan hechos) y los sesgos raciales introducidos a partir de los datos de entrenamiento, lo que es especialmente preocupante dado que las personas de color tienen muchas más probabilidades de ser detenidas por la policía que sus pares blancos.
No está claro si Axon estaba utilizando GPT-4 a través de Azure OpenAI Service y si la actualización de la política fue en respuesta al lanzamiento del producto de Axon. OpenAI había restringido previamente el uso de sus modelos para el reconocimiento facial a través de sus API. Hemos contactado a Axon, Microsoft y OpenAI y actualizaremos este post si recibimos respuesta.
Los nuevos términos dejan un margen de maniobra para Microsoft. La prohibición completa del uso del servicio Azure OpenAI sólo se aplica en EE.UU., no en la policía internacional. Y no cubre el reconocimiento facial realizado con cámaras estacionarias en entornos controlados, como una oficina trasera (aunque los términos prohíben cualquier uso del reconocimiento facial por la policía estadounidense).
Esta medida es coherente con el enfoque reciente de Microsoft y su estrecho socio OpenAI en cuanto a contratos de aplicación de la ley y defensa relacionados con la IA.
En enero, un informe de Bloomberg reveló que OpenAI está colaborando con el Pentágono en varios proyectos, incluidas capacidades de ciberseguridad, lo que supone un cambio respecto a la prohibición anterior de la startup de proporcionar su IA a los militares. Por otro lado, Microsoft ha propuesto utilizar la herramienta de generación de imágenes de OpenAI, DALL-E, para ayudar al Departamento de Defensa (DoD) a desarrollar software para ejecutar operaciones militares, según The Intercept.
El servicio Azure OpenAI se hizo disponible en el producto Azure Government de Microsoft en febrero, agregando características adicionales de cumplimiento y gestión orientadas a las agencias gubernamentales, incluidas las fuerzas del orden. En una entrada de blog, Candice Ling, vicepresidenta senior de la división de Microsoft enfocada en el gobierno, Microsoft Federal, prometió que el servicio Azure OpenAI sería «sometido a autorizaciones adicionales» por parte del DoD para cargas de trabajo que apoyen misiones del DoD.
¿Qué opinas sobre las nuevas restricciones de Microsoft al uso de la IA en la aplicación de la ley?