El Departamento de Seguridad Nacional está adoptando la inteligencia artificial

El Departamento de Seguridad Nacional ha visto de primera mano las oportunidades y riesgos de la inteligencia artificial. Años más tarde, encontró a una víctima de trata utilizando una herramienta de inteligencia artificial que evocaba una imagen del niño diez años mayor. Pero en la investigación también se dejó engañar por imágenes profundamente falsas creadas por la inteligencia artificial.

Ahora, el departamento se está convirtiendo en la primera agencia federal en adoptar la tecnología con un plan para incorporar modelos de inteligencia artificial generativa en una amplia gama de divisiones. En colaboración con OpenAI, Anthropic y Meta, lanzará programas piloto utilizando chatbots y otras herramientas para ayudar a combatir los delitos de tráfico de drogas y personas, capacitar a los funcionarios de inmigración y prepararse para la gestión de emergencias en todo el país.

La prisa por lanzar tecnología aún no probada es parte de una carrera más amplia para seguir el ritmo de los cambios provocados por la inteligencia artificial generativa, que puede crear imágenes y vídeos hiperrealistas e imitar el habla humana.

“No se puede ignorarlo”, dijo en una entrevista Alejandro Mayorkas, secretario del Departamento de Seguridad Nacional. “Y si no tienen visión de futuro para reconocer y estar preparados para abordar su potencial para el bien y su potencial para el daño, será demasiado tarde y es por eso que estamos actuando rápidamente”.

El plan para incorporar IA generativa en toda la agencia es la última demostración de cómo una nueva tecnología como ChatGPT de OpenAI está obligando incluso a las industrias más serias a reevaluar cómo realizan su trabajo. Sin embargo, es probable que las agencias gubernamentales como el DHS enfrenten el escrutinio más severo sobre cómo usan la tecnología, lo que ha provocado un debate rencoroso porque en ocasiones ha demostrado ser poco confiable y discriminatoria.

Aquellos dentro del gobierno federal se apresuraron a idear planes luego de la orden ejecutiva del presidente Biden emitida a fines del año pasado que exige la creación de estándares de seguridad para la IA y su adopción en todo el gobierno federal.

El DHS, que emplea a 260.000 personas, fue creado después de los ataques terroristas del 11 de septiembre y está encargado de proteger a los estadounidenses dentro de las fronteras del país, incluida la vigilancia del tráfico de personas y drogas, la protección de infraestructuras críticas, la respuesta a desastres y la patrulla fronteriza.

Como parte de su plan, La agencia planea contratar a 50 expertos en inteligencia artificial para trabajar en soluciones para mantener la infraestructura crítica del país a salvo de ataques generados por inteligencia artificial y combatir el uso de la tecnología para generar pornografía infantil y crear armas biológicas.

En programas piloto, para los cuales gastará 5 millones de dólares, la agencia utilizará modelos de inteligencia artificial como ChatGPT para ayudar en las investigaciones sobre pornografía infantil y tráfico de personas y drogas. También trabajará con empresas para examinar sus datos basados ​​en texto y encontrar patrones que ayuden a los investigadores. Por ejemplo, un detective que busque a un sospechoso que conduzca una camioneta azul podrá buscar el mismo tipo de vehículo en una investigación de seguridad nacional por primera vez.

El DHS utilizará chatbots para capacitar a los funcionarios de inmigración que trabajaron con otros empleados y contratistas haciéndose pasar por refugiados y solicitantes de asilo. Las herramientas de inteligencia artificial permitirán a los funcionarios obtener más capacitación con entrevistas simuladas. Los chatbots también revisarán información sobre comunidades de todo el país para ayudarles a crear planes de ayuda en casos de desastre.

La agencia informará los resultados de sus programas piloto a finales de este año, dijo Eric Hysen, director de información y jefe de inteligencia artificial del departamento.

La agencia eligió OpenAI, Anthropic y Meta para experimentar con una variedad de herramientas y utilizará los proveedores de nube Microsoft, Google y Amazon en sus programas piloto. «No podemos hacerlo solos», dijo. “Debemos colaborar con el sector privado para ayudar a definir cuál es el uso responsable de la IA generativa”