DHS testa programas de Inteligência Artificial para FEMA, ICE e USCIS

Por Arlaine Castro

Inteligência Artificial.

O Departamento de Segurança Interna (DHS) está lançando três programas piloto de Inteligência Artificial de US$ 5 milhões em três de suas agências.

Por meio de parceria com OpenAI, Anthropic e Meta, o DHS testará modelos de IA para ajudar seus agentes em uma ampla gama de tarefas, incluindo investigação de materiais de abuso sexual infantil, treinamento de funcionários de imigração e criação de planos de ajuda em desastres.

Como parte do piloto de IA, a Agência Federal de Gestão de Emergências (FEMA) utilizará IA generativa para agilizar o processo de planeamento de mitigação de perigos para os governos locais. A Homeland Security Investigations (HSI) – a agência do Immigration and Customs Enforcement (ICE) que investiga a exploração infantil, o tráfico de seres humanos e o contrabando de drogas – utilizará grandes modelos de linguagem para pesquisar rapidamente através de vastos depósitos de dados e resumir os seus relatórios de investigação. E os Serviços de Cidadania e Imigração dos EUA (USCIS), a agência que realiza triagens introdutórias para requerentes de asilo, utilizarão chatbots para treinar oficiais.

O anúncio do DHS é escasso em detalhes, mas o relatório do The New York Times fornece alguns exemplos de como esses pilotos podem ser na prática. De acordo com o Times, os agentes de asilo do USCIS usarão chatbots para conduzir entrevistas simuladas com requerentes de asilo. Os investigadores do HSI, entretanto, poderão pesquisar mais rapidamente nas suas bases de dados internas detalhes sobre suspeitos, o que o DHS afirma poder “levar a aumentos na detecção de redes relacionadas com o fentanil” e “ajudar na identificação de perpetradores e vítimas de crimes de exploração infantil”. ”

Para conseguir isso, o DHS está a criar um “corpo de IA” de pelo menos 50 pessoas. Em fevereiro, o secretário do DHS, Alejandro Mayorkas, viajou para Mountain View, Califórnia – famosa sede do Google – para recrutar talentos em IA e cortejou potenciais candidatos, enfatizando que o departamento está “incrivelmente” aberto a trabalhadores remotos.

Contratar especialistas em IA suficientes não é o único obstáculo do DHS. Como observa o Times, o uso de IA pelo DHS nem sempre foi bem-sucedido, e os agentes já foram enganados em investigações por deepfakes gerados por IA. Um relatório de fevereiro do Government Accountability Office, que analisou dois casos de utilização de IA no departamento, concluiu que o DHS não utilizou dados fiáveis para uma investigação. Outro caso não dependia de forma alguma da IA, apesar do DHS afirmar que sim. Fora do DHS, há muitos casos documentados de ChatGPT divulgando resultados falsos, incluindo um caso em que um advogado apresentou uma petição citando casos inexistentes que o modelo de IA havia inventado completamente.

Ainda assim, esta expansão não é a primeira incursão do DHS na IA. Algumas das torres de vigilância que a Alfândega e Proteção de Fronteiras (CBP) utiliza para monitorar a fronteira EUA-México, como as fabricadas pela Anduril, utilizam sistemas de IA para detectar e rastrear “objetos de interesse” à medida que se movem pelo terreno acidentado das fronteiras. . O CBP espera integrar totalmente a sua rede de torres de vigilância através de IA até 2034. A agência também planeia usar IA para monitorizar zonas oficiais de passagem de fronteira. No ano passado, a CBP concedeu um contrato de 16 milhões de dólares a uma empresa de tecnologia e viagens fundada pelo seu antigo comissário, Kevin McAleenan, para construir uma ferramenta de IA que irá procurar fentanil nos portos de entrada.

Os novos programas-piloto de IA do DHS, no entanto, basear-se-ão em grandes modelos linguísticos em vez de reconhecimento de imagens, e serão largamente utilizados no interior do país e não na fronteira. O DHS apresentará um relatório sobre os resultados do piloto até o final do ano.

Fonte: The Verge.