A falha na gestão adequada do uso de inteligência artificial por parte do governo é uma das grandes preocupações dos cidadãos, que não sabem como esta situação pode interferir no exercício dos seus direitos
O comité de normas da vida pública do Reino Unido garante que o uso da inteligência artificial está a ir contra a regulação quando fornece alguns tipos de serviços – e, em muitos casos, falha na gestão adequada do uso de tecnologia que usa IA e que pode interferir no exercício dos direitos dos cidadãos. A primeira questão destacada pela organização é que ninguém sabe exatamente em que departamentos é que o governo usa atualmente a IA. "As deficiências são notáveis", afirma o comité. Um relatório recente alerta que a regulação e a gestão da IA no setor público continua a ser uma "necessidade urgente" de orientação prática e regulação exequível. "Quando comecei com este projeto, pedi que descobrissem onde os algoritmos eram usados no setor público, e simplesmente ninguém conseguiu ter acesso a esta informação, nem mesmo os jornalistas. O próprio governo não publica nenhuma auditoria sobre a extensão do uso da IA", afirma Lord Evans, ex-diretor do MI5 e atual presidente do comité que liderou a investigação. "A grande questão é que ninguém pode exercer os seus direitos se não sabe onde é utilizada tecnologia com IA”. A implementação de IA acarreta alguns riscos e é fundamental uma abertura do governo para este assunto. Em decisões de grande impacto, como é o caso de alocar benefícios previdenciários ou traçar perfis de criminosos suspeitos, as coisas ficam mais complicadas. Isto porque os algoritmos chegam com uma falha que já é de conhecimento geral: a quantidade/qualidade de dados. Um sistema de IA que inclua preconceitos raciais, de género ou ideológicos tomará decisões injustas e discriminatórias. O governo procura implementar IA para processos decisivos de alto impacto em setores como policiamento, educação, assistência social e saúde. "Se usarmos estes sistemas onde os direitos dos cidadãos podem ser afetados, deve ser do conhecimento de todos quais são os riscos”, afirma Evans. Por exemplo, os médicos estão acostumados a integrar novas tecnologias no seu trabalho e acabam por ter de lidar com uma série de protocolos para garantir que a IA é implementada com segurança, o que muitas das vezes não acontece noutras profissões. Em 2017, a polícia de Durham, no Reino Unido, começou a usar um algoritmo para ajudar os oficiais a tomar decisões de custódia. A Ferramenta de Risco de Avaliação de Danos (HART), era um sistema com informações sobre 104.000 pessoas detidas na cidade durante um período de cinco anos, e foi projetado para descobrir se os suspeitos estavam em baixo, moderado ou alto risco de reincidência. Entre os dados utilizados pela tecnologia HART estava a idade, o sexo e código postal dos suspeitos. Como a informação geográfica garantia o potencial de refletir as comunidades raciais, a iniciativa acabou por atrair diversas críticas. O Regulamento Geral de Proteção de Dados (RGPD) delineia os direitos dos indivíduos contra decisões automatizadas. A lei europeia estabelece que as organizações devem introduzir formas simples para que os cidadãos solicitem a intervenção humana ou contestem uma decisão automatizada. Resta saber, no entanto, como é que as regras se aplicam em casos reais. No início deste ano, por exemplo, foi relatado que o Ministério do Interior usou uma ferramenta algorítmica para transmitir pedidos de visto. Devido ao risco de discriminação de determinados países acarretado pela tecnologia, alguns grupos de ativismo exigiam mais clareza sobre o funcionamento interno desta ferramenta – o Ministério do Interior recusou fornecer detalhes sobre a forma como os diferentes países são rotulados no conjunto de dados do algoritmo. A responsabilidade pela formação de uma decisão informada por um sistema de IA – e, consequentemente, pelo seu uso – mantém-se ainda um tema bastante controverso. |