Especialista defende códigos internos enquanto Brasil discute lei de inteligência artificial
Leis sobre inteligência artificial podem tornar-se obsoletas pouco depois de aprovadas, alerta a advogada Patrícia Peck. A especialista em Direito Digital, que integra a Comissão Nacional de Segurança Cibernética, avalia que o ritmo de inovação impõe um prazo de validade curto às normas públicas e exige que as empresas adoptem regras próprias para reduzir riscos de discriminação, falhas de segurança e vazamentos de dados.
Cenário global expõe diferentes estratégias
Na entrevista concedida ao programa Revolução IA, Peck traçou um paralelo entre três grandes modelos de regulação. Nos Estados Unidos, prevalece uma abordagem liberal, com regras mínimas e supervisão sectorial, destinada a evitar entraves à inovação. A União Europeia segue o caminho oposto: o AI Act, inspirado no Regulamento Geral de Protecção de Dados, estabelece obrigações detalhadas para todo o ciclo de vida dos sistemas, mas já enfrenta críticas de empresas que temem aumento de burocracia. A China, por sua vez, acelera a adopção ao centralizar dados nas agências estatais e impor parcerias directas com companhias privadas.
Nesse tabuleiro, o Brasil aprovou o Plano Brasileiro de Inteligência Artificial e discute no Congresso o projecto de lei 2338/2023, que cria o marco legal da tecnologia. Para Peck, a diversidade populacional do país constitui vantagem competitiva para treinar modelos mais inclusivos, mas só produzirá resultados se vier acompanhada de políticas robustas de cibersegurança e protecção de dados.
Riscos exigem actuação além do legislador
A advogada defende uma abordagem «multistakeholder», em que governo, empresas e sociedade civil colaboram na definição de normas técnicas e éticas. Segundo Peck, grande parte das licenças de uso transfere integralmente a responsabilidade pelo resultado ao utilizador, o que expõe organizações a processos caso ocorram alucinações, enviesamentos ou quebras de privacidade. «Assim como uma equipa humana precisa seguir missão, visão e valores, a equipa de IA também deve cumprir um código», afirma.
Entre os problemas citados estão: vieses discriminatórios que afectam decisões sobre crédito ou contratação, alucinações que geram conteúdos falsos apresentados como factos e vulnerabilidades que podem ser exploradas por cibercriminosos. Peck sustenta que normas horizontais, mesmo que abrangentes, não conseguem acompanhar todas as particularidades sectoriais nem a velocidade das actualizações de modelos de linguagem.

Imagem: Internet
Códigos de conduta e guias sectoriais
Para mitigar esses riscos enquanto o marco legal não é aprovado, a especialista recomenda que empresas brasileiras criem códigos internos de conduta, comitês de ética e guias sectoriais de boas práticas. Essas iniciativas, afirma, devem prever critérios de transparência na utilização de dados, mecanismos de auditoria dos algoritmos e planos de contingência para incidentes. A actuação de grandes organizações tende a repercutir na cadeia de fornecedores e a estabelecer padrões mínimos para o ecossistema.
Peck observa ainda que a adopção de normas internas não substitui a regulação estatal, mas oferece uma camada adicional de protecção e flexibilidade. «Leis serão sempre necessárias, mas, devido ao avanço rápido da tecnologia, nascem com prazo de validade. A atualização constante dos códigos corporativos ajuda a colmatar esse intervalo e a preservar a confiança dos utilizadores», conclui.