Durante audiência pública nesta segunda-feira (1), especialistas avaliaram que os riscos potenciais do uso de inteligência artificial não podem servir como pretexto para engessar a legislação e atrasar o avanço do setor no Brasil. Eles apresentaram à Comissão Temporária sobre Inteligência Artificial no Brasil (CTIA) sugestões ao marco legal de IA nacional, cujos projetos estão em análise na comissão, que deve apresentar um texto final antes do recesso parlamentar.
A reunião foi conduzida pelo vice-presidente da comissão, o senador Astronauta Marcos Pontes (PL-SP). Ele defendeu que a comissão opte por um texto menos restritivo ao desenvolvimento da indústria de IA no Brasil, principalmente pelas pequenas empresas. O senador acrescentou que a segurança cibernética é uma preocupação que deve estar presente desde o início do desenvolvimento de projetos de IA.
— É mais arriscado não usar a inteligência artificial do que usar — disse Pontes.
O presidente da Associação Brasileira de Inteligência Artificial (Abria), Rodrigo Scotti, disse que a entidade reúne 650 pequenas, médias e grandes empresas nacionais de IA. Em sua avaliação, os projetos em análise na comissão criam obrigações que podem afetar todos os setores produtivos brasileiros que já usam IA.
Ele sugeriu a revisão de certas exigências para que as micro empresas e as startups consigam operar no mercado com menos amarras jurídicas e menos burocracia.
— A gente está mais preocupado em gerar obrigações excessivas, antes dos fomentos necessários para desenvolver o Brasil e, ainda mais, desenvolver o Brasil com uma tecnologia que é apontada como uma das mais promissoras, se não a mais promissora do século, que é a inteligência artificial. Este é o momento para a gente parar e pensar para onde a gente quer que o Brasil vá — alertou Scotti.
Mateus Costa-Ribeiro, da empresa startup Talisman IA, disse que o texto debatido pela comissão é muito abstrato e ambíguo e pode prejudicar as startups brasileiras. Para ele, o Brasil está querendo regular a IA de maneira prematura, o que pode criar barreiras desnecessárias à inovação brasileira.
— O melhor lugar para a regulação da inteligência artificial é o tempo, a paciência. O ChatGPT foi lançado há menos de dois anos. (…) Não existe amadurecimento para o tema e eu acredito que há um risco grande de as startups serem prejudicadas, e não apoiadas, como é a intenção do Senado brasileiro — avaliou o empresário.
A representante do Comitê Nacional de Cibersegurança (CNCiber), Patricia Peck, também defendeu a necessidade de haver critérios de segurança cibernética desde o início para todos os projetos de IA. Para ela, a legislação a ser aprovada precisará estimular o uso e o fomento da tecnologia no Brasil.
— É extremamente importante que o marco legal possa trazer quais são os requisitos mínimos de fábrica que têm que ser observados, principalmente no tocante à cibersegurança — afirmou Patrícia.
A consultora do Movimento Brasil Competitivo (MBC), Ana Bialer, seguiu a mesma linha e defendeu que o marco legal de IA tenha um texto mais simples e menos restritivo.
— Uma coisa é proibir que um sistema seja desenvolvido, por exemplo, para fingir disseminar conteúdo de exploração sexual de crianças. Outra coisa é se proibir que qualquer sistema que possa eventualmente ser utilizado para disseminar esse tipo de conteúdo seja proibido. Não é muito diferente do exemplo já superbatido da faca. A faca não foi desenvolvida para matar. Ela pode ser usada por um ser humano mal-intencionado para matar — diferenciou a consultora.
O diretor da Associação Brasileira das Empresas de Software (Abes), Marcelo Almeida, alertou que “a IA não tem fronteiras”. O representante da Confederação Nacional da Indústria (CNI), Jefferson de Oliveira Gomes, disse que 80% dos processos industriais serão modificados pela IA nos próximos cinco anos.
O diretor-executivo da organização Conselho Digital, Felipe França, avaliou que a IA já está presente em praticamente todos os momentos das nossas vidas.
— É importante regular os riscos, não a tecnologia — defendeu França.
A CTIA tem como presidente o senador Carlos Viana (Podemos-MG) e, como relator, o senador Eduardo Gomes (PL-TO).
Fala do Conselho Digital
O representante do Conselho Digital, Felipe França, apresentou a visão da entidade sobre o PL 2338/23 durante a audiência. Ele destacou três pontos cruciais:
- Regulação do Uso, Não da Tecnologia: França enfatizou a necessidade de focar na regulação do uso da tecnologia, em vez de regular a própria tecnologia. Ele usou como exemplo a regulação de sistemas de recomendação e curadoria de conteúdo e identificações biométricas, que afetarão as mídias sociais. Segundo ele, tais medidas podem inclusive afetar a liberdade de expressão.
- Elevados Custos de Conformidade: No que diz respeito aos custos de conformidade, França ressaltou que os direitos impõem escolhas, frequentemente conhecidas como trade-offs. Um exemplo dado foi a exigência de explicabilidade detalhada nos sistemas de IA, que pode levar à adoção de sistemas menos eficazes. Esse ponto destaca o desafio de traduzir em linguagem natural sistemas complexos e mostra como a escolha normativa pode ter efeitos práticos para o desenvolvimento de novas tecnologias.
- Disponibilidade de Dados e Inovação: Quanto à disponibilidade de dados, França apontou que o modelo proposto no PL 2338/23 pode impedir o desenvolvimento de modelos avançados, como o GPT, no Brasil. Ele argumentou que a inovação está intrinsicamente ligada ao acesso a dados em larga escala. Em sua fala, citou benchmarks de países como Singapura, Estados Unidos, Israel e Japão, que adotam abordagens equilibradas ao tratamento de direitos autorais, promovendo um ambiente propício à inovação.
Felipe França concluiu suas observações afirmando que a regulação deve ser cuidadosamente projetada para não sufocar o desenvolvimento tecnológico, mantendo um equilíbrio entre proteção de direitos e incentivo à inovação. Essa visão estratégica é essencial para posicionar o Brasil como um player competitivo no cenário global de tecnologia.
Veja o vídeo abaixo: