Um projeto de lei desenvolvido e discutido durante o ano de 2022 por advogados da área da tecnologia pretende regulamentar o que conhecemos hoje como inteligência artificial. O texto, apresentado pelo presidente do Senado, Rodrigo Pacheco (PSD/MG), estabelece supervisionamento e fiscalização das tecnologias automatizadas.
De acordo com o Pacheco, o objetivo principal é definir direitos para proteção das pessoas e criar dispositivos onde é possível que o estado faça seu papel na fiscalização da atividade — que tem ganhado cada vez mais força, principalmente na internet.
O projeto
Com 45 artigos iniciais, a proposta apresenta a necessidade de se criar mecanismos de “transparência, explicabilidade, inteligibilidade e auditabilidade”. Além disso, define uma autoridade governamental (ainda não definida) que faça a sanção como órgão fiscalizador responsável por analisar o “grau de risco” oferecido pela tecnologia.
Se destaca também uma seção especial para criar penalidades para aqueles que venham a descumprir regras estabelecidas. As multas previstas aos que descumpram a legislação chegam a R$ 50 milhões, além da suspensão das atividades de forma temporária ou total.
O PL 2.338/2023 aguarda despacho para que possa evoluir em um processo interno no Senado até a sua provável sanção por parte do Presidente da República. No mais, a proposta deve ser discutida em breve pela Comissão de Ciência, Tecnologia, Inovação, Comunicação e Informática (CCTI) do próprio órgão.
Se aprovada, o Brasil poderá ser o primeiro a pais a regulamentar o desenvolvimento e o uso de inteligências artificias.
Dono da empresa criadora do ChatGPT é favorável sobre regulamentação de IA
Em fevereiro de 2023, Sam Altman, atual dono da empresa OpenAI a qual desenvolve o famoso ChatGPT, compartilhou sua opinião favorável a regulamentação de inteligência artificiais.
“Embora as ferramentas de IA da geração atual não sejam muito assustadoras, acho que não estamos tão longe de algo potencialmente assustador” compartilhou Sam em seu perfil no Twitter.
Contudo, Elon Musk — que é um dos co-fundadores do projeto OpenAI, também acredita que deve haver uma regulamentação: “Precisamos regular a segurança da IA, francamente. Acho que é realmente um risco maior para a sociedade do que carros, aviões ou remédios” afirmou o empresário em entrevista a CNBC.