LGPD e Inteligência Artificial: regulamentações, marco legal e desafios jurídicos

A interseção entre a LGPD e a Inteligência Artificial tem sido um tema central no cenário tecnológico atual. Com o rápido avanço da IA e a crescente preocupação com a privacidade e o tratamento adequado dos dados pessoais, entender como esses dois campos se relacionam é fundamental para garantir a conformidade legal e ética das organizações.

Neste artigo, exploraremos o impacto da Lei Geral de Proteção de Dados na regulação da Inteligência Artificial, examinando as obrigações legais e os desafios enfrentados pelas empresas no uso responsável da IA. Boa leitura!

O boom das ferramentas de Inteligência Artificial 

Inteligência Artificial (IA) é o termo genérico que é utilizado para definir ferramentas, sistemas e algoritmos que são capazes de executar tarefas razoavelmente complexas baseadas em padrões e em banco de dados, as quais são projetadas para simular a capacidade humana de raciocinar, aprender, adaptar e decidir. 

Podemos considerar 2023 o ano do grande boom da popularização das ferramentas da chamada inteligência artificial generativa. Em recente declaração, Bill Gates considerou que o uso dessas ferramentas, tais como o ChatGPT da Open IA, o Bard da Alphabet e o Midjourney são tão disruptivos em nosso relacionamento com a tecnologia assim como foi a introdução de interface gráfico através de ferramentas como o Windows. 

Lançado para o público com pouco alarde no final de novembro de 2022, o ChatGPT é uma versão aprimorada do modelo de linguagem GPT-3.5. Ele é considerado o produto de tecnologia que mais cresceu rapidamente na história, sendo que ele alcançou o relevante número de mais de 100 milhões de usuários no período de apenas dois meses. 

Os impactos do boom da IA abarcam desde o aumento da produtividade, no sentido da automatização de uma infinidade de tarefas que antes necessariamente precisavam de uma construção pela ação humana, até reflexos em serviços de apoio ao cliente e ligados às indústrias criativas. As ferramentas de IA realmente vieram para ficar. 

LGPD x IA

As principais normas que atualmente regulam o uso de ferramentas de inteligência artificial (IA) no Brasil são a Lei Geral de Proteção de Dados (LGPD), o Código Civil, o Marco Civil da Internet, o Código do Consumidor, bem como a própria Constituição Federal. 

No caso específico da LGPD, é notável que a lei estabelece uma série de obrigações legais e medidas mitigatórias de riscos que devem ser utilizadas por agentes que utilizam ferramentas de IA, o que inclui a adoção de medidas aptas a proteger os dados pessoais de acessos não autorizados e situações acidentais ou ilícitas de destruição, perda, alteração, comunicação ou difusão. 

É relevante destacar o art. 20 da LGPD, o qual garante ao titular de dados o direito a revisão de decisões automatizadas baseadas em dados pessoais, com destaque no que toca o perfilamento pessoal, profissional, de consumo, de crédito ou de aspectos de personalidade. É assegurado o acesso a informações claras e adequadas a respeito dessas decisões e seus parâmetros. 

Contudo, é assegurado em ressalva a proteção aos segredos comerciais e industriais, ou seja, conhecimentos técnicos próprios que podem oferecer vantagem concorrencial a uma empresa. Tal proteção inclui, por exemplo, o know-how sobre certos processos e aplicações. Naturalmente, informações de conhecimento público não são considerados segredos empresariais, assim como tampouco são as informações evidentes para pessoas com notório conhecimento no assunto. 

Marco legal da Inteligência Artificial

Está sob análise do Senado o PL 2.338/2023, projeto de lei que busca regulamentar as ferramentas de inteligência artificial no Brasil. Tal texto legal busca conciliar duas visões sobre a IA: uma voltada a proteção de direitos individuais e coletivos, outra no sentido de impor obrigações para as organizações que desenvolvem e utilizam ferramentas com maior risco de impacto. 

O projeto estabelece regras e critérios para o uso da IA e sanções de até R$ 50 milhões por infração ou até 2% do faturamento das empresas, bem como a proibição de participar de ambientes regulatórios experimentais (sandbox) e a suspensão temporária ou definitiva do sistema. 

Inspirado no EU AI Act (projeto para regulamentar a Inteligência Artificial na União Europeia), esta relevante regulamentação está em fase de avaliação pelas comissões temáticas do Senado e deve seguir posteriormente para a Câmara dos Deputados. 

Garantir a proteção dos direitos individuais e coletivos diante do rápido avanço tecnológico é uma prioridade. A ausência de regulamentação gera insegurança jurídica para os desenvolvedores e implementadores de tecnologia, além de expor os usuários a potenciais violações de direitos. É essencial estabelecer um marco legal claro e abrangente para evitar lacunas e assegurar uma atuação coesa e proteção adequada para todos os envolvidos. 

mão robótica representando LGPD e Inteligência Artificial

Categorização de riscos 

O texto legal do PL 2.338/2023 prevê uma lista de sistemas que são considerados de alto risco, como por exemplo aqueles ligados a atividades de: 

  • classificação de crédito; 
  • identificação de pessoas; 
  • administração da Justiça; 
  • implementação de veículos autônomos; 
  • diagnósticos e procedimentos médicos; 
  • tomada de decisões sobre acesso a emprego, a ensino, ou a serviços públicos e privados essenciais; 
  • avaliação de estudantes e colaboradores; 
  • gestão de infraestruturas críticas, como controle de trânsito e redes de abastecimento de água e de eletricidade; 
  • avaliação individual de risco de cometimento de crimes e de traços de personalidade e de comportamento criminal. 

A utilização de ferramentas de alto risco ou risco excessivo irá gerar a obrigação de elaborar relatórios de impacto algorítmico, a qual deve expor benefícios e riscos conhecidos e previsíveis dos sistemas e deve ter acesso público. Nesses casos, é estabelecida a responsabilidade objetiva pelos danos causados a pessoas e organizações, aplicando-se no caso o ônus da prova em favor da vítima. 

Cuidados legais no uso de Inteligência Artificial: a importância de uma consultoria jurídica especializada para mitigar riscos e garantir a conformidade legal 

Ao utilizar ferramentas de IA, é importante que as organizações tenham um assessoramento jurídico competente para atender as exigências legais e regulatórias, a fim de evitar problemas jurídicos com os consumidores e clientes, os colaboradores, os titulares de dados, a Autoridade Nacional de Proteção de Dados e os demais órgãos públicos reguladores e fiscalizadores. 

Alguns dos cuidados legais relacionados ao uso dessas ferramentas que podem ser listados são: 

  1. Gestão do consentimento: é necessário obter o consentimento livre, inequívoco e destacado das pessoas para coletar e processar seus dados, especialmente se envolver informações pessoais sensíveis. 
  2. Transparência: a LGPD exige que sejam fornecidas informações claras sobre como os dados serão coletados, utilizados e armazenados pela IA. Os usuários devem ser informados sobre o propósito e as consequências do uso da ferramenta. 
  3. Segurança e privacidade: devem ser adotadas medidas técnicas e organizacionais adequadas para proteger os dados coletados pela IA contra acesso não autorizado, uso indevido ou divulgação. 
  4. Discriminação e vieses: a criação ou perpetuação de discriminação ou viés através da IA pode criar grandes problemas legais. É essencial garantir que os algoritmos sejam imparciais. 
  5. Definição de responsabilidades legais: é necessário o auxílio de um advogado especialista na redação de documentos e contratos, a fim de definir claramente quem é responsável pelos resultados e pelas consequências do uso da IA. Nesse procedimento, é importante identificar possíveis riscos e adotar medidas para mitigá-los.

É essencial o auxílio de especialistas com comprovada experiência para estar em conformidade legal com todas as leis e regulamentações aplicáveis, incluindo a LGPD e os novos marcos legais ligados a tecnologia, consideradas também normas éticas e diretrizes setoriais relevantes. 

Para mais, é importante assegurar a prevenção a riscos de condenação ao pagamento de indenizações e multas, além do prejuízo reputacional que uma empresa está sujeita no caso de um incidente relevante que gere dano ou riscos às liberdades civis e direitos fundamentais. 

O Camargo e Vieira conta com um equipe especializada para ajudar a sua empresa a estar em adequação com a LGPD e garantir a transparência e segurança dos tratamentos de dados realizados por ela. Para saber mais sobre a nossa solução de Adequação Total à LGPD, entre em contato conosco e agende uma reunião com um especialista.

Fale o que você pensa

O seu endereço de e-mail não será publicado.