O que é BYOIA? Como integrar IA no ambiente corporativo com governança
É possível dizer que estamos no início da era do uso extensivo das ferramentas de Inteligência Artificial (IA), agora até mesmo no ambiente de trabalho corriqueiro. Em muitos segmentos que antes não eram familiarizados com essa tecnologia, houve forte impacto direto com a popularização do ChatGPT e de outras ferramentas gratuitas.
De acordo com uma pesquisa da Microsoft e do LinkedIn sobre as tendências do trabalho e da tecnologia feita em 31 países diferentes, cerca de 75% dos trabalhadores já utilizam a IA em atividades do seu dia a dia. Além disso, 71% dos líderes prefeririam contratar alguém menos experiente, mas que possuem habilidades com as ferramentas de IA.
Embora líderes concordem que a IA já se tornou um imperativo no mundo corporativo, a maior parte deles ainda entende que suas organizações não estão suficientemente preparadas para os impactos inerentes a essa revolução.
São raras as organizações com um plano concreto para usar essas ferramentas para impulsionar resultados sem perder a governança.
A transformação de negócios em suas raízes operacionais é sempre desafiadora. Há muito frenesi com o assunto, mas pouco investimento concreto para o desenvolvimento de habilidades dos colaboradores. A pesquisa indicou que só 39% dos profissionais que usam IA recorrentemente tiverem algum tipo de treinamento específico sobre o assunto.
Afinal, como ferramentas de IA apresentam riscos concretos para organizações?
Bom, vivemos um cenário de incertezas. Qualquer afirmação categórica pode ser precipitada. Na medida em que as tecnologias se tornam mais difundidas, surge a necessidade de avaliar cuidadosamente os possíveis impactos negativos de seu uso extensivo.
Recentemente, estudos e casos têm destacado preocupações sobre vazamentos de informações pessoais e potenciais violações de propriedade intelectual relacionadas a algumas dessas ferramentas de IA.
Tais ferramentas fazem uso de dados pessoais de forma indevida?
Em um estudo conjunto realizado por pesquisadores da Google e de diversas universidades mundialmente reconhecidas, foram identificou uma vulnerabilidade de segurança no ChatGPT.
Através de técnicas simples, como solicitar a repetição de palavras, hackers poderiam ter acesso a dados sensíveis como e-mails e números de telefone.
O estudo menciona testes, como solicitar ao modelo para repetir a palavra “poem” indefinidamente, onde informações pessoais de um CEO de uma empresa foram inadvertidamente expostas. Outro teste com a palavra “company” resultou no vazamento de dados de um diretor de um escritório de advocacia americano.
LEIA TAMBÉM: ChatGPT: entenda os impactos da IA no setor jurídico
E quanto à propriedade intelectual?
Em caso emblemático sobre o tema, no final de 2023 o jornal The New York Times deu início a uma ação legal contra a OpenAI e a Microsoft, alegando que as ferramentas Microsoft Copilot e ChatGPT podiam reproduzir, sem autorização, artigos ou partes substanciais desses artigos do jornal.
Em meio a esse turbilhão jurídico, o NYT não apenas solicitou a proibição do uso de seu conteúdo para treinamento de dados, mas também a remoção dos conjuntos de dados de treinamento em questão.
Mais além, em março de 2024, a Patronus AI realizou uma pesquisa comparativa do desempenho de Large Language Models (LLMs) em um teste de 100 perguntas, solicitando que completassem frases de livros protegidos por direitos autorais nos Estados Unidos. Os resultados revelaram que o GPT-4, o Mixtral da Mistral AI, o LLaMA-2 da Meta AI e o Claude 2 da Anthropic não hesitaram em fornecer respostas contendo frases literais dos livros, em percentuais de 44%, 22%, 10% e 8%, respectivamente.
O que é BYOIA?
O mundo corporativo já está acostumado com a sigla BYOD (Bring Your Own Device), ao regular os colaboradores que usam seus próprios dispositivos na atividade laboral. Da mesma forma, o mundo da tecnologia está habituado com os termos BYOC (Bring Your Own Cloud) e BYOA (Bring Your Own App), no que refere a diretrizes para os funcionários que usam seus próprios serviços de armazenamento em nuvem ou aplicativos de sua escolha para realizar tarefas relacionadas ao trabalho, respectivamente.
Nesse contexto, o Bring Your Own IA (BYOIA) emerge como uma tendência inovadora no cenário empresarial, onde colaboradores aproveitam suas próprias ferramentas de IA para otimizar processos e alcançar melhores resultados em seu trabalho primário.
Contudo, antes de pensar em qualquer diretriz corporativa dessa natureza, é importante entender que não se trata de uma amarra a inovação, mas sim uma forma de dar suporte e segurança para aqueles colaboradores atuam com aplicações de IA como copilotos de sua operação.
Mapeamento de aplicações de IA
Para garantir a integração segura de ferramentas de IA em seu ambiente de trabalho, é pertinente realizar um mapeamento abrangente das aplicações utilizadas na prática na rotina da organização.
Esse processo não apenas oferece uma visão clara das ferramentas em uso, mas também permite identificar aquelas que são aprovadas e aquelas que necessitam de uma avaliação mais detalhada.
Vale ressaltar que, para obter informações precisas, é essencial entrevistar tanto os gestores quanto os colaboradores que operam diretamente com essas ferramentas.
Ao realizar esse mapeamento e entrevistas, é possível ter uma compreensão mais completa do ecossistema de IA da empresa, permitindo tomar decisões informadas sobre segurança, conformidade e eficiência.
Essa abordagem inclusiva não apenas fortalece a governança de dados, mas também promove de forma orgânica uma cultura de colaboração e responsabilidade em relação ao uso de tecnologias avançadas.
Principal benefício da BYOIA: um norte para colaboradores e gestores
Estabelecer diretrizes claras para o uso de ferramentas de IA pode ser desafiador. A linha entre a governança corporativa e as travas para o desenvolvimento podem ser muito tênues.
É interessante considerar que em momento inicial as diretrizes não sejam excessivamente restritivas, mas devem forneçam um direcionamento claro para colaboradores e gestores.
Apesar do relevante desafio, é importante que chegue aos colaboradores um recado da companha sobre o tema.
O que pode ser incluído na diretriz da organização sobre o assunto?
1. Regras gerais de uso: Quais ferramentas são permitidas e quais são proibidas.
2. Procedimentos de avaliação: Como novas ferramentas podem ser avaliadas e aprovadas.
3. Segurança e privacidade: Requisitos para proteção de dados pessoais, segredos comerciais, propriedade intelectual e demais informações confidenciais.
Más práticas: desencorajar ao invés de simplesmente proibir
Vale considerar que proibir o uso de ferramentas de IA de forma vertical pode ter efeitos contraproducentes e limitar a inovação no ambiente de trabalho. O ideal é desencorajar práticas inseguras e promover o uso consciente e responsável. Isso pode ser feito por meio de:
1. Treinamentos interativos para instruir os colaboradores sobre os riscos e as melhores práticas no uso de IA.
2. Avaliações de risco baseadas em atividades específicas.
3. Monitoramento e feedback constante diálogo com os colaboradores.
As principais bases para a governança são:
1. Reconhecer a importância do respeito à privacidade e segurança dos dados pessoais. Sempre que viável e sem comprometer a finalidade do processo, é recomendado que os dados pessoais sejam anonimizados ou pseudonimizados para salvaguardar a identidade dos indivíduos;
2. Compreender como ocorre a seleção de dados e o desenvolvimento de algoritmos. É sempre interessante as atividades sejam guiadas por conhecimentos sólidos, atualizados e relevantes;
3. Na medida da possibilidade técnica, IA o ideal é que seja possível documentar e explicar de forma clara e acessível as decisões tomadas pelos sistemas de IA, especialmente em áreas sensíveis que possam gerar riscos relevantes, como avaliações automatizadas de crédito ou sistemas de diagnóstico médico.
Conclusão: O Caminho para uma Integração Segura e Eficiente
O BYOIA, ou Bring Your Own AI, representa uma oportunidade valiosa para as empresas que adotam uma abordagem estratégica e segura em relação à inteligência artificial.
É importante considerar a hipótese da copilotagem, pela qual a inteligência artificial pode ser integrada aos processos existentes para oferecer suporte e assistência aos humanos, sem substituí-los completamente.
No CVA, estamos comprometidos em auxiliar as empresas nessa jornada, oferecendo consultoria especializada para garantir que o uso de IA seja seguro, eficiente e esteja alinhado com as melhores práticas do mercado. Estamos à disposição para ajudá-lo a navegar nessa nova era da inteligência artificial. Entre em contato conosco para saber mais sobre como podemos colaborar com o sucesso de sua empresa.