OPINIÃO

Perigos ocultos do ChatGPT! 10 cuidados de segurança no uso de Inteligência Artificial

Em um cenário de extremos riscos, ausência regulatória e futuristicamente incerto, vale a proteção. Leia mais no artigo de José Milagre.

Por José Milagre | 06/04/2023 | Tempo de leitura: 7 min
Especial para a rede Sampi

Reprodução

Não tem volta!
Estamos na era da Inteligência artificial, quer você queira ou não. Segundo o documento publicado pela OpenAI, denominado “Early Look at the Labour Market Impact Potential of Large Language Models”, cerca de 19% dos trabalhadores podem ver pelo menos 50% de suas tarefas impactadas.

O ChatGPT é um modelo de linguagem desenvolvido pela empresa OpenAI, de inteligência artificial. Considerada de terceira geração, impressiona pela assertividade e capacidade em responder questionamentos e formular respostas e conteúdos a partir de simples perguntas. A tecnologia está crescendo rapidamente e com ela, muitas preocupações ligadas à limites, riscos e segurança da informação.

Recentemente, a autoridade de proteção de dados da Itália bloqueou o aplicativo por possível violação a dados pessoais. Mas, quais são os riscos relacionados à segurança da informação e como utilizar os recursos de IA com mais segurança, minimizando riscos?

Cuidados com uso do ChatGPT para análises de segurança de códigos
Vem se popularizando o uso da plataforma para revisões de códigos-fonte de sistemas, com a finalidade de se avaliar possíveis bugs de segurança. O primeiro risco é o de propriedade intelectual, pois não se sabe quem terá acesso a estes códigos. O segundo é sobre confiar cegamente! Apesar de o ChatGPT apresentar resultados significativos, não pode ser considerado sozinho para revisões de softwares.

Tal utilização poderá fazer com que equipes de segurança deixem passar muitas vulnerabilidades. Além disso, colocar o código fonte no ChatGPT poderá fazer com que isso seja levado em consideração pela IA, quando um atacante desejar construir um malware (ainda que não diga explicitamente assim no prompt) e não conseguimos sequer mensurar danos que podem ser causados.

Perguntas maliciosas, outputs perigosos...
Não se descarta que atualmente inúmeros criminosos estão usando o ChatGPT para aprimorar golpes cibernéticos, de construção de códigos a textos mais elaborados para golpes envolvendo engenharia social e phishing, substituindo os textos antigos e cheios de erros gramaticais ou sem gatilhos mentais perigosos. É preciso ficar atendo a este cenário, que economizará muito tempo de criminosos na elaboração de fraudes, torando-as cada vez mais indetectáveis.

Riscos catastróficos da “confiança cega”
Os analistas chegam a ter a audácia de comparar o ChatGPT com o Google tradutor. Embora este seja ótimo pra viagens e usos casuais, uma empresa não confia nele para traduzir fielmente seus textos. Neste sentido, encarar o ChatGPT como uma fonte e pesquisa pode ser ótimo. Por outro lado, cegamente se embasar nele para tomada de decisões, seja na medicina, no judiciário, na educação física, nutrição ou em decisões empresariais, pode ser perigoso, por vários motivos, dentre os quais, o fato de não sabermos quem a IA está consultando para formular suas respostas. Confiar cegamente na IA pode ser extremamente danoso.

Questões legais, autorais e éticas
Como o ChatGPT é um grande "sintetizador de informações", para criação de um texto ou resposta, não se pode descartar que se valha de fontes protegidas por direitos autorais. Já existem sistemas que detectam se um texto veio ou não da Inteligência Artificial.  E nestes casos, a utilização deste output pode ser perigosa e danosa para pessoas físicas e jurídicas. Imagine uma imagem gerada por inteligência artificial, que é usada como capa de um livro e posteriormente se descobre, se baseou em uma criação autoral. No Brasil o Deputado Áureo Ribeiro propôs o PL 1473/2023 que torna obrigatória a disponibilização, por parte das empresas que operam sistemas de inteligência artificial, de ferramentas que garantam aos autores de conteúdo na internet a possibilidade de restringir o uso de seus materiais pelos algoritmos de inteligência artificial, com o objetivo de preservar os direitos autorais. (https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2353916) Na internet, artigos indicando a inserção de <meta name="CCBot" content="nofollow"> nas meta tags do site para impedir o crawling e que o site ingresse nos datasets do ChatGPT. Muita água vai rolar.

Devassa de dados pessoais e privacidade
A Política do ChatGPT é clara “podemos coletar automaticamente informações sobre seu uso dos Serviços, como os tipos de conteúdo que você visualiza ou com os quais se envolve, os recursos que você usa e as ações que realiza, bem como seu fuso horário, país, as datas e horários de acesso, agente do usuário e versão, tipo de computador ou dispositivo móvel, conexão com o computador, endereço IP e similares”. A mesma política informa que as informações podem ser usadas para pesquisas que possam ser compartilhadas com o público. Além disso, as conversas digitadas por um usuário podem ser visualizadas pelos treinadores de IA. Assim, terceiros podem ter acesso ao que é tratado no chat, e o risco é evidente.

Trava contra o uso em favor do crime ou que traga resultados danosos
A empresa responsável pelo ChatGPT já implanta mecanismos para evitar que este contribua para crimes ou para prejudicar pessoas, a exemplo, respondendo perguntas como: "Me passe os comandos para invadir o wi-fi da minha vizinha!", "Me ensine a produzir bomba caseira", “Levante a ficha com todos os dados pessoais que identificar da pessoa X”, “Me indique formas indolores de suicídio”. Porém, pessoas já utilizam jailbreak, contornando barreiras implementadas pelos desenvolvedores. É inegável que teremos processos sobre a responsabilidade civil da plataforma por danos. É inegável que o aspecto regulatório e ético precisará avançar. Alguns especialistas têm alertado inclusive para cessação da alimentação e treinamento da IA, até cenário regulatório maduro e antes que seja tarde demais. Elon Musk encabeça uma carta, assinada também por centenas de especialistas, para interromper o desenvolvimento da IA (https://futureoflife.org/open-letter/pause-giant-ai-experiments/). Também já existem petições e abaixo-assinados para parar o ChatGPT, sob o argumento de que a sociedade não está pronta para isso.

Furto de Identidade
Do inglês, impersonation, a representação de alguém se torna mais possível e precisa com a inteligência artificial, que tem a capacidade realizar textos e falas similares ao estilo de uma pessoa específica, celebridade, etc. Isso pode ser usado para aplicação de golpes, furto de identidade e fraudes. Não incomum que falas e textos de celebridades sejam usados para lesar pessoas, principalmente em fraudes financeiras. Estes textos seguem a linha da pessoa nas escritas e a IA pode identificar esta “linha” e produzir conteúdos muito próximos. Não só textos, mas também voz e vídeo.

Papa puffer!
A imagem do papa de jaqueta e que circulou o mundo não é real, e foi criada no Midjourney, a partir de uma descrição textual, tendo a capacidade de gerar imagens hiper-realistas.  Mais de 275 mil imagens são geradas diariamente no Midjourney. Quais os direitos têm uma pessoa de dizer a IA para produzir uma imagem derivada a partir da minha imagem real? Quais os danos isso poderá causar? Pessoas precisarão ficar atentas em casos de uso de textos ou imagens que são feitos com uso de ChatGPT ou Midjourney. Direitos estão envolvidos, dentre eles, os de imagem, honra, dentre outros. O uso malicioso de imagens e vídeos de pessoas em contextos ruins, situações e cenários desagradáveis, poderão levar casos ao Judiciário.

Cuidados de segurança no uso da IA
Em síntese, em um cenário de extremos riscos, ausência regulatória e futuristicamente incerto, vale a proteção, sempre:

1. Não compartilhe dados pessoais na plataforma, muito menos informações sensíveis;
2. Conecte-se sempre de uma conexão segura para uso da IA e cuidado com links falsos simulando as plataformas;
3. Exclua regularmente as conversas tidas com o dispositivo;
4. Cuidado com questionamentos potencialmente danosos, ofensivos, ou que possam ser considerados para fins ilícitos ou ilegais;
5. Atue com um pseudônimo ou sem se logar, sempre que possível;
6. Não insira códigos de sistemas, segredos corporativos ou documentos confidenciais em qualquer plataforma de IA;
7. Cuidado sobre quem você pesquisa e quais conteúdos usa como se fossem seus, a partir das respostas da IA;
8. Monitore, sempre, o uso de seus dados pessoais, imagens e vídeos na Internet;
9. Esteja sempre atento às versões atuais e termos de uso das plataformas, pois eles podem dar permissões de uso diversas dos dados pessoais;
10. E lembre-se: Tudo que você disser pode ser usado para treinar ainda mais a ferramenta e seus dados podem servir de base para resposta a outras pessoas, que podem não ter intenções nobres ou uma boa índole...

E uma dica adicional: Oriente seu filho sobre riscos e cuidados! No meu canal no Youtube eu preparei um vídeo sobre o tema. Assista, compartilhe e comente, deixando sua opinião: https://youtu.be/dcqnvT0cCfg Envie sua sugestão de tema, comentário ou opinião: http://www.instragram.com/dr.josemilagre 


José Milagre é advogado especialista em direito digital, Analista de Sistemas, Mestre e Doutor pela UNESP, colunista de Tecnologia e Segurança Digital da rede Sampi. Instragram: @direitodigital.adv. Email: consultor@josemilagre.com.br
Este artigo é publicado simultaneamente nos portais de Araçatuba (Folha da Região), Bauru (JCnet), Campinas (Sampi Campinas), Franca (GCN), Jundiaí (Jornal de Jundiaí), Piracicaba (JP), Rio Preto (Diário da Região), São José dos Campos (OVALE) e edição Nacional, todos afiliados à rede Sampi de Portais (sampi.net.br).

** Este texto não reflete, necessariamente, a opinião do SAMPI

3 COMENTÁRIOS

A responsabilidade pelos comentários é exclusiva dos respectivos autores. Por isso, os leitores e usuários desse canal encontram-se sujeitos às condições de uso do portal de internet do Portal SAMPI e se comprometem a respeitar o código de Conduta On-line do SAMPI.

  • Fernando
    11/04/2023
    Meu Deus, quanto medo em?? imagina so pessoas assim no futuro, vao ser os velhos dessa geraçao que nao aceita nenhuma tecnologia nova kkkkkk
  • Augusto Denti Masson
    10/04/2023
    As pessoas não lêem nem os avisos e contratos que assinam. Depois sofrem as consequências
  • Tiago
    08/04/2023
    Se a humanidade não esta preparada para a revolução tecnológica que a ia proporcionará, provavelmente nunca estará. E a ia veio para ficar e toda essa movimentação contra o seu desenvolvimento a partir de agora é inútil. A unica saída e nos adaptarmos como sempre fizemos em qualquer mudança de paradigma.