Os últimos dois artigos abordaram sobre a IA e uso com sabedoria do ChatGPT, enquanto este artigo foca sobre as potenciais ameaças do mau uso deste modelo, como reduzi-las, incluindo dicas de como detectar possibilidade de plágio em trabalhos acadêmicos e/ou científicos.
Quando estudei no Japão, costumava dialogar com amigos Xintoístas ou Budistas. E com um deles, aprendi uma interessante lição com o que ocorre na natureza, envolvendo a água, a cobra e a vaca.
Á água é um elemento precioso na natureza e ela é consumida por muitos seres vivos, mas enquanto a cobra bebe a água e o converte em veneno que pode ser mortal para os demais seres vivos, a vaca bebendo o mesmo líquido produz o leite que nos alimenta. A moral da metáfora é que o problema não está na água, mas na natureza do ser vivo que a consome. Assim também ocorre em cada coisa que criamos, desde uma faca até o ChatGPT.
Enquanto a missão da OpenAI, criadora do ChatGPT, é criar IA avançada de maneira segura e benéfica para a humanidade, em mãos de pessoas com natureza maldosa, o modelo de linguagem natural pode ser usado de maneira errada e até perigosa, com as seguintes possibilidades:
- RISCOS CIBERNÉTICOS
O ChatGPT pode ser usado para escrever mensagens convincentes de Phishing, um tipo de ataque que tenta enganar as vítimas por meio de sites falsos, e-mails ou outros tipos de mensagens que parecem vir de uma fonte confiável. Neste caso o recomendável é não clicar em links vindo de fontes desconhecidas, reforçar a senha e a autenticação de dois fatores.
O ChatGPT também pode ser usado para gerar Códigos de trabalho para ataques adversários, ataques de ransonware e outras utilizações quando recebe um Prompt simples em Inglês, possibilitando que potenciais hackers se aproveitem da situação.
Apesar da ideia de utilizar o ChatGPT para fins de ataques cibernéticos parecer um absurdo, neste artigo <https://www.pc.co.il/news/379076/>, escrito em hebraico, mas que pode ser facilmente traduzido para Inglês pelo Google, o leitor tem acesso a uma reflexão feita por pesquisadores de Israel, da empresa Cyberark, sobre um método para criar um malware polifórmico extremamente furtivo usando o ChatGPT.
Já a CP<R> Check Point Research escreveu um artigo <http://bit.ly/3xkXbj9> no início de janeiro de 2023, a partir da análise das principais comunidades de hackers clandestinos, em que aponta evidências de cyber criminosos tentando usar o modelo da OpenAI para desenvolver ferramentas maliciosas, porém ainda em estágio inicial de desenvolvimento. Eles apontaram três casos, o primeiro relacionado a criação de um Infostealer, o segundo voltado para criar uma ferramenta de criptografia e o terceiro visando facilitar atividades de fraudes.
Resumindo, a CP<R> afirma que ainda é cedo para afirmar se os recursos do ChatGPT se tornarão ou não ferramentas favoritas dos participantes da Dark Web, porém a comunidade cibernética criminosa já demonstrou interesse no assunto e está entrando na tendência de gerar códigos maliciosos.
- RISCOS PARA A EDUCAÇÃO E PESQUISA
O ChatGPT pode ser usado para criar trabalhos acadêmicos convincentes, desde uma simples Redação, um TCC até Teses de Doutorado.
Um artigo publicado no dia 12 de Janeiro de 2023, na prestigiosa Nature <https://bit.ly/3IlwfGq>, a mestre e jornalista Holly Else traz uma reflexão interessante sobre a dificuldade que os pesquisadores estão encontrando para diferenciar resumos originais daqueles que estão sendo gerados pela IA.
Para Holly, os pesquisadores estão divididos sobre as implicações do Chatbots usando IA para a ciência e ela se baseia em dois artigos ainda em estágio de Preprint nos servidores bioRxiv e arXiv, bem como em depoimentos de pesquisadores de universidades como a de Oxford, Princeton e Northwestern.
No artigo Else relata a preocupação de Sandra Wachter, especialista em tecnologia e regulamentação da Universidade de Oxford, envolvendo a incapacidade dos especialistas em conseguir determinar se um assunto é verdadeiro ou falso.
Este artigo também relata uma pesquisa que foi feita por um grupo de pesquisadores liderados pela Catherine Gao da Universidade de Northwestern em Chicago, em que eles pediram para o ChatGPT escrever 50 resumos de pesquisa médicas com base em uma seleção de artigos publicados no JAMA, no The New England Journal of Medicine, The BMJ, The Lancet e Nature Medicine.
Em seguida eles compararam com os resumos originais, passando-os por três grupos: um detector de plágio, um detector de saída usando IA, e um grupo de pesquisadores médicos. Os resumos gerados pelo ChatGPT passaram pelo verificador de plágio com uma pontuação média de originalidade de 100%. Já o detector de IA identificou a originalidade dos resumos em torno de 60%, enquanto que os revisores humanos tiveram um desempenho inferior conforme pode ser lido no artigo citado.
Como resultado, os pesquisadores da Universidade de Northwestern afirmam que o ChatGPT escreve resumos científicos plausíveis, razão pela qual os limites éticos, aceitáveis de modelos de linguagem para ajudar na escrita científica ainda precisam ser determinados.
O fato é que já há um intenso debate nos EUA envolvendo professores e cientistas sobre o ChatGPT, por conta de problemas relacionados com “colas” e “plágios”, com algumas decisões sendo tomadas até de forma mais radical como a tomada pelo Departamento de Educação da Cidade de Nova York, que decidiu bloquear <http://bit.ly/3YO8RXl> o acesso nas redes e dispositivos de suas escolas, citando impactos negativos sobre a aprendizagem dos estudantes, podendo ser liberado caso a escola solicite para utilizar em pesquisa, usando-o em projetos de computação dentro da escola.
O debate está intenso nos EUA, mas já há algumas iniciativas para ajudar professores e pesquisadores a identificarem as famosas “colas” ou “plágios”, porém em estágio inicial. A própria OpenAI já informou que está trabalhando com educadores para discutir recursos e limitações do ChatGPT, até criou o seu próprio detector <https://platform.openai.com/ai-text-classifier> para classificar se um texto foi escrito utilizando IA. Outra ferramenta foi desenvolvida por um estudante da Universidade de Princeton, Edward Tian, e chama-se GPTZero < https://gptzero.me/> que também pode ser útil para quem deseja fazer as checagens.
Finalmente, seja qual for a ferramenta de trabalho, use-a sempre com a honestidade, pois só ela nos garante uma consciência limpa, noite de sonos tranquilas e um legado respeitável para a posteridade.