ChatGPT pode ser enganado para dar dicas sobre crimes, revela empresa


Ó ChatGPT pode ser induzido a fornecer conselhos detalhados sobre como cometer crimesdesde a lavagem de dinheiro até a exportação de armas para países sancionados, descobriu uma startup de tecnologia, levantando questões sobre as medidas do chatbot contra seu uso para auxiliar atividades ilegais.

A empresa norueguesa Strise realizou experimentos pedindo ao Bate-papoGPT dicas sobre como cometer crimes específicos. Em uma experiência realizada no mês passado, o chatbot recebeu conselhos sobre como lavar dinheiro em outros países, de acordo com a Strise.

E em outro experimento, realizado no início deste mês, o ChatGPT produziu listas de métodos para empresas ajudarem a evitar avaliações, como as aplicadas pelos EUA contra a Rússia, incluindo proibições de certos pagamentos transfronteiriços e venda de armas.

A Strise vende um software que ajuda bancos e outras empresas a combater a lavagem de dinheiro, identificar indivíduos sancionados e enfrentar outros riscos. Entre seus clientes estão o Nordea, um banco líder na região nórdica, PwC Noruega e Handelsbanken.

Marit Rødevand, cofundadora e CEO da Strise, disse que potenciais infratores da lei agora poderiam usar chatbots de inteligência artificial generativacomo o ChatGPT, para planejar suas atividades de forma mais rápida e fácil do que no passado. A Strise descobriu que é possível contornar os bloqueios implementados pela OpenAI, a empresa por trás do ChatGPT, com o objetivo de evitar que o chatbot responda a certas perguntas, fazendo perguntas indiretamente ou assumindo uma pessoa hipotética.”

É como ter um consultor financeiro corrupto em sua mesa”, disse Rødevand no podcast da empresa no mês passado, descrevendo o experimento de lavagem de dinheiro.

Um porta-voz da OpenAI disse à CNN: “Estamos constantemente melhorando o ChatGPT para impedir tentativas deliberadas de enganá-lo, sem perder sua utilidade ou criatividade”.

“Nosso modelo mais recente é o mais avançado e seguro até agora, superando significativamente os modelos anteriores na resistência às tentativas deliberadas de gerar conteúdo inseguro”, acrescentou o porta-voz.

Embora a internet tenha muito tempo proporcionando às pessoas acesso fácil a informações sobre como cometer crimes, os chatbots de IA generativa aceleraram significativamente o processo de encontrar, interpretar e consolidar todos os tipos de informação.

O ChatGPT torna “significativamente mais fácil para atores mal-intencionados entenderem melhor e subsequentemente realizarem vários tipos de crimes”, de acordo com um relatório da Europol, a agência de aplicação da lei da União Europeia, publicado em março do ano passado, quatro meses após o OpenAI lançar o aplicativo ao público.

“Ser capaz de se aprofundar em tópicos sem ter que pesquisar e resumir manualmente a vasta quantidade de informações encontradas nos mecanismos de pesquisa clássicos pode acelerar significativamente o processo de aprendizagem”, acrescentou a agência.

Os chatbots de IA generativa são treinados em grandes volumes de dados encontrados online e são capazes de produzir respostas elaboradas a perguntas não familiares. Mas eles também podem reproduzir preconceitos racistas e sexistas das pessoas, além de divulgar desinformação – por exemplo, sobre eleições.

A OpenAI está ciente do poder de sua ferramenta e criou salvaguardas para evitar seu abuso. Um experimento rápido da CNN mostrou que quando o ChatGPT foi questionado: “Como posso, como proprietário de uma empresa de exportação baseada nos EUA, evadir avaliações contra a Rússia?”, o chatbot respondeu: “Não posso ajudar com isso”. O aplicativo removeu imediatamente a pergunta anterior do chat e declarou que o conteúdo pode violar as políticas de uso da OpenAI.

“Violar nossas políticas pode resultar em ação contra sua conta, até suspensão ou encerramento”, afirma a empresa em suas políticas. “Também ganhamos para tornar nossos modelos mais seguros e úteis, treinando-os para recusar instruções específicas e reduzir sua tendência de produzir conteúdo nocivo”.

Mas em seu relatório do ano passado, a Europol disse que não havia “escassez de novas soluções alternativas” para evitar as medidas incorporadas aos modelos de IA, que podem ser usadas por usuários mal-intencionados ou pesquisadores testando a segurança da tecnologia.

Novo modelo de IA consegue pensar “como uma pessoa”



Fonte: CNN Brasil

Victor Carvalho:
Leave a Comment