Portal de Notícias Administrável desenvolvido por Hotfix

ChatGPT

Regras da OpenAI poderiam ser burladas para atingir minorias

Um novo estudo, divulgado semana pelo Washington Post, alerta para que as regras de OpenAI, podem ser facilmente contornadas para atingir maliciosamente comunidades minoritárias e marginalizadas nos EUA, por exemplo, latinos, usando conteúdo enganoso e propaganda política.


Um novo estudo, divulgado semana pelo Washington Post, alerta para que as regras de OpenAI, podem ser facilmente contornadas para atingir maliciosamente comunidades minoritárias e marginalizadas nos EUA, por exemplo, latinos, usando conteúdo enganoso e propaganda política.

Leia mais:

A OpenAI, empresa que desenvolve modelos de IA como o ChatGPT, chegou a afirmar em janeiro desde ano que possui políticas estritas que regem as ferramentas que seus profissionais desenvolvem, para evitar para espalhar desinformação antes das eleições de 2024. Basicamente, regras que impediriam que as pessoas construam chatbots para campanhas políticas ou propagar desinformação.

No entanto, pesquisadores parecem ter descoberto que essas regras tem lacunas. E elas podem ter grandes implicações para as comunidades sub-representadas e que não falam inglês durante as eleições deste ano nos EUA.

Imagem: rafapress/Shutterstock

Como foi possível encontrar brechas nas regras da OpenAI para modelos de IA

"Direcionar um chatbot para eleitores latinos nos EUA requer uma abordagem diferenciada que respeite a diversidade cultural, preferências linguísticas e questões específicas de importância para a comunidade latina. Veja como você pode personalizar o chatbot para obter eficácia máxima", dizia uma resposta do assistente.

Roberta Braga, fundadora e diretora-executiva do grupo que realizou o teste, alegou que os resultados mostram que as salvaguardas da empresa foram facilmente contornadas, mesmo quando os investigadores não escondiam a intenção de usar a ferramenta em campanhas contra os latinos.

A descoberta deve esquentar uma discussão que já é longa, onde legisladores e grupos que lutam contra atos de desinformação online cobram que empresas de tecnologia tenham mais responsabilidade na aplicação adequada de suas regras em línguas diferentes do inglês, especialmente nas empresas de redes sociais.

Imagem: photosince/Shutterstock

Os autores do estudo concluem que "regras em ferramentas de IA ainda não estão sendo aplicadas de forma consistente ou simétrica entre países, contextos ou em línguas que não o inglês".

Contudo, o relatório ressalta que "os termos de serviço da OpenAI são mais avançados no combate ao uso indevido e à disseminação de desinformação do que os da maioria das empresas que lançam produtos generativos de IA no mercado atualmente".

A porta-voz da OpenAI, Liz Bourgeois, disse em um comunicado que "as descobertas deste relatório parecem resultar de um mal-entendido sobre as ferramentas e políticas que implementamos".

Bourgeois afirma que a empresa permite que as pessoas usem seus produtos como um recurso para defesa política e que fornecer instruções sobre como construir um chatbot para fins de campanha não viola suas políticas.

Olhardigital

Pro ChatGPT Minorias OpenAI

Assine o Portal!

Receba as principais notícias em primeira mão assim que elas forem postadas!

Assinar Grátis!

Assine o Portal!

Receba as principais notícias em primeira mão assim que elas forem postadas!

Assinar Grátis!