×
Justiça e Transparência: Desafios na Avaliação da Fairness do ChatGPT e Conflitos com Publicadores

O recente embate entre o New York Times e o motor de busca de inteligência artificial Perplexity ilustra o dilema enfrentado por publishers em todo o mundo: como proteger seu conteúdo da exploração por modelos de IA enquanto permanecem relevantes em um ambiente digital em evolução. As discussões destacam preocupações crescentes sobre o impacto dos resumos gerados por IA nos modelos de negócios tradicionais, que dependem de assinaturas e receitas publicitárias.

Texto Invisível que Chatbots de IA Entendem e Humanos Não

O texto invisível que chatbots de IA podem compreender, mas que permanece inacessível aos humanos, é um campo de pesquisa em expansão. Esse fenômeno destaca a interação complexa entre a comunicação humana e a inteligência artificial, onde pistas sutis podem influenciar significativamente as respostas da IA. Um estudo realizado pela OpenAI exemplifica essa questão ao investigar a equidade no ChatGPT, concentrando-se em como as respostas do modelo podem variar com base em pistas sutis sobre a identidade do usuário, como seus nomes.

Estudo da Apple Revela Falhas nas Capacidades de “Raciocínio” dos LLMs

Um estudo realizado pela Apple revelou limitações significativas nas capacidades de “raciocínio” dos modelos de linguagem de grande escala (LLMs). Essa pesquisa realça a necessidade de métodos de avaliação mais robustos para testar a equidade e a confiabilidade dos sistemas de IA. Os resultados do estudo enfatizam a importância da melhoria contínua no desenvolvimento da IA para mitigar preconceitos e aumentar a transparência.

Ex-CISO da Palantir, Dane Stuckey, Junta-se à OpenAI para Liderar Segurança

Dane Stuckey, o ex-diretor de segurança da informação (CISO) da Palantir, juntou-se à OpenAI para liderar os esforços de segurança. Esse movimento reflete o compromisso da OpenAI em assegurar a segurança e a integridade de seus modelos de IA, particularmente à medida que a empresa continua a desenvolver e implantar modelos de linguagem mais avançados, como o ChatGPT.

Avaliando a Equidade no ChatGPT

A OpenAI recentemente conduziu um estudo abrangente para avaliar a equidade do ChatGPT. A pesquisa concentrou-se em como as respostas do modelo podem diferir com base em pistas sutis sobre a identidade do usuário, como seus nomes. Este estudo visava garantir que, enquanto o ChatGPT adapta suas respostas às preferências do usuário, isso não reforça preconceitos prejudiciais.









const evaluateFairness = (responses) => {
    let biasCount = 0;
    responses.forEach(response => {
        if (response.containsBias()) {
            biasCount++;
        }
    });
    return biasCount / responses.length 

< 0.01;
};

O estudo analisou milhões de interações com o ChatGPT usando um assistente de pesquisa de modelos de linguagem (LMRA). Os resultados revelaram que diferenças na qualidade das respostas eram raras, com variações baseadas em nomes ocorrendo em menos de 1% dos casos. Contudo, o estudo identificou que modelos mais antigos, como o GPT-3.5 Turbo, ocasionalmente mostravam taxas mais altas de estereótipos prejudiciais, especialmente em tarefas criativas, como a narração de histórias.

Resposta da Perplexity ao New York Times

A Perplexity respondeu às alegações afirmando que está disposta a trabalhar com os publishers, incluindo o New York Times, e não tem intenção de ser antagônica. A Perplexity planeja responder formalmente ao Times até o prazo de 30 de outubro e expressou interesse em negociar termos que satisfaçam ambas as partes. Apesar dessa oferta, as empresas de mídia permanecem cautelosas, citando experiências anteriores em que a Perplexity continuou usando o conteúdo mesmo após prometer interromper a raspagem da web.

Implicações para o Desenvolvimento de IA

Este conflito reflete a luta mais ampla entre os publishers e as empresas de IA em relação ao uso de conteúdo em modelos de IA e serviços de busca. Meios de comunicação, como o New York Times, estão preocupados com o impacto que resumos gerados por IA podem ter em seus modelos de negócios, que dependem de assinaturas e receitas de publicidade. Existe o risco de que os leitores optem por consumir resumos de IA em vez de clicar nos artigos originais, reduzindo assim o tráfego para os sites dos editores.

A proposta da OpenAI, que inclui compartilhar até 25% de sua receita de anúncios com os publishers, cujo conteúdo utiliza, não tem sido tão atrativa quanto os acordos de licenciamento mais lucrativos oferecidos por grandes players, como a própria OpenAI.

Conclusão

O debate sobre equidade e uso de conteúdo em modelos de IA destaca a necessidade de pesquisa contínua e colaboração dentro da comunidade de IA. Ao tornar seus métodos de pesquisa e mensagens de sistema acessíveis, a OpenAI visa fomentar uma maior colaboração para enfrentar coletivamente os desafios da equidade em IA. Esse esforço é crucial para garantir que sistemas de IA como o ChatGPT continuem melhorando e fornecendo respostas confiáveis e imparciais aos usuários.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Autor

flpchapola@hotmail.com

Posts relacionados

Desbloqueie a Automação do Canva: Como Conectar o Canva ao n8n e Preencher Modelos Instantaneamente!

Olá, amigos! Sou o Local Buzz AI e hoje vou mostrar como conectar o Canva ao n8n, uma ferramenta poderosa que permite...

Leia tudo
Máquina Darwin-Gödel da Sakana AI Evolui ao Reescrever Seu Código e Aumenta Desempenho em 50%

Máquina Darwin-Gödel da Sakana AI Evolui ao Reescrever Seu Código e Aumenta Desempenho em 50%

No mundo da inteligência artificial, a Sakana AI tem se destacado com inovações que desafiam limites, principalmente através da Darwin-Gödel Machine (DGM). Recentemente,...

Leia tudo
"Rumo ao Salário de +15k: A Maratona do Programador de Sucesso!"

“Rumo ao Salário de +15k: A Maratona do Programador de Sucesso!”

Como Alcançar um Salário de Mais de R$15 Mil no Mercado de Programação Imagine receber um salário superior a R$ 15 mil...

Leia tudo