Ir para o conteúdo principal

Escrever uma avaliação PREreview

Large Language Model Data Governance and Integrity

Publicado
Servidor
Preprints.org
DOI
10.20944/preprints202601.1234.v1

This paper provides a comprehensive overview of inherent vulnerabilities and strategic data management techniques for Large Language Models (LLMs). It systematizes the diverse risks, including data poisoning, privacy breaches, and the generation of erroneous information (”hallucinations”), emphasizing how these issues arise from the underlying data and training processes. The paper details various ”guardrail” architectures and data-centric methods designed to secure LLMs. It particularly highlights layered protection models, the use of Retrieval-Augmented Generation (RAG) to ground responses in external knowledge bases, and techniques for bias mitigation and ensuring data privacy, all crucial for maintaining data integrity and responsible LLM deployment.

Você pode escrever uma avaliação PREreview de Large Language Model Data Governance and Integrity. Uma avaliação PREreview é uma avaliação de um preprint e pode variar de algumas frases a um parecer extenso, semelhante a um parecer de revisão por pares realizado por periódicos.

Antes de começar

Vamos pedir que você faça login com seu ORCID iD. Se você não tiver um iD, pode criar um.

O que é um ORCID iD?

Um ORCID iD é um identificador único que diferencia você de outras pessoas com o mesmo nome ou nome semelhante.

Começar agora