Les LLMs ingèrent et apprennent d'une Wikipédia biaisée et deviennent ensuite biaisés eux-mêmes…
Demandez à ChatGPT des sujets spécifiques et vous verrez cela en action.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
18 J'aime
Récompense
18
8
Reposter
Partager
Commentaire
0/400
StakeOrRegret
· 10-03 20:42
Ne fais pas semblant, ce sont vos données que vous fournissez.
Voir l'originalRépondre0
MEVHunterNoLoss
· 10-03 19:50
Wouah le modèle est trop toxique
Voir l'originalRépondre0
AirdropHunter
· 10-03 00:43
La chambre d'information est là!
Voir l'originalRépondre0
StableGeniusDegen
· 10-02 21:08
Il s'avère que c'est vraiment l'humain qui rend les autres mauvais.
Voir l'originalRépondre0
AirdropDreamBreaker
· 10-02 21:05
Qui tourne en rond, qui a tort et qui a raison ?
Voir l'originalRépondre0
bridge_anxiety
· 10-02 21:05
Entrée de déchets, sortie de déchets.
Voir l'originalRépondre0
SmartMoneyWallet
· 10-02 20:43
Des données de mauvaise qualité entraînent une IA de mauvaise qualité.
L'effet d'entraînement d'une Wikipedia biaisée :
Les LLMs ingèrent et apprennent d'une Wikipédia biaisée et deviennent ensuite biaisés eux-mêmes…
Demandez à ChatGPT des sujets spécifiques et vous verrez cela en action.