-
-
Notifications
You must be signed in to change notification settings - Fork 643
Commit
This commit does not belong to any branch on this repository, and may belong to a fork outside of the repository.
French reliability intro md + json (#1124)
* french translation of openai_playground.md * checked into the wrong branch * french for reliability intro md and category json
- Loading branch information
Showing
2 changed files
with
21 additions
and
0 deletions.
There are no files selected for viewing
8 changes: 8 additions & 0 deletions
8
i18n/fr/docusaurus-plugin-content-docs/current/reliability/_category_.json
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -0,0 +1,8 @@ | ||
{ | ||
"label": "⚖️ Fiabilité", | ||
"position": 30, | ||
"link": { | ||
"type": "generated-index", | ||
"description": "Comment rendre les LLM plus fiables" | ||
} | ||
} |
13 changes: 13 additions & 0 deletions
13
i18n/fr/docusaurus-plugin-content-docs/current/reliability/intro.md
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -0,0 +1,13 @@ | ||
--- | ||
sidebar_position: 1 | ||
--- | ||
|
||
# 🟢 Introduction | ||
|
||
Ce chapitre couvre comment rendre les complétions plus fiables, ainsi que la manière d'implémenter des contrôles pour assurer la fiabilité des résultats. | ||
|
||
Dans une certaine mesure, la plupart des techniques précédemment abordées ont pour but d'améliorer la précision des complétions, et donc leur fiabilité, en particulier l'auto-consistance(@wang2022selfconsistency). Cependant, il existe un certain nombre d'autres techniques qui peuvent être utilisées pour améliorer la fiabilité, au-delà des stratégies de prompting de base. | ||
|
||
Les %%LLMs|LLM%% se sont révélés être plus fiables que ce que nous pourrions attendre en interprétant ce qu'un prompt *essaie* de dire lorsqu'ils répondent à des prompts mal orthographiés, mal formulés ou même activement trompeurs(@webson2023itscomplicated). Malgré cette capacité, ils présentent encore divers problèmes, y compris des hallucinations(@ye2022unreliability), des explications erronées avec les méthodes de %%CoT|CoT prompting%%(@ye2022unreliability), et de multiples biais, y compris le biais de l'étiquette majoritaire, le biais de récence et le biais de jeton commun(@zhao2021calibrate). De plus, le CoT en zero-shot peut être particulièrement biaisé lorsqu'il traite de sujets sensibles(@shaikh2022second). | ||
|
||
Parmi les solutions courantes à certains de ces problèmes figurent les calibrateurs pour éliminer les biais _a priori_, et les vérificateurs pour évaluer les complétions, ainsi que la promotion de la diversité dans les complétions. |