Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

🚫 Système de classification de toxicité des messages textuels 📝 #7

Open
loicguillois opened this issue Sep 28, 2023 · 1 comment
Labels
use case Nouveau use case

Comments

@loicguillois
Copy link
Owner

🎯 Objectif :

Classer les messages textuels selon différents niveaux de toxicité pour faciliter la modération automatique.

🛠️ Fonctionnalités requises :

📊 Collecte et préparation des données :

  • Collecter un ensemble de données de messages textuels labellisés avec des niveaux de toxicité (exemple sur Kaggle).
  • Préparer les données pour l'entraînement (nettoyage, tokenisation).

🤖 Entraînement du modèle :

  • Entraîner un modèle de classification de texte pour identifier la toxicité des messages.
  • Évaluer et ajuster le modèle pour maximiser la précision et minimiser les faux positifs/négatifs. Les faux positifs seront préférés aux faux négatifs.

🖥️ Interface API :

  • Développer une API RESTful pour intégrer facilement le système de classification dans d'autres applications.
@loicguillois loicguillois added the use case Nouveau use case label Sep 28, 2023
@MattiSG
Copy link

MattiSG commented Sep 29, 2023

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
use case Nouveau use case
Projects
None yet
Development

No branches or pull requests

2 participants