- Des chercheurs ont créé un nouvel outil pour réseaux sociaux.
- L'outil fonctionne dans le fil X d'un utilisateur.
- Il analyse les publications pour trouver de l'hostilité politique.
- Il change l'ordre des messages sans les supprimer.
- Les messages violents ou intolérants peuvent être placés plus bas.
- Des volontaires ont utilisé l'outil pendant une élection récente.
- Les positions des messages ont changé, pas leur contenu.
- Après l'expérience, certains utilisateurs se sentaient plus chaleureux.
Mots difficiles
- chercheur — personne qui fait des recherches scientifiqueschercheurs
- outil — appareil ou programme pour faire une tâche
- réseau social — site ou application pour partager des messagesréseaux sociaux
- hostilité — attitude ou paroles agressives contre des personnes
- volontaire — personne qui participe sans demander d'argentvolontaires
- élection — vote public pour choisir des dirigeants
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Utilisez-vous un réseau social ?
- Voulez-vous que les messages violents soient moins visibles ?
- Seriez-vous volontaire pour tester un outil comme celui-ci ?
Articles liés
Des tubes métalliques qui n'avalent pas l'eau
Des chercheurs de l'Université de Rochester ont créé des tubes en aluminium dont l'intérieur repousse l'eau et emprisonne une bulle d'air stable. Cette invention garde la flottabilité et pourrait servir pour navires, plateformes et énergie des vagues.
Une méthode transforme les boues d’épuration en gaz renouvelable
Une étude montre qu’un prétraitement des boues produit du gaz naturel renouvelable et réduit fortement les coûts de traitement. La technique combine chaleur, pression et une souche bactérienne pour fabriquer du méthane pur.
Des camps d'été au Cameroun pour apprendre la technologie
Pendant les vacances d'été, de nombreux parents au Cameroun inscrivent leurs enfants à des camps de codage, robotique et intelligence artificielle. Les activités se terminent par des démonstrations et des projets concrets réalisés par les enfants.
Les LLM jugent différemment selon l'auteur indiqué
Des chercheurs de l'Université de Zurich montrent que les grands modèles de langage changent leur évaluation d'un texte si l'on précise qui l'a écrit. L'étude révèle un biais marqué, notamment anti‑chinois, et demande plus de transparence.