- Des chercheurs de la University of Pittsburgh créent un test.
- Le test prend dix minutes.
- Il ne demande pas de prise de sang.
- Il détecte des anticorps de virus.
- Par exemple SARS-CoV-2 et H1N1.
- Les capteurs sont très petits.
- Ils marchent avec un demi-volt.
- Ils mesurent le liquide interstitiel, pas le sang.
- Les capteurs sont très sensibles, dit l'équipe.
- Alexander Star dirige la recherche.
Mots difficiles
- test — Une évaluation ou un examen.
- anticorps — Proteines qui défendent le corps.
- détecter — Trouver ou identifier quelque chose.
- infections — Maladies causées par des virus ou des bactéries.
- résultats — Ce que l'on obtient après un test.
- sensibles — Capables de réagir rapidement.
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- À votre avis, pourquoi les tests rapides sont-ils importants ?
- Avez-vous déjà entendu parler de tests d'anticorps ?
- Pensez-vous que les capteurs sont très utiles ? Pourquoi ?
Articles liés
Un outil pour accélérer le diagnostic de l’autisme dans le Missouri
Des chercheurs du Missouri ont testé CanvasDx, un dispositif approuvé par la FDA qui utilise l’IA pour aider au diagnostic de l’autisme. L’étude reporte des diagnostics plus précoces et des résultats déterminés pour 52 % des patients.
Des résumés audio d'IA pour la recherche sur Mars
En octobre, Ian Flynn et Sean Peters ont testé des overviews audio de NotebookLM pour trois articles sur le volcanisme martien. Ces résumés rendent les recherches accessibles, mais ils contiennent des erreurs et doivent être vérifiés.
L'IA transforme le travail des tribunaux en Inde
Les tribunaux indiens modernisent leur travail avec des outils d'IA pour la transcription, la recherche et la traduction. Le projet e-Courts phase III et des plateformes comme SUPACE et Adalat.AI font partie de cette transformation, avec des risques et des règles.
Comment rendre les modèles de langage plus sûrs
Des chercheurs de North Carolina State University étudient l’alignement de sécurité des grands modèles de langage. Ils identifient un problème d’alignement superficiel et proposent de « geler » des neurones clés pour réduire les mauvaises réponses tout en conservant la performance.