Quotidien Shaarli

Tous les liens d'un jour sur une page.

January 11, 2025

Il est facile d'injecter de nouvelles informations médicales erronées dans les LLM, il suffit de modifier 0,001 % des données d'entrée pour rendre l'IA moins précise

Il suffit de modifier 0,001 % des données d'entrée pour rendre l'IA moins précise
Une nouvelle étude évalue les menaces en simulant une attaque par empoisonnement des données contre The Pile, un ensemble de données populaire utilisé pour le développement des LLM. Les chercheurs ont constaté que le remplacement de seulement 0,001 % des jetons d'entraînement par des informations médicales erronées donne lieu à des modèles nuisibles plus susceptibles de propager des erreurs médicales. Les résultats pourraient sensibiliser aux risques émergents des LLM formés sans discernement sur des données extraites du web, en particulier dans le domaine des soins de santé.

En fait, avec les LLM / IA, l'informatique aussi va basculer dans l'ère de la post-vérité