Ce qui m’amuse avec cette info (qui se rajoute à beaucoup d’autres sur l’IA, toujours mi-comiques mi-terrifiantes), c’est qu’elle démontre que les LLM ne sont même pas (encore) fiables pour désinformer. Ces outils hallucinent des réponses fausses quand on souhaite leur faire des choses vraies… et il leur arrive de dire des choses vraies quand leur propriétaire cherche à les censurer.