Ce qui m’amuse avec cette info (qui se rajoute à beaucoup d’autres sur l’IA, toujours mi-comiques mi-terrifiantes), c’est qu’elle démontre que les LLM ne sont même pas (encore) fiables pour désinformer. Ces outils hallucinent des réponses fausses quand on souhaite leur faire des choses vraies… et il leur arrive de dire des choses vraies quand leur propriétaire cherche à les censurer.



Ce n’est pas la première fois qu’un LLM plombe son propriétaire. Un coup il se déclare Mecha-Hitler et balance du génocide blanc à toutes les sauces, la fois d’après il plante son propriétaire :)