Ce qui m’amuse avec cette info (qui se rajoute à beaucoup d’autres sur l’IA, toujours mi-comiques mi-terrifiantes), c’est qu’elle démontre que les LLM ne sont même pas (encore) fiables pour désinformer. Ces outils hallucinent des réponses fausses quand on souhaite leur faire des choses vraies… et il leur arrive de dire des choses vraies quand leur propriétaire cherche à les censurer.
You must log in or # to comment.
J’ai une erreur 403 sur ton lien.
Avec une autre instance :
Ah oui, quand même…
C’est beau!
Ce n’est pas la première fois qu’un LLM plombe son propriétaire. Un coup il se déclare Mecha-Hitler et balance du génocide blanc à toutes les sauces, la fois d’après il plante son propriétaire :)