Google vient de sortir aux US : AI Overview. Sa réponse 1 an et demi après au moteur Bing / ChatGPT 4.... Et c'est catastrophique ! J'analyse pourquoi ça ne ...
Mais Google a quand même dépensé des Milliards depuis des années dans l’iA (ils avait sorti le papier qui a inspiré ChatGPT je crois) et est en “code Red” depuis la sortie de ChatGPT…
Pas de soucis pour la question !
Meta a sorti Llama3 il y a plusieurs semaines.
Le (pour l’instant) plus gros a des performances (en ““intelligence””) équivalent au vieux GPT4.
Tu peux le faire tourner sur un gros GPU gamer, mais ça sera a une vitesse relativement lente (un mots en 1-2 secondes).
J’ai surtout l’impression qu’ils ont collé une AI low-cost qui fait n’importe quoi.
Bonjour Kuinox,
Peut-être,
Mais Google a quand même dépensé des Milliards depuis des années dans l’iA (ils avait sorti le papier qui a inspiré ChatGPT je crois) et est en “code Red” depuis la sortie de ChatGPT…
Des IA que tu peux faire tourner chez toi sont moins con que ce que Google a utiliser.
Merci pour ta réponse.
Désolé pour la question : tu penses à quel(s) modèle(s) (fiables) à utiliser en local ?
Dans la vidéo il cite Perplexity Ai mais c’est pas en local je suppose.
Si tu lis l’anglais il y a !localllama@sh.itjust.works qui peut être une bonne ressource
merci beaucoup
Pas de soucis pour la question ! Meta a sorti Llama3 il y a plusieurs semaines.
Le (pour l’instant) plus gros a des performances (en ““intelligence””) équivalent au vieux GPT4.
Tu peux le faire tourner sur un gros GPU gamer, mais ça sera a une vitesse relativement lente (un mots en 1-2 secondes).
Merci beaucoup, je vais voir si j’ai une machine assez puissante :)
Installe open-webui pour essayer de le faire tourner sur ton PC: https://github.com/open-webui/open-webui?tab=readme-ov-file#how-to-install-
C’est globalement l’interface de ChatGPT, mais tout tourne sur ton PC.
Attend toi a télécharger 10-30GB.
N’hésite pas a poser des questions.
Merci BEAUCOUP, je teste au + tôt.
C’est pas un souci, j’ai une bonne connexion.
Merci, c’est sympa, je me permettrai peut-être de le faire.