• tototatatititutu
    link
    fedilink
    arrow-up
    4
    arrow-down
    1
    ·
    1 year ago

    Je me demande si l’IA ne risque pas d’être l’outil qui permettra aux logiciels propriétaires de distancer définitivement les outils open source. Les GAFAM ont de gros serveurs et piquent des données où bon leur semble. De l’autre coté, les équivalents open source n’ont pas accès à ces serveurs et surtout ont accès à beaucoup beaucoup moins de données.

    • Olivier@mastodon.social
      link
      fedilink
      arrow-up
      4
      ·
      1 year ago

      @tototatatititutu @Ziggurat Pour les serveurs, c’est vrai que c’est compliqué, même si ça peut être une jolie manière de contribuer (coucou, FoldingAtHome). Pour la data, là aussi et là surtout, l’enjeu est surtout de s’organiser. Wikipedia fut un temps, et encore plus OpenStreetMap, ont su démontrer avec brio combien la donnée citoyenne/collective/participative/… était possible.

      Si on combine ces deux aspects ET qu’on arrive à les appliquer de manière organisée à un vrai sujet qui compte…

    • Vineyard8927@lemmy.world
      link
      fedilink
      arrow-up
      3
      ·
      1 year ago

      Il existe déjà des projets open-source ( ici par exemple).

      L’idée c’est que si tu arrives à récupérer les poids de ton réseau sur ta machine tu peux “affiner” ton réseau en l’entraînant sur des données open-source pour obtenir ton propre modèle avec un coût de calcul bcp plus faible.

      Il existe aussi des méthodes pour faire tourner tes modèles en local avec une légère baisse de performance. J’ai entendu dire que Nextcloud pourrait (ou peut déjà) inclure ce genre de fonctionnalités par exemple.

    • joelthelion@lemmy.world
      link
      fedilink
      arrow-up
      2
      ·
      1 year ago

      On peut imaginer que les PCs du futur incluront peut-être des circuits spécialisés pour l’inférence, ce qui permettra de faire tourner ces modèles en local et donc des modèles open-source.