• @CamusOP
    link
    5
    edit-2
    11 months ago

    Encore une fois, c’est la dynamique de l’IA - la production d’un contenu bon marché basé sur le travail d’autrui - qui est à l’origine de ce changement, et si Google poursuit son expérience actuelle de recherche par IA, les effets seront difficiles à prédire.

    Si Google poursuit son expérience actuelle de recherche par IA, les effets seront difficiles à prévoir. Potentiellement, cela endommagerait des pans entiers du web que la plupart d’entre nous trouvent utiles, qu’il s’agisse d’avis sur des produits, de blogs de recettes, de pages d’accueil de fans, d’actualités ou de wikis. Les sites pourraient se protéger en verrouillant l’accès et en le facturant, mais il s’agirait également d’une réorganisation considérable de l’économie du web. En fin de compte, Google pourrait tuer l’écosystème qui a créé sa valeur, ou le modifier de manière si irrévocable que sa propre existence serait menacée.

    Et si nous laissions l’IA prendre le contrôle et commencer à fournir des informations aux masses ? Quelle différence cela ferait-il ?

    Jusqu’à présent, les faits semblent indiquer que la qualité du web en général s’en trouvera dégradée. Comme le note Piltch dans son article, malgré la capacité de l’IA à recombiner du texte, ce sont les gens qui créent les données sous-jacentes, qu’il s’agisse de journalistes qui décrochent leur téléphone et vérifient les faits ou d’utilisateurs de Reddit qui ont eu exactement ce problème de batterie avec la nouvelle clé à cliquet sans fil DeWalt et qui sont heureux de vous dire comment ils l’ont résolu. En revanche, les informations produites par les modèles de langage de l’IA et les chatbots sont souvent incorrectes. Le problème, c’est que lorsqu’elles sont erronées, elles le sont d’une manière difficile à repérer.

    Voici un exemple. Au début de l’année, je faisais des recherches sur les agents d’intelligence artificielle - des systèmes qui utilisent des modèles de langage comme ChatGPT, qui se connectent à des services web et agissent au nom de l’utilisateur, en commandant des courses ou en réservant des vols. Dans l’un des nombreux fils de discussion viraux sur Twitter vantant le potentiel de cette technologie, l’auteur imagine un scénario dans lequel une entreprise de chaussures imperméables souhaite commander une étude de marché et se tourne vers AutoGPT (un système construit au-dessus des modèles de langage d’OpenAI) pour générer un rapport sur les concurrents potentiels. Le rapport qui en résulte est basique et prévisible. (Il énumère cinq entreprises, dont Columbia, Salomon et Merrell, avec des puces censées présenter les avantages et les inconvénients de leurs produits. “Columbia est une marque bien connue et réputée pour son équipement et ses chaussures de plein air”, nous dit-on. "Leurs chaussures imperméables se déclinent en différents styles et leurs prix sont compétitifs sur le marché. On pourrait penser que ces informations sont tellement banales qu’elles ne servent à rien (et on aurait raison), mais elles sont aussi subtilement erronées.

    • @CamusOP
      link
      511 months ago

      Les contenus générés par l’IA sont souvent subtilement erronés

      Pour vérifier le contenu du rapport, je l’ai soumis à une personne que je pensais être une source fiable sur le sujet : un modérateur du subreddit r/hiking nommé Chris.Chris m’a dit que le rapport était essentiellement du remplissage.“Il y a beaucoup de mots, mais pas de valeur réelle dans ce qui est écrit”, a-t-il dit.Il ne mentionne pas des facteurs importants tels que la différence entre les chaussures pour hommes et pour femmes ou les types de tissus utilisés.Il se trompe sur les faits et classe les marques ayant une plus grande présence sur le web comme plus méritantes.Dans l’ensemble, selon Chris, l’information n’est pas fondée sur l’expertise, mais uniquement sur des suppositions.“Si on me posait la même question, je donnerais une réponse complètement différente”, affirme-t-il. "En suivant les conseils de l’IA, vous risquez fort de vous blesser les pieds sur le sentier.

      Il s’agit de la même plainte identifiée par les mods de Stack Overflow : la désinformation générée par l’IA est insidieuse parce qu’elle est souvent invisible. Elle est fluide mais ne repose pas sur l’expérience du monde réel, et il faut donc du temps et de l’expertise pour la démêler. Si les contenus générés par les machines supplantent les auteurs humains, il sera difficile, voire impossible, de dresser une carte complète des dégâts. Et oui, les gens sont aussi d’abondantes sources de désinformation, mais si les systèmes d’IA étouffent aussi les plateformes où l’expertise humaine prospère actuellement, il y aura moins d’occasions de remédier à nos erreurs collectives.

      Les effets de l’IA sur le web ne sont pas simples à résumer. Même dans les quelques exemples cités ci-dessus, de nombreux mécanismes différents sont en jeu. Dans certains cas, il semble que la menace perçue de l’IA soit utilisée pour justifier des changements souhaités pour d’autres raisons (comme avec Reddit), tandis que dans d’autres, l’IA est une arme dans une lutte entre les travailleurs qui créent la valeur d’un site et les personnes qui le gèrent (Stack Overflow).Il existe également d’autres domaines dans lesquels la capacité de l’IA à remplir des cases a des effets différents, qu’il s’agisse de réseaux sociaux expérimentant l’engagement de l’IA ou de sites d’achat où les produits générés par l’IA sont en concurrence avec d’autres marchandises.

      • @CamusOP
        link
        611 months ago

        Dans chaque cas, la capacité de l’IA à s’étendre - le simple fait de son abondance brute - modifie une plateforme. La plupart des sites les plus performants du web sont ceux qui exploitent l’échelle à leur avantage, soit en multipliant les connexions sociales ou le choix de produits, soit en triant l’énorme conglomération d’informations qui constitue l’internet lui-même.Mais cette échelle repose sur des masses d’humains pour créer la valeur sous-jacente, et les humains ne peuvent pas battre l’IA lorsqu’il s’agit de production de masse.(Même s’il y a beaucoup de travail humain en coulisses pour créer l’IA). Il existe un essai célèbre dans le domaine de l’apprentissage automatique, connu sous le nom de “The Bitter Lesson” (la leçon amère), qui indique que des décennies de recherche prouvent que la meilleure façon d’améliorer les systèmes d’IA n’est pas d’essayer de créer de l’intelligence, mais simplement d’injecter plus de puissance informatique et de données pour résoudre le problème.La leçon est amère parce qu’elle montre que l’échelle de la machine l’emporte sur la curation humaine.Et il pourrait en être de même pour le web.

        Cela doit-il être une mauvaise chose ? Si le web tel que nous le connaissons change face à l’abondance artificielle ?Certains diront que c’est tout simplement dans l’ordre des choses, notant que le web lui-même a tué ce qui l’a précédé, et souvent pour le meilleur.Les encyclopédies imprimées ont pratiquement disparu, par exemple, mais je préfère l’étendue et l’accessibilité de Wikipédia au poids et à l’assurance de l’Encyclopédie Britannica.Et malgré tous les problèmes liés à l’écriture générée par l’IA, il existe de nombreux moyens de l’améliorer, qu’il s’agisse de fonctions de citation améliorées ou d’une surveillance humaine accrue.De plus, même si le web est inondé de déchets d’IA, cela pourrait s’avérer bénéfique, en stimulant le développement de plateformes mieux financées.Si Google vous donne systématiquement des résultats erronés, par exemple, vous serez peut-être plus enclin à payer pour des sources auxquelles vous faites confiance et à les visiter directement.

        En réalité, les changements que l’IA provoque actuellement ne sont que les derniers d’une longue lutte dans l’histoire du web.Il s’agit essentiellement d’une bataille autour de l’information : qui la produit, comment y accéder et qui est payé.Mais ce n’est pas parce que le combat est familier qu’il n’a pas d’importance, et cela ne garantit pas non plus que le système qui suivra sera meilleur que celui que nous avons aujourd’hui.Le nouveau web s’efforce de naître, et les décisions que nous prenons aujourd’hui détermineront la manière dont il se développera.