Hello!

bon slrpnk.net a l’air d’être dans les choux alors je lance ce post avec mon compte de secours jlai.lu

Alors je lance cet AMA car ça fait un moment que je bouffe du machine learning à temps plein et pour suivre les news technique, je passe le plus clair de mon temps à lire de l’anglais. Et je trouve qu’en français, ben y a pas grand chose. C’est presque uniquement du discours dystopique mal informé.

Rien sur la recherche sur l’alignement, rien sur les modèles open source (condition sine qua non pour que ça se passe bien), rien sur les évolutions sociales positives que ça peut amener.

On parle juste de OpenAI, Google et Musk qui ne sont que quelques arbres malades d’une forêt bien plus grande.

Perso ça va faire 5 ans que je fais du deep learning professionnellement. J’ai travaillé pour Skymind, qui développait deeplearning4j. Ça vous dira rien, c’est un projet plus ou moins mort, mais c’était une tentative de faire un framework alternatif avant que tout le monde passe à pytorch. Puis je suis devenu principalement utilisateur des gros modèles entraînés par d’autres.

J’ai travaillé sur les modèles de vision au départ et maintenant presque exclusivement sur des modèles de langage. J’ai réussi à passer au 4/5e l’année dernière pour me consacrer aussi avec le fablab local à de la robotique open hardware (où bien sur j’utilise des modèles de deep learning pour la vision).

Ça fait plus de 20 ans que j’ai réalisé que l’IA a le potentiel de changer le monde pour le mieux, c’est pas par hasard que j’ai essayé de m’orienter le plus possible là dedans et ça me fait mal au cœur de voir tant de gens croire que notre seul but est d’aider Sam Altman à se faire quelques milliards de plus, qui ne voient pas les capacités de transformation de cette tech.

J’ai déjà donné quelques avis en anglais pour éviter le “doomism” dans des romans de SF (https://slrpnk.net/post/6100538) mais le faire dans ma langue natale ferait du bien!

Et, si, le titre est correct, ça me fait 6/5 de boulot, mais quand on aime on ne compte pas!

Voila, je préférerais qu’on reste sur ces thèmes mais AMA anyway!

    • keepthepace_@jlai.luOP
      link
      fedilink
      Français
      arrow-up
      11
      ·
      2 months ago

      Alors…

      1. Que ces modèles sont contrôlés par des grosses boites et que c’est inévitable. De tous les scénarios possibles, on est dans une des meilleurs timelines vis à vis de ça et je pense qu’on le doit beaucoup à la communauté open source: même quand les modèles sont fermés, les architectures sont connues, ouvertes, libres de droit, les implémentations standard le sont sur des frameworks libres, tout ça était très, très loin d’être acquis. Et les modèles ouverts sont extrêmement compétitifs aujourd’hui. C’est simple, malgré les milliards injectés dans le domaine, y a que deux boites et demi qui sont encore dans la course: OpenAI, Anthropic et à moitié Google.

      2. Qu’on a besoin de la puissance de mille soleils pour faire tourner ces modèles. Beaucoup de gens ont l’air de confondre l’énergie utilisée pour entraîner ces modèles, qui est à dépenser une fois, et l’énergie utilisée pour les faire tourner, qui est équivalente à faire tourner un bon jeu 3D sur un PC moyenne gamme (ça fait tourner le GPU). Et de nombreux fabricants sont en train de sortir des puces spécialisées pour améliorer grandement les rendements. L’aspect énergétique est vraiment négligeable.

      3. Ce point là est moins dommageable mais trouble souvent les conversations: Que ce qui était vrai l’année dernière l’est encore aujourd’hui. Chaque semaine amène son lot d’évolutions parfois fondamentales. Je bosse depuis 20 ans dans la tech, j’ai suivi pendant mes étude le dotcom burst et pourtant j’ai jamais vu une tech évoluer si vite.

  • inlandempire@jlai.luM
    link
    fedilink
    Français
    arrow-up
    8
    ·
    2 months ago

    Coucou merci pour l’AMA !

    Quelle est la réalité du problème d’AI imbreeding que certains relèvent ? Si j’ai bien compris il y a un risque que les modèles (de langage ou de génération d’image) apprennent sur du contenu généré par IA, ce qui entraînerait à des résultats de plus en plus mauvais ?

    Je suppose que ma question est plutôt quelles sont les mesures prises dans le milieu pour s’assurer une sélection de sources de qualité, ou bien quel est le processus qui permet de sélectionner les résultats pour d’entraîner l’IA ?

    Et en plus léger, qu’elle est la première fois que tu as entendu parler d’IA ?

    • keepthepace_@jlai.luOP
      link
      fedilink
      Français
      arrow-up
      7
      ·
      edit-2
      2 months ago

      Perso je ne crois pas que ce soit un problème, ou en tous cas pas encore. Les publis que j’ai vu sur le sujet semblent indiquer que les sorties de LLMs produisent des datasets de meilleure qualité que les datasets originaux. Et quand on y pense, ça a du sens: un modèle a été entraîné à produire des “bons” textes à partir d’un peu n’importe quoi. Il y a une certaine logique à ce qu’un premier LLM arrive à faire une version améliorée du premier dataset.

      Est ce qu’on peut itérer longtemps comme ça? Pas sur, mais je pense qu’on surestime le problème voire qu’on l’imagine.

      quelles sont les mesures prises dans le milieu pour s’assurer une sélection de sources de qualité, ou bien quel est le processus qui permet de sélectionner les résultats pour d’entraîner l’IA ?

      Pour ceux qui sont dans la course à la perf et au meilleur benchmark: zéro. Tant que mettre plus de données améliore les résultats, ils font ça. Tout github, tout reddit, tout facebook y passe.

      La recherche est en train de montrer que - surprise! - la qualité des données d’entraînement influe grandement sur la qualité du modèle et ça intéresse surtout les groupes avec moins de moyens.

      Les chercheurs qui travaillent sur les problèmes d’alignement (d’éthique) s’intéressent à ces questions aussi. Par exemple une discussion intéressante avait lieu à EleutherAI pendant qu’ils assemblaient The Pile: Est ce qu’il faut intégrer toute la librairie du Congrès US? D’un coté c’est intéressant d’avoir des siècles de discussion législative, de l’autre, sur une bonne partie de cette période, on considère que les noirs sont une marchandises et sur la majorité de la période, des citoyens de seconde zone.

      Ce qu’il y a d’intéressant c’est que des données pourries, biaisées, racistes, peuvent tout de même aider le modèle à s’améliorer, mais il faut que ce soit fait correctement et il y a là matière à des débats qui relèvent de la politique et de la philosophie appliquées (“Peut-on combattre le racisme en ignorant les thèses racistes?” Vous avez 4 heures)

    • keepthepace_@jlai.luOP
      link
      fedilink
      Français
      arrow-up
      4
      ·
      2 months ago

      Et en plus léger, qu’elle est la première fois que tu as entendu parler d’IA ?

      Oh ça date! Je lis de la SF depuis que je suis petit, et les robots m’ont toujours fasciné, on m’a rapidement expliqué que le software était le plus gros facteur limitant, du coup l’IA devient le problème à résoudre rapidement. Je pense pas avoir eu plus de 12 ans quand on a commencé à en discuter.

  • Ziggurat@sh.itjust.works
    link
    fedilink
    Français
    arrow-up
    7
    ·
    2 months ago

    C’est quoi pour toi le moment de Bascule ?

    Quand j’étais thésard en physique, et ça commence à dater, on avait ce vieux professeur, qui aimait troller les gens qui utilisaient des likelihood en leurs demandant pourquoi pas un réseau de neurone, c’est dire que pas mal de concept ne sont pas neufs. Bref de l’apprentissage automatique que ce soit pour taggé des particules ou des supernova ça se faisait déjà de mon temps.

    Puis, google deep dream avec déjà fait pas mal le buzz avec de la génération d’image il y a genre 10 ans, et pourtant, ça avait pas pris.

    Et là depuis 18 mois, on voit de l’AI partout, à toute les sauces, pour le meilleur et le pire. Qu’est-ce qui a crée cette bascule/rupture

    • keepthepace_@jlai.luOP
      link
      fedilink
      Français
      arrow-up
      9
      ·
      2 months ago

      Oh oui, les réseaux de neurone ça date au moins des années 50 et certains outils mathématiques sont encore plus anciens! Dans les années 90-2000 on traversait le deuxième hiver de l’IA (tiens donc encore une page qui n’a pas été traduite en français!) et seuls quelques fervents zélotes tels que Hinton ou Le Cun prêchaient encore le perceptron multi-couches qui est un vieil algo! C’est plus leur “foi” que leurs innovations qui ont amené la vague actuelle.

      Il y a un point de bascule très net en 2012 quand AlexNet emporte la compétition ImageNet, une compétition de classification d’images (“Identifie l’objet dans l’image parmi 1000 catégories: banane, chien, humain, voiture, etc…”). L’architecture n’était pas nouvelle, mais de petites améliorations ont été amenées et surtout, elle a été porté en CUDA et peut donc tourner très vite sur des GPUs récents.

      D’un coté les algos sont devenus un peu plus efficaces, de l’autre le hardware est devenu plus performant. En 2012 ça s’est croisé et il est devenu plus efficace d’entraîner des réseaux “boite noire” que des algos spécialisés.

      Alors c’est peut être plus tôt que tu ne le penses, mais c’est la bascule du point de vue des devs, et à partir de ce moment là on a commencé à mettre du réseau de neurones partout.

      Pour le grand public, la découverte a été via la génération de texte. Il y a 2 points je pense: d’abord GPT-2, premier à sortir des textes étonnamment cohérents. Puis ChatGPT, qui a permis à tout le monde de réaliser que c’était réel, utile, et que certaines composantes de l’intelligence étaient là.

      Puis, google deep dream avec déjà fait pas mal le buzz avec de la génération d’image il y a genre 10 ans, et pourtant, ça avait pas pris.

      Deep dream a été une étape vers les générateurs d’image qu’on a aujourd’hui. Deep dream aujourd’hui ressemble presque à un hack d’un classifieur d’images, mais ça n’a pas pris parce que la qualité était très mauvaise. Elle a doucement augmenté petit à petit. Il y a eu deux sauts:

      • Les premiers GANs qui ont tout d’un coup produit des images d’un réalisme bluffant (qui aujourd’hui nous blase…)
      • Les modèles de diffusion, qui sont ce que tout le monde utilise aujourd’hui. Je crois, mais c’est moins mon domaine, que leur intérêt est de pouvoir se connecter à des modèles de langage et de pouvoir exprimer/comprendre un panel beaucoup plus large d’objets.
      • Ziggurat@sh.itjust.works
        link
        fedilink
        Français
        arrow-up
        4
        ·
        2 months ago

        Intéressant le point historique sur la période 2000-2012. Et ca explique même pourquoi c’était un quasi sexagénaire qui posait la question des Réseau de neurones

  • Snoopy@mastodon.zaclys.com
    link
    fedilink
    arrow-up
    7
    ·
    edit-2
    2 months ago

    Salut le fédiverse,

    @keepthepace_ fait un Demande-moi n’importe quoi sur le @forumlibre

    Le thème : les modèles de language et la robotique open hardware. Si ça vous intéresse de découvrir une autre facette que Skynet et la machine à billet,

    je vous invite à lire ce poste où il parle de son parcours :
    https://jlai.lu/post/6554057

    Puis de poser vos questions. Bonne lecture !

    Hésitez pas à partager :3

    #IA #LLM #Skymind #deeplearning #deeplearning4j #Pytorch #Robotique #OpenHardware #Fablab #DMNQ

  • joneskind@lemmy.world
    link
    fedilink
    Français
    arrow-up
    7
    ·
    2 months ago

    Je suis développeur et je dois admettre que ces LLM sont fascinants (je refuse d’employer le terme IA, au même titre que je déteste les voix humaines de nos assistants vocaux)

    J’utilise quotidiennement et en local Phind-CodeLlama-34B, Mistral et CodeQwen et ça me fait gagner un temps fou pour pas mal de tâches répétitives, mais sans tomber dans le catastrophisme j’ai du mal à envisager une issue entièrement positive à ce qui est en train de se passer.

    Un des points de friction majeur, c’est que j’observe déjà chez mes copains artistes les effets dévastateurs des IA génératives, y compris chez ceux qui les utilisent. Des graphistes, animateurs, musiciens qui se retrouvent dépossédés de leur créativité qui se retrouvent à corriger ou reproduire des images promptées. Des traducteurs qui se retrouvent au chômage, des profs de langues en crise existentielle. Et des profs qui se retrouvent à faire la chasse aux tricheries, quand ils ne doivent pas débattre pour prouver que ChatGPT raconte parfois n’importe quoi, devant des gamins sans sens critique.

    Les LLM représentent aussi la fin des spécialistes. Dans ma boite on me demande déjà de rédiger de la documentation en plus de mon dev, sur des sujets auxquels je ne connais rien, parce que le mec qui sait est en vacances, ou qu’il a pas le temps. “Demande à ChatGPT” c’est la nouvelle réponse à tout.

    Dans quelques années, le mec qui devait rédiger ma documentation aura peut-être été licencié, ou alors il demandera à ChatGPT de développer sa feature parce que c’est moi qui serai en vacances.

    Alors c’est vrai que c’est pas la première fois qu’un outil transforme la société et met une profession entière au chômage. La bagnole a tué les marchands de chevaux, la photographie a tué les portraitistes, Wikipedia a tué les vendeurs d’encyclopédie… rien de nouveau sous le Soleil…

    Mais l’idée que les machines fassent de l’art pendant que les humains se crèvent le cul sur une chaîne d’assemblage, je dois bien admettre que ça ne me réjouit pas du tout. Notre société ne met jamais l’Humain en premier. Le plus important c’est le profit. Partant de là on sait déjà dans quelle direction on va aller.

    • keepthepace_@jlai.luOP
      link
      fedilink
      Français
      arrow-up
      3
      ·
      2 months ago

      Mais l’idée que les machines fassent de l’art pendant que les humains se crèvent le cul sur une chaîne d’assemblage, je dois bien admettre que ça ne me réjouit pas du tout.

      Je te rassure, les métiers manuels ne sont pas épargnés. Je pense que les prochains mois vont voir le grand public réaliser les avancées que l’IA a fait faire en robotique ces deux dernières années. On peut désormais “programmer” un bras à faire une tâche demandant une motricité fine avec juste 15 minutes de démo humaine. Et c’est des bras bon marché. Y a une raison pour laquelle la plupart des boites d’IA investissent dans la robotique en ce moment. OpenAI a montré une démo d’un humanoïde qui analyse son environnement et comprend des ordres parlés.

      Y a une différence entre automatiser 10% des boulots et en automatiser 100%. C’est que dans ce dernier cas, le contrat social actuel saute: plus besoin de gagner sa part du gateau avec du labeur humain. Ça, c’est une redéfinition fondamental de la société, et c’est ça qu’espèrent voir la plupart des chercheurs en IA que je connais.

      Notre société ne met jamais l’Humain en premier.

      Nous sommes notre société. La société est une chose qu’on construit, pas juste une chose qui descend du ciel et qu’on subit.

      • joneskind@lemmy.world
        link
        fedilink
        Français
        arrow-up
        6
        arrow-down
        1
        ·
        2 months ago

        Nous sommes notre société. La société est une chose qu’on construit, pas juste une chose qui descend du ciel et qu’on subit.

        Je suis un gaucho de 45 ans, aussi exaspéré par le discours récurrent du “tous pourris, voter ça sert à rien” que celui du “on peut rien faire tout seul”. Donc tu comprendras que c’est pas moi qui vais te contredire.

        Maintenant permets-moi d’être un peu pessimiste, parce que quand je parle de notre Société je ne parle pas d’une élite cachée qui ferait les règles dans notre dos, je parle des gens qui la font, de l’épicier à l’instituteur, qui se sont persuadés que “marche ou crève” c’est une devise normale pour une Société qui fonctionne.

        On va vers un monde sans travail. Comment tu crois que ça va se passer avec cette génération biberonnée de néolibéralisme ?

        • keepthepace_@jlai.luOP
          link
          fedilink
          Français
          arrow-up
          2
          ·
          2 months ago

          On va vers un monde sans travail. Comment tu crois que ça va se passer avec cette génération biberonnée de néolibéralisme ?

          Mieux que ce qu’on imagine. Ils la veulent aussi, mais ils ne croient pas que ce soit possible. La retraite à 20 ans c’est un programme extrêmement facile à vendre.

          • best_username_ever@sh.itjust.works
            link
            fedilink
            Français
            arrow-up
            1
            ·
            2 months ago

            La retraite à 20 ans c’est un programme extrêmement facile à vendre

            Qu’est-ce qui empêchera notre société de finir comme dans le film Idiocracy ? Parce que j’ai du mal à voir ce qui pourrait changer tout ça.

            • keepthepace_@jlai.luOP
              link
              fedilink
              Français
              arrow-up
              5
              ·
              2 months ago

              Je pense que c’est le travail qui abrutit. Je repense souvent à cette discussion reddit où un camionneur s’était rendu compte pendant le confinement qu’il n’était pas con, juste épuisé par son taff et qu’il s’est mis à dévorer de la littérature.

              Quand je suis passé au 4/5e pour pouvoir consacrer du temps à ce que j’aime je me suis retrouvé à faire beaucoup plus de choses utiles et à être rapidement surbooké.

              Les gens qui craignent l’oisiveté en cas de fin du labeur ne comprennent pas comment la créativité fonctionne.

              On aura sûrement des gens oisifs contents de leur médiocrité mais je pense que dans un monde où tout le monde a le temps d’aider à l’éducation des enfants de leur famille, c’est le contraire d’idiocracy qui arriverait.

      • joneskind@lemmy.world
        link
        fedilink
        Français
        arrow-up
        1
        ·
        2 months ago

        Oui bien sûr.

        J’utilise ces modèles pour générer du code, commenter du code déjà existant, discuter des différents projets qu’on me confie pour voir si le modèle n’a pas une approche intéressante à proposer, et générer des prompts de code à partir de mes prompts en langage naturel (ça permet de consolider certains points précis de ma demande)

        J’utilise Ollama pour charger mes modèles (Ollama peut charger/décharger des modèles à la volée) et l’extension VSCode Continue.dev pour générer le code et chatter avec le modèle. L’extension existe aussi pour les outils JetBrains, mais peut-être un peu plus limitée.

        J’utilise un MacBook Pro M2 Max 32Go (30 cores GPU) et j’obtiens 12 t/s avec mon plus gros modèle (Q4 par défaut chez Ollama)

  • keepthepace@slrpnk.net
    link
    fedilink
    Français
    arrow-up
    7
    ·
    2 months ago

    Et forcément dés que je lance ça avec mon compte de secours, slrpnk.net remarche! Bon, je continue avec mon compte jlai.lu mais si vous passez sur ce fil après la fin du AMA mieux vaut me pinger en répondant à ce message.

    • inlandempire@jlai.luM
      link
      fedilink
      Français
      arrow-up
      7
      ·
      edit-2
      2 months ago

      C’est comme quand un programme bugge et qu’il remarche dès que t’ouvres le gestionnaire de tâches pour le tuer 😏

  • best_username_ever@sh.itjust.works
    link
    fedilink
    Français
    arrow-up
    6
    ·
    2 months ago

    Qu’est-ce qui peut changer le monde avec l’IA ?

    Je ne peux pas m’empêcher de faire le parallèle avec l’informatique qui, bien qu’ayant changé le monde d’une certaine façon, nous fait travailler plus pour gagner moins (et je dis ça en tant que dev…)

    • keepthepace_@jlai.luOP
      link
      fedilink
      Français
      arrow-up
      3
      arrow-down
      1
      ·
      2 months ago

      L’IA a le potentiel de remplacer TOUS les boulots. 100%. Robotique + IA veut dire que nous pouvons repenser la société autrement qu’autour de l’organisation de la production via le labeur humain. La fin du travail humain, je trouve que c’est un gros changement.

      Et c’est probablement pas le plus gros que cette explosion d’intelligence va nous amener. Au niveau de la recherche, de la démocratie et de la culture, ça va avoir des implications très profondes.

      • best_username_ever@sh.itjust.works
        link
        fedilink
        Français
        arrow-up
        6
        ·
        2 months ago

        Comme l’ère industrielle nous promettait qu’il n’y aurais plus de travail manuel, l’informatique plus de travail intellectuel, et qu’avec internet on serait tous intelligents et curieux.

        Qu’est-ce qui est vraiment différent avec une IA qui sera contrôlée par des entreprises ou gouvernement, et des milliardaires qui refuseront de donner tout leur argent ?

        • keepthepace_@jlai.luOP
          link
          fedilink
          Français
          arrow-up
          2
          arrow-down
          1
          ·
          2 months ago

          Le travail physique, où la force est un pré-requis, a effectivement disparu. La raison pour laquelle beaucoup de travail manuel existe encore alors qu’on a des machines plus rapides, plus fiables et plus précise que des humains est l’insuffisance du software. Cette insuffisance est en train de disparaître.

          avec internet on serait tous intelligents et curieux.

          Avec internet on a tous à disposition un savoir encyclopédique. J’ai jamais vu de promesse sur la curiosité, mais on a en effet, de fait, accès à une quantité d’information phénoménale grâce à cet outil.

          une IA qui sera contrôlée par des entreprises ou gouvernement

          Et c’est cette vision que je voudrais combattre le plus. Les gouvernements, déjà, ils sont à la ramasse, aucun n’a un programme d’IA compétent. Les entreprises, elles ont du mal à rester au niveau des modèles ouverts, libres, que chacun peut faire tourner comme il veut.

          Personne ne veut qu’une entreprise ait un monopole sur cette tech, pas même les autres entreprises de high-tech, c’est pour ça qu’elles collaborent à des projets open source et à des modèles ouverts. C’est pour ça que plein de chercheurs quand ils se font recruter par les grands groupes insistent pour pouvoir continuer à publier.

          On peut faire tourner un LLM décent sur un PC avec une bonne carte graphique. Tu as raison de ne pas vouloir d’un futur où ce sont des entreprises riches qui controlent cette tech, mais on a de la chance d’avoir évité cette timeline.

          Tu peux maintenant utiliser cette tech, soit localement sur une bonne machine, soit en louant des serveurs, soit en utilisant la charité générale de la Horde IA faire tourner les modèles que tu veux sur les tâches que tu veux sans demander leur permission à personne.

          • best_username_ever@sh.itjust.works
            link
            fedilink
            Français
            arrow-up
            7
            ·
            2 months ago

            Le travail physique, où la force est un pré-requis, a effectivement disparu

            Les ouvriers qui se détruisent le dos s’en souviendront. C’est possible mais si le patron n’achète pas de machine, ça reste un pré-requis.

            l’insuffisance du software

            Curieux de savoir ce qui te semble manquer parce que tu en parles beaucoup.

            J’ai jamais vu de promesse sur la curiosité

            On a eu plein de propagande sur la révolution d’internet pendant au moins 10 ans. Ça n’est jamais arrivé car approprié par les grandes entreprises.

            on a de la chance d’avoir évité cette timeline

            L’IA moderne façon ChatGPT vient a peine de se dévoiler il y a un an ou deux, la plupart des gens savent à peine que ça existe. Je pense que, comme internet, il faudra attendre une bonne dizaine d’années avant de voir comment les entreprises vont se l’approprier.

            Finalement, pour que l’IA soit utile et ne nous rende pas tous chômeurs, il faudrait qu’on vote en masse pour un président communiste technophile, et je doute que ça arrive.

            • keepthepace_@jlai.luOP
              link
              fedilink
              Français
              arrow-up
              3
              ·
              2 months ago

              Ce que je veux dire par travail physique c’est un travail où ce qu’on embauche, c’est la force, où ta capacité à porter 80 kilos au lieu de 50 te rend 60% plus précieux. Il y a peu de boulots où la pure force physique est demandée.

              Et tu le dis toi même: le patron peut acheter la machine. Des machines pour forcer à notre place, on en a partout.

              l’insuffisance du software

              Curieux de savoir ce qui te semble manquer parce que tu en parles beaucoup.

              Maintenant? Plus rien. Mais ça ne fait que un an ou deux que le contrôle de bipèdes ou même de quadrupèdes dans un environnement inconnu est possible et que des robots savent utiliser intelligemment leurs membres.

              On a eu plein de propagande sur la révolution d’internet pendant au moins 10 ans. Ça n’est jamais arrivé car approprié par les grandes entreprises.

              Wikipedia, le projet le plus important d’internet, n’est pas possédé par une entreprise. Je partage ton cynisme sur certaines choses, mais l’amélioration de la communication à tous les niveaux que promettait internet est effectivement venue. J’ai payé 10 francs/minutes pour des appels internationaux, maintenant je discute de tout et de rien avec des amis au Japon ou au Québec sans dépenser un sou. Ça a donné une force au mouvement open source d’ailleurs. Et je travaille maintenant avec des Américains, Grecs et Canadiens à distance, sans bouger de chez moi. Vous imaginez pas à quel point c’était de la SF juste même y a 15 ans quand j’ai commencé.

              Tout ce que les entreprises “se sont approprié” c’est par pure paresse et commodité qu’on les laisse faire. De Peer Tube à NextCloud, de Matrix à Lemmy, on peut faire sans avec une aisance que tous les écrivains de cyperpunk pensaient complètement utopiste.

              Je pense que, comme internet, il faudra attendre une bonne dizaine d’années avant de voir comment les entreprises vont se l’approprier.

              Ce qui m’intéresse surtout c’est comment nous, on va se l’approprier. Les outils sont là, gratuits, avec une communauté super active pour les améliorer et les utiliser. Le seul obstacle à cette appropriation de l’outil ce n’est pas la rapacité, la corruption, le lobbyisme, mais bien le peu d’information et l’ignorance de ces solutions, ça c’est facile à combattre, mais surtout le défaitisme et la croyance que non, vraiment, l’open-source c’est trop beau pour être vrai, ça ne droit pas être possible, et ce préjugé là, il est dur à combattre.

              Finalement, pour que l’IA soit utile et ne nous rende pas tous chômeurs, il faudrait qu’on vote en masse pour un président communiste technophile, et je doute que ça arrive.

              Ah oui, un·e anarcho-communiste technophile aurait mon vote tout de suite. Mais la gauche molle peut faire l’affaire: Hamon avait le revenu universel dans son programme, un candidat démocrate aux US aussi. Et si le revenu universel est difficile à vendre, l’abaissement de l’âge de la retraite est une façon de se rapprocher simplement de ce but.

  • ouille@jlai.lu
    link
    fedilink
    Français
    arrow-up
    5
    ·
    edit-2
    2 months ago

    Bonjour et merci pour cet AMA Voici quelques questions que je me pose.

    Y a t il un intérêt à continuer l’apprentissage d’un modèle Mistral 7b par exemple ? Si oui est ce que c’est faisable en local sur une machine qui fait tourner le RN si on parle “d’ajouter” un petit corpus de spécialisation par exemple.

    Quel est l’intérêt pour Mistral de donner son modèle ? D’ailleurs Il me semble qu’ils ont arrêté. Llama est libre aussi. Quel retour de la communauté attendent- ils ?

    Il semblerait que chatgpt soit devenu bon aux échecs. J’ai donc entendu parler de sondes qui semblent montrer que le RN c’est fait une représentation de l’échiquier. Qu’est ce que ces sondes et comment sont elles construites ?

    Concernant les prompts qu’elle serait ton explication au fait que de générer des tokens aléatoire en début de réponse amélioré le résultat ? Dans la même idée pourquoi quand on demande de répéter à l’infini le RN retourne une partie du corpus ?

    Enfin est il facile de retourner un RN ? C’est à dire de donner une réponse et avoir le prompt correspondant ?

    Et merci d’avance !

    • keepthepace_@jlai.luOP
      link
      fedilink
      Français
      arrow-up
      7
      ·
      edit-2
      2 months ago

      Y a t il un intérêt à continuer l’apprentissage d’un modèle Mistral 7b par exemple ?

      Alors il y a plusieurs façons de comprendre cette question, et oui à toutes ses acceptations.

      1. Si tu parle de continuer l’entraînement total du modèle: oui, on sait que la plupart (tous?) les modèles disponibles sont sous-entraînés. Il y a un point où on ne gagne qu’un petit peu en continuant d’entraîner longtemps mais le gain continue à être positif, donc oui. Par contre ça prend beaucoup plus de VRAM que de faire tourner une version du modèle en inférence. Je ne sais plus quel est le multiplicateur mais c’était 16 ou 24x je ne sais plus par rapport à un modèle quantizé.

      2. Si tu parles de le spécialiser, tu veux peut être parler de fine-tuning. Dans ce cas là, c’est tout à fait possible sur une machine même modeste grâce à des optimisations de type LORA (et on a peut être inventé d’autres moyens d’accélérer ça depuis?) qui te permettent de n’entraîner que de petite touches du modèle. Par contre là, attention! J’ai essayé de faire ça en espérant apprendre de nouveaux faits à un modèle, et ça n’a pas marché. Le fine-tuning permet de facilement changer le “style” de sorte d’un domaine. Par exemple si tu veux lui donner une certaine personnalité, lui faire apprendre une autre langue ou lui faire utiliser une API particulière. Par contre ça marche assez mal pour les nouveaux fait et risque d’augmenter ses hallucinations (car tu lui apprends à répondre des choses non présentes dans ses “couches profondes” de connaissances. C’était à l’époque de Llama2, ça a peut être changé depuis je n’ai pas réessayé, mais il y a une raison pour laquelle les gens qui veulent faire apprendre de nouvelles connaissances à un système préfèrent le RAG.

      Quel est l’intérêt pour Mistral de donner son modèle ? D’ailleurs Il me semble qu’ils ont arrêté.

      Dés le début Mistral a joué franc jeu, il faut le leur reconnaître: ils avait prévenu que leurs plus gros modèles seraient fermés. Ils ont donné des modèles très bons, petits en libre pour se faire connaître et ça a marché et valu le coup. Une réputation comme la leur vaut des milliards, ça leur a coûté des millions. C’est une bonne affaire.

      Llama est libre aussi. Quel retour de la communauté attendent- ils ?

      Llama, pour ceux qui ne le savent pas, c’est Meta, donc Facebook derrière. C’est pas de l’angélisme (à part pour Yann Le Cun, leur directeur IA semble vraiment idéologiquement pour l’IA open source, un gros <3 pour lui) et Zuckerberg le disait clairement, posément, cyniquement: “notre gros modèle a coûté ~10 milliards à entraîner [je pense que c’est exagéré mais c’était cher quand même]. dans les 10 prochaines années on va dépenser autour de 100 milliards en IA. Si la communauté open source rend nos modèles 10% plus performants, on s’y retrouve”. C’est imparable. Eux sont utilisateurs, pas vendeurs, et ils préfèrent des bons modèles qui tournent chez eux que de dépendre du bon vouloir d’OpenAI. Et la communauté a déjà probablement fait plus qu’améliorer de 10% leurs perfs donc bon calcul pour Zuck.

      Il semblerait que chatgpt soit devenu bon aux échecs. J’ai donc entendu parler de sondes qui semblent montrer que le RN c’est fait une représentation de l’échiquier. Qu’est ce que ces sondes et comment sont elles construites ?

      Les modèles spécialisés enfoncent ChatGPT aux échecs (pour donner une idée, le Elo d’un débutant aux échecs est de 1000, le champion humain actuel, Magnus Carlsen est à 2800, le meilleur soft est à 3600).

      Mais oui, c’est intéressant parce que ChatGPT a des capacités émergentes en la matière. Ces sondes sont faites par des gens qui ont accès au modèle pendant qu’il tourne et viennent regarder les “neurones” activés dans les différentes couches du modèle. Je ne sais pas comment ils ont fait dans le cas présent mais une façon de faire pourrait être de poser un problème d’échec et de demander à ChatGPT de compéter “la case C2 contient” puis “la case C3 contient”, etc. et regarder quels zones sont activées. Il y a probablement une couche d’attention où “l’état mental” de l’échiquier est contenu.

      Sur ChatGPT, seul OpenAI est capable de faire ça, mais sur des modèles ouverts, toute personne faisant tourner le modèle peut faire une manip du même genre. Ces réseaux ne sont pas totalement des boites noires: on peut aller bidouiller à l’intérieur. On parle de boite noire parce qu’il n’est pas nécessaire de le faire, mais on peut les ouvrir, on a la clef, quand ils ne sont pas propriétaire.

      Enfin est il facile de retourner un RN ? C’est à dire de donner une réponse et avoir le prompt correspondant ?

      Oui! Il s’agit de faire une passe d’apprentissage où on fixe les paramètres du modèle et on “apprend” le prompt. Je ne l’ai jamais fait, la théorie est assez simple, je ne sais pas si c’est difficile en pratique, mais des gens qui explorent la sécurité des modèles utilisent ça. Ils vont par exemple trouver qu’une séquence du genre “%!!%(#@*…{{{32!(D le président de la France est” va faire bugger le modèle et lui faire sortir “Michaël Youn”.

      • flyos@jlai.lu
        link
        fedilink
        Français
        arrow-up
        2
        ·
        2 months ago

        Sur les échecs, apparemment le secret c’était surtout de lui faire compléter un fichier descriptif d’une partie d’échec (y a un espèce de standard j’ai perdu le nom).

        Mr Phi avait fait une vidéo intéressante là-dessus.

        • keepthepace_@jlai.luOP
          link
          fedilink
          Français
          arrow-up
          2
          ·
          2 months ago

          Ça a du sens mais comme ça ma première impression c’est que c’est une mauvaise idée de forcer à générer tout l’échiquier en une prompt. Arrivé à la dernière ligne, tu ne sais pas s’il avait en tête toutes les cases ou s’il se base sur ce qui a été généré pour déduire le reste.

          • flyos@jlai.lu
            link
            fedilink
            Français
            arrow-up
            3
            ·
            2 months ago

            Tu peux lui faire coup par coup, c’est juste que tu le mets mieux en condition avant un prompt d’en-tête de ce type de fichier qu’avec un prompt verbeux type “tu es un grand champion d’échec, on joue une partie, je commence: pion en B2”. C’est ce que j’en ai compris du moins.

            Si tu as pas vu la vidéo de Mr Phi, elle peut t’intéresser, elle est vraiment pas mal. Il parle notamment de ton dernier point avec des expériences qui ont été faites en générant un début de partie au hasard.

            Après, c’est sûr qu’un LLM, c’est pas Deep Blue…

  • CommationCerebrole@jlai.lu
    link
    fedilink
    Français
    arrow-up
    5
    ·
    2 months ago

    J’ai déjà donné quelques avis en anglais pour éviter le “doomism” dans des romans de SF

    T’en écris toi même ? Je suis curieux de ce que peuvent donner les LLM en littérature mais j’ai l’impression qu’il faut des prompts bien pensés et écrits pour avoir de bons résultats. Moi en jouant un petit peu j’ai pas eu des trucs très convaincants mais je suis passé sur un stream de MonsieurPhi où il donnait des prompts très longues avec des exemples de texte pour générer des microfictions et ça marchait plutôt bien. Bref, qu’est ce que tu penses des LLMs pour une utilisation “artistique”, et est-ce que t’as des exemples de résultats qui t’ont impressionné dans ce domaine ?

    • keepthepace_@jlai.luOP
      link
      fedilink
      Français
      arrow-up
      4
      ·
      2 months ago

      Je m’y suis essayé. J’aime bien écrire, mais assez rapidement, écrire de la SF me frustre: penser aux possibilités de la techno me donne envie de les réaliser, pas de fantasmer dessus!

      Sur les LLMs et la littérature, j’ai été surpris d’entendre Astier dire un truc qui a mis le doigt sur ce qui me gêne. C’est que la question est pas de savoir si les LLMs peuvent sortir de la bonne littérature, mais de réaliser qu’on lit pour échanger avec un auteur. Alors c’est peut être pas vrai pour tous les lecteurs et tous les livres, mais percevoir l’intention humaine derrière un texte fait en effet partie de l’expérience.

      Le problème que j’ai eu quand j’ai essayé des trucs (avec GPT3.5 je pense à l’époque) c’est que les modèles ont du mal à rester cohérents. Tu explores une cave et tu te retrouves sur un balcon, des objets apparaissent ou disparaissent, etc.

      C’est pas insurmontable, et perso j’aimerais bien faire des expériences de jeu narratif (où un moteur de jeu classique garantirait la permanence des objets et la cohérence générale) mais je ne vois pas l’intérêt de générer des livres avec des LLMs. Les livres, c’est un medium entre humains. Avec un LLM, je trouve plus intéressant de faire un bot pour discuter avec un personnage ou interagir profondément avec un univers.

      est-ce que t’as des exemples de résultats qui t’ont impressionné dans ce domaine ?

      J’ai un pote qui bosse dans le domaine et avec qui on partage un gout pour le heavy metal. À peu près au moment où GPT-3 sortait, il m’a envoyé des paroles de chanson générées, dont une en particulier qui m’a bluffée. “Beacon of the Valkyries”, qui décrit l’ambiance d’un lieu avant une grande bataille épique. Un thème qui aurait pu être une chanson de Manowar ou Sabaton. Ce qui m’a impressionné c’est que le titre était très bien choisi: il faut comprendre que les Valkyries accompagnent les morts au combat, qu’une bataille va en créer, qu’elles volent, qu’une balise peut donc les guider, que le titre est évocateur.

      Depuis beaucoup de gens ont fait des expériences similaires mais à l’époque j’ai cherché un moment sur internet pour vérifier si cette expression n’existait pas déjà quelque part tellement je ne pouvais y croire. Ça m’a convaincu que même une “bête” prédiction de texte pouvait faire émerger une forme de compréhension des concepts.

      • CommationCerebrole@jlai.lu
        link
        fedilink
        Français
        arrow-up
        2
        ·
        2 months ago

        Sur les LLMs et la littérature, j’ai été surpris d’entendre Astier dire un truc qui a mis le doigt sur ce qui me gêne. C’est que la question est pas de savoir si les LLMs peuvent sortir de la bonne littérature, mais de réaliser qu’on lit pour échanger avec un auteur. Alors c’est peut être pas vrai pour tous les lecteurs et tous les livres, mais percevoir l’intention humaine derrière un texte fait en effet partie de l’expérience

        Ouais j’ai vu passé cet extrait aussi, mais je suis pas convaincu par l’argument. Ou alors j’ai du mal à comprendre ce qu’il entend par “intention humaine”, et pourquoi une machine en serait incapable. Certains parlent d’âme aussi, mais sans pouvoir le définir clairement, comme si il y avait quelque chose de magique que seul l’être humain peut transmettre à ses créations. J’ai l’impression que c’est un argument qu’on avance parce que l’orgueil en prendrait un trop gros coup si on admettait le contraire, mais depuis la révolution scientifique ce serait pas la première leçon d’humilité qu’on se prendrait dans la face. Et puis de toute façon dans le cas des LLMs il y a toujours un être humain derrière, et donc probablement une “intention”.

        Avec un LLM, je trouve plus intéressant de faire un bot pour discuter avec un personnage ou interagir profondément avec un univers.

        Tout à fait ! (d’ailleurs pour moi ça fait aussi partie de la littérature). Une fiction interactive avec un LLM ce serait ouf. Est ce que tu connais des articles/blogs/communautés qui font des tentatives dans ce sens ou est ce que tu t’y essayes toi même ?

        • keepthepace_@jlai.luOP
          link
          fedilink
          Français
          arrow-up
          4
          ·
          2 months ago

          Alors attention, l’argument c’est pas qu’une machine ne peut pas le faire! Je m’attendais de façon un peu blasée à ça quand la question est arrivée et j’ai été surpris par la réponse. Il dit pas qu’une machine ne peut pas le faire, mais que c’est inintéressant si elle le fait, car il lui manque l’intention, le vécu. Quand j’ai lu le Problème à Trois Corps, que j’ai pas trouvé fantastique d’un point vue SF, les passages qui m’ont le plus intéressé étaient ceux qui parlaient des déboires des protagonistes sous Mao, sachant que l’auteur est chinois. Les mêmes passages écrits par un Américain m’auraient moins intéressé. Savoir que La Vie des Autres a été réalisé par quelqu’un qui n’a jamais habité à Berlin Est a rendu le film plus mauvais pour moi.

          Un auteur pourrait faire passer une intentionnalité évocatrice ou un style via un LLM, mais je trouve qu’à ce moment le medium est moins intéressant et que ça brouille le canal entre le lecteur et l’auteur.

          Tout à fait ! (d’ailleurs pour moi ça fait aussi partie de la littérature). Une fiction interactive avec un LLM ce serait ouf. Est ce que tu connais des articles/blogs/communautés qui font des tentatives dans ce sens ou est ce que tu t’y essayes toi même ?

          Ça fait longtemps que ça se fait! Depuis que quelqu’un a fine-tune je sais plus quel modèle sur Harry Potter et fait générer la suite d’un dialogue imaginaire avec les persos, il y a énormément de gens qui s’amusent à ça (80% d’entre eux pour du roleplay érotique mais bon…). Je crois que koboldAI est ce qu’ils utilisent le plus et ils ont des modèles spécialisés pour ça.

  • Camus [il/lui]@lemmy.blahaj.zone
    link
    fedilink
    Français
    arrow-up
    5
    ·
    2 months ago

    Quelles sont pour toi les meilleurs ressources pour quelqu’un qui n’y connait rien en LLM et voudrait commencer à comprendre comment ça fonctionne?

    • keepthepace_@jlai.luOP
      link
      fedilink
      Français
      arrow-up
      6
      ·
      2 months ago

      En Français j’ai pas grand chose hélas! Mais certains ici auront surement des idées.

      En anglais, pour la théorie, le channel youtube (bleh!) 3blue1brown a fait une série qui a l’air bien sur le deep learning. Commencez par “But what is a neural network?”.

      Pour la pratique, j’avais suivi la première série de cours fastai (des vidéos gratuites) pour me remettre à niveau il y a quelques années quand je suis arrivé à Skymind. Je n’ai pas regardé leurs séries récentes mais je suppose qu’ils ont mis leur contenu à jour. C’était le mix parfait pour moi qui connaissait la théorie mais pas les frameworks rendant la chose plus aisée.

  • pseudo@jlai.lu
    link
    fedilink
    Français
    arrow-up
    4
    ·
    2 months ago

    Où les perspectives d’avenir sont-elles les plus grandes : dans le développement de nouveaux concepts ? dans l’entraînement de nouveaux modèles ? dans la mise en place de solution à partir des modèles existants ?

    • keepthepace_@jlai.luOP
      link
      fedilink
      Français
      arrow-up
      4
      ·
      2 months ago

      Oui :-)

      Et j’ajouterais: dans l’IA appliquée à la robotique.

      Mais si tu développes des compétences dans un de ces domaines, je pense que tu seras employable jusqu’à ce que plus personne ne le soit (ce qui, j’espère, arrivera dans les 10 prochaines années)

  • Camus [il/lui]@lemmy.blahaj.zone
    link
    fedilink
    Français
    arrow-up
    4
    ·
    2 months ago

    Tu parles des modèles open source, quels sont les plus importants pour le moment? Y a-t-il une grande tendance à gérer ces modèles sous licences open source / libres, ou à l’inverse les modèles les plus performants sont-ils la propriété de société privées?

    • keepthepace_@jlai.luOP
      link
      fedilink
      Français
      arrow-up
      8
      ·
      edit-2
      2 months ago

      Pour l’instant GPT-4, modèle fermé possédé par OpenAI est considéré comme le meilleur modèle avec la série Claude d’Anthropic (fermés aussi) qui le dépasse sur certaines choses.

      Mais ça sent la fin de règne. Mistral et Meta (pourtant deux boites privées) ont sorti des modèles libres qui vient disputer leur turf.

      En Open source, ça change toutes les semaines. En ce moment, Llama-3 est le modèle libre (certains considèrent sa licence trop restrictive pour être considérée libre, mais perso je considère que ça va) qui a les meilleures performances, y a un mois c’était la série de Mistral. La série des Command R pourrait être les prochains à monter.

      Pour suivre cette course hippique et épique, le meilleur classement reste sûrement l’arène LMSYS où des gens évaluent les modèles en aveugle.

      Il faut garder à l’esprit qu’il y a un aspect qui “handicape” les modèles libres: ils tentent de rester petits. Ils bénéficient de la communauté open source si beaucoup de monde peut les faire tourner. Un modèle à 7 milliards de paramètres (la taille la plus populaire) ou à 70 milliards (la taille considérée “max” pour la commu) va avoir du mal à concurrencer un modèle comme GPT-4 qu’on estime avoir 1700 milliards de paramètres.

      En intelligence par paramètre dans le modèle, l’open source gagne de loin.

  • pseudo@jlai.lu
    link
    fedilink
    Français
    arrow-up
    4
    ·
    2 months ago

    Les enjeux environnementaux et énergétiques ont-ils une influence sur la trajectoire de la recherche en IA ? Y a-t-il des efforts pour rationaliser la complexité des algorithmes d’IA ou les économies se font sur l’améliorer des processeurs ?

    • keepthepace_@jlai.luOP
      link
      fedilink
      Français
      arrow-up
      4
      ·
      2 months ago

      Je ne suis pas sur de ce que tu demandes. La plupart des modèles open source publient le bilan carbone de leur entraînement. Le plus gros (llama3) semble avoir émis l’équivalent d’un aller-retour international en avion. Ce qui est très faible pour les retombées attendues, ne serait-ce qu’en climatologie. Je pense qu’une réunion du GIEC émet plus.

      Y a-t-il des efforts pour rationaliser la complexité des algorithmes d’IA ou les économies se font sur l’améliorer des processeurs ?

      Ça va dans les deux sens. On attend de pied ferme la prochaine génération de circuits spécialisés, mais en attendant on tente d’améliorer les perfs des petits modèles. Pas mal de gens préfèrent fine-tuner (spécialiser) un petit modèle que d’utiliser un gros modèle générique. Le coût économique et l’impact écologique se rejoignant, c’est une tendance qui n’a pas à se cacher derrière du greenwashing.

      • zeograd@lemmy.world
        link
        fedilink
        Français
        arrow-up
        3
        ·
        2 months ago

        De tête, j’avais l’équivalent de 30 voyages continentaux d’un américain pour le bilan carbone du training de Llama3 (c’était sur hacker news, et ils vont faire leur possible pour ne jamais utiliser d’unités métriques)

        • keepthepace_@jlai.luOP
          link
          fedilink
          Français
          arrow-up
          3
          ·
          2 months ago

          Oh je pense que c’est plus, ou alors ils ne parlent que de la version 8B.

          https://huggingface.co/TechxGenus/Meta-Llama-3-8B-GPTQ

          Pretraining utilized a cumulative 7.7M GPU hours of computation on hardware of type H100-80GB (TDP of 700W). Estimated total emissions were 2290 tCO2eq, 100% of which were offset by Meta’s sustainability program.

          Note: c’est ce que Meta rapport, je sais pas si c’est vérifié indépendamment.

          Note 2: Le training n’émet pas de CO2 directement, il consomme de l’électricité. Absolument rien n’empêche exactement le même datacenter d’avoir zéro émission, c’est purement une question de transition de la production électrique.

  • Pandemonium@jlai.lu
    link
    fedilink
    Français
    arrow-up
    5
    arrow-down
    1
    ·
    2 months ago

    Les gens ne savent se projeter.

    On parle beaucoup d’agriculture biologique, de la nécessité de réduire les pesticides, mais ça demande du travail laborieux et manuel pour supprimer les mauvaises herbes. Aujourd’hui ce sont des personnes esclavagisées venus de pays pauvres qui font ce travail de fourmi. Ce genre de problèmes pourra être résolu par la robotique.

    De même on pourrait supprimer le métier infamant de femme/homme de ménage, et toute sorte de métiers que personne ne veut faire.

    De la même manière qu’il existe des gens qui se sont instruits grâce à la radio, la télévision et internet, je suppose qu’il y a également une partie de la population qui saura profiter de cette aubaine pour créer une société nouvelle, plus égalitaire et libre. En revanche je ne fais guère d’illusion pour l’autre partie de la population.

    • calimero289@jlai.lu
      link
      fedilink
      Français
      arrow-up
      1
      ·
      2 months ago

      Pour certains domaines, la robotisation est effectivement une aubaine (ligne de production industrielle par exemple, histoire de remplacer charlie chaplin). Par contre l’argument pour l’agriculture est relativement faux. C’est drôle de voir mentionné l’agriculture biologique comme cause d’esclavagisation de la main d’oeuvre. Alors certes, il faut plus de main d’oeuvre en AB, mais la très grande majorité des fermes en agricultures biologiques sont justement contre l’esclavagisation de la main d’oeuvre (même si effectivement, cela n’est pas du tout une obligation dans le cahier des charges), tandis que les fermes en conventionnel au contraire on tendance à devenir très grande, et nécéssiter beaucoup de main d’oeuvre qu’ils esclavagises.

      Et puis la valeur ajoutée d’une production agricole est très faible, beaucoup trop pour pouvoir se permettre d’utiliser des robots, dont la fabrication nécéssite beaucoup de ressources et donc un coût qui sera toujours plus élevé pour qu’une ferme puisse se le permettre. Et encore, les robots actuellement bénéficie beaucoup de la main d’oeuvre esclavagisée directement dans des pays plus pauvre que le nôtre. J’entend souvent les gens me dire ça, que bientôt des robots désherberont à ma place, que ça sera la panacée. Actuellement pour rentabiliser les robots de désherbage, il faut faire des grandes surfaces de la même cultures (ce qui apporte d’autres problèmes), mais même avec des grosses améliorations technique, il sera très difficile d’être efficace au niveau consommation de ressources pour le robot par rapport à production agricole.

      On pense souvent que l’agriculture est plus pauvre que le reste de la société, mais en fait c’est plus le schéma inverse. La société de consommation (et donc de production) à permis une envolée des richesses (principalement en sur-exploitant les ressources en matières premières et en main d’oeuvre des ex-colonies…), suaf dans l’agriculture, ou certes les rendements on bien augmenté, mais ou l’on reste limité par les lois de la nature, bien plus que dans d’autres domaines.

      Cela ne veux pas dire que toute technologie est inutile en agriculture. La gestion automatisée des irrigations permet des gros gains par exemple. Mais c’est relativement simple de construire les programmateurs. J’ai du mal à imaginer comment un objet aussi complexe qu’un robot puisse un jour être vraiment efficace économiquement (actuellement c’est surtout les aides à l’investissement, et les aides aux start-up de robotiques qui compensent), ni même écologiquement.

      Il vaut mieux changer notre système agricole pour obtenir des petits modèles ou on désherbe des petites surfaces, et donc on a pas une personne dont le job à temps complet c’est de se casser le dos à désherber, mais quelqu’un dont c’est une petite partie du temps de travail, ce qui est vachement moins fatiguant !

  • pseudo@jlai.lu
    link
    fedilink
    Français
    arrow-up
    3
    ·
    2 months ago

    J’entends souvent parler de droits d’auteur est d’IA générative. Peux-tu nous en dire plus ? On parle souvent de risque de violations du droit d’auteur si l’IA reproduit des contenus protégé mais est-ce que la question du droit d’auteur ne se pose pas dès l’utilisation de données protection pour l’entrainement, la validation et le test de notre modèle ?

    • keepthepace_@jlai.luOP
      link
      fedilink
      Français
      arrow-up
      3
      arrow-down
      1
      ·
      edit-2
      2 months ago

      Le droit d’auteur est déjà pas adapté à Internet, y a aucun moyen qu’il ne soit pas largué vis à vis de l’IA. J’essaye de pas trop suivre, sachant que de toutes façons ils vont nous emmerder avec des jugements perchés et sans aucune logique. Quelques éléments:

      1. Une cour US a reconnu que les images générées par des IAs n’étaient pas copyrightable, ce qui vaut sûrement (mais je ne suis pas avocat) pour tout contenu généré. Les artistes pensent que c’est une victoire, je pense que c’est super positif pour l’open source, je pense qu’ils vont surement revenir en arrière là dessus tellement ça emmerde des boites privées.

      2. Les artistes ne sont pas contents qu’on entraîne des IAs sur leurs images. Ça a l’air d’être légal pourtant. Je ne pense pas que légalement on puisse arguer que les images produites sont des produits dérivés. Y a des précédents à arguer, mais je ne suis toujours pas avocat. Moralement, je les comprends, mais je dois avouer que j’ai assez peu d’empathie pour les ayants droits qui pourrissent le net depuis les années 90 avec la lettre de la loi pour ne pas juste répondre “cheh” quand ça les emmerde. Ça fait 30 ans qu’on demande une réforme du copyright qui tienne compte des utilisations libres et non commerciales, quand vous avez envie, on en parle, mais on remet tout à plat.

      3. Une chose emmerdante pour la communauté open source est que même si on est dans une zone grise (“surement légale mais on le saura dans 15 ans quand les recours seront épuisés”) en ce qui concerne l’utilisation d’oeuvres privée: les boites privées le font derrière des portes fermées donc personne leur dit rien, mais la communauté doit assembler un dataset forcément public d’oeuvres qu’elle n’ont pas le droit de diffuser. The Pile, qui je soupçonne est utilisée par tout le monde n’est disponible que sous forme de torrent pirate. C’est chiant. Ils ont essayé d’arguer que c’est pas vraiment utilisable pour relire des oeuvres vu que c’est juste des bouts de phrases découpées dans tous les sens, mais c’est clairement une oeuvre dérivée pas diffusable.

      Pour conclure, je dirais qu’en 2024, la logique du copyright est complètement obsolète et inapplicable. Ils vont tenter de juger des trucs mais c’est tellement dépendant des juges et des avocats et de l’état US dans lequel le premier jugement va être rendu, que c’est inutile de tenter de prédire où la limite de la loi va être.

      C’est super chiant, on est dans une zone grise qui va durer des années, mais on peut pas vraiment attendre après un législateur dépassé et soumis aux lobbyistes pour donner des lignes claires avant qu’il soit trop tard.

      • Noo@jlai.lu
        link
        fedilink
        Français
        arrow-up
        3
        ·
        edit-2
        2 months ago

        Attention copyright et droit d’auteur sont différents.

        Dans les deux cas cependant personne ne peut légalement utiliser une oeuvre sans autorisation expresse de l’auteur. Donc scanner le net pour entraîner une IA sur des oeuvres sans accord des auteurs c’est illégale. Il y a pas de zone grise, c’est juste comme ça que ça marche légalement parlant.

        Il faut une législation globale sur les dataset pour entraîné les IA, pas uniquement pour permettre de respecter les volontés des auteurs, mais aussi pour pas que la techno devienne nimp’.

        ‘C’est super chiant’ = c’est la loi et c’est la volonté des auteurs d’oeuvre. C’est con ces gens qui veulent pas qu’on fasse n’imp avec leur travaux hein ?

        • keepthepace_@jlai.luOP
          link
          fedilink
          Français
          arrow-up
          2
          arrow-down
          1
          ·
          edit-2
          2 months ago

          …en France. Juridiction qui est hors sujet pour 99% des boites d’IA, y compris françaises. Je veux dire, en droit français, pendant longtemps (jusqu’aux années 2010 je crois), il n’était même pas sur que du code compilé soit copyrightable, un algo ne l’était pas et son implémentation en code ne l’était que via des hacks légaux qu’un refactoring de base pouvait faire sauter. Le droit moral d’auteur a moyen de rendre tout l’open source bancal en France. Et pourtant…

          La théorie légale, surtout sur un truc aussi mal branlé que la « propriété intellectuelle » dans le cade de collaboration internationale, avec des usages qui changent du tout au tout d’une année sur l’autre, c’est plus de la philosophie que des règles qui ont un impact réel.

          Ce qui va compter comme ailleurs c’est les jugements de tribunaux US. Et entre le fair use et les compilations de faits, et surtout les millions que peuvent mettre les boties d’IA en frais d’avocats, je pense qu’ils ont une bonne chance de n’avoir aucun problème. La loi devrait pas être un jeu de hasard sur 15 ans, mais c’est ce que c’est. Quand Google a scanné pour Google Books des millions de bouquins sans autorisation et mis des extraits en ligne ils ont gagné leur procès. Alors que bon, c’est clairement une violation, en théorie.

          C’est con ces gens qui veulent pas qu’on fasse n’imp avec leur travaux hein ?

          Ce qui est surtout con c’est que les lois actuelles l’autorisent justement. Par exemple un site comme deviantart a été utilisé pour du training et les auteurs ont découvert que l’EULA qu’ils avaient “signé” l’autorisait. Les auteurs croient que ces lois les protègent mais je pense qu’on les trompe avec ça. Le contrat social autour du copyright et du droit d’auteur doit franchement être remis à plat.

          Je n’aime pas la sauce qui monte d’opposer les ingés et les artistes. C’est contre-productif. Les artistes ne comprennent pas comment leurs oeuvres sont utilisées et ont des raisons légitimes de s’inquiéter et de critiquer ces technos, mais la propriété intellectuelle c’est un angle particulièrement mauvais et perdant pour eux.

          Il faut une législation globale sur les dataset pour entraîné les IA, pas uniquement pour permettre de respecter les volontés des auteurs, mais aussi pour pas que la techno devienne nimp’.

          Ce sera possible quand on saura définir “nimp”. Et c’est pas avec les législateurs actuels qu’on peut s’attendre à des règles intelligentes et mesurées. J’aimerais aussi qu’on parle vraiment de la volonté des auteurs, plutôt que des lobbys d’ayant-droits. Ces derniers, on sait bien ce qu’ils veulent: que chaque visionnage d’une oeuvre soit payante et sans droits associés et que toute oeuvre produire par une personne ayant vu leur oeuvre leur rapporte quelque chose. C’est pas des créateurs, c’est des rentier. La culture c’est pas ça, ça se fait en tenant compte aussi de la volonté du public. Et les modèles de génération de média y ont un rôle à jouer, mais c’est pas dans ce débat légal empli de faux-semblants et d’intérêts privés qu’on va inventer la culture de demain.

          • Noo@jlai.lu
            link
            fedilink
            Français
            arrow-up
            2
            ·
            2 months ago

            En France et ailleurs, notamment au USA un droit moral se développe, par la reconnaissance par la jurisprudence de la publication en ligne comme preuve d’antériorité.

            Le truc c’est que non la loi ne l’autorise pas. Les oeuvres d’un auteur français sont soumisent au droit d’auteur français quel que soit l’endroit du net où elles sont utilisées. Chaque oeuvres est soumise a la législation de son auteur. Donc on s’en fout d’où viennent les gens qui créer et utilisent des dataset et pas l’inverse.

            Mon poste était un peu lapidaire et je suis d’accord sur le fait de ne pas opposer les auteurs et les ingés. Mais du coup les auteurs rentiers, c’est quand même des auteurs. Faut faire gaffe avec la posture du “les vraies auteurs blablabla” contre les méchants ayant-droit rentiers. Car ça fait des lustres que les premiers soutiennent (activement ou passivement) les second majoritairement. Et je pense que quand on voit les dérives de l’Open source, notamment le fait que ce système permet aux gafam de s’enrichir grassement, on peut se demander qui du droit d’auteur français ou de l’Open source a le plus de problèmes vis-à-vis d’internet et du numérique.

            Je suis d’accord sur le fait que les lois sur la propriété intellectuelle doivent changer, pour pleins de raisons. Mais ce qui est la réalité c’est que l’évolution social ne suit pas l’évolution tech. Les techs forcent la mains depuis 30ans, mais il y a 30ans on nous promettait un web bien différents de celui qu’on a. A qui la faute? Principalement a des boites tech pas assez bâillonné et contrôler par les États. Qui poussent dés qu’elles peuvent et se justifient avec l’approbation populaire, bah ça serait pas mal que ça cesse. Tu veux entendre les vraies auteurs ? Il faut déjà casser le système qui fait que les plus riches sont les seuls a être entendu. Et pour le coup forcer a respecter les lois en vigueur ça serait un bon début. Et oui même quand c’est chiant.

            L’exemple de deviant art est parlant dans le sens où quoi ? On se rend compte que les auteurs ne lisent pas les contrats qu’ils signent ? Mais personne ne lit les cgu de tout les services en ligne qu’on utilise. Et sur les auteurs ça montre juste qu’ils ne connaissent pas leurs droits du tout. Car si c’était le cas, ils liraient plus attentivement les contrats qu’ils signent. Après je ne connais pas plus le cas, mais je doute fort que les contrats de deviant art aient pu n’être contesté par aucune législation dans le monde, vu la compléxité que ça suppose en terme de mise en conformité.

            Enfin le droit moral français rend l’Open source bancal, car l’Open source est bancal (mais ceci est un autre débat). Mais le fait de dire que jusqu’en 2010 c’était comme ci et pas comme ça, ça souligne juste la lenteur du législateur, mais ça n’invalide pas sont action pour autant.

            Désoler pour la réponse peut-être un peu décousue, je suis sur mobile. Content d’avoir la chance de parler de ça avec quelqu’un qui maitrise le sujet :)

            • keepthepace_@jlai.luOP
              link
              fedilink
              Français
              arrow-up
              2
              arrow-down
              1
              ·
              2 months ago

              Content que tu le prennes bien, j’ai trouvé ma réponse d’hier un peu agressive, désolé!

              Le truc c’est que non la loi ne l’autorise pas.

              Depuis que j’ai lu le jugement de Google contre la guilde des auteurs, où un juge donne à Google un blanc seing à clairement violer la loi (reproduire des pages de bouquins sans autorisation des auteurs) j’ai compris que la loi, elle est davantage dite par les juges que par le législateur. Si Facebook fait des trucs illégaux en France derrière des portes fermées aux US, l’interdire ne va handicaper que les efforts ouverts.

              Et je pense que quand on voit les dérives de l’Open source, notamment le fait que ce système permet aux gafam de s’enrichir grassement, on peut se demander qui du droit d’auteur français ou de l’Open source a le plus de problèmes vis-à-vis d’internet et du numérique.

              Quelles dérives? L’open source est la seule raison qui a permis d’éviter les futurs les plus dystopiques en ligne, qui a permis à internet de continuer à être relativement libre (si si, les GAFAM sont tous optionnels, c’était pas gagné) et c’est encore en majorité sur des projets open source qu’internet se base. Les combats sont toujours en cours sur plein de champs de bataille. C’est un peu perdu sur les téléphone, sur l’IA on est en train de gagner mais faut pas vendre la peau de l’ours prématurément.

              Je ne vois pas de quelle dérive tu parles? L’open source fait économiser de l’argent à tout le monde, c’est une tellement bonne idée que plein de boites privées s’y sont mises. C’est pas une dérive, c’est une volonté de base. C’est un projet qui est encore, dans son essence, anarcho-communiste (lien vers un post+commentaire qui explique ça plus en détails) Que des turbo-capitalistes y participent sans aucune concession de notre part et “donnent” des contributions est une victoire totale, pas une compromission ou une dérive.

              Le droit d’auteur (en général, pas spécifiquement le français) est ce qui a permis à notamment Google et Youtube de vendre un système centralisé comme essentiel à tout. Pendant longtemps on a eu un système très supérieur à Youtube pour voir des vidéos en ligne: P2P+VLC et j’arguerais que c’est encore une combo supérieure en terme de contenus. Ce sont les ayant droits qui ont rendu ce système illégal alors que non commercial, volontaire, non-capitaliste.

              Le web différent, il a été rendu illégal. La tech est là et toutes les libs derrière elle sont open source.

              Et pour le coup forcer a respecter les lois en vigueur ça serait un bon début. Et oui même quand c’est chiant.

              Les lois en vigueur sont si floues et mal définies qu’on ne sait toujours pas si les poids d’un modèle sont copyrightable ou si c’est un produit dérivé des oeuvres vues à l’entrainement. Y a des arguments dans les deux sens, la loi ne le dit pas, et le premier jugement rendu dépendra de la rhétorique des avocats et de ce que je juge aura mangé à midi. Et des usages en vigueur, qui sont un argument fort: c’est un noeud gordien: l’usage deviendra légal s’il est répandu. J’exagère pas, on en est là. On a des exhortations à respecter une loi dont la lettre est floue et dont l’esprit est bafoué par ceux qui nous demandent de faire la chose soit-disant morale.

              Faut faire gaffe avec la posture du “les vraies auteurs blablabla” contre les méchants ayant-droit rentiers.

              Tu admettras qu’il y a quand même une différence fondamentale entre des auteurs qui ont produit leurs œuvres et les gens qui en ont hérité parfois sans avoir même connu l’auteur. Dune, Tintin, Lord of the Ring, Ambre, et j’en passe sont des franchises mutilées par des héritiers alors qu’elles se porteraient mieux dans les mains de leurs fans. Il suffit de voir l’explosion de créativité autour des univers de Lovecraft ou de Conan Doyle quand ils sont tombés dans le domaine public pour voir que le droit d’auteur ampute la culture.

              Je veux bien entendre les intérêts des créateurs de leur vivant (et encore, le copyright original c’était 21 ans après la première publication), mais je dois t’avouer que pirater du Tintin ou du Brel, j’ai du mal à voir ça comme immoral.

              “Publier” veut dire “Mettre entre les mains du public”, c’est donner à l’oeuvre une liberté de participer à la construction de l’imaginaire collectif et de la culture. J’ai l’impression que cette composante du contrat social est un peu trop souvent oubliée.

              Mais ce qui est la réalité c’est que l’évolution social ne suit pas l’évolution tech. Les techs forcent la mains depuis 30ans, mais il y a 30ans on nous promettait un web bien différents de celui qu’on a. A qui la faute? Principalement a des boites tech

              Alors je lutte beaucoup contre cette tendance à faire de “la tech” et des “boites techs” des synonymes. Ça invisibilise toute la partie non-capitaliste de la tech, tout l’open source, et tous les activistes numériques qui crient dans le vide depuis des décennies mais qu’on est bien content de trouver quand une partie pratique du web se merdifie.

              L’évolution sociale, oui, elle suit et boit les paroles des grosses boites et ignore la voix de la “tech”, la vraie, celle des devs, ingés et des chercheurs qui la font. Je ne sais pas qui accuser en priorité, je trouve que les journalistes ont un grand rôle, mais j’ai aussi décidé que c’était aussi à moi de parler sur un mode un peu plus politique, un peu plus culturel, des sujets ouverts qui me tiennent à coeur quand j’entends trop de mensonges ou d’idées fausses à leur encontre.

              • Snoopy@jlai.lu
                link
                fedilink
                Français
                arrow-up
                2
                ·
                edit-2
                2 months ago

                J’ai un peu lu en diagonal, désolé.

                En fait, je me dis que ce n’est pas tant la question du droit d’auteur mais la rénumération des artistes vivants (Mort ça sert à rien d’avoir de l’argent). Plus globalement l’économie.

                Par exemple le soustitrage automatique a été pour moi une révolution pour l’accès à l’information. En parallèle ça met au banc les soustitreurs et soustitreuses.

                Cependant, personne ne seraient capable de soustitrer toutes les vidéos du web, et on ne serait pas capable de tous et toutes les rénumerer.

                De la même manière que les maraichers ne sont pas rénumérés en cas de perte de leur production malgré leur travail. (sauf AMAP)…ou encore les actifs qui cotisent pour les retraités…ya plein de choses comme ça.

                En dehors de l’IA, c’est la notion de travail = salaire qu’il faut détruire.

                • Noo@jlai.lu
                  link
                  fedilink
                  Français
                  arrow-up
                  2
                  ·
                  2 months ago

                  Il y a un vrai sujet sur le fait de décorréler la rémunération de la production, mais ça ne concerne pas que les auteurs.

                • pseudo@jlai.lu
                  link
                  fedilink
                  Français
                  arrow-up
                  1
                  ·
                  2 months ago

                  Par exemple le soustitrage automatique a été pour moi une révolution pour l’accès à l’information. En parallèle ça met au banc les soustitreurs et soustitreuses.

                  Je suis d’avis que ce qui mets au ban les soutitraires, c’est moins l’outil automatique que l’étroitesse d’esprit de certain. Puisqu’on dispose d’une technologie qui peut fournir en grande quantité un travail de qualité moyenne à faible coût, on exclus définitivement de s’offrir parfois les services de qui peut fournir un travail de haute qualité, en petite quantité, pour un prix élevé. Sachant portant que le prix des soutitraires étaient déjà élevé auparavant.

              • Noo@jlai.lu
                link
                fedilink
                Français
                arrow-up
                2
                ·
                edit-2
                2 months ago

                Le truc c’est que tu confond les législations, au US oui les tribunaux font en large partie la lois, mais ça n’est pas le cas ni en France, ni en Europe. Donc ce que tu racontes ne concerne pas tous les auteurs et pas les auteurs français. Du coup même si je te sors un contre-exemple, vu que tu mélange les juridictions et les procésus qui permettent de parvenir aux jugements tu pourra toujours t’en tirer.

                Le droit d’auteur francais il dit : tout ce qui n’est pas prévus par la loi et/ou qui est réalisé sans consentement de l’auteur est interdit. C’est pas flou du tout. C’est flou seulement si le but est de jouer au con.

                Dans la questions de l’IA, il y a le fait que les seuls outils sur le web qui permettent de respecter les volontés des auteurs sont les licences libres et ouvertes, c’est pour ça que les boites tech sont des pirates, c’est pas les lois sur la PI qui les emmerde, c’est le fait qu’il y des alternatives pour la construction de dataset dont elles ne veulent pas se servir en les respectant complètement.

                Les problèmes de l’Open source rapido : absence d’historicité, sans obligation de paternité on ne sait pas qui a fais quoi. On ne sort pas les oeuvres du système capitaliste (qui se conjugue en l’occurrence très bien avec ton anarchie communisme) grâce a l’absence de clause share alike. Enfin sans auteur, plus de responsabilité de l’auteur sur son oeuvre (argument du “c’est la communauté qui veut ça hein”). L’Open source c’est libertaire et libertarien, anar ok, communiste : sûrement pas!

                L’Open source et le mouvement libriste ne peuvent exister sans les législations actuelles sur la PI, ces mouvements s’appuient directement dessus même. C’est pas une opposition, ce sont des usages que permettent les lois.

                Les techs devraient comprendre que la société évolue plus lentement sur ses sujets et qu’elle a besoins d’un minimum de recul sur les pratiques pour créer de la législation. Dans le même temps les boites techs devraient suivrent les lois. C’est plus clair ? J’ai pas eu l’impression de faire des amalgames pourtant…

                Après c’est bien d’avoir sa propre lecture des choses (notion de publication), mais historiquement dans le droit d’auteur il y a une notion de responsabilité de l’auteur sur sa production. C’'est pas parce qu’une oeuvre est publiée que l’auteur doit pouvoir se laver les mains de ses effets ou de se qu’elle devient. Or c’est exactement ce que tu décris : un auteur irresponsable qui peut faire n’imp sans en assumer les conséquences vu que “l’oeuvre appartient au publique”. Ça, ça s’appelle dissocier l’artiste de son oeuvre. Je suis pas sur que ça soit une bonne chose de revenir en arrière sur ce point…

                • keepthepace_@jlai.luOP
                  link
                  fedilink
                  Français
                  arrow-up
                  2
                  arrow-down
                  1
                  ·
                  2 months ago

                  Le droit d’auteur francais il dit : tout ce qui n’est pas prévus par la loi et/ou qui est réalisé sans consentement de l’auteur est interdit. C’est pas flou du tout. C’est flou seulement si le but est de jouer au con.

                  Bah si c’est flou. C’est prévu par la loi de pouvoir regarder une oeuvre et de s’en inspirer. C’est interdit d’en faire une oeuvre dérivée. Miyazaki a eu le droit de regarder Le Roi et l’Oiseau et de s’en inspirer pour ses oeuvres aériennes et oniriques. Un auteur n’a heureusement pas le droit de t’interdire de nourrir ton imaginaire avec ses oeuvres.

                  Tu as également le droit de faire des stats sur le nombre d’apparition de Haddock dans Tintin. De faire des analyses de la colorimétrie, des apparitions de mots, etc. et c’est pas considéré comme une oeuvre dérivée et l’auteur ne peut l’interdire. Un modèle de génération d’images fait ça à l’échelle au dessus, en faisant des stats au niveau du coup de crayon. On peut arguer qu’il est d’un coté ou de l’autre de la ligne. C’est pas jouer au con: la loi est totalement floue là dessus.

                  Les problèmes de l’Open source rapido : absence d’historicité, sans obligation de paternité on ne sait pas qui a fais quoi. On ne sort pas les oeuvres du système capitaliste (qui se conjugue en l’occurrence très bien avec ton anarchie communisme) grâce a l’absence de clause share alike. Enfin sans auteur, plus de responsabilité de l’auteur sur son oeuvre (argument du “c’est la communauté qui veut ça hein”). L’Open source c’est libertaire et libertarien, anar ok, communiste : sûrement pas!

                  Euh… quoi?

                  1. Historicité: les projets open source publient généralement tout l’historique de leur développement. Tu peux littéralement dire qui a écrit quelle ligne d’un projet. Dans le dernier auquel j’ai contribué je devais même signer cryptographiquement chaque commit. C’est le seul endroit à ma connaissance où ça marche comme ça! Aucun éditeur de boite privée ne te donnera un tel détail.

                  2. Les clauses “share alike” ça a été inventé par le mouvement open source. Les licences GPL à l’origine, que perso je préfère aux licences BSD et Apache qui permettent de fermer le produit plus tard. Un soft sous la GPL, si, il est largement sorti du système capitaliste car il ne peut plus devenir un “produit de propriété intellectuelle”. Il peut être utile à une boite capitaliste, principalement parce que ça diminue leurs coûts, mais l’écosystème open source existe en dehors ou en parallèle du capitalisme

                  3. Le fait que l’on possède collectivement les moyens de production logiciel, j’ai la faiblesse de penser que c’est pas mal communiste si. C’est pas anti-capitaliste en soi, c’est un modèle post-capitaliste, non-capitaliste, qui pour beaucoup de monde semble être l’état stable logique de n’importe quelle tech: ouverte, possédable par tout le monde.

                  L’Open source et le mouvement libriste ne peuvent exister sans les législations actuelles sur la PI, ces mouvements s’appuient directement dessus même. C’est pas une opposition, ce sont des usages que permettent les lois.

                  Oui, parce que l’open source est un mouvement né de l’opposition à la propriété intellectuelle et qui a décidé de combattre cette dernière par la subversion. La plupart des libristes seraient heureux qu’on retire toute propriété intellectuelle à tous les programmes. Tu n’imagines pas à quel point l’informatique serait différente si on avait le droit de s’échanger des binaires propriétaires sans être accusés de piratage. À quel point on pourrait facilement rendre plein de systèmes plus compatibles et secure.

                  L’open-source est un pis-aller, un compromis auquel nous a forcé la propriété intellectuelle.

                  Les techs devraient comprendre que la société évolue plus lentement sur ses sujets et qu’elle a besoins d’un minimum de recul sur les pratiques pour créer de la législation. Dans le même temps les boites techs devraient suivrent les lois. C’est plus clair ? J’ai pas eu l’impression de faire des amalgames pourtant…

                  C’est quoi “les techs”?

                  Et sur le web, y a 30 ans de “recul sur les usages” sans qu’on ait remis à plat le copyright (qui a beaucoup plus d’influence à l’échelle mondiale que le droit d’auteur). La législation est allée dans le sens des boites qui avaient les moyens de violer la loi parce qu’in fine le législateur a été incapable de comprendre que streaming et download sont la même chose. Cette semi-liberté a été conquise en démontrant des usages qui ont demandé à ignorer la loi. C’est ça le problème. “Obéissez à la loi mais démontrez les usages que d’autres lois pourraient permettre” est une contradiction et c’est pourtant comme ça que ça a évolué.

                  Alors je suis d’accord que c’est nul, que la loi devrait comprendre et protéger les usages qui vont dans l’intérêt du plus grand nombre, mais ni en France, ni aux US ça ne marche comme ça. C’est de la défense des intérêts de ceux qui crient le plus fort, avec un fort bonus au conservatisme quand les choses sont trop compliquées.

                  Les nouveaux usages, on doit les démontrer en marge des lois. La génération d’image en est un bon exemple: si tout le monde prenait ton acceptation de “ne faisons surtout rien qui puisse être considéré un jour illégal”, personne ne prendrait aux sérieux la possibilité de génération d’images de qualité professionnelle. Le débat ne se poserait jamais et la techno n’aurait jamais émergé.

                  C’est un problème sérieux, et les deux seules positions semblent être “interdisons tout” et “ignorons les lois”. J’aimerais bien qu’on réinstalle un peu le dialogue entre ces deux positions extrémistes qui n’ont pas l’air de comprendre ce que l’autre fait.