• 73 Posts
  • 1.7K Comments
Joined 2 years ago
cake
Cake day: June 15th, 2023

help-circle

  • keepthepace@slrpnk.nettoAI@lemmy.mlAI Needs Your Help!
    link
    fedilink
    arrow-up
    1
    arrow-down
    1
    ·
    15 hours ago

    This appears to be the only currently-operating (though the most recent news about it I can find is from 2023) underwater datacenter project, and it is in a certain country where it is somewhat easier for long-term environmental concerns to supersede capitalism’s profit motive. It would be great if they can make it an economically viable model which becomes commonplace, but until they do… datacenters today are still extremely thirsty.

    I think you miss the reason why Microsoft started that and why I think Chinese businessowners are funding this: it is profitable.

    When you own a datacenter cooling down is costly. It costs water and power. Therefore you limit cooling as much as you can but it is a balancing act: electronics like cold environments. The more you cool down, the less hardware failures you have. Submerging datacenters allowed for less components failures and less cooling expense.

    The reason why these are not widespread yet is because of an unpopular reason that usually gets me downvotes when I mention it: datacenters cooling is currently not a huge problem either economically or ecologically in most places and there are tons of places with a water surplus that don’t mind this use. This is an artificial problem that AI haters try to present as a blocker but this is not a reasoning, this is a rationalization: they don’t like AI therefore the resources it uses must be problematic.





  • Underwater experiments in 2020

    Real world deployement in 2021

    Something that people need to understand is that AI companies (let’s talk about them instead of “AIs” that have no agency) are on a race to use less energy and less water per request for a very simple and selfish reason: it costs money.

    Datacenters put forward their energy efficiency not because of environmental concern or even for greenwashing, but because it means “We have lower costs. We are efficient”.

    GPT-3, that most publications use as a baseline for their calculations, is from 2020. It is a bad and inefficient model. OpenAI brags about their models becoming bigger and bigger, but many suspect that what they sell is actually a distilled version running on much smaller models. There are many tricks in the book that were invented since 2020 to improve the inference performance of models.

    I’d be very wary of publications that extrapolate energy use of AI models (per request) going up. That’s clearly not the trend.


  • keepthepace@slrpnk.nettoAI@lemmy.mlAI Needs Your Help!
    link
    fedilink
    arrow-up
    1
    arrow-down
    1
    ·
    2 days ago

    The “AI” I run locally on my own GPU takes 0 mL of water per request. This paper assumes that AI and GPT (more specifically GPT-3) are interchangeable terms. It is biased, it is a negation of the FOSS world and it is weirdly aligned with the corporate hype around the subject. If even opponents of OpenAI accept their propaganda, we are in bad shape.

    “AI” does not need water and does not need to emit CO2. It needs electricity, and we know how to produce electricity without emitting CO2 and using water. OpenAI and big datacenters do not, but they are the problem, the tech itself is not.

    Please don’t let companies use the cheap trick of using “AI” as a puppet to present their own interests and their own way of doing things as the only way to do “AI”.


  • keepthepace@slrpnk.nettoFrance@jlai.luIA grand danger
    link
    fedilink
    Français
    arrow-up
    1
    arrow-down
    2
    ·
    2 days ago

    Mais est ce que c’est pas les même que ceux qui pensent que Google leur donne toujours la bonne info, et avant eux ce qui pensaient que “je l’ai vu à la télé” était un argument valide?

    Des machines qui nous balancent des affirmations fausses, c’est vieux comme l’imprimerie. Le problème c’est pas les caractères imprimés, c’est l’enseignement de l’esprit critique.


  • keepthepace@slrpnk.nettoFrance@jlai.luIA grand danger
    link
    fedilink
    Français
    arrow-up
    4
    arrow-down
    3
    ·
    3 days ago

    Elle aide aussi à analyser des milliers de documents dans les cas de corruption, aide à combler les trous dans les sanctions internationales, à sauvegarder les langues anciennes, à briser la barrière de la langue et traduire dans des centaines de langages différents des informations. Elle lit pour les aveugles, elle écrit pour les sourds. Elle aide les scientifique à analyser les virus et les protéines, les flux de plasma dans les tokamaks, les images de la terre ou des galaxies lointaines, à affiner les modèles environnementaux. Elle explique à des enfants ou à des adultes les sujets compliqués qu’ils veulent explorer.

    L’IA change plein de règles, mais ne voir que ce qui change pour le mal, c’est un biais marqué.

    Et surtout, j’en ai marre d’entendre que tout est entre les mains de quelques entreprises alors que la majorité des bons modèles sont ouverts et peuvent être utilisés par n’importe qui sans passer sous les fourches caudines de la moindre boite. La techno n’est pas à conquérir, elle est à ramasser.




  • RFC 8280

    Marrant celui là, je connaissais pas!

    Bah c’est comme tout: il faut critiquer mais pas depuis une position d’ignorance. Et il ne faut pas croire que les gens à qui on s’oppose sont une boussole qui indique le sud. Il y a forcément des bonnes choses dans l’IA et ça va se retrouver dans leurs argumentaires.

    Et je le rejoins sur le fait que dans la pratique d’automatiser des politiques de droite, le problème c’est pas les outils d’automatisation.




  • Beaucoup de fearmongering là dessus mais la réalité est que non, les coûts d’utilisation chutent à grande vitesse, et qu’ils ne sont déjà pas énorme quand tu vas chercher les chiffres réels et absolus.

    Pour quels gains réels pour l’humanité ?

    • Les gains, je les vois dans mon domaine, la programmation, où le boost de productivité est réel et immense. Beaucoup d’applications simples (et de plus en plus complexes) qui autrefois demandaient des jours à des pros sont à la porté d’un débutant qui a quelques heures à tuer.
    • Le problème de la reconnaissance audio est en gros résolu (ce qui permet à des sourds d’avoir des conversations normales avec des lunettes qui retranscrivent).
    • Celui de la lecture également (même s’il faudra encore peaufiner un petit peu là) avec les VLLM capables de comprendre une image, que ce soit une photo ou le scan d’un document.
    • La traduction automatique est maintenant aussi profonde dans sa compréhension qu’un traducteur qui serait à disposition du lecteur.
    • De nombreuses personnes apprennent d’ores et déjà des langues grâce à ces modèles.
    • AlphaFold a résolu le problème de repliement des protéines, aux applications médicales multiples
    • Des programmes similaires font avancer la recherche sur la fusion rapidement

    J’ajouterais que le bilan carbone de l’entraînement d’un de ces modèles est de l’ordre de ce qu’émettrait une seule conférence internationale sur un de ces sujets, avec des personnes venant de partout dans le monde: Pas négligeable, mais clairement bien moins émetteur que ce que ça demanderait de faire la même chose sans eux.

    On est en train de mettre au point les applications génériques pour la recherche, le médical, l’enseignement. Je sais qu’il y a de la hype, des histoires d’horreur de déploiement débiles et hâtifs mais si la hype existe c’est parce qu’il est très clair que les bénéfices attendus sont énormes à condition de faire les choses correctement. Avoir un tuteur multi-spécialistes adapté à chaque élève, avoir un toubib et un avocat à disposition via une app à 5 euros, et avoir un assistant capable de digérer les 100 publis par jour dans un domaine de recherche, il est évident que ça va avoir des effets bénéfiques d’une échelle incroyable.

    Alors oui, la hype est irritante, les patrons des boites d’IAs ont des têtes à claque et au moins un d’entre eux est un fasciste assumé. Le fait que le gouvernement en fasse sa nouvelle excuse pour détruire des services publics aide pas à rendre le domaine sympathique, mais bordel, j’aimerais bien voir une fois, juste une fois, un article en français qui explique que malgré les problèmes, y a de vrais promesses de progrès, qu’elles sont immenses et qu’elles sont crédibles.

    S’il y a tant de chercheurs et d’ingés idéalistes dans le domaine, c’est pas parce qu’on s’excite sur la valorisation boursière d’openAI. C’est parce que l’AGI renferme la promesse de résoudre plusieurs des fléaux de l’humanité, dont le travail, et permettre des modèles de société qui étaient jusqu’alors de pures utopies. À force de ne faire que des articles sur Terminator et la destruction du service public, on perd de vue les raisons même du domaine de l’intelligence artificielle dans la recherche.